Análisis: Pokémon Sol y Luna para Nintendo 3DS

Análisis: Pokémon Sol y Luna para Nintendo 3DS

Pasados tres años tras la anterior generación, este mes de noviembre aterriza Pokémon Sol y Luna. Un juego cuyo público objetivo no es otro que el nostálgico que no ha abandonado nunca la franquicia.

La versión de prensa de Pokémon Luna fue lanzada hace una semana, y tras el amargor que me dejó la demo (qué cosa más mala), me hice con mi copia. Sin más dilación, ahí va mi análisis del juego, en el que he intentado no soltar spoiler alguno.

alola-1

Akala, la segunda isla del mapa. Aunque parezca pequeña desde arriba, el conjunto de las islas tiene pinta de tener mayor superficie que los juegos anteriores.

En esta nueva entrega, viajaremos por Alola, una región basada en las islas de Hawaii, con cuatro islas de lo más variopintas y con un aspecto gráfico que ha mejorado bastante desde X e Y. La nueva historia es sustancialmente superior a la media de la que nos tienen acostumbrados. Si X e Y estaban a la altura de Perla y Diamante, este está más cercano a la historia de Blanco/Negro, que sin duda es la mejor con diferencia. Esto es un paso atrás de Game Freak y un movimiento que puede decir mucho. Blanco/Negro tenía una historia bastante adulta, mientras que X e Y tenía la peor y la más infantiloide en años. Los malos en esta edición están enfermos, toman pueblos, viven en Ghettos. Los objetivos de dichos enemigos tienen sentido, y dichas organizaciones criminales nos recordarán mucho a las bandas Cepo y Cipher de Pokémon Colosseum. Es por ello que en lo que a guion se refiere, Sun/Moon tiene un más que merecido notable en este aspecto. Sería un paso magnífico que siguieran en el futuro por esta línea, ya que por mucho que se empeñen, su público objetivo lo consiguieron en los 90 (por lo menos en América y Europa), ha crecido con ellos. Desarrollando juegos patéticos como X e Y simplemente van a perder ese público, ya que muy a duras penas van a captar público de menor edad cuando tienen montado el metagame que tienen montado.

 

Hablando del metagame, recuerdo haber leído una entrevista a principios de 2014 en el que Junichi Masuda decía que se les había ido de las manos el metagame y para séptima generación iban a simplificarlo. Según él, habían demasiados ataques, demasiadas habilidades y demás. ¡Dicho y hecho! En esta nueva generación han metido 100 ataques nuevos, tropecientas versiones alternativas de los pokemon originales de Kanto, varios millones más de objetos, Ultraentes, Movimientos Z… También han modificado stats de muchísimos pokémon, ataques y habilidades centradas para regular el competitivo. Por ello, reitero en lo del paso atrás. Como digo, no han cumplido su intento de simplificar el metagame, sino que lo han complicado aún más. Comprender el metagame vuelve a ser una tarea importante en este juego, así como ya lo era en Blanco y Negro. Sacrificar turnos para subir stats o planificar una estrategia es crucial para cumplir los objetivos del juego. Se puede ganar a fuerza bruta, claro está, pero requerirá que tengamos un equipo bastantes niveles por encima de nuestros rivales. En mi caso, haciendo uso de ataques de boost como Maquinación (para subir el ataque especial) o Encanto (para bajar el ataque del rival), he estado en todo momento entre 8 y 10 niveles por debajo de los rivales. Recordemos que ahora la IA piensa de verdad, por lo que comprender la mecánica del juego ya no es cosa de niños. Por otro lado, el hecho de hacer versiones alternativas de los pokémon originales es simplemente para recuperar público latente, no para captar a nuevos jugadores. Para eso último ya está Pokémon GO.

 

alola-forms

Todas las versiones alternativas de Alola presentes en este juego son Pokémon introducidos en primera generación cuyo uso ha quedado en segundo plano.

 

Respecto a la nueva Pokédex, se divide en cuatro partes, una por cada isla de Alola. También hay que diferenciar ahora entre Pokémon y Ultraente (Ultra Beast en inglés). ¿Qué es un ultraente? Os estaréis preguntando. Un ultraente (sin hacer ningún tipo de spoiler) es lo que ocurre cuando en el departamento de creatividad de Game Freak se dan cuenta de que ya hay hasta un legendario protector del puchero. Y claro, un legendario es una cosa muy seria, así que mejor decimos que es un bicho de otra dimensión y que protege su mundo. Y lo llamamos ultraente. Probablemente al máquina que se le ha ocurrido lo habrán ascendido y todo. Lo dicho, un ultraente es exactamente lo mismo que un legendario,pero con distinto nombre. Aunque en los trailers aparecían con nombres en clave (UE-01, UE-02), en el juego los veremos con sus propios nombres, como Nihilego.

nihilego

UB-01 o como cierto personaje lo bautiza, Nihilego. Pieza clave en la trama del juego.

Por otro lado, las nuevas incorporaciones de esta generación en lo que a pokémon se refiere son un poco pobres. Es con diferencia la pokédex más lenta que haya sacado GameFreak jamás; apenas dos pokémon pasan la la categoría “Fast Phisical/Special Sweeper”. Si bien los inciales no son una maravilla, el resto tampoco. Velocidades lentas, stats defensivos altos pero sin llegar a hacer un pokémon redondo. Si en sexta generación teníamos pokémon como Goodra, una magnífica pieza de ajedrez en todos los sentidos y customizable como él solo, aquí nos encontramos con que siempre falla algo: la habilidad, la inservible velocidad, ataques que no sirven para hacer estrategia o una cantidad inútil de PS con el que no se puede hacer gran cosa. Mirando los stats del datamining del juego, da la impresión de que lo han hecho a propósito. Quién sabe, a lo mejor les da envidia que el juego competitivo extraoficial de Pokémon sea más importante y más reconocido que el oficial de Nintendo. Como el oficial (el VGC) solo permite la competición en batallas dobles, ahora podemos comprender por qué no han hecho ni un solo pokémon que sirva en combates individuales (el meta más usado en Smogon, es decir, en el competitivo extraoficial). Al fin y al cabo, más que un juego de estrategia, Pokémon es un negocio.

type-null-silvally

Código Cero (Type: Null) y Silvally (Type: Full). Dos incorporaciones que sobre el papel son geniales, pero que tienen un moveset con el que no se puede hacer ninguna estrategia creativa.

Respecto a los diseños, hay de todo. Hay diseños mágníficos y otros que parece que cada dibujante ha hecho su trabajo en casa y luego lo han juntado. Pero sin duda lo más llamativo son los nombres. Tanto de los pokémon como de los personajes. Al estar la región basada en Hawaii, los nombres de sus pokémon también están ligados a tradiciones hawaianas. Si ya la pokédex de quinta generación tenía pokémon nombres difíciles de recordar (como Deino, Zweilous o Hydreigon del alemán), estos nuevos sin duda se llevan el Óscar a la complicación.

mimik

Mimikiu es una coña de Game Freak hacia ellos mismos. Flipado por el merchandising de Pikachu, este pokémon Fantasma/Hada decide disfrazarse de él. Es muy mono, ¿verdad? Entonces no te importará que se le raje el disfraz y se le rompa el cuello cada vez que pierda su habilidad. Da muy mal rollo.

Game Freak parece haber puesto todos sus esfuerzos en este juego para cambiar las mecánicas que aburren a los jugadores. Por primera vez en mucho tiempo, han escuchado. Y eso se nota en el juego. Tras 20 años, la desarrolladora se ha dado cuenta que el principal freno del juego eran las MO. Sí, los movimientos que enseñábamos a los pokémon para poder ejecutarlos fuera de combate y romper piedras, cortar plantas o poder hacer surf. Dichos movimientos no podían ser eliminados además de que el jugador no podía caminar libremente sin depender de un pokémon esclavo que hubiera aprendido dichos movimientos. Tras 20 años, se les ha ocurrido algo mejor: las pokemonturas. Gracias a Dios, las pokemonturas hacen exactamente lo mismo que las MO (ni más ni menos), pero sin tener que destrozar el moveset de tu equipo. Y como una ficha de dominó que cae, ese pequeño paso ha propiciado muchas más mejoras. Ahora, al capturar un pokémon, recibir un huevo o cualquier interacción que implique añadir un miembro al equipo, podemos añadirlo directamente y enviar a un pokémon del equipo al PC. ¿Por qué? Porque al no llevar una MO, no te vas a quedar encerrado en ningún sitio. Tampoco se queda corto el PC, que ahora abrirá directamente en modo “Mover Pokémon”, además de disponer de un plugin para evaluar los IV’s de forma gráfica. Eso sí, en el postgame. Otro dato importante es la inclusión del minimapa en la pantalla inferior. No creo que esta mejora haya sido casualidad, sino que han tenido que implementarla a la fuerza debido al nivel de zoom al que trabaja el juego. Del aspecto técnico hablaré en el siguiente párrafo, no obstante, el minimapa mejora mucho la experiencia de juego. Son pequeños detalles que dichos de este modo parecen nimios, pero jugando se nota bastante.

pokemontura

Si en Rubí Omega/Zafiro Alfa podíamos viajar con Latios/as, aquí volaremos a bordo de Charizard. Se echa de menos poder surcar los cielos como en dichos juegos o poder obtener una pokemontura alternativa.

Respecto a la calidad gráfica del juego, como he dicho antes, se nota la mejora, pero es una lástima que haya salido para Nintendo 3DS. Si el GTA V fue la prueba máxima de cuánto se puede exprimir la potencia de la PS3, con este juego pasa lo mismo. El juego me ha recordado bastante a los Pokémon de GameCube (los mejores y sin competencia a día de hoy, y son de hace más de 10 años), pero se nota que la consola no puede más. Su pequeño ARM11 y su más que obsoleta gráfica de 133MHz tienen el cielo ganado por mover este juego. En combates dobles, se nota la falta de potencia. Lags, caídas de FPS bastante palpables… Desconozco si esto ocurre en New 3DS (yo he usado una Old), pero no debería. Parte de esta carencia de potencia de la Nintendo 3DS se puede apreciar, como he dicho antes, en el zoom. La demo prácticamente no se podía jugar porque no sabías por dónde te estabas moviendo. El zoom está provocado sencillamente porque la consola no tiene potencia para renderizar todos los objetos que serían necesarios a un nivel de zoom inferior. Y de ahí el minimapa, para que no te pierdas. Por otro lado, se han filtrado imágenes del mismo juego renderizado por una gráfica decente, y… miren ustedes mismos las imágenes. El juego, parece otro. Es por ello que no me extrañaría que el juego saliera en unos meses para Nintendo Switch. No solo eso, sino que me parecería un error que no lo hicieran.

Sol y Luna renderizados con Citra en un ordenador. Como digo, estarían desaprovechando la oportunidad de lanzar un juego con los gráficos que se merece.

 

Más allá de los pequeños cambios que he comentado arriba, el más palpable es que en esta generación no hay gimnasios, y esto influye directamente en la duración del juego. En lugar de gimnasios, en Alola vamos a tener que completar “El recorrido insular”, que no es otra cosa que emprender un viaje por las islas completando una serie de pruebas. Una vez completadas, recibiremos un cristal. Por suerte, no todas las pruebas son iguales. En algunas tendremos que adentrarnos en un determinado ecosistema y retar a un Pokémon dominante (que se sube los stats para que sea duro de matar), en otras nos tendremos que retar ante un líder, hacer una serie de fotos… También en un par de ocasiones recibiremos el cristal y será en ese momento en el que descubramos que estábamos en una prueba. La idea es sencillamente genial y choca directamente con el sistema que ha estado establecido en los juegos desde el inicio. El juego se hace mucho más ameno y el ritmo es mucho más dinámico que todo lo que hemos visto hasta ahora. Dependiendo de cuánto te entretengas, las 20 horas de juego están aseguradas.

Por otro lado, el postgame añade unas dos o tres horas más de juego, pero es sin duda lo más soso del juego. La misión que se nos encarga es aburrida y completamente repetitiva, y no se trata de otra cosa que de dar caza a los ultraentes a lo bestia. Sin nada de guion y con un hilo conductor bastante absurdo, el juego alarga su duración, pero no deja para nada satisfecho. Muchos de los ultraentes tienen diseños muy interesantes, y sus descripciones de la pokédex dan lugar a imaginar que se podría haber hecho algo grande con ellos en el juego. Sin embargo, nos limitaremos a cazarlos rollo self-service, y es por ello que me parece que el postgame es muy pobre. También tendremos acceso al Árbol Batalla, que es exactamente la misma Mansión Batalla de X e Y pero con distinto nombre. Se echa de menos algo más, como un Frente Batalla como en anteriores juegos. Completar la pokédex ya será cosa de cada uno; en este juego y a fecha de hoy, no existe pokédex nacional, cosa que agradezco, ya que conseguir los 300 para completar la pokédex de Alola ya es un reto difícil.

 

trump

Gumshoos dominante, se cubre de un “Aura Z” para subirse los stats. Luego llama a un aliado y le gana las elecciones a Hillary.

En resumen, se trata de un buen juego. Game Freak ha sabido recuperar el camino de lo que sí estaba bien hecho (hablamos de Blanco/Negro) a la vez que han sido capaces de diseñar un juego que rompe con lo establecido en juegos anteriores para no quedarse estancados. Los nuevos bichos no son una maravilla, pero eso es algo que solo importa en el juego competitivo. Por último, y a juzgar por cómo acaba la historia, no espero un DLC ni nada parecido que añada la región de Kanto al postgame, como mucha gente ha pensado. Lo que sí creo es que este juego va a tener una secuela exactamente igual que la tuvo Blanco y Negro. Tampoco me extrañaría que dicha secuela se desarrollara en Kanto. Veremos dentro de un año o dos si mi observación es buena y, sobre todo, para qué consola sale esa secuela que tanto espero.

Pokémon Sol y Luna estarán disponibles en Europa el día 23 de noviembre.

Amazon: Pokémon Sol | Pokémon Luna

 

 

 

Historias de Halloween: La manzana que desafió la ley de la gravedad.

Historias de Halloween: La manzana que desafió la ley de la gravedad.

 

El 1 de enero de 2014 recibí en casa mi MacBook Pro Late 2013. El nuevo quince pulgadas que venía a sustituir a mi anterior MacBook Pro del 2009, que ya en estado muy senil, decidí dar una jubilación como bien se merecía. El nuevo bicho era bonito, tenía una pantalla retina que quitaba el sentío y unos altavoces que sonaban mejor que bien. También era muy caro y no tenía tarjeta gráfica (a pesar de que Apple se empeñó en decirnos que la Iris de Intel tenía la potencia de varios dragones medievales). Aunque no era un producto que me convenciera, mi padre acabó convenciéndome para que no dejara de usar OS X (yo tenía como alternativa comprar un Mountain), pero él, que también llevaba un porrón de años usando Mac, no me puso pegas a pagar semejante pastizal por un ordenador con un director de cine espectacular, pero sin director de fotografía.

A pesar de la ausencia de la mano derecha del director, es decir, la gráfica dedicada, el ordenador funcionaba a las mil maravillas. Al fin y al cabo, lo único que suelo utilizar son aplicaciones de Adobe, y dichos programas apenas tiran de GPU (funcionarían mejor si lo hicieran, pero Adobe ya sabemos que se ahoga en un vaso de agua). La única pega palpable era que la antena Wi-Fi se desconectaba con bastante facilidad de los puntos de acceso, y un año más tarde decidí comprar una tarjeta de red por cable para algunos momentos.

 

late13

Todo marchó genial hasta junio de 2015. Una mañana, mis dos compañeros, músicos, me despertaron a la vez, cada uno con sus respectivos clarinetes. Yo, que apenas había dormido esa noche porque estaba estudiando, me desperté muy mareado. Abrí el ordenador, lo puse en la cama y vi cómo se caía la tarjeta de red externa de la ventana (se pegaba con una ventosa, todo muy futurista). Estúpido de mi, traté de evitar una caída de metro y pico de la puñetera antena, sin darme cuenta de que… ZAS. Portátil al suelo. Era obvio. Al rescatar la tarjeta de red, había tirado del cable con mi propio cuerpo. Apenas hizo ruido. Primero porque no cayó más de 50cm, y segundo porque la caída se vio amortiguada por unas zapatillas. Lo recogí del suelo y muy acojonado, eché un vistazo a la pantalla. Todo perfecto, pensé.

Seguí usando mi ordenador tan normal hasta pasado poco menos de un minuto, cuando vi una línea verde que cruzaba la pantalla de punta a punta horizontalmente. Seguí la línea y me encontré la verdadera historia de terror: la pantalla tenía dos dedos de ancho de puro “plasma” negro en la vertical izquierda del panel.

brokenscreen

No, no es una telaraña, pero fijo que esto da más miedo.

 

Me entraron sudores fríos. Comencé a buscar por todos lados cómo reparar eso y por cuánto. Y por Internet solo veía precios que parecían mitológicos. Pasada una hora, salí de casa y me fui al GoldenMac más cercano. Me proporcionaron un número de teléfono del SAT  de Apple y llamé. Yo ya sabía lo que me esperaba, así que decidí grabar la llamada. Os prometo que al señor que estaba al otro lado le tembló la voz cuando me dijo que la reparación costaba 900 euros.

El ordenador no era inutilizable. Sólo tenía una zona muerta de la pantalla. No obstante, pillé un SSD, varios destornilladores y demás artilugios y me dispuse a dar una segunda oportunidad al MacBook Pro del 2009, es decir, al que ya había jubilado. El retina roto no quería ni mirarlo, y no fue hasta mediados de verano de 2015 cuando decidí volver a utilizarlo. Después de ese momento, me los iba turnando, a pesar de que el destrozo de la pantalla cada día iba a más: las líneas verdes horizontales iban naciendo, y en algunas ocasiones podía ver con mis propios ojos cómo las líneas pares del panel habían muerto todas. Dicho sea de paso, la pantalla no tenía ningún signo de rotura por fuera. No tenía el cristal roto y el marco apenas tenía un golpecito por abajo, justo en el pliegue, aunque no fue hasta meses después cuando encontré la muesca. Es realmente difícil de encontrar.

Aunque mi padre accedía a pagar por la reparación, yo me negué en rotundo. Me parecía un auténtico abuso por parte de Apple pedir semejante bestialidad por un panel que tiene de profesional lo que yo de astronauta. En Ebay, el repuesto costaba unos 350€, y yo no me quitaba la idea de repararlo por mi mismo. Abróchense el cinturón, porque la historia de terror no ha hecho más que comenzar.

Un día de octubre de 2015, decidí informarme de cómo arreglar mi destrozo. Al fin y al cabo la electrónica no se me da nada mal. El MacBook de 2009 había tenido más intervenciones quirúrgicas que el mismísimo Alfredo Di Stefano, así que estaba seguro de que si seguía las instrucciones al pie de la letra, conseguiría mi objetivo. No obstante, recordaba con total claridad uno de los puntos que me echaba para atrás cuando yo no quería comprar el MacBook. Su reparabilidad. Dicho MacBook que me enfrentaba a reparar tuvo la nota más baja de reparabilidad que jamás había dado iFixit a un ordenador (hasta años más tarde, que Apple se superó a sí misma). No obstante, tenían un manual de cómo cambiar la pantalla. Lo único que había que mirar era el conector de la cámara. Si tenía un conector de 6 pines, había que comprar una pantalla, y si tenía uno de 12, pues un modelo distinto. Me puse manos a la obra. Quité la tapa (con sudor, porque los tornillos Pentalobe de Apple son una puñetera aberración y uno de ellos me deformó el destornillador marca iFixit) y miré la placa para localizar el conector. Desmonté la tarjeta de red y allí estaba el conector. Pillé mi spudger de plástico y le apliqué una fuerza diminuta para soltar el cable y poder contar los diminutos pines del cable (que son absolutamente microscópicos). Y en ese mismo instante, en lugar de soltarse el cable… se soltó el socket que lo unía a la placa. No me podía estar creyendo lo que veían mis ojos.

Aquí el destrozo. Más tarde limpié la soldadura, quité con pinzas los trozos de metal sobrantes... Y nada.

Aquí el destrozo. Más tarde limpié la soldadura, quité con pinzas los trozos de metal sobrantes… Y nada.

 

A tomar por culo la cámara, pensé. Ahora sí que puedo comprar cualquier pantalla. Monté todo lo desmontado, el cable se quedó flotando, cerré la tapa y encendí el ordendor. Y en dos minutos, eso no había arrancado. Tras varios intentos, logró iniciar OS X, pero muy muy lento. Miré el monitor de actividad y vi como el proceso kernel_task estaba consumiendo toda la CPU. De hecho, consumía algo así como el 900% del tiempo de CPU, por lo que me daba a mí que el planificador del sistema no tenía ni puñetera idea de qué estaba pasando ahí.

Estuve semanas buscando por Internet. Siempre pensé que algo tan chorra se podría solucionar por software. Al fin y al cabo es como si te amputaran un dedo el pie y te dejaran de funcionar los pulmones. Tan solo era el cable de la cámara. De hecho, mucha gente solucionaba sus problemas eliminando un par de archivos del sistema, pero no en mi modelo. No existía nadie en Internet con un ordenador como el mío que hubiera arreglado ese problema (no todos tenían ese problema por haber saltado un cable; algunos lo tenían sin haber abierto nunca el ordenador). El kernel_task se había apoderado de la máquina, los ventiladores funcionaban a tope, como si el ordenador fuese a despegar, y abrir una simple ventana de Finder me podía llevar más de cinco minutos.

 

macbookairbefore

Aquí un caso similar. No tengo capturas de mi caso, pero puedo asegurar que mi kernel_task marcaba más del 900% de la CPU a veces.

 

Tras haber probado todo lo probable, me rendí. Lo último que recuerdo fue extraer todos los archivos del ordenador (que tardó un par de días) y reinstalé OS X (otras 12 horas perdidas). El problema siguió ahí, así que, como me dicho antes, simplemente me rendí. No merecía la pena seguir malgastando mi tiempo.

Mantuve mi MacBook en una estantería hasta un mes y pico más tarde, cuando me dio por instalar Windows 10. Ni bootcamp ni hostias; metí el pendrive y lo instalé en modo UEFI como si no hubiera mañana. Tardó poco, y Windows se inició perfectamente. Me puse a dar saltos de alegría. El Mac que tantas horas me había hecho perder, el que había acumulado una sucesión de errores humanos de aquí un servidor, estaba vivo. Todo parecía genial hasta que me di cuenta que las operaciones hechas con el procesador no eran dignas de un i7 4750HQ. Abrí el administrador de tareas y me encontré lo siguiente:

photo_2016-11-02_15-52-33

Lo que tenía claro es que a esa velocidad, la batería del ordenador me iba a durar meses con una sola carga. No me llevó más de 10 minutos descubrir que 0.78GHz es el sumatorio de todas las frecuencias de los hilos del procesador cuando el multiplicador está al mínimo. Esto ya no era cuestión de problemas de Apple, sino del chipset de Intel. Finalmente, descubrí un programa llamado ThrottleStop, con el que se puede forzar al ordenador para que ignore cualquier cosa que esté parando la potencia de sus dragones medievales. Problema resuelto. Pantalla rota (que ahora sí que no iba a cambiar), ventiladores a tope (que nunca pude solucionar) y ordenador funcional.

¿Qué estaba ocurriendo? Pues bien, os lo explico, porque eso que hice es una solución bastante chapucera, y que deberías utilizar en caso de que te ocurra bajo tu propia responsabilidad. Los ventiladores a tope y la placa al mínimo es el equivalente en placas base a la fiebre en los humanos. La placa detecta que algo no funciona, y para evitar que más componentes se vean afectados o incluso evitar un incendio, utiliza ese recurso. Lo hace porque detecta que hay un cortocircuito en ese socket que arranqué sin querer y que dudo que se pueda reparar porque es tan minúsculo que cuesta enfocarlo con una lente macro. Es enormemente pequeño, y jamás he llegado a ver qué metal está tocando a qué metal. Además, el ordenador hay que iniciarlo con el procesador al mínimo y luego abrir el programa a mano para que se salte las limitaciones de la placa. No se puede iniciar la tarea automáticamente. Tampoco es muy placentero estar trabajando con el sonido de un huracán de fondo.

Compré una pantalla de 25 pulgadas y utilicé el Retina como un sobremesa con Windows 10. Mientras tanto, seguí usando el portátil del 2009 como portátil, hasta que en marzo de 2016, algo dejó de funcionar y la pantalla nunca más se encendió. Fue entonces cuando lo jubilé definitivamente.

A día de hoy, tengo un Dell XPS 15. Fue un regalo del que estaré eternamente agradecido. Me sigue dando pena el Retina, ya que ahora no tiene sentido que lo utilice. Acelerando el procesador, funciona, pero de aquella manera. Ahora yace en una estantería, pillando polvo y yo lo miro sabiendo lo poco que duró. No me da pena por el dinero, ojo, que eso ya está superado, sino porque sé la potencia que tiene el equipo y me da coraje no poder aprovecharlo. Más por ecología que por economía, para que ustedes me entiendan.

Por otro lado, elegí un Dell XPS 15 y no un MacBook. No quise cometer el mismo error por segunda vez consecutiva. Primero porque el precio de un MacBook era muy muy elevado en comparación al Dell (que ya es muy caro en sí), además de tener menos hardware. En segundo lugar, porque me pareció un desprecio brutal hacia el cliente pedir 900€ por la reparación de una pantalla. Más tarde he pensado que te piden ese precio porque no te lo reparan, sino que te lo cambian por uno nuevo. Y ese precio cubre el coste de un nuevo ordenador perfectamente. El último motivo para elegir un Dell y no un MacBook es, porque como publicista que soy, he observado el camino de Apple. Su enfoque de marketing ha cambiado desde la muerte de Jobs. Apple, que era una empresa calidad-precio (mucha calidad, mucho precio), ha ido alejándose de esa óptica hasta la del consumo visible. Productos muy muy caros para tener únicamente prestigio y la aprobación de los demás. Y del mismo modo que me compraría un Casio y no un Rolex, a Apple le digo lo mismo. Es por ello que este blog podría llamarse “Applespera”.

Un saludo.

Hablemos de la Microsoft Surface Studio

Hablemos de la Microsoft Surface Studio

Ayer, por segundo año consecutivo, Microsoft dio un golpe en la mesa y… sin filtraciones previas que estropearan la sorpesa, la empresa de Redmond presentó un nuevo concepto de ordenador. No es la primera vez que lo hace, pues el año pasado ya lo hicieron con la Surface Book.

La nueva apuesta de Microsoft para revolucionar el mercado se llama Microsoft Surface Studio. Un todo en uno convertible que viene a ser una combinación entre un ordenador de sobremesa y una tablet. Destinado a un público de diseñadores, la Surface Studio pertenece a una categoría de producto totalmente desconocida hasta la fecha. Con una enorme pantalla de 28 pulgadas, a simple vista podríamos decir que no es más que otro iMac. La magia llega cuando dicha pantalla se inclina hasta directamente tocar la mesa y el dispositivo nos brinda la posibilidad de interactuar con él con nuestras manos. De este modo, el todo en uno se transforma en una tablet inmensa, que deja a los lados el teclado y el ratón y permite utilizar dos nuevos instrumentos: el Surface Pen y el Surface Dial.

La presentación de ayer de Microsoft es mucho más que un ordenador revolucionario. Si bien es una forma de poner rectitud en el mercado del hardware (de lo que hablaré más adelante), el uso del Dial y las interfaces mostradas en los vídeos son también un toque de atención a las empresas de software. La simplicidad con la que se utiliza el Dial viene a decirnos que también quieren poner orden y rediseñar las interfaces usuario como las conocemos ahora. Menos menús y menos opciones escondidas para traer algo sencillo, moderno e intuitivo. Que tomen nota los señores de Adobe, porque esta presentación también iba dirigida hacia ellos.

Por otro lado, el Surface Studio no es un ordenador para todos los públicos. En ningún momento pretende serlo. Más allá del precio, su pantalla, con relación de aspecto 3:2 ya denota que no se trata de un ordenador para jugar o para ver películas. El panel además tiene una resolución nunca vista: 4500×3000 píxeles, lo que lo acerca más al 8K que al 4K. A diferencia del iMac, el ordenador no está integrado en la pantalla, sino en la base. Un ordenador ultracompacto que tiene gráfica dedicada de serie. No obstante, no podemos esperar la potencia de una torre, ya que los componentes elegidos por Microsoft no dejan de ser hardware de portátil. Nada nuevo, ya que si lo comparamos con el resto de todos en uno que hasta ahora han existido, todos utilizan este tipo de componentes más reducidos tanto en tamaño como en prestaciones. Como siempre, esto le otorga al ordenador un diseño más ligero y compacto, pero penaliza gravemente en el coste del ordenador, ya que la miniaturización de la tecnología tiene un precio muy alto.

En relación al precio, el Surface Studio sale al mercado con un importe desmesurado que parte de los $2999 (i5, 8GB, 965M) hasta los $4199 (i7, 32GB, 980M). Ha sido precisamente esto lo que ha dado más que hablar. Sorprende que no hayan hecho uso de las nuevas gráficas Nvidia de la serie 1000. Sin embargo, imagino que no las han añadido porque encarecería aún más el precio (la nueva serie se está vendiendo en portátiles a casi el doble de precio que la generación anterior). A pesar del precio, este nuevo tablet todo en uno de Microsoft puede poner fin al reinado de Wacom con sus tabletas Cintiq. Dichas tablets de Wacom tienen y han tenido hasta ahora la misma función que esta nueva Surface Studio, solo que con pantallas de menor resolución y a precios que poco tienen que envidiar a los de Microsoft. Tampoco han faltado las comparaciones con el iMac (que no sé quién lo ve barato). Un ordenador lanzado el año pasado, presentado ya desde el primer día con hardware obsoleto y cuyas ampliaciones que se pueden configurar en la Apple Store son sencillamente una tomadura de pelo. Para colmo, tampoco pertenece a la misma categoría de producto, sin olvidar que el el iMac lleva años asentado. No supone ninguna novedad, por lo que su precio solo tiene sentido si Apple quiere venderlo como un producto de lujo. Por ello, me parece injusta la comparación.

 

surface_studio_overview_9_featurepanel_v1-1

Más que ver la Surface Studio como una gran pieza de innovación aun precio extremadamente elevado, yo prefiero verlo como una apuesta de Microsoft para que el mercado le siga el ritmo. Microsoft no es una marca que se dedique al hardware; su negocio se sigue centrando mayoritariamente en la venta de licencias de Windows y Office. Y dicho mercado lleva ya más de cinco años saturado, en declive y con altas deficiencias en lo que a innovación se refiere. Por ello, prefiero pensar que la táctica de Microsoft no es otra que mostrar al mercado un nuevo paradigma. Y de este modo, igual que el año pasado con el Surface Pro 4 y el Surface Book, los de Redmond posicionan en el mercado sus ordenadores y tablets a un precio muy elevado para no competir con los fabricantes, que en realidad son la mano que les da de comer. Otro factor muy distinto es que las marcas pillen la indirecta y se pongan manos a la obra. Sin ir más lejos, hace ya un año de los dos tablets convertibles de Microsoft y poco hemos visto de otros fabricantes que se acerquen a ese concepto.

En resumidas cuentas, Microsoft demostró ayer que se pueden hacer muchas cosas en el mercado del PC de sobremesa. En unos meses veremos cómo reaccionan fabricantes serios, como Lenovo, Asus o Dell (de otros como HP o Toshiba yo no esperaría absolutamente nada). Por otro lado, esta tarde veremos cómo Apple actualiza sus productos. Algunos de sus productos llevan más de 500 días sin actualizarse (sí, se actualizaron antes que la conferencia de Microsoft del año pasado). Veremos por fin si Apple tiene algo que aportar en términos de innovación, o si lo máximo que pueden ofrecer es una tira OLED para sustituir una fila del teclado. Lo que está claro es que si hoy Apple no saca algo innovador, en Microsoft se van a arrepentir de no haber hecho su conferencia un día después que Apple.

Más información: Microsoft Surface Studio

error: Content is protected !!