Hace algún tiempo se me ocurrió que estaría bien hablar del futuro. Del futuro cercano que quizá podríamos experimentar en los videojuegos, claro. Y hoy es el momento adecuado para empezar a soñar con lo que se nos podría venir encima.
¿Qué camino podría seguir la industria del videojuego en los próximos años? Está claro que con la potencia gráfica que va a tener la próxima generación de consolas (una potencia que ya está disponible en muchos PC's de gama media-alta, por cierto) estamos encaminados a obtener gráficos cada vez más realistas. Pero, ¿es una cuestión de presentar personajes que cada vez estén hechos de más polígonos?
No es una cuestión (sólo) de polígonos
![Highpoly](https://i.blogs.es/186a7c/highpoly/450_1000.jpg)
Un rostro de 1 millón de polígonos
Alvy Ray Smith, fundador de pixar y uno de los pioneros en esto de mostrar gráficos 3D por ordenador, se la jugó al afirmar que "la realidad llegaría cuando alcanzásemos los 80 millones de polígonos por fotograma".
Esa afirmación tenía sentido en los ochenta y en los noventa cuando el principal cuello de botella para las tarjetas gráficas pasaba por la capacidad de gestionar decenas o centenas de polígonos texturizados en tiempo real. ¿Recordáis cómo se veían los juegos en 3D del año 1997 por poner un ejemplo?
![Half Life](https://i.blogs.es/a4ef7e/viejos-personajes-halflife/450_1000.jpg)
Personajes del Half-Life original
Un personaje del mítico 'Half-Life' podría estar formado por 300 o 400 polígonos, a Manny Calavera de 'Grim Fandango' lo componían tan sólo 250. La industria del entretenimiento 3D, como aquel que dice, estaba todavía acelerando y rompiendo barreras a gran velocidad hasta llegar a un punto en el que la gestión de polígonos texturizados por segundo ya no fuese el gran bloque de cemento que bloqueaba la carretera.
A día de hoy una Xbox 360 o una PlayStation 3 pueden enfrentarse sin problemas a un personaje principal de 30.000 polígonos como es el caso de Nathan en 'Uncharted 3' o de 25.000 como es el caso de Marcus Fénix en 'Gears of War 3'. Se espera que la próxima generación de consolas ni se despeine con modelos que pasen del millón de polígonos.
¿Y qué me decís de un iPhone? El iPhone 4 de Apple puede encargarse de unos 20.000 polígonos texturizados por fotograma (siempre que controlemos las llamadas a pintado, aunque esa es otra historia) y estamos hablando de un hardware de hace ya dos años y medio. Imaginad lo que un Nexus 4, un Samsung Galaxy SIII o un iPhone 5 pueden mover.
![Low Poly](https://i.blogs.es/736c21/lowpoly-1/450_1000.jpg)
Personaje de baja poligonación y textura de difuso
Pero ahora sabemos que la cantidad de polígonos ya no es un problema y que los lanzamisiles de esta batalla deben apuntar a otros lugares: la representación y fidelidad de la textura mediante shaders avanzados, la iluminación, la animación, la física en tiempo real a gran escala y también a la inmersión en el juego, algo por lo que apuestan pesos pesados como Gabe Newell, John Carmack o Cliff Bleszinski.
La simulación física a gran escala
Los magos lo hacen muy bien. Captan tu mirada en un punto de su show, con un movimiento estudiado, con un chiste, con una palmada… en definitiva, reclaman tu atención desviándola de donde realmente debería estar para que no veas el truco que están realizando.
Crees estar viendo el cuadro entero aunque en realidad estás pendiente sólo de una parte. Durante muchos años la simulación física en un videojuego podría resumirse de una forma semejante. No todo tiene simulación física real en un videojuego, no todo el mundo 3D responde a las leyes de la gravedad, el rebote, la fricción… sólo aquello que es importante para el jugador.
En 'Half-Life 2' fuimos conscientes de la potencia de aquellos puzzles de físicas, de aquel dispositivo que podía levantar cosas y arrojarlas de un modo realista. Pero de nuevo, no podía mover todo, ni todo se comportaba de un modo acorde a la realidad. Pero ya habíamos empezado a andar por el camino correcto.
Años más tarde nos encontramos con juegos de coches que incorporan un cuidadísimo motor de simulación física que atiende a doscientos mil parámetros… pero sólo en el coche del jugador y en los tres o cuatro vehículos rivales que se dibujan en pantalla. El escenario y sus elementos son estáticos, simplemente están ahí colocados.
Rompemos paredes de forma más o menos realista al dispararles con nuestra "shotgun" en cualquier FPS pero… ¿son trozos reales que se comportan de manera física al caer al suelo o se trata de animaciones rígidas pre calculadas que se activan? Y el agua, ¿cuando podremos disfrutar de simulaciones de océanos realistas de una forma natural?
Evidentemente con la potencia y las herramientas actuales no podemos ni soñar con representar un mundo interactivo, tridimensional y con un motor de físicas realistas aplicado a todos sus objetos. El futuro ya tiene otra roca en el camino que destrozar.
nVidia ya trabaja en ello con sistemas de partición de meshes capaces de reventar una malla tridimensional en pedacitos y que cada uno se convierta en un objeto físico. Y claro, hablamos de miles de pedazos calculándose en tiempo real.
Epic, con su Unreal Engine 4, se ha fijado también en las partículas y prometen atmósferas y sistemas de partículas realistas y que atiendan a la gravedad, a las fuerzas que se les aplican o a respetar las formas físicas que tienen delante de ellos. Chispas que saltan y rebotan en paredes o estructuras cercanas y cuyo rebote se calcula en tiempo real, nubes de polvo cuya densidad y comportamiento ante una corriente de aire podrá regularse ajustando sus parámetros…
El mundo que nos rodea está lleno de partículas de infinitos tamaños y nos hemos acostumbrado a vivir con ellas. El mundo 3D va en camino de hacer lo mismo.
De cuando una textura de difuso era suficiente
![Caras](https://i.blogs.es/9427b4/cara/450_1000.webp)
Hubo una época en la que un polígono envuelto en una textura de difuso era suficiente para dejarnos con la boca abierta. Recuerdo cómo me alucinaba 'Oni' en su momento y viéndolo ahora uno se da cuenta de lo mucho que ha cambiado todo.
Llevamos años intentando representar gráficos de la manera más realista posible y se han hecho muchos avances en la materia. Pero no todo se trata de polígonos como veíamos antes. La animación y la texturización son puntos clave de lo que se nos viene encima. Centrémonos pues en todo el juego que nos dan las texturas.
![Oni](https://i.blogs.es/122fdc/oni/450_1000.webp)
El viejo 'Oni' de Bungie
La generación actual de consolas ha supuesto un gran avance en este campo. PlayStation 2, por poner un ejemplo, supuso un gran salto en cuanto a gestión de polígonos pero no en cuanto a capacidad para almacenar texturas. Los personajes más detallados de esa época sólo mostraban mapas de difuso (vamos, la textura a pelo puesta sobre la geometría mediante su canal de mapeo) y de lightmap (la iluminación pre calculada que se hace textura y se aplica sobre la geometría en otro canal diferente al de difuso).
PS3 y Xbox 360 (aunque creo que en cierta medida y con limitaciones lógicas la Cube y la Xbox original también tuvieron juegos que los utilizaban) añadieron el "normal mapping" para dar una falsa sensación de relieve a la textura, el "specular" para darle brillos y recrear superficies metálicas o muy pulidas y el control de "specular por textura" para definir mediante un shader y una imagen en blanco y negro qué zonas de un modelo 3D reciben más brillo y qué zonas menos.
![Texturas](https://i.blogs.es/8f7a8a/texturas/450_1000.webp)
¿Recordáis los primeros juegos de PS3 y Xbox 360 en los que todos los personajes brillaban como muñecos de cera? Todavía no habían implementado el control de "specular" por textura. Los juegos actuales ya no adolecen de lo mismo.
El futuro pasa por seguir avanzando en la misma línea y conseguir representar todo tipo de materiales de una forma muy realista. En el 3D CGI se consigue pero, ¿y el que se tiene que mover en tiempo real? Sinceramente creo que la piel va a ser el principal fuerte a conquistar de esta generación.
Conseguir una piel realista es algo en lo que muchas compañías ya están trabajando. nVidia, Activision, Quantic Dreams y por extensión Sony… no sólo se trata de llegar a un tono realista, se trata de que parezca piel.
Con todas sus imperfecciones, con las arrugas que se forman, con las acumulaciones de sangre bajo la epidermis que le confieren a determinadas zonas un aspecto más rojizo, la peculiar forma en la que absorbe la luz… en definitiva, hay trabajo por hacer y uno de los más complicados pasa por la piel.
Tu boca dice no pero tus ojos dicen sí
¿Podermos cruzar durante esta generación y de una vez por todas el maldito "uncanny valley"? Yo me la juego y apuesto a que no. Tenemos demasiados frentes abiertos como para pensar en que una representación 3D puede colar como real.
Estamos dando pasos decididos en esa dirección, eso sí, pero todavía faltan muchos cabos sueltos. Hemos visto que ya puede no ser una cuestión de polígonos y que posiblemente el asunto de las texturas se consiga solucionar… entonces, ¿qué nos queda por superar? Entre otras cosas la animación.
El ser humano es una máquina salvaje de generar micro movimientos y reacciones inesperadas. La animación de personajes, por definición, es todo lo contrario. Un animador debe calcular y pensar exactamente qué va a hacer su personaje para representar una determinada actitud, un sentimiento… incluso una pretendida animación brusca de reacción espontánea no es más que el resultado final de un montón de pruebas hasta llegar a una que parece ser espontánea sin serlo en absoluto.
Tenemos herramientas y sistemas para calcar la animación humana, el "acting" de personajes y hemos dado pasos de gigante para que los protagonistas principales de los videojuegos se muevan con soltura y naturalidad… pero estamos a años luz de conseguir que parezcan reales. Lo parecen, sí, si los comparamos con los protagonistas de videojuegos de hace 10 años.
Pero la gran piedra en el camino se llama animación facial. Hace años a un personaje principal de videojuego le pedíamos que corriera, apuntara e incluso muriera de una forma molona. Hoy les pedimos sentimientos. Queremos verlos sufrir, queremos que se enamoren… queremos un comportamiento más adulto propio de las grandes historias que ahora nos cuentan.
Y para eso necesitamos expresividad. No sólo en la manera de moverse, el llamado "acting", también en la cara. Complejos riggins faciales y estupendos animadores dedicados capaces de tener más de cincuenta huesos en la cara del personaje para captar micromovimientos y expresiones. Pero aún y así no es suficiente.
Se están desarrollando nuevas tecnologías que escanean y copian las animaciones faciales de los actores y las trasladan a complejos modelos 3D al estilo de lo que se viene haciendo hace años con la animación corporal. Funciona relativamente, 'L.A. Noire' fue un ejemplo claro de cómo avanzar en esa dirección, pero hasta ahora encontrábamos un escollo insalvable. El cuerpo se animaba por un lado. La cara por otro.
Y el ser humano es la suma de las dos cosas siempre así que de nuevo volvíamos a caer en el sufrido animador profesional que debía ser capaz de sacar toda su habilidad para unir las dos líneas de animación de una manera lógica. En Quantic Dreams, especialistas en este tipo de situaciones por el estilo de juegos que desarrollan, han empezado a jugar con una nueva tecnología que permite captar a la vez las dos animaciones.
Se graba al actor realizando movimientos corporales mientras se está captando al mismo tiempo su expresión facial. Queda margen de mejora, está claro, pero la nueva generación de ahondar en esta dirección.
No lo veas a través de una ventana. Entra y disfruta
![Oculus Rift](https://i.blogs.es/d12317/oculus-20rift/450_1000.webp)
Pero independientemente de cómo evolucionen los motores gráficos o de si conseguimos romper el valle inquietante o nos rompe él a nosotros hay una tendencia clara que ayudará a unificar todas esas posibilidades en una sola experiencia. La inmersión.
Nintendo dio un paso decidido al llevar la Wii al mercado de consumo masivo. Ya no le asusta a nadie que un juego pueda controlarse agitando un mando y una parte del futuro que se nos viene encima camina en esa misma dirección.
Experiencias que intentan sumergirnos mucho más en el videojuego pero que, de momento, no han acabado de funcionar todo lo bien que se esperaba. Kinect y PlayStation Move no dejan de ser productos marginales de los que no hacen uso la mayoría de grandes lanzamientos. Y en esas que llega una vieja idea, ochentena y noventera si me apuráis que todos dábamos por perdida pero que vuelve a coger fuerza, los cascos de realidad virtual.
John Carmack, Gabe Newell, Cliff Bleszinski y muchos otros pesos pesados de la industria se alinean junto a productos como Oculus Rift. Unas gafas VR diseñadas para llevarnos al centro mismo de la acción en un videojuego, para que estemos allí.
Un ángulo de visión de 110 grados, giroscopios encargados de detectar fielmente el movimiento de nuestra cabeza y adaptar lo que vemos en pantalla, profundidad 3D a dos centímetros de los ojos para que la sensación sea lo más bestia posible… los que han probado este "headset" surgido de las bondades de kickstarter y apoyado ya por innumerables "business angels" aseguran que es la experiencia VR más bestia que se ha hecho jamás.
Pero, ¿realmente el futuro pasa por ahí? ¿acabaremos comprando cascos de realidad virtual para disfrutar de determinados videojuegos o es un camino sin salida? Hace poco Nolan Bushnell aseguraba que efectivamente, tanto Oculus Rift como Google Glass son el auténtico futuro. Quizá esa tecnología pueda mezclarse con las bondades de Kinect o incluso de un sencillo Wii Mote para que seamos partícipes de las experiencias más inmersivas jamás realizadas.
Las piedras del camino en la nueva generación
![Fox engine](https://i.blogs.es/ca887d/fox-engine-small/450_1000.webp)
Romper el valle inquietante consiguiendo modelos 3D que parezcan reales y cuyas texturas tengan las mismas imperfecciones y características que las del mundo real. Personajes que se muevan como lo hacemos nosotros, con ese porcentaje de aleatoriedad y cierto punto impredecible que por ahora se escapa a la animación de videojuegos, que expresen emociones y en cuyos rostros podamos intuir el paso del tiempo o incluso las secuelas de un duro día de trabajo.
Un mundo físico que se comporte como el nuestro y cuyos elementos tengan peso, se sientan atraídos por la gravedad y se puedan romper en pedazos. Un mundo en el que la luz incide en el polvo ambiente y el polvo ambiente se dispersa a nuestro alrededor según las corrientes de aire que producimos al pasar. Suena a quimera y posiblemente no lleguemos a verlo cumplido en la próxima generación pero seguro que es Ítaca para los pioneros que deben conseguir las herramientas de software y el hardware que lo haga posible.
Y al final de todo, cuando todos esos escollos se hayan podido sortear quedará saber si para nuestros hijos será algo normal el colocarse cascos de realidad virtual para disfrutar de un modo que a día de hoy parece propio de películas de ciencia ficción.
Es el futuro, pero nunca había estado tan cerca.
Ver 46 comentarios
46 comentarios
Naonat
Estupendo articulete, Dani, ole tus huevos.
No obstante, estas cosas me cabrean, y mucho. El llamado "valle inquietante" no debería siquiera existir, puesto que todas las mejoras gráficas que se implementen deben ser un medio para mejorar la experiencia y no un fin en si mismo, como pretenden hacernos ver los gurues de los Jraficazorl.
En Half-Life 2 se sacaron de la manga los juegos de físicas con el objetivo de incorporar aspectos a la jugabilidad, no fue por tenerla más grande. En Red Faction Guerrilla puedes destruirlo todo y sacar chatarra para mejorar tu equipo (y era divertido hacerlo, demonios). Los impresionantes mapeados abiertos de Assassin's Creed, Far Cry 3, Just Cause 2, Skyrim o Infamous 1&2 pretenden sumergirnos en el ambiente que recrean, pero nada más. No se implementan destrucciones ni demás cosas innecesarias porque el coste es terrible para lo que otorga, que es, bueno, nada.
Pero ahí tenemos a L.A. Noire, con una tecnología del demonio para animaciones faciales para después darnos a elegir tres opciones, y luego encima te sacas el juego entero con una guía. En los Battlefield nuevos puedes destruir paredes para al final ir corriendo a todos lados matando a todo el mundo en una insípida campaña. En el primer Crysis puedes derribar palmeras a puñetazos, y en la segunda parte veíamos una Nueva York destrozada con unos juegos de luces demenciales ¿y para qué? ¿para ir por un pasillo matando aliens y viendo cutscenes? Para eso haces como Call of Duty y te quitas de líos.
En fin, que todo esto, partículas, arrugas, luces, sombras, derrumbamientos, HOJAZOS... Todo es inútil si se usa solo para satisfacer los instintos megalomaniacos del desarrollador flipado de turno. Es perder el norte y encarecer muchísimo los proyectos, alimentando así una burbuja que a la larga va a convertir esta industria en un campo de mierda. Prueba de ello es Square-Enix y su motor ideal de la muerte. Pero no, la culpa de estar a dos velas la tiene que Hitman Absolution ha vendido "solo" 3 millones de copias. Gente a la calle, proyectos potencialmente interesantes abandonados, y todo por querer animar mejor la barba de un anciano. Y The Witcher 2, con 1,5 millones de ventas en PC y 360, es un éxito y sus autores ya están con la tercera parte, wow... mindblow.
Que le den al Valle este. Que no lo rodeen, que corran en dirección contraria como alma que lleva el diablo. Porque luego te vas diez años atrás, rejuegas el Oni (ains, ahí me has tocado la fibra, tontorrón) y te deprimes, porque es mejor que casi cualquier juego de acción de hoy.
Natlus
El problema es que la mitad es humo, y da igual el numero de poligonos que tenga un juego, el chiste es que se vea muy bien usando los menos posibles, cualquiera puede multiplicar los poligonos desde el programa de modelar en 3D, antes de centrarse en añadir 500.000 poligonos que nadie se va a fijar en ellos, ya sea por que la cara del protagonista en pantalla use una resolución de 400x400 de una imagen a 1080p, antes de todo eso, deberian de centrarse en meter mejor iluminación, mejores sombras, y antialias, antes de irse a por el 4K de las narices, habrá que aprovechar antes las resoluciones que ya hay no? aún no se ha empezado a aprovechar las 1080p y ya quieren meternos el 4K... yo no pido graficos realistas, yo solo pido inmersion y juegazos.
NuteSiphon
Los graficos no importan, si no la calidad de juego, que la industria se centre en ofrecernos realismo quitara aun más la importancia del gameplay haciendo quebrar las consolas como predijeron ya que nadie se va a comprar una consola por los graficos cuando ni teles Full HD tienen.
kuroikumo
Excelente artículo, resume la situación actual haciendo un poco de incapié de por donde hemos pasado ya. El valle inquietante dudo que se supere durante la próxima generación, y de igual forma con la siguiente que haya después de esta, lo veo, no como una fortaleza impenetrable pero si como algo que deberá superarse con algo más que potencia o millares de operaciones por frame para calcular todas las aleatoriedades. Quien sabe quizás la solución pase por formulas como matrix... inmersion total
lord_snake_1988
con el motor de kojima han dado un paso impresionante en todo
Chema
Lo gracioso es que dentro de 10 años veremos esto y nos reiremos, diremos algo como "Oh tío, me acuerdo cuando antes con un simple millón de polígonos y unos simples texturizados difuso, specular y las normales lo combinábamos con la occulus y alucinábamos en colores y mira ahora el nivel en el que estamos, jaja".
Aunque la verdad es que todas esas specs no es que estén al alcance de cualquiera, porque para poder trabajar a ese nivel, además de tener unos ordenadores de la leche, salas de captura de movimiento, de captura de sonido, dinero por un tubo, etc. se necesita cada vez una mayor cantidad de personas, haciendo tareas más específicas. El progreso es bueno, pero podría decirse que los desarrolladores indie(estudios pequeños y grupos de amigos o compañeros que se junten para hacer un juego, por ejemplo) parece como si poco a poco tuvieran menos oportunidades de hacer proyectos en 3D que puedan considerarse buenos(o dejarse la vida en ellos) para competir algo en el apartado gráfico, y aunque el progreso de los videojuegos es genial, creo que una mayor diversificación de las tareas para hacer productos de mayor calidad al final hace que los trabajadores se pierdan dentro de lo que están creando, haciendo aburrida una industria de diversión.
javilevel
Excelente articulo que te hace pensar y reflexionar hacia donde iremos en el futuro.
Yo cada vez veo mas claro que llegará un momento no en esta generación sino dentro de 20, 30, o 40 años quien sabe, en que después de muchos motores, parches, evoluciones, generaciones, juegos, procesadores y demás tarjetas gráficas, habrá un motor gráfico unificado para todo, llegara un momento en que la potencia ya no sera problema, las físicas reales estarán implementadas, los escaneados reales estarán ahí para meterte de avatar en tu videojuego, las gafas de realidad virtual serán simples gafas de ver, y todo, todo, todo, lo tendrás ahí al alcance de tus manos, para poder hacer lo que desees en tu mundo virtual, todo aquello que no puedes o no te dejan hacer en el real, podrás enchufar tu ordenador o tus gafas y hacerlo en el.
Lo que pasa es que si ahora ya hay peligros con las conexiones duraderas, cuidado cuando lleguemos a esas épocas, muchos no querremos volver al mundo real.
konosoke
Largo e interesante. :)
Yo tampoco creo que lo consigan pronto, pero sí que creo que en caso de morir de viejo, existirá la realidad virtual, aunque sea en una fase temprana.
Carpevi
Desde la llegada de las 3D (en mi caso con la Nintendo 64 y aquel Mario 64) he sabido que nada volverá a impresionarme tanto como la llegada de la supuesta realidad virtual. Ese es el siguiente paso en la inmersión, el único verdaderamente grande para volver a marcar un antes y un después. Tengo muchas esperanzas puestas en el Oculus Rift, y no entiendo que se le dé mucha mas cobertura y expectación a Ouya por ejemplo que a este proyecto, que casi pasó sin pena ni gloria.
Y esperemos también que se centren mucho más en la IA para potenciar la inmersión. Muchos enemigos de juegos actuales con verdaderos super gráficos dan la sensación de ser meras marionetas al lado de algunos de los enemigos del GoldenEye (1997). También me saca totalmente de la inmersión estar en un juego con entorno hiperrealista donde el protagonista recibe una somanta de 20 balas sin problema. ¿Para qué cuidar tanto los apartados gráfico y sonoro, si nada del resto de factores se acerca siquiera a la realidad?
l1nker
Interesante artículo con el que coincido en gran medida pero en el que echo en falta algunas cosas. Me explico:
En cuanto a las texturas, he echado en falta tanto la utilización de los Bump Map (por suerte ahora condenados al abandono) como de los mapas de desplazamiento, ambos mucho más antiguos a los normal map y que tenían por objetivo lograr un resultado similar. los primeros eran en esencia una versión reducida del normal map ya que producían la misma falsa sensación de detalle empleando únicamente un canal de imagen, al contrario que en el caso de los normal map que emplean tres canales para añadir detalle simultáneamente en los tres ejes espaciales. El segundo el mapa de desplazamiento, he de reconocer que no lo he visto aplicado nunca sobre renderizados en tiempo real aunque debido a su interés creo que es importante conocerlo ya que es el único que afecta realmente a la malla de los objetos modificando su superficie y podría resultar interesante su implementación dentro de los videojuegos.
También considero que habría resultado interesante hablar sobre las llamadas layered textures muy extendidas en la generación de gráficos pre-renderizados y que quizás en la próxima generación de video-consolas sea una opción a tener en cuenta ya que en la actual te puedo asegurar que no he visto nada parecido en los SDK de desarrollo de videojuegos que conozco.
Por ultimo sobre este tema, considero que la evolución sobre el texturizado en tiempo real, quizás no se encuentre en la adhesión de más mapas de textura sino en la resolución de los mismos. Y es que en muchas ocasiones esa tendencia (no me atrevo a decir estándar aunque se encuentra cerca) de utilizar texturas de 1024px resulta evidentemente insuficiente aunque al comprobar como se distorsionan las texturas de mapa de bits sobre las superficies poligonales vectoriales puedo entender perfectamente los problemas que se derivan de esa práctica.
Vaya, iba a comenzar a hablar sobre la animación por medio de MoCap y sobre lo simple y económica (desde 0€) que resulta actualmente pero creo que me he extendido demasiado, así que lo dejaré aquí.
Un saludo
danyx surban
para mi el problema de las fisicas radica en el "muñeco de trapo" es decir, que el entorno es realista, de acuerdo al mundo que nos proponen, la fisicas pueden andar bien, y los rostros son casi reales - todo se viene abajo cuando x ejemplo se mata un enemigo y ahí es otro cantar con un muerto que se mueve justamente como una pelota, torpemente y rompe toda es armonia virtual, por asi decirlo
alfonsocdya
Fantástico artículo. Totalmente de acuerdo con respecto a la necesidad de avanzar en la representación de los personajes, sobre todo de la piel. Y yo añadiría que muchas veces los personajes están muy bien conseguidos hasta que llega el momento en que se tocan. I.e. en el último God of War (Ascension), no dejaba de sorprenderme de los buenos gráficos del modo historia, hasta que en un vídeo otro personaje le ponía la mano en el hombro a Kratos, o alguien le abrazaba, ect.
En otro orden de cosas, se ha puesto de moda decir que los gráficos no importan, sino que la calidad de un videojuego se mide con otros parámetros, como la originalidad, los giros argumentales, entre otros. En mi opinión, son elementos muy distintos; los gráficos deben ir mejorando, porque son una cuestión técnica, y espero que un juego moderno tenga los mejores gráficos posibles para la consola que salga, es una cuestión de ir mejorando, y la calidad del argumento u otros elementos son factores que dependen de la genialidad de la compañía, los guionistas, etc.
hybridheaven
Como dicen excelente articulo, solo algunas observaciones:
- Lo que es UV texture se puso como otro nombre textura difusa, Texture Difusa viene siendo una textura normal pero su blend mode ahí se aplica de forma diferente la textura normal (pero igual en traducciones a veces se modifica bastante).
- Ya hablando de articulo en si, las compañias se enfocan mucho en la piel y cantidad de poligonos si cuando juegas no mides lo largo de la nariz, ni lo hundido de los ojos y sabes por que? por que el juego en un 3rd person y el personaje te da la espalda, o peor es casi isometrico o first person y al final aun con muchos poligonos nadie le toma importancia simplemente casi con una textura animada te da las mismas expresiones que uno de millones de poligonos, la expresion facial no se mide por poligonos sino como te expresas.
Va tan sencillo como esto :) ;( o como los videos anteriores.
vankleiss
Buen post, el vídeo de NVIDIA Wave Works me ha parecido precioso, es el que más me ha gustado, porque para mí es el que más te mete en situación.
Yo no voy a quedarme parado 20 minutos para verle las arrugas a un personaje mientras trato de acercar la cámara, lo que de verdad me impresiona es un buen escenario, ahí sí que me quedo quieto, como me pasaba con el Castlevania LoS.
Ivnest
Yo suelto una pregunta ¿de qué me sirve un rostro híper realista, con millones de polígonos, si los personajes salen corriendo contra un muro, o entran de espaldas por las puertas? xD
No, ahora en serio, espero que alcancen el hiperrealismo pronto, así se acabará la moda de los graphic-whores y tendrán que centrarse en otros aspectos que tengan un impacto más directo en la jugabilidad...
Como dijeron en la parodia del video de presentación de PS4:
"El futuro es un viejo con ojos entrañables" xD
cerenir
Cuando he leido el titular he pensado que precisamente el futuro de los videojuegos (ya tenia ese video en mente y me he alegrado de verlo) es precisamente el de la inmersión en el propio juego, yo me quede con la boca abierta viéndolo
El ser tu mismo el que te encuentras en ese mundo virtual, el que te mueves y actúas, ahí es donde está el meollo de la cuestión.
DarkDemonXR69
Coño, el Oni... sus gráficos no eran gran cosa y a mi me molo tanto que llegue a pasármelo XD.
Gaseosus Snake
Quantic Dream's sigue empeñada en que más emociones significan más polígonos. Que aprendan de Walking Dead y se dejen de chorradas.
Usuario desactivado
Lo he visto a medias, pero gran post.
chicaro
¿Se necesitaron millones de polígonos para poder expresar sentimientos en el clímax de Shadow of the Colossus? ¿O en la historia de Vivi en FF IX? ¿O en la muerte de Lisa en Silent Hill? NO LO CREO.
hk007
Para mí que cada vez se innova menos en el factor de gameplay.
root_69
Interesante, pero creo que ese miedo del "valle inquietante" se aplica solo a "nuestra generación" (por así decirlo)... si tuviéramos un juego con videos interactivos de personas reales, no tendríamos ese miedo-irracional, porque sabríamos que son personajes reales filmados,(creo que hay algunos juegos así).
Si en un futuro pusieran a un personaje-virtual y a nadie se lo dijeran, nadie experimentaría ese "miedo", algo así como en la película S1m0ne.
Frey
"El futuro nunca ha estado tan cerca" es una afirmación que siempre se cumple.
jjjaguar
Gráficos, gráficos, gráficos...
¿Para cuando los hologramas y la realidad virtual?
rom007
Se avanza y a la vez otras cosas se dejan en el olvido, ¿k sucedio con la tecnologia prometida de la integracion de tu propia cara en los personajes como en el Perfect Dark de N64?
Bien llevada aunk con limitaciones al principio de esta generacion k yo sepa solo se utilizo en dos titulos (Raimbow Six y uno de Poker).
¿Donde esta ese reconocimiento facial para tu personaje pueda mover los ojos y la boca cuando hablas? Con una simple webcam ya se hace en el Everquest.
Cosas asi se prometian y se han dejado atras menos por unos pocos, y de mientras solo ves k toda la evolucion y el esfuerzo va dirigido en una sola direccion, mas y mas graficos.
Me gustan las mejoras graficas, pero espero k el futuro no se limite solo ha eso.:)
artyom2013
Soy de los que piensan que la jugabilidad y los gráficos del juego tienen que ir de la mano, no uno por delante y otro por detrás. Es verdad que las compañías desarrolladoras han dejado "de lado" por así decirlo el contenido del juego. Por ejemplo cuando empezamos a jugar juegos con poco contenido jugable el cual se basa en lo mismo y en lo mismo, nos aburrimos rápido y nos decepcionamos ya que estos se vuelven "monótonos" (p.e: FarCry 2 y 3, Dead Island, Starcraft 2, Grand Thef Auto, etc) pero hay que señalar que gozan de buenos gráficos en su género cada uno.
Lo ideal sería mantener todo equilibrado en gráficos, historia y/o trama y jugabilidad y si se logra hacer esto podemos llegar a un buen juego p.e: todos los CoDMW y Black Ops, BioShock Infinite, Assasins Creed I,II y III, Deadspace 1,2 y 3, Mass Effect, Red Faction: Armaggedon, etc, etc. Así si se puede llegar a algo digo de disfrutar por nosotros...
Respecto a los polígonos creo que los usen bastante pero también que tengan en cuenta el motor físico.
Todavía me acuerdo cuando pasaba horas y horas jugando Call of Duty 1 y 2, Age of Empires II, Company of Heroes, etc, etc, esos si eran juegos con alta jugabilidad...
takof
Muy bueno. Te falto hablar de la luz, entre otras muchas cosas, este es un tema inabarcable. Algo que se nota y que les falta mucho por conseguir. El problema es que cada rayo de la luz real rebota y rebota varias veces, esto lo pueden hacer para una pelicula pero, en mi opinion, no lo podran cargar ps4 y la otra, como no lo puede un pc actual.
troskia
Los graficos si son una parte importante de los juegos, pero ¿donde esta la calidad de un juego, en los graficos o en al diversion que te pueden ofrecer? Donde estan los juegos de 30+ horas de juego.