Lista Artículos Lista Editoriales Enlaces Juegos en Línea Noticias Tienda J por Amazon(com)
J de Juegos.com
PC
AYUDA   |   BUSCAR x CLAVE   |   
Buscar con GOOGLE >>>
 
Escríbenos! Galardones. Juegos Recientes.
Preguntas Frecuentes - Galerías - Códigos - Descargas - Enlaces - TOP 10
| ACCIÓN | | AVENTURA | | CARRERAS | | DEPORTES | | ESTRATEGIA | | JUEGOS DE ROL | | SIMULADORES |
Industria: Videojuegos, la Tercera Era
x Webmaster

Cada Era en la historia de la humanidad está marcada por algo de lo siguiente: por el estado del mundo, como en la Era Glacial; por los recursos primarios usados por las culturas del momento para desarrollar sus armas, tecnología y sociedades en general, como la Era de Piedra, Bronce o Hierro. O, por el estado socio-cultural de esos tiempos que permiten identificar contextos comúnes a todos o a la mayoría, como la Era Industrial o la Era Digital. En videojuegos se puede hablar de algo similar, de características comúnes a una mayoría cuando no a todos los productos que salieron al mercado durante un lapso de tiempo determinado, siguiendo esta idea se puede encontrar dos Épocas bien definidas, la Era 2D y la Era 3D. Actualmente nos encontramos en lo que podría calificar como el final de esta última, a medida que se dan los pasos necesarios para la siguiente, la Tercera Era, la Era más allá de los gráficos tridimensionales, la Época en que los videojuegos exploran, porque pueden y deben, más allá del aspecto visual de su naturaleza.

Entre el 2006 y el 2008, este último parcialmente, se puede apreciar una distinción que aunque no siempre es clara o nítida establece un antes y un después. Más que un momento o un evento crucial tenemos un cambio de visión, un salto en como se percibe y presenta una realidad virtual, y por ende un videojuego. Los eventos que llevan a esta evolución ocurren a todo nivel pero se los puede aislar uno de otro, siempre y cuando no se olvide que es el todo el que realmente permite, promueve y en cierta medida fuerza el avance.

Hardware

Observando al hardware nos encontramos con dos momentos clave, uno relativamente antiguo en términos de avance tecnológico, que sería el paso del concepto mono-procesador --un CPU con un sólo núcleo de procesamiento--, al de multi-core --un CPU con varios núcleos--; el otro relacionado con las tarjetas gráficas. En lo que respecta a los procesadores centrales el cambio mantiene todavía un estado de transición, en particular en lo que concierne al software, puesto que aún queda mucho que adoptar y absorber de manera apropiada como para decir que dominamos el concepto y sus mejoras. La característica más relevante de este primer evento es el paso de concurrencia simulada, o paralelismo lógico, a concurrencia física, o paralelismo real.

La idea básica detrás multi-core es ofrecer al usuario un entorno de varios núcleos de procesamiento pero sin dejar atrás la persentación de un único CPU. Es como pasar de tener una empresa que trabaja en un solo piso de un edificio a ser dueño de todos los pisos y tener gente y recursos semejantes trabajando en cada uno. Siguiendo está analogía un siguiente paso es que cada piso, o algunos de ellos, posean personal y recursos especializados para realizar tareas complementarias o particulares en vez del mismo trabajo de todos los pisos restantes. La primera generación de Intel que podría permitir esto es Nehalem que sale al mercado entre finales de este año y/o principios del siguiente.

Este cambio de concepto esta aislado tan bien del usuario y es tan poco notorio en la práctica que si no se está enfrascado en el tema de la tecnología, son pocos los que ven o entienden la diferencia relevante entre una Pentium IV y una Core2-Duo, no faltan quienes preguntan cual es la idea cuando les ofrecen un procesador que es más lento sólo porque --dicen que-- es más moderno. En este punto es que se nota porque todavía se está en transición en lo que concierne a la tecnología multi-core, ni la gente ni el software en general la han adoptado adecuadamente.

En su momento (y en ciertas áreas todavía) el paralelismo real era considerado como una solución utópica a muchos problemas del día a día cotidiano. El ejemplo más tangible de esto son los servidores avanzados que utilizaban varios CPU que gracias a la tarjeta madre podían trabajar juntos, las súper computadoras también son ejemplos de entornos multi-procesador que comparten algunas ideas con multi-core. Cuando el sueño utópico se hizo realidad, apenas hace media década, la industria descubrió un serio talón de aquiles en el software (con unas cuantas excepciones que en general no pertenecen a la categoría de uso masivo y común).

Desde el inicio de la Era Digital son los programas y las aplicaciones los que se considero como la fuerza motriz del avance del hardware, a través de la constante e imparable necesidad de un mayor número de cíclos de procesador para así ejecutar más instrucciones. Sin olvidar que estas a su vez se hacían más complejas y sofisticadas por el cambio de paradigma de programación (de funcional a orientado a objetos) y la aparición de los Sistemas Operativos con GUI (del MS-DOS al Windows). Su avance era tal que nadie, o muy pocos, se percataron de que todo el esquema de evolución resulto tener pies de barro como en la historia de Nabucodonosor.

La evolución del software daba aparentes saltos basándose en una premisa que resulto no ser sostenible por siempre: más rápido, más cíclos de procesador. Con las Pentium IV se llego a un punto crítico en la fabricación de chips, más chico más rápido ya no era viable por el simple hecho de que se consumía demasiada electricidad (gran parte de la cual se desperdiciaba) y se generaba demasiado calor, por lo que el CPU no podía trabajar en condiciones ideales sin estar sumido en un contexto especial. La solución resulto ser bastante simple, en vez de tener un sólo núcleo de ejecución por CPU, mejor poner dos o más, nace multi-core.

Se habla de núcleos de ejecución --cores-- debido a que no es necesario clonar toda la lógica y arquitectura de un CPU mono-procesador para obtener los resultados deseados. De esta forma se maximiza el uso de espacio en el chip al igual que del número de transistores disponibles, no gastando ni uno ni otro en lo que termina siendo redundancia innecesaria. Trabajar con núcleos también facilita y modulariza el diseño de la microarquitectura, detalle que se percibe más con los últimos diseños de CPU multi-core, como sería el caso de la familia basada en Nehalem para Intel.

Ese relativamente simple cambio de visión en el hardware desmorono por completo el axioma guía del desarrollo de software, lo peor es que todavía no se encuentran alternativas eficientes porque el número de cores sigue incrementándose pero no hay, aún, mecanismos efectivos y universales que permitan a programas y/o aplicaciones operar con efectividad en entornos multi-core para los cuales no han sido diseñados u optimizados. Es decir, puedo desarrollar mi programa para 2core pero eso no hace que pueda aprovechar de 4core u 8core, menos para ncore. Este problema se hace más notorio por su naturaleza progresiva, puedo programar algo para 4core, pero no será eficiente ni óptimo bajo 8core; etcétera.

El dilema aquí existe en realidad por dos factores: (1) la industria del hardware no puede detenerse así porque sí y por ende continuará ofreciéndo cada vez más núcleos, indistintamente de si el software puede o no aprovecharlos. (2) Si algo no cambia, o realiza ese tan esperado salto, podría ocurrir un estancamiento que afecte a las empresas involucradas y por lo tanto a la economía mundial por efecto cascada; el razonamiento es sencillo, si todo el software actual apenas trabaja de manera óptima con 2core, ¿para que moverme a 4 u 8core?. Obviamente a ninguna compañía de fabricación de CPU le conviene seguir avanzando si sus compradores no están al menos una o dos generaciones por detrás. Aunque de momento no hay soluciones universales todos los involucrados están en pleno proceso de buscar mecanismos, métodos y maneras de que encontremos luz al final del túnel.

En lo que a hardware concierne el segundo evento está aún más fresco e involucra a la más reciente generación de tarjetas de vídeo, aquellas compatibles con DirectX 10.x. Aquí existe una interdependencia entre hardware y software; el avance ocurrió a nivel código pero las extensiones llegaron a implicar más a nivel circuito. El Modelo de Shader Unificado (USM, Unified Shader Model) propuesto y promovido en el DirectX 10.x convirtió a las tarjetas de vídeo en algo más, básicamente en aceleradores paralelos multi-propósito, mejor descritos por las siglas GPGPU (General Processing Graphics Processing Unit) donde la porción GPU es más que nada una redundancia necesaria por cuestiones de mercadeo, y porque de hecho todavía no dejan de serlo. A mi parecer sería más eficiente hablar de GPPE (General Processing Parallel Engine) --término propio-- porque eso es lo que son, o serán.

Si preguntan ¿donde está el salto? pues bien, antes del DirectX 10.x un GPU sólo podía encargarse de renderizar, utilizar el poder de procesamiento de la tarjeta en otras cosas era una tarea monumental que no valía el esfuerzo. Con el USM el poder de procesamiento puede ser aprovechado en trabajos no relacionados con renderizar, y si bien el esfuerzo es todavía grande por las diferentes arquitecturas y software/lenguajes involucrados, el mismo ya alcanzo un nivel en el cual, bajo ciertas circunstancias, es lógico, viable y muy provechoso. Baste dar como ejemplo como una universidad agarro cuatro tarjetas X2 de Nvidia, las configuro para que trabajen juntas por SLI y mediante CUDA desarrollo el software necesario, ¿el resultado? se invirtió no más de 5.000 $us en obtener un poder de procesamiento semejante al de una súper computadora de cinco millónes de $us (obviamente no son equivalentes para todas las tareas, pero si para lo que ellos requerían).

Este salto en hardware de GPU a GPGPU (por mantenerme en lo conocido) está apenas en su tierna infancia, falta un estándar, todavía es complicado, tiene mucho potencial y futuro, etcétera. Será entre el 2009 y el 2010, cuando ATI y Nvidia ofrezcan una generación de tarjetas con un mayor enfoque en la parte GP que la cosa podría entrar en marcha rápida, sí es que lo llegan ha hacer. También será en esas fechas que Intel entre en el juego con su arquitectura Larrabee que por ser compatible con microinstrucciones x86 (como cualquier CPU), tener una escalabilidad líneal y ser tan programable como un CPU le otorgan suficientes ases bajo la manga como para causar un gran cambio en la escena. Pronto sabremos si todo se pinta útopico, o el camino tiene sus complicaciones. Lo seguro es que con sólo seguir la ruta obvia de evolución, este hardware, incluyendo a las tres empresas, tendrá un rol muy importante en la Tercera Era de los videojuegos, y atractivos extras y extensiones en lo que concierne a software más "estándar".

Software

Observando el software también nos encontramos con dos instantes que se pueden identificar con referencias al DirectX 9.0c o el DirectX 10.x, cada versión un momento clave. El DirectX 9.0c trae consigo el Shader Model 3.0 que como tan nítidamente lo demuestran los sistemas gráficos de última generación ofrece la capacidad necesaria para presentar un realismo visual anonadante. Basta jugar Crysis o World in Conflict para notarlo. El SM 3.0 es un elemento crítico --en software-- que podría verse como el primer latido de la nueva Época en los videojuegos. Es equivalente al primer encontronazo entre el bárbaro con su espada de bronce y el guerrero con su espada de hierro, si el primero sobrevivió debió ser impresionante ver tu espada romperse de un golpe.

El DirectX 10.x es un claro paso adelante que denota que sus desarrolladores ya se percataron que visualmente no hay mucho más donde ir, las extensiones se enfocan en otras áreas, en generalizar, en optimizar, en facilitar la realización de efectos que antes se consideraba muy complicados o innecesarios pero que ahora son indispensables o una forma para destacarse de los demás, como es el caso de las luces dinámicas y/o sombras más realistas.

Lo interesante de finales del 2007, este 2008 y con seguridad el 2009 (quizá hasta el 2010-2012) es que estamos viendo juegos, juegazos, tecnología y engines wow, que califican apenas como de transición. Para empezar no todos aprovechan de 2core, muchos menos 4core, hasta donde se sabe ninguno de alternativas GPGPU. Uno ofrece mejor IA, el otro entornos deformables, uno ofrece física de líquidos y fuego, el otro ragdoll e impacto de proyectiles, uno animación facial y gestos el otro animación en tiempo real de movimiento (cinética inversa). En fin, poco a poco, uno sí otro no, todos exploran a su manera o según sus necesidades, lo que se encuentra más allá del realismo visual, que vendría a ser el realismo de escena, con el cual nos quedaremos por mucho tiempo hasta lograr el avance tecnológico requerido para ofrecer la inmersión/presencia virtual en escena.

Realismo visual es básicamente una característica líneal que depende de que tanto nivel de detalle y que tanto poder de procesamiento gráfico se puede poner en el pintado o renderizado de una imagen. Con la generación Radeon HD 3xxx y GeForce 9xxx está claro que hemos alcanzado un límite, ¿más? sí pero ¿para qué?. La generación Radeon HD 4xxx y GeForce 2xx son sólo avances líneales con un incremento de ese poder de procesamiento gráfico, la necesidad que se pueda tener de esos modelos depende en gran medida del tamaño de monitor que se posee y la resolución a la que se desea jugar o la resolución nativa si es un LCD. No por nada el movimiento a realismo de escena es inevitable e imparable.

Realismo de escena es una característica multidimensional, y no es por crear analógia con multi-core. Si el realismo visual es poder decir "guau... que bien, que realista se ve..." (el análisis es estático), realismo de escena es poder expresarse más allá "guau... mira el humo como se deforma, el agua como chapotea, esa luz como se refleja, esa bala como rebota, esa explosión como afecta al entorno, esa criatura como esquiva, ese edificio como colapsa, ese líquido como chorrea..." (el análisis es dinámico, requiere que haya acción y movimiento, de que el juego esté funcionando). Simplificando el caso, lo visual tiene que ver con un proceso óptico directo, en cambio lo otro es además un proceso mental y dinámico. Mental porque no es cuestión de sólo observar una imagen para notar que un comportamiento o una interacción no se siente realista. Dinámico porque para hablar de realismo visual nos basta una imagen, un screenshot, para hacerlo del realismo de escena necesitamos una secuencia lógica y continua de imágenes.

Con el hardware actual y en los videojuegos actuales todavía no se puede, ni se requiere, realismo de escena completo, como se necesita de una serie de acciones y eventos trabajando en conjunto el poder de procesamiento es aún insuficiente, además que la complejidad es extrema y el resultado final puede no ser útil. De ahí que cada juego, cada empresa, se concentre en destacar aquello que mejor favorece a su producto y la dinámica de juego que tiene. No necesito física de líquidos en un juego que transcurre 99% en el desierto. No necesito simulación o control balístico en un juego donde todas las armas son de cuerpo-a-cuerpo o rayos laser.

El futuro inmediato de la industria, en especial el lado software, está marcado por esa necesidad de saber decidir bien que dimensiones de la escena se necesitan, cuales aportan algo y cuales son irrelevantes. Más allá de permitir enfocar al equipo de diseño y desarrollo esto salva tiempo, dinero y esfuerzo. Es muy poco probable que aún cuando el hardware lo permita todo juego incluya realismo total de escena, puede que existan aquellos que la presentan bordeando límites o máximos pero para la mayoría hacerlo más allá de lo requerido o necesario se convierte en una mala decisión, nada más.

Considerando la naturaleza multidimensional y multidisciplinaria del realismo de escena es más que probable que empecemos a ver un número creciente de empresas enfocadas sólo en APIs middleware que pueden ser utilizadas por otras. Actualmente ya contamos con PhysX y Havok para física, Euphoria (de NaturalMotion) para animaciones en tiempo real, y de seguro hay más dando los toques finales a sus productos, esto en general permitirá a los desarrolladores enfocarse en lo necesario e indispensable, lo que reduce costos, minimiza recursos y tiempo, lo que es crítico.

Un fenómeno que podría darse durante la transición a la Tercera Era es una notable reducción de videojuegos de alto perfil para la PC. Ya se puede notar esta posibilidad en que casi todo juego anunciado recientemente es multiplataforma, incluso categorías antes asociadas al ordenador con relativa exclusividad como son los RTS. El motivo es comprensible, el hardware de la PC avanza y cambia demasiado rápido, por lo que es una plataforma complicada para la cual desarrollar; por otro lado, generalizar con consolas permite no dejar de lado la plataforma pero tampoco entorpercer el ritmo de, umm, presentación de nuevos productos. A parte que se puede asegurar que si ejecuta en una consola ejecuta en una PC con leves retoques.

Este fenómeno tiene su cara positiva y su cara negativa. La negativa es que los productos enfocados para el ordenador serán pocos y no siempre explorando al máximo sus capacidades. La cara positiva es que la evolución en consola deberá enfocarse en elementos que van más allá del realismo visual, aunque sea de forma parcial, por lo que llegada la hora mucho de lo aprendido, ideado, optimizado o descubierto podrá aplicarse en uno en la PC llevando categorías y videojuegos a niveles nunca antes vistos (en cuanto a jugabilidad). Hablo de un lapso de tiempo que podría rondar los 10 años, según sea el caso continuando con la presente generación de consolas o recién iniciando con la siguiente (asumiendo que habrá una).

En meses pasados se ha dado una ola de empresas que están viendo la mejor manera de desligarse un poco de la PC, como ser Capcom, UbiSoft, CryTek. El motivo podría tener un poco que ver con lo citado previamente y no tanto así la piratería o cualquier otra de las razones que dan (aunque también son válidas). Tampoco es por nada que corre el rumor de que el próximo Unreal Engine sería en un principio exclusivo para consolas de la subsiguiente generación (más allá de la Xbox 360 y la PlayStation 3), y que su viabilidad para ordenador es algo que se decidirá en su momento.

Vale destacar que los rumores colocan a la más reciente generación de consolas, la Wii, Xbox 360 y PlayStation 3 con un tiempo de vida estimado de hasta ocho años sin que les reemplace una nueva generación. La razón está directamente ligada con el hecho de que visualmente no hay donde más ir y ahora todo rodea el tema de la jugabilidad y la introducción del realismo de escena en los juegos. Sobre esto vale acotar, con el debido grado de escepticismo, que dependiendo muchos factores (como la piratería, evolución de los OS durante los siguientes cinco años, evolución del modelo de venta en línea, evolución del hardware y software en general al igual que de los periféricos, y un largo etcétera) podría suceder que ni siquiera exista una siguiente generación de consolas, al menos no en el sentido de como las conocemos hoy en día.

Aquí no hay que olvidar que los videojuegos son la forma más avanzada de software para las masas que existe, y por lo visto el tratar de ofrecer avances a la par de la evolución del hardware es cada vez más un problema que a corto plazo se torna en un inconveniente financiero; i.e. desarrollar para consola toma entre 1 y 3 años, para PC entre 3 y 5 o más. El espacio intermedio no es otra que productos multiplataforma, o consoleros, los que en una gran mayoría no son de mi agrado, pero bueno, siempre podremos esperar por aquel gran juego exclusivo del ordenador, o reinstalar algún clásico (suponiendo que todavía ejecuta). Bajo ciertas circunstancias ni siquiera se puede hablar de avance per se de/en la tecnología subyacente, sólo compatibilizar y adaptarla al nuevo hardware que aunque en escencia no cambia mucho para el software si.

Por suerte, y sacando energías para ser optimista, no todo es malas noticias bajo un esquema de desarrollo multiplataforma, se tiene el tiempo y los recursos para probar algo nuevo e innovador si bien no todo lo que se quisiera al nivel que se desearía. Aquí podemos hablar de la novedosa Inteligencia Artificial de Legendary acompañada de geniales y realistas efectos visuales. El sofisticado sistema de representación de edificios y otros componentes que posee Red Faction: Guerrilla que lleva la presentación y destructibilidad de las estructuras de un método caja de cartón a otro que toma en cuenta forma, materiales, peso, distribución, y resistencia.

La Tercera Era en videojuegos apenas está entrando en vigencia y será una Época que a momentos difícilmente podremos identificar porque ocurrirá de forma parcial en todas las áreas, y en contadas ocasiones de forma completa o bien notable en un sólo producto. Lo bueno es que el hardware está apunto de llevarnos ante muy atractivas y prometedoras posibilidades y hasta sorpresas. Lo mejor del caso es que el software está ante un inevitable salto, ante una imparable, necesaria y masiva evolución. Los siguientes cinco años se pitan muy interesantes, la próxima década tiene todos los indicios y todos los elementos para llegar a ser muy evolutiva. Si nada más, esta Tercera Era viene para quedarse y en cualquier momento nos dará mucho, pero mucho de que hablar.

Paso a Paso Entrando a la Tercera Era en Videojuegos

Juegos que desde mi punto de vista califican como entre los primeros en levantar la espada de acero para avanzar a una nueva Era son los siguientes. Unos más que otros pero tienen en común empezar a desligarse un poco de los gráficos y a concentrarse más en la dinámica de juego, la historia, y otros componentes de su tecnología.

Uno de los primeros no es otro que Crysis que junto con World in Conflict son los primeros en haber ofrecido alternativa DirectX 10 que se puede apreciar, por más que se trate sólo de presentar mejores efectos y mayor realismo visual. En jugabilidad Crysis ofrece una IA de los NPC que resulta más capaz en los enfrentamientos masivos, al igual que unos seres extradimensionales que se mueven bien en entornos 3D a la vez que evitan objetos y atacan de manera consistente. Por su lado World in Conflict ofrece escenarios extensos para conquistar aunque no de la manera libre que personalmente hubiera preferido, su IA también es buena.

Entre todos los juegos de reciente lanzamiento el que a mi parecer destaca como ningun otro, aunque esto es discutible, es S.T.A.L.K.E.R.: Shadow of Chernobyl. Tecnología visual aparte este producto de GSC Game World explora jugabilidad que es tradicional pero está extendida por el contexto, el diseño de niveles y la manera en que ha sido implementada. Este juego es uno de los pocos ejemplos que tenemos hoy que demuestra que es el todo lo que importa más que las partes, claro que si estas son geniales el todo más aún. Destaca su ambientación y atmósfera, la naturaleza abierta y libre de sus escenarios y jugabilidad, la buena IA, las criaturas y el impecable diseño de niveles. Considerando que su precuela sale pronto, Clear Sky, y mejora el más de los detalles limitantes casi con seguridad acaba como el juego para dejar instalado unos buenos años.

Si hablamos de extensiones hay que comentar aquellas de Legendary y su IA moderna que hace más reales y peligrosos a sus diferentes criaturas; el sistema de estructuras de Red Faction: Guerrilla que lleva el diseño cartón acostumbrado, al igual que la destrucción por guión, al nivel en que todo se derrumba en tiempo real obedeciendo a daños lógicos sufridos por un edificio, es decir, si se destruye el soporte derecho se inclina a la derecha, si se destruye todos los soportes se desmorona.

Juegos como Precursors y White Gold: War in Paradise muestran las posibilidades en cuanto a terrenos abiertos, y jugabilidad libre, incluyendo IA avanzada y un contexto que en algo varía según las acciones que toma el jugador dentro el mundo o universo del juego. Heavy Duty presenta un moderno sistema de renderizado que permite al usuario apreciar un globo planetario completo y jugar en cada sector sin tener la ilusión de estar en el planeta del Principito, también ofrece dinámica híbrida y un sistema de movimiento para sus mechs que utiliza cinética inversa, como el equipo de Blizzard en StarCraft II.

The Sims 3 trae todo un mundo nuevo de sofisticada simulación, al igual que la tecnología visual que le complementa y de muy buena manera. Por su lado Mirror's Edge pretende demostrarnos que la perspectiva en primera persona sirve para algo más que mostrar armas y ver al enemigo en la cara, habrá que ver si su dinámica acrobática a lo Prince of Persia queda vien con estilo shooter; no hay que dejar de lado el hecho de que todo el estilo de movimiento y saltos está basado en un sistema de inercia y física realista, es decir, para los grandes saltos y las acrobacias más interesantes hay que acumular momento en el sentido cinético de la palabra, así se adquiere el impulso y el empuje necesarios para saltar y trepar con un mínimo de esfuerzo, al menos esa es la teoría.

Artículos Complementarios

( - de -) SIGUIENTE >>
Sobre J de Juegos | Información Copyright | Contacto [ 10/Agosto/2008 ]