Con la salida de vídeojuegos de nueva tecnología como John Woo Presents Stranglehold, Crysis y Call of Duty 4: Modern Warfare, por nombrar algunos, éste año marca finalmente la necesidad de mejorar hardware si todavía no se lo hizo y aún se está entre quienes juegan con Pentium IV o Pentium D. Esto en caso de que se desee jugar lo más avanzado de lo último en configuraciones media o mejores; porque, por ejemplo, con una [Pentium D, 2GB RAM, X-Fi Xtrememusic y una Radeon ATI 1600 c/256 VRAM] los tres productos citados configuran automáticamente en su calidad mínima, aún así se ven bien pero no como deberían, o como cualquier aficionado quisiera.
La necesidad de mejorar un equipo durante éste último trimestre del año depende mucho de lo que se desee instalar y estar jugando durante los próximos meses. Al fin de cuentas con el hardware citado en el párrafo anterior juegos como World in Conflict, Hellgate: London, Death to Spies, Painkiller: Overdose e incluso Cliver Barker's Jericho todavía autodetectan un nivel entre medio y alto para detalles, shader y efectos audiovisuales, además ejecutan sin problemas. Aún así queda claro que para disfrutar al máximo, o mejor que promedio, de algunos de los productos que salen durante los próximos meses y el siguiente año será necesario mejorar el hardware con que se cuenta, en particular en los apartados referentes al CPU y la tarjeta gráfica.
La buena noticia aquí es que con la pronta salida de una nueva generación de procesadores tanto de Intel como de ATI-AMD, aquel conjunto que hoy representa la punta de su pirámide de productos se desliza a un nivel inferior. En el caso de Intel esto incluye toda la serie Core2 Duo y la Core2 Extreme que son una mejora aceptable en arquitectura y poder de procesamiento en comparación con las Pentium IV, Pentium HT, Pentium D y Pentium Extreme. Qué usuario en promedio requiere en verdad saltar a la generación de las Core Quad y aquellas con más procesadores planeadas para el año siguiente es --al menos para mi-- un misterio. Después de todo siguen saliendo al mercado productos que son incapaces de aprovechar de arquitecturas multi-core, como es el caso de Stranger, Mutant o Death to Spies.
Sin que importen demasiado los detalles, lo que con más seguridad tendría que ser mejorado es la tarjeta de vídeo, esto porque para el más de los últimos juegos de alta tecnología una tarjeta de vídeo como la [ATI Radeon 1600] ya prácticamente está en la categoría de lo mínimo y apenas compatible. Algo dejado muy en claro por los demos de Crysis y Call of Duty 4. Lo positivo del caso es que tanto ATI-AMD como Nvidia poseen una extensa serie de productos cuyo costo varía entre los 100,00 y hasta menos dólares americanos, con un grupo de muy buenas prestaciones rondando la zona crítica para el bolsillo de la mayoría de los vídeojugadores que es entre los 150,00 y los 250,00 dólares americanos (precios en EE.UU. y la Unión Europea).
Como nota agregada y de último momento vale anunciar el lanzamiento por ATI-AMD de una nueva generación de tarjetas de vídeo, las Radeon HD 38XX (generación 3, serie 8, modelo/variante XX), que tiene todas las intenciones de recuperar, y/o ganar, mercado y nuevamente poner a Nvidia a toda marcha. Un resumen sobre las nuevas tarjetas que se puede extraer del extenso artículo sobre el tema en ExtremeTech(.com) es lo siguiente: (para el primer modelo en el mercado que es el HD Radeon 3850) trabaja con el nuevo procesador gráfico RV670 que mejora y optimiza mucho toda la arquitectura R600, incluyendo el uso de un método de fabricación de 55nm en vez de los 80nm de la entrega precedente, lo que reduce su tamaño, uso de energía y producción de calor.
Lo anterior en conjunción con las optimizaciones en el diseño de la tarjeta misma y su gestión de recursos, ancho de banda y capacidades del GPU, logran que obtenga resultados reales que duplican a la generación precedente de costo promedio (Radeon HD 2600 XT) y están muy cerca de las más caras (como la Radeon HD 2900 XT). Lo que convierte a ésta primera entrega, la HD 3850, en una muy atractiva oferta para cualquiera buscando la tarjeta gráfica ideal para los juegos más exigentes del momento, y/o compatibilidad con DirectX 10, sin por ello gastar los ahorros de una vida o tener que pedir prestamos.
El costo actual de la HD 3850 está alrededor de 189,00 $us, en EE.UU. y existe una gran posibilidad de que salga un modelo con 512 de VRAM durante los próximos meses lo que podría bajar un poco más el costo de ésta, sin olvidar posibles ofertas de fin de año y otros durante inicios del 2008. Otro detalle cuya relevancia es muy abstracta es que es compatible con el DirectX 10.1 que saldría con el SP1 a Windows Vista el año próximo (con la nota que se trata en todo caso más de optimizaciones, debugging, arreglos y mejoras y no así extensiones; sin olvidar el detalle de que habrá que ver que arreglo afecta en verdad el hardware compatible y si vale la pena un upgrade del mismo).
La relación más aproximada de los modelos ATI-AMD citados en el párrafo anterior con los de Nvidia es la siguiente (al menos en lo que concierne a costo, características y resultados en el mundo real): para la Radeon HD 2600 XT es la Nvidia GeForce 8600 GTS; para la Radeon HD 2900 XT es la Nvidia GeForce 8800 GTX; finalmente, para la Radeon HD 3850 es la Nvidia GeForce 8800 GT. Esta última también considerada como excelente por ExtremeTech(.com) por cuanto su relación costo-oferta-resultados es muy efectiva.
Aunque puede ser calificado como una especulación personal, vale señalar que lo más atractivo de cualquier actualización o adquisición bien pensada de hardware a partir de éste punto es que tendrá una vida útil, al menos en teoría, más larga de lo normal, siempre y cuando se realice las cosas mirando al futuro inmediato y considerando un inevitable si bien postergado paso a Windows Vista durante el 2008. Tomando en cuenta un balance lo más eficiente y efectivo posible entre lo que se quiere o puede invertir, y lo que se piensa o necesita realizar con el equipo. En lo que a vídeojuegos concierne siempre conviene pensar en características un poco más que promedio, sin llegar el extremo de lo último que es muy caro y se devalúa en pocos meses. Entre lo que me permite apoyar ésta especulación está lo siguiente.
Todavía no hay en el mercado juegos que realmente aprovechen del DirectX 10 en su totalidad, no existe ni un engine que sea sólo compatible con o haya sido diseñado desde cero para él. Sin embargo cualquier hadware debidamente adquirido, o mejorado, entre éste fin de año y el siguiente será compatible en un 100% con el citado API. Lo que daría a todos los componentes físicos al menos uno a dos años extra de vida mientras ocurre la transición real del DX 9.0c al DX 10 (esto siempre y cuando no se esté entre aquellos que quieren lo último y mejor en todo momento, para jugar lo último y mejor al máximo permitido por su configuración).
Otro aspecto interesante es que cualquier tarjeta moderna compatible con DirectX 10, al menos en teoría, requiere de un menor grado de actualización constante gracias en gran parte a la nueva dinámica establecida por el modelo de shaders unificado. Y el que en hardware sus arquitecturas sean más multi-núcleo y capaces, otra vez al menos en teoría, de compensar dinámicamente la carga de procesamiento. El punto aquí es que, al menos dentro lo que se conoce porque no hay manera de comprobarlo empíricamente aún, si antes una --buena-- tarjeta de vídeo tenía al extremo entre uno a tres de vida (dependiendo el modelo y considerando aceptabla hasta una configuración media) ahora esto debería incrementarse como mínimo por un año.
Todo esto puede ser apoyado por el hecho de que al menos visualmente los engines ya no tienen mucho más donde evolucionar por lo que seguir una lógica de más polígonos, más detalle, más efectos ya no sería práctica (o en verdad notoria desde el punto de vista del usuario). Un ejemplo claro aquí es el engine de Crysis, aún con detalles a mínimo se ve mejor que el engine de FarCry con todo al máximo. Es obvio que cuenta con más polígonos, mejor uso del modelo de shaders 3.0 y más detalle en general, lo que en verdad lo distingue del anterior Crytek Engine es su mejor uso de un sistema de física integrado, y otros detalles como el foliaje dinámico y reactivo (sólo en DX 10). Muchas de estas mejoras, no todas tan notorias, ya no trabajan con el GPU sino con el CPU y en el caso de aquellos que utilizan el PhysX de Ageia con el PPU. Es decir, los engines de la próxima generación, aquellos sólo compatibles con DirectX 10, evolucionaran de tal manera que en el más de los casos ya ni los más avanzados requieran de una nueva tarjeta gráfica (al menos no al ritmo de lo que estuvimos experimentando durante los últimos 10 años).
Agregando a lo anterior, también hay que considerar que el cíclo de evolución del hardware gráfico parece estar desacelerando en gran parte para permitir que los compradores, y los fabricantes, puedan aprovechar de tecnologías como Crossfire o SLI. Al fin de cuentas siempre vale la pregunta de ¿para qué gastar 500 en una nueva tarjeta de vídeo de ultimísima generación, si puedo gastar 200 o 300 en otra tarjeta de penúltima --y quizá la tarjeta madre extra-- para ejecutar dos en paralelo que es siempre mucho más que una sola aunque moderna?
Personalmente, especulando por las tendencias, comentarios e información disponible en línea, creo que ahora los cíclos de evolución tanto del hardware que les soporta como de los engines que hacen posible un vídeojuego cambiaran de ritmo. Por un lado tenemos tecnologías multi-core, arquitecturas altamente paralelas, y tecnologías que permiten a dos (o más) tarjetas trabajar y procesar datos como una; y por el otro engines que evolucionan en campos que ya no dependen del GPU, es inevitable que el cíclo de vida de ambos sufra alteraciones durante la fase de adaptación y adopción del DirectX 10. Lo que casi con seguridad será algo muy positivo, al menos desde el punto de vista de muchos usuarios que podrán desacelerar un poco su ritmo de actualizaciones, o su necesidad para las mismas.
Cambiando de tema un poco, aquí vale notar como en días recientes Sony decidió deshacerse de sus plantas de fabricación de chips Cell al igual que apartarse en gran medida del grupo de Desarrollo e Investigación (R&D) con quienes lo crearon (Toshiba e IBM). Según sus anuncios el plan es desligarse de la parte de producción y más bien enfocarse en el apartado del desarrollo de arquitecturas para microprocesadores avanzadas (incluyendo las para cámaras digitales). Lo que veo como una idea a largo plazo (unos 10 a 15 años) que podría en su momento, y si todo va bien, ser una de esas movidas críticas y muy relevantes.
La razón es simple, el plan de evolución tanto de Intel como AMD ya es conocido y no difiere mucho del incluir más núcleos de procesamiento por nueva generación; lo que aunque en cuestión de cíclos de procesador es historia aparte, obedece a un concepto empresarial que ya no es tan diferente del incremento continuo de la velocidad en sus generaciones pre multi-core. Detalle que podría colocar a Sony en un muy buen lugar si dentro de una década, o un poco antes, aparecen con arquitecturas realmente vanguardistas que vayan más allá de fotocopiar e integrar cores dentro un mismo circuito (pastilla si se quiere); lo que muy bien podría ser el plan si nos basamos en la tecnología Cell que ayudo a desarrollar. Veremos, sólo espero que no vengan con el famoso, trillado y nada convincente concepto de toda la PC en un sólo chip (a menos que lo hagan bajo un concepto fresco e impecable).