Lista Artículos Lista Editoriales Enlaces Juegos en Línea Noticias Tienda J por Amazon(com)
J de Juegos.com
PC
AYUDA   |   BUSCAR x CLAVE   |   
Buscar con GOOGLE >>>
 
Escríbenos! Galardones. Juegos Recientes.
Preguntas Frecuentes - Galerías - Códigos - Descargas - Enlaces - TOP 10
| ACCIÓN | | AVENTURA | | CARRERAS | | DEPORTES | | ESTRATEGIA | | JUEGOS DE ROL | | SIMULADORES |
ZoomING - Junio 2008
x Webmaster

Notas rápidas del Computex 08 en Taipei, Taiwan. Con la salida de la nueva generación de GPU de ATI y Nvidia es necesario notar la desesperación --entre líneas-- y el deseo de reinventarse que poseen ambas diseñadoras, desarrolladoras y fabricadoras de tarjetas gráficas.

- - -

Este año lo más destacado en el evento tecnológico de Computex 08 Taipei fuer, obviamente, cualquier información que se pudo ver u obtener sobre las tarjetas gráficas de ATI o Nvidia. También importantes fueron los datos que se ofrecieron sobre la siguiente microarquitectura de Intel, la Nehalem. El último tema de interés son la nueva generación de mini-laptops que se presentaron al mercado oficialmente como Eee PC y que utilizan el procesador Atom de Intel, y en un futuro el Nano de VIA.

Por la información disponible de quienes asistieron al evento se tiene que el Nehalem es una nueva microarquitectura muy prometedora, al punto que ya se especula que AMD no será rival de Intel en cuanto a CPUs hasta, con suerte, mediados del 2009. Según comparaciones realizadas con una versión lenta en tarjetas madre todavía no optimizadas los resultados parecen demostrar que sería entre un 10% y un 20% más rápido y eficiente que el mejor procesador Penryn actual sin por ello incrementar exageradamente el consumo de energía. Lo que le colocaría a la cabeza en la batalla de los CPUs.

Los mini-laptops Eee PC poseen la gran característica de consumir un mínimo de energía y rendir bastante bien en aplicaciones que califican como de uso diario y/o para el trabajo. Qué tan necesarios son es algo discutible y siempre tema de debate entre el consumidor y los fabricantes pero en estos tiempos en que está de moda lo ultra-portatil no creo que falte gente interesada en ellos, menos considerando que ya existe competencia en cuanto a la tecnología que los soporta con el Atom de Intel, el Nano de VIA y las alternativas extras que puede ofrecer el Tegra de Nvidia.

- - -

Desde aproximadamente inicios de año que los rumores de nuevos GPU de ATI y Nvidia han ido avanzando poco a poco hasta ser una realidad física y tangible, al menos para Nvidia desde el pasado 16 (y actualizando, para ATI desde este 19). La primera compañía con su RV770 y la segunda con su GT200, uno traducido en los modelos de tarjeta gráfica Radeon HD 4850 y HD 4870, el otro en los GeForce GTX 260 y GTX 280. En términos de tecnología ATI lleva cierta delantera porque su GPU es fabricado a 55nm y es compatible con el DirectX 10.1 al que Nvidia califica de "irrelevante", motivo por el cual su nueva generación no le sabe aprovechar.

Si bien ambas microarquitecturas, RV770 y GT200, poseen cierto grado de diferencia con sus predecesores el más de los conocedores del tema las califican como simples evoluciones incrementales, es decir, más stream processors, más canales de memoria, más de todo lo indispensable. No por nada el GPU de Nvidia cuenta con 240 stream processors (a los que ahora refiere como Cores, lo que es claramente un movimiento de mercadeo) y el de ATI con 800 en su versión de más nivel, la RV770XT. El punto es que ambos cuentan con una increíble fuerza bruta, si nada más.

Se puede especular que el año pasado con la salida de juegos como Crysis y World in Conflict, sin olvidar los anuncios de Intel, tanto ATI como Nvidia llegaron a la nada halagadora realización de que los días de la tarjeta gráfica están contados, al menos como un componente de hardware indispensable para cualquier PC. Los motivos no son muchos pero son claros: (i) el número de núcleos en un CPU está apunto de sufrir una explosión, de 4 y 8 probablemente a 16 y 32 o más, pero ni el vídeojuego más sofisticado es capaz de utilizarlos a todos, entonces no queda otra que usar los restantes sea para renderizar y/o simulación física.

(ii) Si algo queda claro con la nueva generación de videojuegos y sus engine gráficos es que visualmente no hay donde más ir, no por nada las nuevas generaciónes de GPU no están tanto apuntando a ofrecer más y mejor rendimiento en general como ofrecerlo a quienes utilizan monitores de gran tamaño y resoluciones elevadas (1440x900, 1600x1200 y arriba). (iii) Con Larrabee Intel no pretende entrar en el juego de los GPU pero más bien en los de ofrecer hardware adicional con un poder de procesamiento elevado que puede o no ser utilizado para renderizar, detalle en el que parecen haber caído los de la competencia (una especulación educada personal).

Es casi con seguridad por el punto (iii) que tanto ATI como Nvidia han empezado a poner mucho énfasis en que sus GPU poseen la capacidad de ser utilizados para otra cosa, no sólo renderizado de videojuegos. Con el lanzamiento del modelo de shader unificado en el DirectX 10 ambas compañías vieron la alternativa de ofrecer no sólo tarjetas gráficas pero una especie de co-procesador matemático ultra-avanzado. De ahí que ahora sus GPU sean programables para realizar tareas distintas a sólo lidiar con polígonos y texturas.

Por motivos bastante obvios es Nvidia quien pone más énfasis y promueve más toda esta idea del GPU como un centro de procesamiento matemático. Su extensión al lenguaje C, CUDA, ha estado llamando bastante la atención y lo hará mucho más gracias a que tras adquirir Ageia han pasado todo el API y los controladores necesarios a CUDA, lo que, como ellos mismos lo anuncian, permite a cualquier tarjeta GeForce de la familia G88, G92 y GT200 trabajar en GPU videojuegos compatibles con PhysX. Esto de seguro también es una movida para promover la compra de mejores modelos o en todo caso considerar la adquisición de aquellos X2 o la alternativa SLI, porque dudo mucho que una sóla tarjeta sea capaz de eficientemente renderizar y procesar simulación física a buenos niveles de detalle y altas resoluciones.

En el afan de no quedar atrás pero tampoco ceder ante la presión de la competencia ATI ha optado, al menos por ahora, trabajar con el sistema de simulación física Havok (en manos de Intel desde hace un tiempo), y si bien por ahora sólo es para optimizar sus CPUs (como AMD), no hay donde dudar de que en un futuro inmediato será posible trabajarlo en sus GPU. Además esté detalle no impide que en su momento también ofrezca compatibilidad con CUDA y PhysX.

Una nota sobre el tema del inevitable hecho de que ambas compañías están viendo la manera de hacerse relevantes en un futuro inmediato es como Adobe ha anunciado recientemente que la próxima entrega de Photoshop (el CS4) será capaz de aprovechar de un GPU para realizar cantidad de operaciones (como aproximación, alejamiento, antialiasing, etc) en vez de sobrecargar al CPU. Y está es una movida que con seguridad está siendo impulsada tanto por ATI como por Nvidia en todas las direcciones posibles.

Es en respecto a todo lo anterior que también resulta notable como Nvidia, antes una opositora total del tema Ray Tracing, ha adquirido recien a una compañía que precisamente se ocupa en ofrecer alternativas visuales basadas en ese método. ¿Quizá con el afan de prepararse para el DirectX 11 que se supone saldrá con Windows 7 y que tendría funcionalidad Ray Tracing? De seguro lo sabremos muy pronto, o al menos sabremos algo más.

Por lo pronto tenemos que los GPU tanto de ATI como de Nvidia son poderosas máquinas de cálculo computacional en un sólo chip, su funcion principal es lidiar con imagenes visuales y gráficos, pero queda claro que sus compañías madre tienen la intención de promover su uso más allá de los videojuegos a como de lugar. Un área donde sus capacidades de computo están llamando notablemente la atención es en la denominada HPC (High Performance Computing) como es el caso de proyectos del tipo Folding@Home --también conocida como computación distribuida-- donde su velocidad para tareas de cálculo se torna relevante. Basta ver como en una universidad de Bélgica un equipo ha logrado poner en modo SLI a cuatro tarjeta GeForce X2 y obtener así una capacidad computacional equivalente a la de una súpercomputadora por un costo menor al de un auto a medio uso.

Puede que todo esto no sea más que intentos desesperados de ambas productoras de GPU, en particular Nvidia porque ATI puede siempre ser absorbida más y mejor por AMD, por mantenerse relevantes en un futuro inmediato en el que los CPU con muchos núcleos tienen que ver en qué y cómo utilizar aquellos cores que para vista del software más sofisticado ya no son relevantes o prácticos. Habrá que ver como evoluciona todo esto, lo seguro es que podrían surgir cosas muy atractivas e interesantes.

- - -

Sin alejarse mucho del tema de las tarjetas gráficas aquellas pertenecientes a Nvidia ya están en el mercado, aunque no en todos los casos disponibles para compra inmediata. Lo que se tiene es básicamente lo que se esperaba, un GPU mucho más poderoso, más potente, más capaz sin embargo parece que también viene con más desventajas de las que muchos estarán dispuestos(as) a aceptar: es un chip grande y consume mucha electricidad, 200W aprox., y genera mucho calor, sin olvidar que son las tarjetas de vídeo más caras jamás vistas. Un promedio de 500-600 $us para la GTX 280 y 400 $us para la GTX 260. Aunque se estima que sus precios vayan a bajar, pero por el tamaño de sus chips tampoco se estima que lo hagan demasiado (un reciente anuncio por Nvidia de la existencia de la GeForce 9800 GTX+ como la versión fabricada a 55nm permite estimar que no tardaran en ofrecer la GT200 mejorada o al menos reducida en tamaño).

Muchos de los modelos overclocked anunciados aceleran las velocidades de reloj(es) muy poco, se puede especular que esto se debe a su poco conocimiento práctico de los límites del chip en este momento, además que siendo uno que consume tanto poder y genera tanto calor tendrán que pensarla muy bien y diseñar mejor antes de ofrecer, si lo llegan hacer, modelos que están acelerados mucho más. Claro que en lo que concierne a rendimiento no son productos nada tímidos, en promedio son entre 30% y 50% más rápidos que los modelos más veloces disponibles hoy, incluyendo a una Radeon HD 3870 X2.

Vale notar que el GTX 260 califica --casi-- como un producto reciclado de los chips fállidos salidos de la secuencia de fabricación de un GTX 280. Posee 192 shader processors que resultan de la desactivación de dos bloques funcionales de una GTX 280 y cuenta con la bizarra cantidad de 896 MB de memoria GDDR3. No deja de ser un producto funcional pero tampoco se trata de una microarquitectura alternativa, más bien de una opción para rescatar aquellos chips con problemas de la generación líder basada en el GPU GT200.

- - -

A tiempo de subir el presente artículo, AMD-ATI se vio ante la inevitable presión del mercado de quitar el velo y las restricciones respecto a la Radeon HD 4850, aunque mantiene ambos para la 4870. El precio actual ronda los 199,00 $us y supera según lo esperado tanto a la familia Radeon HD 3800 como a la GeForce 9800 GTX, aunque a esta última no en todo. Ya se encuentra modelos estándar de Sapphire, MSI y PowerColor.

La actual ronda que se puede comprar, sin que importe mucho el fabricante o el sticker, es aquella base, ni siquiera se encuentra alternativas de enfriamiento más interesantes que el estándar heatsink/ventilador/extractor. El grupo de revisiones que se puede encontrar en diferentes sitios dedicados al tema (ver el artículo sobre la actualización de una tarjeta este 2008) tienen sólo una queja, que es bastante caliente aunque no por ello tiene problemas. En cuanto a ventajas tienen el que sólo requiere de un conector de seis pines, su enfriador ocupa un sólo espacio, y la relación rendimiento/precio es la mejor del momento (aunque la aparente bajada de la GTX por Nvidia quita peso a este hecho).

En lo que concierne a la generación precedente de productos de ATI, este primer integrante de la familia basada en la RV770 es un buen ejemplo de la capacidad de la microarquitectura, en especial en lo que respecta al renderizado eficiente de Antialiasing de Escena Completa (Full Screen Antialiasing, FSAA). A grosso modo se puede decir que la 4850 no tiene ningún problema al momento de presentar hasta el juego más exigente, incluyendo Crysis y World in Conflict, en resoluciones alrededor de los 1280x1024 pixeles al máximo de detalle y con antialising, incluso puede con el producto de Crytek a 1600x1200 a máximo detalle pero sin antialiasing.

( - de -) SIGUIENTE >>
Sobre J de Juegos | Información Copyright | Contacto [ 17/Junio/2008 ]