25/6/08

ATI Radeon o NVidia GeForce? Cual conviene y por qué?




Esta pregunta tenía una fácil respuesta hasta hace pocas semanas atrás inclusive, puesto que la serie 9000 de NVidia GeForce destacaba por buen margen con respecto a su única competidora, ATI.

Esta supremacía sin embargo ya se ve amenazada ante la salida a la luz de los nuevos modelos de ATI, tanto la Radeon HD4850 como la Radeon HD4870, recientemente lanzada. Sin embargo, hay que tener claro que en cuestión de rendimiento, la estrella de NVidia, es decir la GeForce GTX280 no tiene rival directo, pero dado el elevado costo de los modelos de gama alta, una gran parte de los usuarios preferimos enfocarnos en otro aspecto, yo diría mas importante que simplemente el rendimiento y me refiero a la relación rendimiento/precio (alias "costo-beneficio"), es decir, que tanto vale una tarjeta de acuerdo a su rendimiento en relación a su precio, tiene más sentido analizar con más detalle este aspecto verdad?

Cuando la Radeon HD4850 fue lanzada, causó un fenómeno que hace tiempo no se veía en NVidia: un reajuste de precios, y es que el rendimiento de este modelo demostró que está a la par de la nada despreciable GeForce 9800GTX, pero con el "pequeño gran detalle" de que esta última costaba 100$us más, la respuesta? pues NVidia tuvo que bajar de la noche a la mañana 100$us a ese modelo y además lanzar una versión mejorada: la 9800GTX+.

Ahora bien, una vez que tenemos disponibles las revisiones de la Radeon HD4870, ya podemos tener una idea clara de su rendimiento en comparación a los nuevos modelos de NVidia y por supuesto con su hermana menor, la HD4850.

Entre los varias evaluaciones que leí, encontré la realizada por MadBoxPC, que dedica un apartado exlusivamente a lo anteriormente mencionado, la relación rendimiento/precio, que se llega a medir en FPS/$.



De acuerdo a este enfoque más práctico, podremos ver que los modelos de ATI se destacan favorablemente, en especial la HD4850, sin duda el fenómeno de los nuevos modelos de ATI va a seguir moviendo los precios de varios modelos de tarjetas de video, y más aún teniendo en cuenta de que aún faltan por salir los modelos de doble núcleo (GPU) de ambas firmas.

Mas información disponible en:

22/6/08

Original o "trucho", en memorias ¿quien sabe?

Para quien tiene la costumbre de realizar compras en el mercado local, la conocida "Cancha", y específicamente hablando "el Miamicito" tal vez le ha llamado la atención de que al preguntar por memorias, ya sea flash, como las microSD, SD, etc, o bien de las memorias RAM hay algunos comerciantes que ofrecen dichos productos en conocidas marcas, especialmente de la reconocida Kingston, a precios increíblemente bajos. Que interesante verdad? Eso sería una muy buena noticia de no ser por un pequeño "gran detalle", son falsificaciones, o en términos populares "truchas"!!!. Si, señor, antes uno podía ir a la cancha y en el caso de las memorias RAM podía escoger entre las "genéricas" y las de "marca", Kingston la más conocida; pero ahora, los estafadores van más allá, pues ahora podrá ver algunos modelos "Kingston" en unos precios absurdos, como lo hacen? FALSIFICANDO, y no es que los amigos comerciantes del "miamicito" se dediquen a ello, pues ellos son COMERCIANTES y lo que hacen es vender el producto, no lo fabrican, pero bien saben ellos en su mayoría, distinguir cual de sus productos es "Kingston trucho" y cual es "original".

Vamos a poner un ejemplo, como recientemente traje un pequeño stock de las microSD Kingston (originales por favor) antes me dediqué a ver si valía la pena considerar ese producto, me llamó la atención de que un modelo de 2GB, con los 2 adaptadores (miniSD y SD) costara una ridícula suma de 19$us en algunos negocios, caramba, pensé para mis adentros, como le hacen para tener ese precio? y así iba preguntando por aquí y por allá y me encuentro con un amigo que comercializa sus productos, "BN" quien me explica que efectivamente el tiene de ambos, tanto los productos originales como los truchos, y que hay algunas diferencias sutiles que podría llevarnos a reconocer cual es cual, para no meter la pata claro está; entre las varias cosas que me explicó resulta que la empaquetadura de los originales viene sellada en toda su área circundante, mientras que los productos truchos solo traen uniones en unos pocos puntos, por lo demás ambos productos tienen presentaciones muy similares, la falsificación está fuerte mis amigos, es importante conocer todos estos detalles; y claro, los adaptadores por lo general no funcionan, después de todo "lo barato cuesta caro" y creanme que la calidad del producto trucho deja muchísimo que desear.

Con respecto a las memorias RAM, ya no verán tanto producto "genérico" sino que podrán encontrarte con que hay "Kingston" (truchas obviamente) que se venden a unos precios similares a cualquier memoria de dudosa calidad, y uno toma la caja, la mira de arriba para abajo y efectivamente, la etiqueta de la cajita de la memoria dice "Kingston..." con el código y todo, pero... si uno abre podrá darse cuenta de la "mamada" del producto, puesto que los chips de memoria llevan códigos ininteligibles y en algunos casos ahi se muestra la verdadera marca del chip; en cambio una memoria RAM Kingston original trae sellada la marca Kingston en cada chip, no solo en la etiqueta externa. Cuanta gente incauta cae con el producto falsificado, es increíble, al menos si uno se pone a ver como existen vendedores inescrupulosos o ignorantes te ofrecen la memoria "de marca" como una ganga total, algunos a sabiendas que están estafando a su cliente, una vergüenza.

MicroSD "Mobility kit" Kingston, por su lector USB uno ya sabe que se trata del Kingston original


En mi caso personal me animé a traer 2 modelos microSD Kingston, y escogí los "mobility kit" por 2 razones:
  • primero, son los más versátiles, tienes una microSD clase 4 y todos los adaptadores que uno podría necesitar, la miniSD para algunas PDAs por ej y el adaptador SD para los lectores de tarjetas de muchas PCs y consolas, como los PS3, Nintendo Wii por ejemplo.
  • segundo, a Dios gracias, como este modelo trae lector USB incorporado, es algo más difícil poder falsificar éste por lo que resulta ser un punto a favor para demostrar la autenticidad del producto, en otras palabras, el "Mobility kit" no hay trucho; yo personalmente uso uno de estos modelos como "pendrives" y ya dejé mi Sony anterior pq estas microSD son bastante más rápida.

En el caso de la memoria RAM la tengo algo más "peluda" puesto que muy pocos se darán la tarea de revisar si efectivamente los chips de la memoria son todos Kingston, y seamos honestos quién habría de revisar la memoria de esa manera, pocos, principalmente pq no conocen este importantísimo detalle; este es un tip que me ha enseñado mi amigo "W", que ya tiene bastante experiencia en la venta de estos insumos ("más sabe el diablo por viejo que ..." etc).



El primer modelo es el que más se presta a falsificación, las cajas las copian fácilmente y la etiqueta, trabajo fácil para el falsificador. El segundo modelo es más seguro puesto que, al menos hasta ahora, no he encontrado falsificaciones por su caja más que todo. El tercer y cuarto modelo (Kingston HyperX) son los que dudo mucho que los falsifiquen, al menos por buen tiempo claro, ya que cuentan con un elemento visual característico: su disipador de calor, elemento con el cual solo los modelos avanzados cuentan.

Espero esto sirva para informar y conocer algo mas de las queridas Kingston, no vayan a caer ingenuamente y compren un producto trucho, con esos pequeños tips ya podrán reconocerlosde manera más fácil. Si quieren productos de calidad, Kingston ORIGINAL por favor!.


19/6/08

Radeon HD 4850: ATI Contraataca !




Ni bien ha salido a la luz el modelo "top" de la firma NVidia GeForce, ATI de forma casi paralela ha sacado uno de sus "ases" bajo la manga: la Radeon HD4850.

Al igual que sus anteriores lanzamientos, ATI no busca desbancar de forma directa al modelo de referencia de NVidia, sino que apunta, por ahora, a plantarle cara a uno de los modelos de gama alta, en este caso la 9800GTX.

Si bien hace un tiempo atrás se sabía del inminente debut de este modelo, aún no se tenía una idea clara de cual sería su rendimiento final, y ahora empiezan a salir los reviews que ponen de manifiesto un "mano a mano" entre la HD4850 y la 9800GTX; al principio la batalla se daba en las evaluaciones de rendimiento, pero una vez que ATI ha anunciado el precio oficial "sugerido" para este nuevo modelo, con una diferencia inicial de aprox. 70$us con respecto a su directa rival, NVidia ha anunciado el día de hoy que su 9800GTX va a sufrir una rebaja drástica de 70$us en promedio, sin duda la guerra se pone más que interesante y quienes vamos a salir ganando somos los consumidores finales puesto que la relación rendimiento/precio de estos modelos es una de las mejores sino la mejor hasta el momento, bienvenida la competencia... todo apunta que además otros modelos como la seria HD3870 de ATI tendrá un inminente reajuste de precios también, NVidia sin duda no va a querer perder su cuota de mercado y estamos atentos a algún nuevo anuncio en relación a los precios de algunos de sus modelos.

Cuales resultan ser entonces las palabras finales en cuanto a su rendimiento: LegionHardware y TechPowerUp ya se han puesto manos a la obra y ya podemos ver como es que se va a situar finalmente la HD4850 en el ranking general.

LegionHardware se ha enfocado específicamente a realizar una comparativa entre los dos modelos mencionados, y nuevamente como ejemplo les pongo la evaluación con Crysis, esta vez sin los filtros AA y con DirectX9 para obtener un mejor promedio de FPS.


En términos generales se observa prácticamente un empate, las diferencias a favor del modelo de NVidia son mínimas.

Qué es lo que ha hecho ATI para poder obtener esa mejora de rendimiento con respecto a su anterior generación? en resúmen ha mejorado frecuencias, y ha aumentado sustancialmente la cantidad de "stream processors", que dicho de una forma sencilla, son una especie de sub-procesadores de flujo de gráficos que van integrados en el GPU.

La siguiente tabla nos muestra las mejoras de hardware de la nueva integrante de la familia ATI con respecto a sus hermanas de la anterior generación "3000".



La cantidad, tipo y el ancho del bus de la memoria se mantienen, con 512MB de DDR3 y 256 bits respectivamente. Personalmente veo una gran mejora, especialmente con su par anterior, la HD3850.

Y bueno, seguramente las cosas se van a poner mejor, puesto que a diferencia de NVidia que espera la salida de un modelo inferior, ATI va a sacar recién a su mejor carta: la Radeon HD4870, ya veremos después como es que ese modelo se ubica en la clasificación general.

Mas información en:

Finalmente les dejo con el video de presentación de la serie HD4000 de ATI, a cargo de su departamento de marketing (en inglés).




.




17/6/08

GTX280, el nacimiento de un monstruo...


Ya es oficial, salió a la venta el nuevo modelo y ahora punta de lanza del ranking de todas las tarjetas de video "gamers": la GTX280.
Y es que estrella de la anterior generación GeForce era la 9800GX2, pero toda la serie 9000 no ha sido mas que un "remake" de la exitosa serie 8000, puesto que NVidia no había realizado ningún cambio o innovación en la arquitectura de ésta, en resúmen se lo puede poner así:
  • el único modelo nuevo como tal fue la 9600GT, con mejora sustancial con respecto a la 8600 debido a que ya trae bus de 256 bits.
  • la 9800GTX no es más que una 8800GTS (GPU G92) mejorado en sus frecuencias.
  • la 9800GX2 (la defenestrada reina) abarca en realidad dos 8800GTS (G92) en configuración SLI interna.
  • la 9600GSO es la mismísima 8800GSO con el nombre actualizado (marketing al 100%).
Pero en el caso de la GTX280 (y su hermana menor, la GTX260) tenemos una serie de mejoras e innovaciones dignas de una nueva generación, las podemos resumir así (cortesía de Guru3D):





  • 1.4 billones de transistores (duplica a la 9800)
  • 240 shaders - (vs 128 de la 9800GTX)
  • CUDA, proceso en paralelo
  • GeForce PhysX
  • 512-bit de bus
  • 141.7GB/s ancho de banda de memoria

El ancho de banda es realmente alto, en números brutos la GTX280 tiene un rendimiento superior en un 50% c/r a la 9800GX2 y lo más destacado es que estamos hablando de un modelo con un solo GPU, así que hay bastante margen de mejora cuando salgan los modelos multi-GPU. Aquí la tabla comparativa (Guru3D) lado a lado con los modelos top previos.


Por ahora el rendimiento más "brutal" se lo obtiene con la configuración de la foto, en triple SLI, claro que son pocos los que podrán darse ese luego, pues el precio de salida de este modelo en Estados Unidos es de 650 $us mínimo; y gastar como 2000$us solo en video es cosa de pocos, lamentablemente.

Tal vez lo único que nos pueda preocupar de este modelo es que tiene un consumo de energía alto, algo que era de esperar considerando sus características, 236W a full en modo 3D.

La prueba de fuego claro está, va a ser con los juegos más exigentes, y si de exigencias se trata, Crysis es uno de los mejores representantes, y he aquí su rendimiento:





El promedio a 1920x1200 y con los filtros AA, es de 27FPS, o sea, que es la primera tarjeta de 1 solo GPU capaz de hacer "jugable" este juego (valga la redundancia) a esa resolución, y eso no es poco decir, sus inmediata competidora (la 9800GX2 y la ATI 3870x2, que son doble GPU) rinden una tercera parte y aprox. la mitad respectivamente.

Para aquellos que quieran profundizar más el tema:
Ahora, a esperar las evaluaciones de la hermana menor, la GTX260.

-------------------------------------------------------------------------

Mientras, un video de este bestial producto:



15/6/08

ATI Radeon HD 3650 de 1GB, un verdadero monstruo... del Marketing

Después de haber expuesto la importancia de conocer cuáles son los verdaderos parámetros importantes a la hora de evaluar una tarjeta de video, voy a poner un claro ejemplo de lo que el Marketing puede lograr para acaparar la atención de algunos incautos compradores:

Hace poco tiempo atrás que ATI anunciaba una nueva línea de modelos de tarjetas de video, orientada a cubrir el segmento del mercado bajo-medio, y su producto estrella resultante no es nada menos que la ATI Radeon HD3650, específicamente hablando el producto que ha sacado VisonTek con 1GB de memoria, si, oyeron bien 1GB.



Algunas características de este modelo son:

  • Tamaño de memoria: 1GB
  • Interfaz de memoria (ancho del bus): 128 bit
  • Tipo de memoria: GDDR2
  • Frecuencia efectiva de la memoria: ???
  • Frecuencia del GPU: ????
  • Modelo de GPU: ????

Uno de los mejores ejemplos de lo que puede hacer el marketing, solo se especifica el tamaño de la memoria, y no así su frecuencia, sí nos ponen que es GDDR2 y eso empeora el asunto, puesto que actualmente ATI suele poner GDDR4 (y en futuro cercano pondrá GDDR5); sí "pues", el tipo de memoria es buen indicador del nivel de "potencia" que puede ofrecer una tarjeta gráfica y DDR2 es la más baja actualmente. Ni qué decir acerca del GPU, ni se lo menciona siquiera.

El bus de 128 bits nos dice mucho del rendimiento que puede ofrecer esta tarjeta, el cual es: .... BAJO!!!, si queremos saber a "grosso modo" el potencial de un modelo: miren el bus, los "buenos modelos" traen más de 128 bits, (256 bits por lo general) y punto!

Recuerdan que puse el ranking de tarjetas de video de Junio de Tomshardware? sí, la ATI Radeon HD3650 ocupa un nada sorprendente... "nivel 12" del ranking, mientras, que a modo de ejemplo, la GeForce 8800GT ocupa el 3er peldaño, y la ATI Radeon HD2900Pro un 4to nivel (la reina actual es la 9800GX2 que está en el tope.



GeForce

Radeon

1

9800 GX2


2

8800 GTX, 8800 Ultra, 9800 GTX

3870 X2

3

8800 GT 512MB, 8800 GTS 512MB


4

8800 GTS 640 MB, 9600 GT

HD 2900 XT, 3870

5

8800 GT 256MB, 8800 GTS 320MB

HD 2900 PRO, 3850 512MB

6

8800 GS, 9600 GSO

3850 256MB

7

7950 GX2

X1950 XTX

8

7800 GTX 512, 7900 GTO, 7900 GTX

X1900 XT, X1950 XT, X1900 XTX

9

7800 GTX, 7900 GT, 7950 GT

X1800 XT, X1900 AIW, X1900 GT, X1950 PRO, HD 2900 GT

10

7800 GT, 7900 GS, Go 7950 GTX, 8600 GTS

X1800 XL, X1950 GT, Mobility X1800 XT

11

6800 Ultra, 7600 GT, 7800 GS, Go 7800 GTX, Go 7900 GTX, 8600 GT

X800 XT (& PE), X850 XT (& PE), X1650 XT, X1800 GTO, Mobility X1900, HD 2600 XT, 3650 (DDR3), 3670

12

6800 GT, 6800 GS (PCIe), Go 7800, Go 7900 GS, 8700M GT

X800 XL, X800 GTO2/GTO16, Mobility X800 XT, HD 2600 PRO, Mobility HD 2600 XT, 3650 (DDR2)


Así que este supuesto "monstruo" de 1GB rinde menos que una 8800GT de 256MB, 8800GTS de 320MB, y algún modelo de 128MB que está por ahi encima en el ranking. "Más claro el agua", el tamaño de la memoria es uno de los parámetros de menor importancia a la hora de evaluar una tarjeta de video, antes que eso están:

  1. Ancho del Bus de memoria (64, 128, 256, etc) en bits
  2. Frecuencia efectiva de la memoria (en MHz)
  3. Frecuencia del GPU (en MHz)
  4. Modelo de GPU
  5. Cantidad de "stream processors"
  6. Tipo de memoria (DDR2, DDR3, etc)

Y bueno, no está demás echarle una miradita a las comparativas, evaluaciones y rankings que elaboran los expertos del tema como TomsHardware, Guru3D, etc.

Así que ya saben, si ven esta tarjeta circulando por ahi, recuerden que "el tamaño es lo de menos", en estos casos.


Les recomiendo (nuevamente) una lectura al siguiente artículo publicado por Noticias3D: "... Más memoria para la VGA significa más velocidad ¿seguro? ..."

Y si están interesados en ver más de este singular monstruo del mercadeo, les paso el link del producto en Newegg, una de las tiendas más completas en cuanto a stock e información de sus productos:

VisionTek 900233 Radeon HD 3650 1GB 128-bit GDDR2 PCI Express 2.0 x16 HDCP Ready Video Card



13/6/08

Software para conocer nuestro Hardware

Bueno, a estas "alturas del partido", ya podríamos decir que tenemos un mejor criterio de la importancia del saber conocer y diferencias las características más importantes de algunos elementos de hardware de nuestra computadora. Entonces ya es buen momento para que nos podamos concentrar en algunas aplicaciones que nos permitirán conocer más a fondo nuestro hardware.


CPU-Z

El primer programa y uno de los más sencillos de usar es el "CPU-Z", una herramienta freeware que recopila información de los principales componentes del sistema, principalmente del CPU, como su nombre lo sugiere.



En esta captura de su primera pestaña se puede apreciar información clara acerca del CPU en cuestión: su nombre, código, frecuencia, encapsulado, velocidad de su bus, caché y otros. Además en las siguientes pestañas podremos encontrar información de otros 2 elementos clave de la PC:
  • Mainboard (Tarjeta Madre): Nombre del fabricante, modelo, chipset, BIOS, tipo de interfaz gráfica.
  • Memoria: Tipo (DDR, DDR2, etc), tamaño, canales, frecuencia base, latencia CAS.
  • Información de cada uno de los Slots de memoria de nuestra placa base.
Entonces, si teníamos dudas de cual era por ejemplo, la velocidad real el bus de datos de nuestra tarjeta madre y del CPU, de la frecuencia de nuestra memoria RAM, etc, ya tenemos una herramienta de las mejores para este fin.

Pueden bajarlo de la página de Guru3D: CPU-Z


GPU-Z


Ahora tenemos esta segunda herramienta, que se concentra en recopilar información detallada de nuestra tarjeta de video, la misma ha sido desarrollada por la gente de TechPowerUp, y también es freeware.



Así entonces podemos conocer (entre otros), poniendo de ejemplo mi propia tarjeta:
  • Nombre de nuestra tarjeta gráfica (NVidia GeForce 8800GT)
  • GPU (en este caso la G92)
  • Interfaz del Bus (PCI-E 2.0 x 16)
  • Soporte de DirectX (10.0)
  • Tipo de memoria (DDR3)
  • Ancho del Bus de datos (256 bits)
  • Tamaño de la memoria (256 MB)
  • Ancho de Banda (44,8 GB/s)
  • Frecuencia por defecto del GPU (600 MHz)
  • Frecuencia base de la memoria por defecto (700 MHz)
  • Frecuencia actual del GPU (600 MHz)
  • Frecuencia base actual de la memoria (700 MHz)
En mi caso, mi tarjeta de video conserva sus frecuencias por defecto, es decir, no está "overclockeada".

En su segunda pestaña, el GPU-Z tiene información recopilada de los sensores de nuesta tarjeta:
  • Temperatura del GPU
  • Temperatura de su placa base (PCB)
  • Velocidad del ventilador
Información por demás útil a la hora de monitorear el trabajo de este componente tan importante de nuestro sistema, especialmente si usamos algún utilitario de overclocking, para evitar así "freírlo" accidentalmente.

Pueden bajarlo de la página de Guru3D: GPU-Z


Otras Herramientas:


Con los anteriores programas suele ser suficiente para la mayoría de los casos, pero si buscamos más información podemos usar algunas herramientas más:

  • HWiNFO32.
  • ATI Tray Tools (solo para gente con tarjeta de video ATI)
  • HWMonitor
  • Muchas más que la pueden encontrar en Guru3D.

5/6/08

El camino hacia la Alta Definición de la Imagen (HD)

Desde que aprendí a manejar una video-grabadora allá por los 80's, me ha gustado conocer e investigar el tema de la calidad de imagen, porque un formato se veía mejor que otro, en aquel entonces tenía una Sony Betamax cuyas especificaciones técnicas era superiores a los VHS-promedio, en resúmen tenía mejor imagen, y esto a que se debía? que tenía una mejor resolución de imagen, que es la medida con la que determina si una imagen es superior a otra. La resolución de la TV estándar se mide en líneas horizontales, y como dato de referencia, el formato VHS tiene aproximadamente 240 líneas de resolución, es decir que una imagen de TV en formato VHS está "dibujada" usando esta cantidad de líneas; a partir de este punto podemos acotar que "a mayor cantidad de resolución (líneas) tendremos mejor imagen". Antes de continuar, siempre estoy tomando en cuenta el sistema de color NTSC, mismo que se usa tanto en Estados Unidos, Japón, y afortunadamente en Bolivia.

Durante algunos años, se inició la primera gran "guerra de formatos" entre Betamax de Sony y VHS de JVC, ganando finalmente la 2da, debido a una mejor estrategia de mercado. Durante más de una década VHS dominó el mercado sin que apareciera un formato que le hiciera competencia. Hubo por algún tiempo, el formato Super-VHS, que ofrecía una calidad de aprox. 400 líneas de resolución, pero cuyos costos hicieron que no llegara a prosperar finalmente; aún dispongo de un modelo de JVC que me funciona a las mil maravillas, pero los cassettes S-VHS ya desaparecieron y ahora me funciona solo como un simple-VHS; antes que me olvide VHS es el acrónimos de "Video Home System".

Posteriormente, apareció en escena el DVD, primer formato digital en imponerse en el mercado (de forma comercial digo), DVD en un principio era el acrónimo de "Digital Versatil Disc", mismo que luego fue cambiado a "Digital Video Disc" puesto que su popularidad se hizo evidente al imponerse como el nuevo formato para películas caseras; en este punto es bueno acotar que antes de ser un formato de video, se usó como medio de almacenamiento masivo de información, sustituyendo al conocido CD en este ámbito. Bueno, el DVD ya permitía manejar un promedio de 500 líneas de resolución, una sustancial mejora con respecto al VHS, por lo que se estableció de manera firme en el mercado, aunque su adopción en nuestro país demoró un buen tiempo.


Como paréntesis, podemos decir que el CD tuvo un tímido y desapercibido intento de convertirse en un formato digital de video, con el Video-CD o VCD, mismo que no prosperó debido a que un CD solo permite almacenar 74 minutos de video por disco, por lo que una película requiere al menos de 2 discos, suficiente razón para desalentar al consumidor promedio. Su calidad de imagen es similar al VHS (240 líneas de resolución).

Y bien, después del DVD aparecieron 2 formatos dispuestos a convertirse en su evolución natural: el HD-DVD (High Definition DVD) y el Blu-Ray; el primero impulsado por Toshiba y el 2do por Sony. Ambos tienen una presentación física similar al DVD, pero ahi terminan las similitudes, mientras que un DVD permite un almacenamiento de 4,3 GB, un HD-DVD de una capa llega a los 15GB y un Blu-Ray a los 25GB. El HD-DVD es más fácil y económico de fabricar, pero el Blu-Ray ofrece ciertas ventajas que no van por el lado de la calidad de la imagen, sino de sus sistema de protección anti-copia. Ambos ofrecen una calidad de hasta "1080p", es decir, 1080 líneas de resolución no-entrelazada. Durante aproximadamente 1 año se estableció la segunda "gran guerra de formatos", misma que tuvo un desenlace prematuro a comienzos de año a favor del Blu-Ray de Sony (se llevó la revancha como se dice) y nuevamente no fue la calidad técnica el criterio para establecer al ganador, sino el apoyo de las grandes productoras cinematográficas lo que se impuso finalmente (Warner Bros fue la decisiva). Y bueno, algo que ayudó bastante a Sony, fue su genial idea de incorporar reproductores Blu-Ray a todas sus consolas PlayStation 3, yo ando feliz con esa idea y seguramente todos quienes disponen de una de esas hermosas consolas.

Entonces, ya vamos teniendo más clara la figura de lo que significa el término HD verdad? técnicamente hablando, se considera una imagen como "HD" cuando tiene al menos 720p, es decir, 720 líneas de resolución horizontal no-entrelazada.

La anterior consideración es particularmente importante a la hora de escoger un HDTV (High- Definition TV, o sea TV de Alta Definición), puesto que aquí combra bastante importancia el criterio de la resolución de imagen. La gran mayoría de las HDTVs son de tecnología LCD (Pantallas de Cristal Líquido), similares a los monitores LCD (valga la redundancia) de PCs. Entonces ojo con este dato!!!: la gran mayoría de las HDTVs que venden actualmente en el mercado local son "720p", es decir, q soportan una resolución horizontal de 720 líneas, siendo así que una película Blu-Ray despliega 1080p, como se arregla este "desajuste"?, bueno, las HDTVs de 720p reducen la resolución final de la película de 1080p a 720p para poder desplegar la imagen, otro punto es que como son similares a un monitor de PC, los vendedores las ofrecen como tal (para convencer al cliente claro está) sin tener en cuenta que su resolución como monitor alcanza un máximo de 1366x768 pixels, bajo para un monitor, mucho más si tomanos en cuenta que los HDTVs más comunes vienen a partir de 32".



Pero afortunadamente están los HDTVs que soportan "1080p", debido a que soportan una resolución de 1900x1080 pixels, y claro está, a mayor resolución mejor calidad de imagen (lo repetí como loro creo no?), estos suelen tener un costo superior a los de 720p en la mayoría de los casos, y en lo personal no he encontrando NINGUNA HDTV de 1080p en el mercado local, y si le preguntan este dato a 99% de los vendedores te mandarán a volar puesto que según ellos "los HDTVs son HDTVs porque sí y ya no pregunte más" (típico caso de respuesta al comprador que hace preguntas más allá del precio y tamaño del aparato).

Así entonces, una HDTV suele tener la etiqueta de "HDTV ready" o "HDTV 1080p ready" y gracias a la información de Wikipedia, les paso la siguiente tabla:



Así que en resúmen, la mejor calidad de imagen la podrán tener con Blu-Ray (HD-DVD ya murió) en una HDTV 1080p (HD ready 1080p).

Algo no menos importante, mas bien bastante importante... es el saber reconocer con que tipo de HDTV estamos tratando, de acuerdo al logotipo con el que viene la HDTV; así pues resulta que hay HDTVs que si bien son capaces de mostrar imagen HD, no tienen incorporado el sintonizador HD, y por supuesto entra aquí el tema de su resolución. Afortunadamente en Xataca.com han publicado un post bastante claro al respecto, les paso el link a continuación: Guía para entender los logotipos de alta definición.

Mas información:

Para complementar, en otro post se tocará el tema de las conexiones digitales y analógicas a monitores y HDTVs.

4/6/08

CPU vs GPU, a la hora de jugar, cuál influye más?

Ya son varios posts donde he tocado la importancia de contar con una buena tarjeta de video para poder disfrutar de los juegos más modernos, también he mencionado que si bien es el elemento más importante, no es el único, puesto que también debemos contar con un buen procesador (CPU) y buena memoria (en cantidad y frecuencia); pero la pregunta que viene al caso es: como defino a un "buen procesador" para jugar? y la respuesta puede sorprender a muchos, en el caso de los juegos, un procesador de gama media como el "AMD Athlon X2 4850E" (costo aprox. de 90$us) permitirá un rendimiento similar al "Intel Core 2 Quad QX9770" (costo superior a 1.500$us). Sorprendente? yo diría que sí, puesto que si bien un mejor procesador implica una mejora en la capacidad de cómputo de una PC, a la hora de trabajar con gráficas (juegos) lo que realmente cuenta, es (por supuesto) la tarjeta de video, no hay vuelta que dar, recordemos que una tarjeta gráfica tiene su propio procesador: el GPU (Unidad de Procesamiento de Gráficos), que es precisamente el elemento que se encarga de computar todo lo referente a los gráficos (nuestros juegos, en resumidas cuentas).

Nuevamente he tomado la referencia de un artículo de Guru3D, especialista en este tipo de análisis, y para ilustrar de manera más clara el objetivo de este post, voy a poner algunas gráficas comparativas, mismas que ha sido elaboradas a partir de una PC con las sgtes. características:
  • Tarjeta de video: GeForce 8800 Ultra (768MB, 384-bit de bus)
  • Memoria RAM: 2GB (2x1GB) DDR2 CAS4 @ 1142 MHz Corsair Dominator
  • Sistema Operativo: Windows Vista Business Edición 32-bit (SP1)
La sgte. gráfica corresponde al rendimiento con el juego "Call of Duty 4", y al igual que las demás gráficas, se mide en FPS:

La diferencia entre en procesador mas modesto y el más potente, resulta ser de solamente 2 FPS (cuadros por segundo).

Inclusive configurando el juego a la máxima resolución, podremos apreciar el mismo efecto:

En este caso la diferencia se reduce a 1 FPS.

La conclusión en este caso resulta obvia, si quieres tener una mejora significativa a la hora de jugar, no te preocupes mucho de que procesador (CPU) tienes, pero sí mucho por la tarjeta de video (GPU) con la que cuentes. También es bueno acotar en este punto de que la memoria RAM no ofrece una mayor variación en rendimiento a la hora de jugar, con 2GB y una frecuencia decente (800MHz o más) tendremos suficiente.

En resúmen, si quieres jugar mejor habrá que preocuparse por esos 3 elementos en el siguiente orden:
  1. Tarjeta de video
  2. Procesador (CPU)
  3. Memoria RAM
El artículo completo de Guru3D lo pueden leer en el sgte link: CPU scaling in games with dual & quad core processors.

Si desean revisar unos tests más completos que han hecho, cuando no, TomsHardware; en los que se toman en cuenta varias tarjetas de video en combinación con diferentes procesadores, pueden leer el artículo completo en el siguiente enlace: GPU vs. CPU Upgrade: Extensive Tests.

Tarjetas de video: (parte 3) Jugabilidad

Complementado a los post anteriores sobre las tarjetas de video, está la Jugabilidad, es decir, que tan "jugable" es un determinado juego acorde a la cantidad de cuadros por segundo que nuestro sistema puede desplegar, esto en inglés se mide en FPS (Frames per second) y en general se puede decir que "más FPS = mayor jugabilidad".

Guru3D es uno de los sites tecnológicos que nos permite tener a mano siempre unas tablas comparativas de los principales modelos de tarjetas gráficas evaluados con los juegos más populares de última generación. Ellos nos dan la siguiente tabla que viene muy bien al caso:

Cuadros por segundo (FPS)

Jugabilidad

<30

muy limitada

30-40 FPS

promedio pero aun limitada

40-60 FPS

buena jugabilidad

>60 FPS

la mejor jugabilidad posible


Así pues, ya habíamos visto que el Ancho de Banda (BW) de una tarjeta gráfica es un referente importantísimo, pues nos permite conocer la cantidad de información que el modelo en particular podrá manejar; ahora bien, la cantidad efectiva de información también depende de otros factores mas específicos, como los "stream processors", y por supuesto el GPU (Unidad de procesador gráfico), el equivalente al CPU de una PC. Tomando en cuenta entonces todos esos múltiples factores, más las características de un juego en particular, sumadas a los otros componentes de la PC como el procesador y la memoria RAM, recién podremos apreciar el rendimiento final de un juego en particular.

Los juegos pueden jugarse a diferentes resoluciones, considerándose "aceptables" a partir de los 1024x768 pixels, y recomendables a partir de los 1600x1200 pixels. Es por eso que las pruebas de los diveros modelos de tarjetas gráficas suelen hacerse a resoluciones por encima de esta última. En resúmen mientras mayor sea la resolución del juego, más cantidad de proceso requiere la tarjeta de video y por lo tanto tendremos menos FPS finales, mas un si se activan los filtros AA (Anti-Aliasing) que permiten una imagen menos pixelada pero le añaden carga de trabajo y requerimiento de memoria a nuestra tarjeta gráfica.

En lo personal difiero parcialmente con la tabla de Guru3D, puesto que yo personalmente ya considero "jugable" a un determinado juego a partir de los 25 FPS, que era el límite de algunos títulos hace unos años atrás; como ejemplo podemos decir que el cine tradicional usa 25FPS, en este caso fotoramas por segundo, lo cual ya nos indica que a partir de esta cantidad el cerebro ya percibe movimiento fluido. Por supuesto que a más FPS el juego es más "fluido", es decir, que sus movimientos son más suaves y naturales, pero como dije al principio de este párrafo, arriba de 25FPS ya podemos tranquilizarnos, el juego no saldrá "entrecortado" o con saltos incómodos en el despliegue de gráficas.

Los juegos que pondré como ejemplo son el Call of Duty 4 (COD4) y el Quake Wars, y si bien no están representados todos los modelos de video, si podremos apreciar una comparativa de los principales exponentes del mercado actual.


Para referencia de los modelos que no se presentan en las tablas, podemos indicar que las GeForce 8800GT de 512MB y 256MB rinden de forma similar hasta resoluciones de 1900x1200 inclusive, y que la Radeon 2900Pro rinde aprox el 90% de su similar 2900XT.

Estas "VGA charts" de Guru3D, son constantemente actualizadas a medida que los nuevos modelos de tarjetas gráficas van saliendo al mercado, por lo que resultan buena referencia para poder decidir qué modelo comprar.

El artículo completo lo pueden encontrar en la página oficial de Guru3D: Guru3D VGA Charts.

3/6/08

GTA IV - El juego "perfecto" de los últimos años

Este juego, debido a su particular manera de jugarlo, ha ido ganando fanáticos alrededor de todo el mundo, debido a que su estilo de jugabilidad marcó un hito en la forma de desarrollar los videojuegos. Actualmente el último juego de esta exitosa saga, es el GTA IV (GTA es el acrónimo de Grand Thieft Auto (algo así como "el gran ladrón de automóviles") en el cual ahora robar autos es solo uno los aspectos menores del mismo; ahora el juego se enfoca en desarrollar las habilidades asesinas de su singular personaje central "Niko Bellic", el apellido lo describe a la perfección.
Durante el desarrollo de la trama, al estilo de una película de gangsters, el protagonista va interactuando con diferentes personajes, cada cual con su personalidad particular, misma que cada vez esta mejor trabajada en cada entrega del juego, asi pues "Niko" hará amistades, vivirá pintorescos romances y por supuesto se llevará por delante a medio mundo (sino a todo) de la mafia Newyorkina; dicho sea de paso, el juego está ambientado en la ciudad de Nueva York, cuyo nombre alegórico en el juego es "Liberty city" aludiendo a su ícono mundial, que es la estatua de la libertad.


Un aspecto que seguramente llamará la atención es su nivel gráfico super detallado, con lo que uno podrá recorrer los lugares más conocidos de la ciudad, esto gracias a que ha sido desarrollado en un nuevo y moderno motor gráfico, con el que seguramente muchos juegos van a salir a la luz. Claro está que para poder correrlo los requerimientos de hardware marcan la diferencia, siendo así que por ahora, las 2 únicas plataformas capaces de ejecutarlo son el Xbox360 y el PlayStation 3, ambas consolas de tercera generación, con las mejores especificaciones técnicas disponibles actualmente en el mundo de las consolas de videojuegos. El rumor extraoficial es que la versión de PC saldrá a finales de este 2008, y para aquellos que deseen jugarlo en su propio computador, alísten los ahorros, puesto que sin lugar a duda los requerimientos de hardware serán ALTOS, así que si no dispone uno de una tarjeta de video de gama media-alta, buena memoria RAM y procesador decente, lamentablemente va a tener que resignarse a mirarlo en la consola o PC de algún amigo o lugar especializado con consolas o PCs de última generación.


Otro aspecto de lo más novedoso y atractivo es que por primera vez incluyen el motor de animación en tiempo real "Endorphin/Euphoria", el cual permite que los personajes 3D pueden realizar movimientos totalmente realistas desde el punto de vista de la física, es decir, a diferencia de los otros juegos donde cada movimiento de un personaje era pre-grabado, ahora Endorphin permite calcular los movimientos del mismo en tiempo real, es decir, sobre la marcha, con lo cual podremos ver que cada vez que alguien recibe un disparo, el mismo girará, se volteará o caerá de forma totalmente realista y dependiendo de su situación y entorno particular; entonces podremos ver vuelos espectaculares cada vez que Nico atropelle a un pobre peatón o bien sea víctima de sus numerosas armas, llevándose la flor las granadas de mano o el bazooka, pues las explosiones son simplemente espectaculares!!!, policías por los cielos, mafiosos cayendo y rebotando por las escaleras o entre los autos, todo un espectáculo, y del cual no se salva ni el propio Niko, pues si tenemos mala puntería y quedamos expuestos a una explosión lo verán volar de una forma inimaginable; tienen que probarlo para ver esta genial inclusión, algo revolucionario en los videojuegos, sin exagerar un ápice mis amigos.




Si quieren profundizar el tema:
  1. Review por GameSpot
  2. Review por IGN (incluye videos)
  3. Más fotos por GameSpot
  4. GTA IV en BotónTurbo
  5. GTA Rompe records (BotónTurbo)
  6. Natural Motion (Endorphin/Euphoria) por Wikipedia
  7. Guía completa del juego (por OCModShop)
En otro post, tocaremos 2 temas no menos importantes:
  • El modo Multijugador (primer GTA que lo incluye)
  • Vehículos