martes, 14 de julio de 2015

Para decidir que tipo de tarjeta comprar debemos tener en cuenta el uso que se les dará a estos y si se cuenta con la economía para la adquisición de estas tarjetas

NVIDIA 


Ventajas 
Los pros de esta marca básicamente son que una tarjeta gráfica no solo nos puede servir para el Gamer sino que también nos van a servir para lo que es creación de contenido (editar,crear juegos, photoshop, ilustrator, etc) si no creas ninguno de estos aspectos por esto no te debes fijar , otras ventajas de esta marca son por ejemplo que usan tecnologías superiores a AMD como por ejemplo el "PhysX" quiero entrar en mucho detalles simplemente aclaro que es algo que mejora la calidad de las partículas en algunos juegos, otras ventajas son que NVIDIA actualizan sus drivers muy seguidos lo cual permite que solucionen bugs mas rápidamente también una ventaja que para mi es muy buena es que muchos juegos están optimizados para NVIDIA lo cual hace que tu PC valla mejor utilizando una tarjeta NVIDIA en lugar de una AMD siempre hablando de la misma gama, la ultima ventaja que yo mencionaría seria que se calientan mucho menos pero mas adelante hablaremos de eso.


Desventajas: 
La única desventaja que yo encuentro en esta marca es que es bastante mas cara que AMD.


AMD
Ventajas: 
la ventaja fundamental es su precio es bastante mas barata a NVIDIA la otra ventaja es que si tienes un procesador AMD hay mejor compatibilidad pero esto no es del todo cierto puedes tener una gráfica AMD en un PC con intel y te va a ir bien al mismo tiempo que si tienes una NVIDIA en una PC con una CPU AMD no hay problema en eso 

Desventajas
las AMD utilizan tecnologías inferiores a NVIDIA lo cual produce que se calienten mas para lograr el mismo rendimiento que nvidia estas solo están disponibles para el consumismo no para la creación pero si esto no te interesa repito no te fijes en este aspecto 


Conclusiones:
Si compras NVIDIA vas tener una tarjeta con una buena optimización que no calienta mucho y te permite crear contenido pero vas a pagar mucho mas. 
Si compras AMD vas a pagar muy poco pero se te va a calentar bastante y no vas a tener el mismo rendimiento que una NVIDIA de la misma gama 
















Como casi siempre que hay una competencia extrema entre dos compañías, no es extraño que haya muchas coincidencias en sus lanzamientos. No significa que se copien, sino que la tecnología se exprime al máximo llegando a soluciones similares en apariencia.
Por lo pronto, en ambos casos, tanto NVIDIA como AMD han pasado de 40 nm a 28 nm como tecnología de fabricación para sus chips. De este modo, pueden reducir el tamaño de los procesadores gráficos, al tiempo que hacen lo propio con el consumo, pero aumentando el número de transistores en los chips. En la tabla, puedes ver un resumen de las características de las nuevas tarjetas (ver PDF), así como de modelos de generaciones anteriores a modo de referencia. El apartado del tamaño del chip, así como el del número de transistores o el del TDP, muestran cómo ha evolucionado cada compañía en sus propuestas.
Recuerda que, con este relevo generacional, tanto NVIDIA como AMD basarán toda su gama de productos para desktop y portátiles en sus nuevas arquitecturas. Las diferencias en rendimiento, precio o consumo vendrán dadas por parámetros como elnúmero de procesadores, la velocidad de la memoria, la velocidad del chip gráfico o la cantidad de memoria.

Novedades en AMD

Con la familia Radeon HD AMD ha pasado de la arquitectura VLIW (Very Long Instruction Word) a la GCN (Graphics Core Next). Tradicionalmente, AMD ha estado por delante de NVIDIA en eficiencia y consumo bruto de energía, lo que ponía a NVIDIA en una posición complicada, pero también AMD ha estado por detrás de NVIDIA en un apartado clave para el futuro de los procesadores gráficos: GPGPU.
Con GPGPU, se trata de usar los recursos de paralelismo en las arquitecturas gráficas para acelerar aplicaciones y código que en una arquitectura x86 no puede paralelizarse más allá de un nivel básico. En este campo, NVIDIA ha estado por delante con su tecnología CUDA, una API desarrollada por la firma para facilitar la programación de aplicaciones que aprovechen el paralelismo de sus chips gráficos.
AMD ha detectado esta carencia y ha rediseñado los bloques sobre los que se construyen sus chips. El paralelismo en una tarjeta gráfica se basa en la integración de centenares o miles de unidades de procesamiento relativamente simples (shaders) que realizan cálculos a nivel de píxel, vértices o geometría.
En generaciones anteriores, AMD había optado por un paralelismo óptimo para procesar gráficos, donde apenas hay dependencias entre operaciones. Pero, enGPGPU, sí las hay, y, en estos casos, gran parte de los recursos de computación en laarquitectura VLIW estaban a la espera de la resolución de dependencias. Con GCN,AMD ha conseguido liberarse en gran medida de estas dependencias y aumentar el rendimiento en aplicaciones GPGPU sin penalizar el rendimiento gráfico.
Tabla arquitecturas gráficas 4








Novedades necesarias

Además de su giro en la arquitectura, AMD ha adoptado tecnologías tan necesarias como PCI-E 3.0, que aumenta el ancho de banda disponible por cada línea PCI Express desde 500 Mbps a 1 Gbps. Y ha optimizado el consumo gracias a una gestión dinámica del TDP y a la reducción del consumo en reposo.
En aspectos como la gestión multimonitor, EyeFinity alcanza su versión 2.0 para seguir como referencia en la gestión de múltiples pantallas e integra el modo 3D con varios monitores, del mismo modo que lo hace NVIDIA con 3DVision Surround. Otra novedad interesante de AMD es DDMA (Discrete MultiPoint Audio), de manera que se pueden transmitir diferentes flujos de sonido a distintos dispositivos. Además, conFast HDMI es posible alimentar monitores 4K a través de una única conexión HDMI.
En vídeo, la novedad es VCE (Video Codec Engine), junto con Steady Video 2.0 yUVD 3.0. Con Steady Video, se consiguen escenas menos bruscas mediante el procesamiento de las imágenes que conforman las secuencias.

El avance de NVIDIA

Con el modelo GTX 680, NVIDIA se ha puesto al día en cuanto a arquitectura con cambios no tan radicales como los de AMD, pero sí con optimizaciones en eficiencia energética. Uno de los más notables ha sido el de unificar relojes. Es decir, antesNVIDIA usaba una velocidad de reloj para el chip, pero los shaders funcionaban al doble de megahercios, lo que implica mayor consumo energético; así que ha reducido la velocidad de reloj de los shaders, de modo que funcionan a la velocidad del núcleo. Al ser una velocidad menor, para un mismo número de shaders, el rendimiento baja.
Por eso, NVIDIA ha diseñado shaders más simples, aunque con la misma estructura que en la anterior generación, pero ha integrado muchos más. Y de paso ha duplicado el resto de unidades funcionales que acompañan a los shaders. En conjunto, NVIDIAha conseguido aumentar el rendimiento de sus tarjetas sin un aumento espectacular del número de transistores. Como consecuencia, el funcionamiento es similar a Fermi, pero aumentado y optimizado. El resultado es una tarjeta que no necesita conectores de 8 pines, con un tamaño inferior al de la de AMD y con un TDP inferior.
En otros apartados, se ha compensado la reducción del ancho del bus de memoria con el aumento de la frecuencia, e introducido tecnologías como GPU Boost, que aumenta la velocidad de reloj de forma dinámica siempre que haya margen térmico. Además, también aumenta el voltaje dinámicamente para ofrecer más estabilidad.
Tabla arquitecturas gráficas 3











En el campo del vídeo, NVIDIA permite ahora controlar cuatro monitores en el modo 3D Vision Surround. Además, es compatible con PCI-E Gen 3 y añade la tecnologíaAdaptive Vsync, que permite desactivar el sincronizado vertical cuando la tasa de frames cae por debajo de los establecidos (60 fps, por ejemplo). En cuanto a la eficiencia, se traduce en un buen nivel de ruido en funcionamiento y en un control fino de las frecuencias de trabajo de forma dinámica.

Pros y contras de las nuevas arquitecturas

Lo mejor

  • Aumento del rendimiento con reducción del consumo. Se invierte la trayectoria de las pasadas generaciones.
  • Atención especial a las aplicaciones GPGPU. Destaca el avance de AMD en este campo.
  • Control dinámico de la velocidad de reloj y voltajes o control del TDP.
  • Mejoras en el vídeo y audio con compatibilidad para monitores 4K, así como modos multimonitor 3D.
  • Mayor ancho de banda en puntos clave: PCI 3.0 vs PCI 2.0, conexiones HDMI que ahora pueden llevar el audio para cada monitor de forma independiente.

Lo peor

  • El precio de las tarjetas de gama alta sigue estando fuera del alcance de la mayoría de los usuarios.
Inicios
Nvidia Corporation es una empresa multinacional especializada en el desarrollo de unidades de procesamiento gráfico y tecnologías de circuitos integrados para estaciones de trabajo, ordenadores personales y dispositivos móviles. Con sede en Santa Clara, California, la compañía se ha convertido en uno de los principales proveedores de circuitos integrados (CI), como unidades de procesamiento gráfico GPU y conjuntos de chips usados en tarjetas de gráficos en videoconsolas y placas base de computadora personal.
NVIDIA produce GPUs incluyendo la serie GeForce para videojuegos, la serie NVIDIA Quadro de diseño asistido por ordenador y la creación de contenido digital en las estaciones de trabajo, y la serie de circuitos integrados nForce para placas base.
Chips gráficos
NV1
El NV1 fue el primer procesador de gráficos desarrollado por la corporación nVIDIA a partir de la arquitectura que habían encontrado al adquirir la compañía 3dfx, que fue la verdadera pionera en la revolución de juegos 3D en ordenadores con su línea llamada Voodoo, basando su desarrollo e implementaciones futuras en la tecnología Direct3D yGlide (OpenGL). Éstas fueron placas experimentales en su era, por lo que nunca salieron al mercado de producción masiva comercial.
RIVA 128
La nVidia RIVA 128 (también conocida como NV3) fue una de las primeras unidades de procesamiento gráfico integrada en tarjetas gráficas de consumo masivo que incorporó aceleración 3D, junto con la ya conocida aceleración 2D y de vídeo.
RIVA TNT
Dentro de la historia del hardware para gráficos, la RIVA TNT —cuyo nombre en código era NV4— fue una unidades de procesamiento gráfico integrada en tarjetas gráficas de consumo masivo que incorporaba acelerador 2D, vídeo y de gráficos 3D. Fabricada por nVidia, fue lanzada a mediados de 1998 y cimentó su reputación como un digno rival en la industria de adaptadores de gráficos 3D para consumo masivo.
A partir de la serie GeForce, los chipsets se ocupan prácticamente de todo el proceso gráfico, constituyendo lo que NVIDIA nombró GPU (Graphic Processing Unit - Unidad de proceso gráfico).
  • GeForce Series
    • GeForce 256
  • GeForce 2: MX 200, MX 400, GTS, Pro, Ti y Ultra.

  • GeForce 3: Ti 200 y Ti 500.

  • GeForce 4: MX 420, MX 440, MX 460, Ti 4200, Ti 4400, Ti 4600 y Ti 4800.

  • GeForce FX (5): (DirectX 8.0, 8.1 o últimamente 9.0b por hardware) compuesta por los modelos FX 5950 Ultra, FX 5900, FX 5800, FX 5700, FX 5600, FX 5500, FX 5300 y FX 5200.

  • GeForce 6: (DirectX 9.0c por hardware) compuesta por los modelos 6800 Ultra, 6800 GT, 6800, 6600 GT, 6600, 6500, 6200, 6150 y 6100 (AGP).


  • GeForce 7: (DirectX 9.0c por hardware) compuesta por los modelos 7950 GX2, 7950 GT, 7900 GTX, 7900 GTO, 7900 GT, 7900 GS, 7800 GTX, 7800 GT, 7800 GS, 7600 GT, 7600 GS, 7300 GT, 7300 GS, 7300 LE, 7100 GS y 7025 GT.

  • GeForce 8: (DirectX 10.0 por hardware) compuesta por los modelos 8800 Ultra, 8800 GTX, 8800 GTS, 8800 GT, 8800 GS, 8600 GTS, 8600 GT, 8500 GT y 8400 GS.

  • GeForce 9: (DirectX 11.0 por hardware) compuesta por los modelos 9400 GTXS Turbo Lee 3500GB Edición Limitada. en Existencia: una a nivel mundial.

  • GeForce 200: (DirectX 10 y 10.1 por hardware) compuesta por los modelos GT 220, GT 240, GTS 240, GTS 250, GTX 260, GTX 275, GTX 280, GTX 285 y GTX 295.

  • GeForce 300: (DirectX 10.1 por hardware y DirectX 11 por Software) Es la serie GT 200 pero mejorada, menor consumo, menos tamaño de fabricación (Menos de los 55 nanómetros de las GT 200).

  • GeForce 400: (DirectX 11.0 por hardware) Arquitectura de nombre en clave "Fermi", compuesta temporalmente por los modelos GT 420, GT 430, GT 440, GTS 450, GTX 460, GTX 465, GTX 470 y GTX 480.

  • GeForce 500: GT 520,GTX 550 Ti, GTX 560, GTX 560 Ti, GTX 570, GTX 580 y GTX 590.

  • GeForce 600: GT 610, GT 620, GT 630, GT 640, GTX 650, GTX 650 Ti, GTX 650 Ti BOOST, GTX 660, GTX 660 Ti, GTX 670, GTX 680 y GTX 690.

  • GeForce 700: GTX 750, GTX 750Ti, GTX 760, GTX 770, GTX 780, GTX 780 Ti y GTX TITAN.

  • GeForce 900: GTX 960, GTX 970, GTX 980, GTX 980Ti.


Inicios
La serie Radeon HD es la generación de tarjetas gráficas del fabricante ATI Technologies, que nació como continuación de la línea de modelos Radeon X y la primera diseñada después de la absorción de ATI por parte de AMD. Esta gama está dirigida principalmente al sector de chips gráficos dedicados, integrados y móviles.
A finales del 2010, AMD, de la cual ATI es filial, anunció que desde la Serie Radeon HD 6000, se reemplazará la marca ATI por AMD para ayudar a impulsar las plataformas AMD Visión y AMD Fusión.
Evolución
Serie HD 2000 (R600)
La primera GPU HD series fue la HD 2900 XT (R600), Lanzada en mayo del 2007.

  • ATI Radeon HD 2300 (RV610)
  • ATI Radeon HD 2400 Pro (RV610)
  • ATI Radeon HD 2400 XT (RV610)
  • ATI Radeon HD 2600 Pro (RV630)
  • ATI Radeon HD 2600 XT (RV630)
  • ATI Radeon HD 2900 GT (R600GT)
  • ATI Radeon HD 2900 Pro (R600PRO)
  • ATI Radeon HD 2900 XT (R600XT)

Serie HD 3000 (R600)

El 15 de noviembre de 2007 sería lanzada la familia HD 3000 Series, la cual ofrece como novedad compatibilidad total con DirectX 10.1

  • ATI Radeon HD 3450 (RV620 LE)
  • ATI Radeon HD 3470 (RV620 PRO)
  • ATI Radeon HD 3650 (RV635 PRO)
  • ATI Radeon HD 3690/3830 (RV670 PRO)
  • ATI Radeon HD 3850 (RV670 PRO)
  • ATI Radeon HD 3870 (RV670 XT)
  • ATI Radeon HD 3850 X2 (RV670 PRO)
  • ATI Radeon HD 3870 X2 (R680)


Serie HD 4000 (R700)
En junio del 2008 se lanzó al mercado las HD 4800 Series (RV770). Los 2 primeros productos fueron la HD4870 y la HD4850, las cuales compartían el mismo núcleo con 800 Stream Processor, pero la HD4870 ofrecía una mayor frecuencia en el núcleo y memorias GDDR5, siendo la primera tarjeta de vídeo en tener este tipo de memorias.

  • ATI Radeon HD 4350 (RV710)
  • ATI Radeon HD 4550 (RV710)
  • ATI Radeon HD 4650 (RV730 PRO)
  • ATI Radeon HD 4670 (RV730 XT)
  • ATI Radeon HD 4730 (RV770 CE)
  • ATI Radeon HD 4770 (RV740)
  • ATI Radeon HD 4830 (RV770 LE)
  • ATI Radeon HD 4850 (RV770 PRO)
  • ATI Radeon HD 4870 (RV770 XT)
  • ATI Radeon HD 4890 (RV790 XT)
  • ATI Radeon HD 4850 X2 (R700)
  • ATI Radeon HD 4870 X2 (R700)

Serie HD 5000 (Evergreen)
En septiembre del 2009 ATI lanza al mercado la serie HD 5000, quien tiene la característica de ser la primera GPU en soportar el nuevo estándar DirectX 11 de Microsoft para Windows 7

  • ATI Radeon HD 5450 (Cedar PRO)
  • ATI Radeon HD 5550 (Redwood LE)
  • ATI Radeon HD 5570 (Redwood PRO)
  • ATI Radeon HD 5670 (Redwood XT)
  • ATI Radeon HD 5750 (Juniper PRO)
  • ATI Radeon HD 5770 (Juniper XT)
  • ATI Radeon HD 5830 (Cypress LE)
  • ATI Radeon HD 5850 (Cypress PRO)
  • ATI Radeon HD 5870 (Cypress XT)
  • ATI Radeon HD 5970 (Hemlock XT).


Serie HD 6000 (Northern Islands)
En octubre del 2010 AMD lanza al mercado la serie Radeon HD 6000, que coincide con la desaparición de ATI como marca de los productos Radeon.

  • AMD Radeon HD 6370 (?)
  • AMD Radeon HD 6450 (Caicos)
  • AMD Radeon HD 6570 (Turks)
  • AMD Radeon HD 6670 (Turks)
  • AMD Radeon HD 6750 (Juniper PRO)
  • AMD Radeon HD 6770 (Juniper XT)
  • AMD Radeon HD 6790 (Barts LE)
  • AMD Radeon HD 6850 (Barts Pro)
  • AMD Radeon HD 6870 (Barts XT)
  • AMD Radeon HD 6950 (Cayman Pro)
  • AMD Radeon HD 6970 (Cayman XT)
  • AMD Radeon HD 6990 (Antilles)


Serie HD 7000 (Southern Islands)
La serie Southern Islands, el nombre en clave de las HD 7000, se presentó el 22 de diciembre de 2011, lanzando primero las HD 7900 y posteriormente el resto.

  • AMD Radeon HD 7750 (Cape Verde Pro)
  • AMD Radeon HD 7770 (Cape Verde XT)
  • AMD Radeon HD 7790 (Pitcairn LE)
  • AMD Radeon HD 7850 (Pitcairn Pro)
  • AMD Radeon HD 7870 (Pitcairn XT)
  • AMD Radeon HD 7870xt (Tahiti LE)
  • AMD Radeon HD 7950 (Tahiti Pro)
  • AMD Radeon HD 7970 (Tahiti XT)
  • AMD Radeon HD 7990 (New Zealand)


Serie HD 8000 (Sea Islands)
Estarán basadas en la arquitectura Graphics Core Next, la empleada también en la gama HD 7000. Incorporan características previstas para las HD 7000 que no fueron implementadas en dichos chips.
Antes de empezar existen varios Dudas sobre la tarjeta de vídeo algunas son las siguientes:

1.Existe una creencia común que las tarjetas gráficas o de vídeo sirven para que las personas que usan aplicaciones de dibujo y diseño tengan una mayor velocidad al procesar sus diseños y posteriormente – y en los casos que aplica – al “renderizar” 

2.Entre más memoria tenga la tarjeta gráfica en cuestión, más rápido será el procesamiento de las gráficas y renders. 
3.Una laptop se puede comprar sin tarjeta de vídeo y luego se le puede colocar una. 

Los 3 son incorrectos, vulgares mentiras, mitos, rumor computacional que va de boca en boca.

¿Para qué nos sirve contar con una tarjeta de vídeo (tarjeta gráfica)? 

Para procesar la salida del vídeo generado por el sistema operativo y las aplicaciones o programas en ejecución. Este vídeo sale a través de un puerto (VGA, S-Video, DVI, HDMI, etc.) a uno o varios pantallas, monitores, televisores o proyectores.  

¿Dónde podemos notar la utilidad y velocidad de una tarjeta de vídeo? 

Con una pantalla de tamaño considerable (arriba de 21 pulgadas) ya que la tarjeta necesita “pintar” una pantalla más ancha, por ende, de mayor resolución en el mismo tiempo que lo haría en una pantalla más pequeña. 
Cuando vemos vídeos a pantalla completa. Descarguen un tráiler en formato MOV de quicktime y reproduzca a pantalla completa. Si es HD o de por lo menos 720p, mejor. 
Cuando usamos juegos de vídeo con el nivel de detalle, texturas y realismo configurable. Mi primer juego demandante de una tarjeta de vídeo fue Doom3. Este juego revolucionó desde su primera versión, el mundo de los videojuegos en primera persona. La mayoría de los juegos de su época calculaban la iluminación por polígonos. Doom 3 lo hace por pixeles requiriendo un cálculo brutal en cada frame de movimiento. Era muy evidente la mejora con la tarjeta de vídeo ya que se podía jugar de manera smooth el juego. Sin la tarjeta se estaba jugando, no sólo en cámara lenta sino, como slideshow: una foto por segundo. 
Interfaces de tarjeta de vídeo 

1.Integradas en la tarjeta madre (motherboard) con un chipset dedicado exclusivamente al procesamiento de los gráficos. Pueden tener memoria exclusiva o quitarnos un poco de nuestra RAM para ser usado para almacenar los datos de vídeo. 


2.Separadas del motherboard pueden tener diversas interfaces y tecnologías: 

PCI (Peripheral Component Interconnect) de 32 bits o PCI-x de 64bits. El bus está compartido con el resto de los dispositivos PCI conectados (modem, tarjeta de sonido, tarjeta de red, etc.) 
AGP (Accelerated Graphics Port) de 32bits pero con un bus dedicado exclusivamente a los datos de video. 
PCIe (PCI express) de hasta 16 veces más velocidad de transferencia de datos que el AGP. 

Para qué Sirve la Tarjeta Gráfica ( Tarjeta De Video ) 

ATI Radeon HD 3800 

tarjeta grafica

NVIDIA GE Force 8800 

Tipos de chip 
Podemos encontrar varias marcas y modelos en el mercado de las tarjetas de video: MSI, Diamond, Asus, Gigabyte, PowerColor, Foxconn, Sapphire, Hercules Prophet, Visiontek, Gecube, etc. Y los principales fabricantes de los chips que se encargan de procesar todo el show son: 


Una tarjeta de vídeo, también llamada tarjeta gráfica (entre otros nombres) tiene a su cargo el procesamiento de los datos que provienen del procesador principal (CPU o UCP) y convertirlos en información que se pueda representar en dispositivos tales como los monitores y los televisores. Cabe mencionar que este componente puede presentar una gran variedad de arquitecturas, aunque comúnmente se denominan de igual forma, incluso si se habla de un chip de vídeo integrado en una placa madre (motherboard); en este último caso, es más correcto decir GPU (Unidad de Procesamiento Gráfico). 

 Desde su concepción, las tarjetas gráficas han incluido diversas prestaciones y funciones, tales como la posibilidad de sintonizar la televisión o de capturar secuencias de vídeo de un aparato externo. Es importante notar que no se trata de un componente hallado exclusivamente en los ordenadores actuales, sino que han existido desde hace ya más de cuatro décadas y hoy en día también son parte indispensable de las consolas de videojuegos, tanto de las portátiles como de las caseras. 

 Su creación data del final de la década del 60, época en la cual se dejó atrás el uso de una impresora para visualizar la actividad de los ordenadores y se comenzó a usar monitores. Al principio, las resoluciones eran ínfimas en comparación a la ya conocida por todos alta definición. Fue gracias al trabajo de investigación y desarrollo de Motorola que las características de los chips se volvieron más complejas y sus productos dieron pie a que se estandarizara el nombre de tarjetas de vídeo. 


A medida que los ordenadores para uso personal y las primeras consolas de videojuegos se hicieron populares, se optó por integrar los chips gráficos en las placas madre, dado que esto permitía disminuir considerablemente los costes de fabricación. A simple vista, esto presenta una clara desventaja: la imposibilidad de actualizar el equipo; sin embargo, se trataba de sistemas cerrados, que eran construidos tomando en consideración todos y cada uno de sus componentes, de forma que el producto final fuera consistente y ofreciera el mayor rendimiento posible.