Comparando la idoneidad de las GPU de NVidia para la IA
La IA requiere mucha potencia...
Índice
En medio del caos del mundo moderno aquí estoy comparando especificaciones técnicas de diferentes tarjetas adecuadas para tareas de IA
(Deep Learning,
Deteción de objetos
y LLMs).
Aunque todas son increíblemente caras.
Esta es una imagen generada por IA. No la tomes en serio…
Vamos a echar un vistazo a otras opciones, simplemente para explorar
Tarjeta | VRAM | Ancho de bus | Ancho de banda de memoria | Núcleos CUDA | Núcleos Tensor | Potencia (W) |
---|---|---|---|---|---|---|
RTX 4060 Ti 16GB | 16 GB | 128-bit | 288 GB/s | 4,352 | 136 | 165 |
RTX 4070 Ti 16GB | 16 GB | 256-bit | 672 GB/s | 7,680 | 240 | 285 |
RTX 4080 16GB | 16 GB | 256-bit | 716.8 GB/s | 9,728 | 304 | 320 |
RTX 4080 Super 16GB | 16 GB | 256-bit | 736 GB/s | 10,240 | 320 | 320 |
RTX 4090 24GB | 24 GB | 384-bit | 1008 GB/s | 16,384 | 512 | 450 |
RTX 5060 Ti 16GB | 16 GB | 128-bit | 448 GB/s | 4,608 | 144 | 180 |
RTX 5070 Ti 16GB | 16 GB | 256-bit | 896 GB/s | 8,960 | 280 | 300 |
RTX 5080 16GB | 16 GB | 256-bit | 896 GB/s | 10,752 | 336 | ~320 |
RTX 5090 32GB | 32 GB | 512-bit | 1792 GB/s | 21,760 | 680 | ~450 |
RTX 2000 Ada | 16 GB | 128-bit | 224 GB/s | 2,816 | 88 | 70 |
RTX 4000 Ada | 20 GB | 160-bit | 280 GB/s | 6,144 | 192 | 70 |
RTX 4500 Ada | 24 GB | 192-bit | 432 GB/s | 7,680 | 240 | 210 |
RTX 5000 Ada | 32 GB | 256-bit | 576 GB/s | 12,800 | 400 | 250 |
RTX 6000 Ada | 48 GB | 384-bit | 960 GB/s | 18,176 | 568 | 300 |
Ancho de banda de memoria:
- RTX 5090 (1792 GB/s), seguido por RTX 4090 (1008 GB/s), seguido por RTX 6000 Ada (960 GB/s)
Núcleos Tensor:
- RTX 5090 (680), seguido por RTX 6000 Ada (568), seguido por RTX 4090 (512)
Núcleos CUDA:
- RTX 5090 (21,760), seguido por RTX 6000 Ada (18,176), seguido por RTX 4090 (16,384)
RAM:
- RTX 6000 Ada (48 GB), seguido por RTX 5090 y RTX 5000 Ada (32 GB), seguido por RTX 4090 (24 GB)
Precios en Australia
- RTX 6000 Ada: 12,000 AUD
- RTX 5090: 6,000 AUD
- RTX 5000 Ada: 7,000 AUD
- RTX 4090: agotado
Mejor GPU para consumidores para LLM
Aun así, pienso que la RTX 5090 sería la mejor opción para el aprendizaje automático, el deep learning, la IA e incluso los LLM :).
Precios reales
Un poco caras…
Y los precios reales de la RTX 5090 son un 50% más altos de lo esperado. Mira esto!
Eso fue el 15/05/2025
Enlaces útiles
- Cómo iniciar ventanas de terminal en mosaico en Linux Mint/Ubuntu
- Reinstalar Linux
- Hoja de trucos de Bash
- Hoja de trucos de Docker
- Hoja de trucos de Ollama
- Instalar Portainer en Linux
- Problemas de degradación en los procesadores de 13ª y 14ª generación de Intel
- Convertir contenido HTML a Markdown usando LLM y Ollama
- ¿La Quadro RTX 5880 Ada 48GB es buena?
- Reclasificación de documentos de texto con Ollama y modelo de incrustación Qwen3 - en Go