Hetzner sube la apuesta en servidores GPU: así es el GEX131 con RTX PRO 6000 Blackwell Max-Q (96 GB)

Hetzner ha presentado el GEX131, un servidor dedicado pensado para cargas exigentes de IA, render 3D y procesado profesional de imagen y datos, con un enfoque muy claro: ofrecer una máquina “lista para producir” con una GPU de nueva generación y un precio que compite fuerte frente a muchas alternativas en la nube cuando el uso es sostenido.

El gancho del GEX131 está en la NVIDIA RTX PRO 6000 Blackwell Max-Q, una GPU orientada a entornos profesionales que llega con 96 GB de memoria GDDR7 ECC. Ese dato, por sí solo, marca la frontera entre “puedo experimentar” y “puedo trabajar con modelos y escenas grandes sin estar peleándome con la VRAM”: desde fine-tuning de modelos medianos, inferencia con lotes altos, hasta render y composición con proyectos pesados.

En CPU, Hetzner acompaña con un Intel Xeon Gold 5412U de 24 núcleos (Sapphire Rapids), apuntando a estabilidad y multitarea real (pipelines, preprocesado, compresión, ETL, colas, etc.). La configuración base incluye 256 GB de RAM DDR5 ECC y 2× 960 GB NVMe Gen4 (SSD “datacenter edition”), un combo típico para quien quiere rendimiento en disco sin depender de almacenamiento externo desde el minuto uno.

Especificaciones clave (configuración base)

ComponenteGEX131 (Hetzner)
GPUNVIDIA RTX PRO 6000 Blackwell Max-Q
VRAM96 GB GDDR7 ECC
CPUIntel Xeon Gold 5412U (24C)
RAM256 GB DDR5 ECC (ampliable)
Almacenamiento2× 960 GB NVMe Gen4 (Datacenter Edition)
EnfoqueIA, render 3D, procesamiento de imagen/datos

Precio y modelo de uso: pensado para “picos” y proyectos cerrados

Hetzner posiciona el servidor con un precio mensual desde 889,00 € (o 989,00 $) y opción de uso por horas desde 1,4247 €/h (o 1,5850 $/h), un detalle importante para equipos que necesitan capacidad GPU “en ráfagas” (entrenar una semana, renderizar 48 horas, preparar un dataset y apagar). En la comunicación oficial también se especifica que, desde el 16 de diciembre de 2025, existe setup fee de 159,00 € (o 177,00 $), lo que cambia ligeramente el cálculo para usos muy cortos.

¿Para quién encaja (de verdad) un servidor así?

  • Equipos de IA aplicada que quieren evitar colas, límites y sobrecostes de egress: inferencia, RAG, visión, clasificación, fine-tuning ligero/medio y generación de contenido.
  • Estudios y creadores que necesitan GPU potente con mucha VRAM para render, VFX, vídeo y flujos de trabajo pesados.
  • Data science / ingeniería: pipelines con aceleración GPU, procesos de pre/post, embeddings y lotes grandes.

Lo que conviene mirar antes de contratarlo (check rápido)

  • VRAM vs tipo de carga: 96 GB es una cifra muy cómoda, pero el rendimiento real depende del framework (CUDA, drivers, librerías) y del perfil (entrenamiento vs inferencia vs render).
  • RAM del sistema: para datasets grandes y feature engineering, 256 GB es buen punto de partida; si vas a mover mucho dato en memoria, mira la ampliación.
  • Disco: 2× NVMe Gen4 va genial para cachés, datasets y scratch. Si el proyecto crece, normalmente se acaba combinando con almacenamiento en red u objeto.
  • Operación: si la idea es producción (SLA interno, observabilidad, hardening), trátalo como infraestructura: métricas, alertas, backups, IaC y gestión de credenciales.
Scroll to Top