Hetzner ha presentado el GEX131, un servidor dedicado pensado para cargas exigentes de IA, render 3D y procesado profesional de imagen y datos, con un enfoque muy claro: ofrecer una máquina “lista para producir” con una GPU de nueva generación y un precio que compite fuerte frente a muchas alternativas en la nube cuando el uso es sostenido.
El gancho del GEX131 está en la NVIDIA RTX PRO 6000 Blackwell Max-Q, una GPU orientada a entornos profesionales que llega con 96 GB de memoria GDDR7 ECC. Ese dato, por sí solo, marca la frontera entre “puedo experimentar” y “puedo trabajar con modelos y escenas grandes sin estar peleándome con la VRAM”: desde fine-tuning de modelos medianos, inferencia con lotes altos, hasta render y composición con proyectos pesados.
En CPU, Hetzner acompaña con un Intel Xeon Gold 5412U de 24 núcleos (Sapphire Rapids), apuntando a estabilidad y multitarea real (pipelines, preprocesado, compresión, ETL, colas, etc.). La configuración base incluye 256 GB de RAM DDR5 ECC y 2× 960 GB NVMe Gen4 (SSD “datacenter edition”), un combo típico para quien quiere rendimiento en disco sin depender de almacenamiento externo desde el minuto uno.
Especificaciones clave (configuración base)
| Componente | GEX131 (Hetzner) |
|---|---|
| GPU | NVIDIA RTX PRO 6000 Blackwell Max-Q |
| VRAM | 96 GB GDDR7 ECC |
| CPU | Intel Xeon Gold 5412U (24C) |
| RAM | 256 GB DDR5 ECC (ampliable) |
| Almacenamiento | 2× 960 GB NVMe Gen4 (Datacenter Edition) |
| Enfoque | IA, render 3D, procesamiento de imagen/datos |
Precio y modelo de uso: pensado para “picos” y proyectos cerrados
Hetzner posiciona el servidor con un precio mensual desde 889,00 € (o 989,00 $) y opción de uso por horas desde 1,4247 €/h (o 1,5850 $/h), un detalle importante para equipos que necesitan capacidad GPU “en ráfagas” (entrenar una semana, renderizar 48 horas, preparar un dataset y apagar). En la comunicación oficial también se especifica que, desde el 16 de diciembre de 2025, existe setup fee de 159,00 € (o 177,00 $), lo que cambia ligeramente el cálculo para usos muy cortos.
¿Para quién encaja (de verdad) un servidor así?
- Equipos de IA aplicada que quieren evitar colas, límites y sobrecostes de egress: inferencia, RAG, visión, clasificación, fine-tuning ligero/medio y generación de contenido.
- Estudios y creadores que necesitan GPU potente con mucha VRAM para render, VFX, vídeo y flujos de trabajo pesados.
- Data science / ingeniería: pipelines con aceleración GPU, procesos de pre/post, embeddings y lotes grandes.
Lo que conviene mirar antes de contratarlo (check rápido)
- VRAM vs tipo de carga: 96 GB es una cifra muy cómoda, pero el rendimiento real depende del framework (CUDA, drivers, librerías) y del perfil (entrenamiento vs inferencia vs render).
- RAM del sistema: para datasets grandes y feature engineering, 256 GB es buen punto de partida; si vas a mover mucho dato en memoria, mira la ampliación.
- Disco: 2× NVMe Gen4 va genial para cachés, datasets y scratch. Si el proyecto crece, normalmente se acaba combinando con almacenamiento en red u objeto.
- Operación: si la idea es producción (SLA interno, observabilidad, hardening), trátalo como infraestructura: métricas, alertas, backups, IaC y gestión de credenciales.

