Partner NVIDIA

Servidores GPU para IA y Machine Learning

Servidores GPU de alto rendimiento con NVIDIA RTX 6000 Server Edition y H200. Disenados especificamente para entrenamiento de IA, inferencia, deep learning y cargas de trabajo HPC.

96GB
vRAM por GPU
8x
GPU por Servidor
768GB
vRAM Total
NVIDIA
Servidor RTX 6000
RTX 96GB
RTX 96GB
RTX 96GB
RTX 96GB
RTX 96GB
RTX 96GB
RTX 96GB
RTX 96GB
memory 768GB vRAM Total
Activo
96GB/GPU
Ed. Servidor

Tecnologias GPU NVIDIA

Aceleradores de grado empresarial para las cargas de trabajo mas exigentes

memory_alt
Hasta 8 GPUs
RTX 6000 Server Edition
  • check 96GB Memoria GDDR7 ECC
  • check Arquitectura Blackwell
  • check PCIe Gen5 x16
  • check Hasta 768GB vRAM total
  • check Fiabilidad de Grado Servidor
Ideal para: Inferencia LLM, GenAI, Entrenamiento IA
memory_alt
HPC Enterprise
NVIDIA H200
  • check 141GB Memoria HBM3e
  • check 4.8 TB/s Ancho de Banda de Memoria
  • check Arquitectura Hopper
  • check SXM5 / NVLink
  • check GPU Multi-Instancia (MIG)
Ideal para: Entrenamiento LLM a Escala, HPC, Computacion Cientifica

Configuraciones de Servidores GPU

Servidores GPU preconfigurados listos para cargas de trabajo de IA

Inferencia
GPU Starter
NVIDIA
memory_alt
2x RTX 6000 Server 96GB
192GB vRAM Total
memory
AMD EPYC 9354 32-Core
64 Hilos @ 3.25 GHz
developer_board
256 GB DDR5 ECC
Hasta 1.5 TB
storage
2x 1.92TB NVMe SSD
RAID 1
lan
25 Gbps Sin Limite
Puerto Dual
1.999€ /mes
Entrenamiento
POPULAR
GPU Pro
NVIDIA
memory_alt
4x RTX 6000 Server 96GB
384GB vRAM Total
memory
2x AMD EPYC 9454 48-Core
192 Hilos @ 2.75 GHz
developer_board
512 GB DDR5 ECC
Hasta 3 TB
storage
4x 3.84TB NVMe SSD
RAID 10
lan
100 Gbps Sin Limite
Puerto Dual
3.499€ /mes
Maximo Rendimiento
GPU Max
NVIDIA
memory_alt
8x RTX 6000 Server 96GB
768GB vRAM Total
memory
2x Intel Xeon Platinum 8480+
112 Nucleos / 224 Hilos
developer_board
1 TB DDR5 ECC
Hasta 4 TB
storage
8x 7.68TB NVMe SSD
RAID 10
lan
200 Gbps Sin Limite
Fibra Oscura Disponible
5.999€ /mes
HPC Enterprise

Servidores NVIDIA H200

Aceleradores H200 con 141GB HBM3e para entrenamiento de modelos a gran escala, computacion cientifica y cargas HPC de maxima exigencia.

check H200 141GB HBM3e
check 4.8 TB/s Ancho de Banda
check NVLink
check Multi-Instancia (MIG)

Modelos de IA Compatibles

Estimaciones de rendimiento en inferencia con vLLM. Los tok/s representan generacion por usuario individual.

info El rendimiento real varia segun longitud de contexto, batch size y cuantizacion
GPU Starter
2x RTX 6000 — 192GB vRAM
Llama 3.1 8B
FP16 · ~16GB vRAM
~110 tok/s
Mistral 7B
FP16 · ~14GB vRAM
~120 tok/s
Mixtral 8x7B
FP16 · ~93GB vRAM
~45 tok/s
Llama 3.1 70B
FP16 · ~140GB vRAM
~30 tok/s
Qwen2.5 72B
FP8 · ~72GB vRAM
~40 tok/s
Ideal para inferencia de modelos hasta 70B y servir multiples modelos 7-8B en paralelo.
GPU Pro
POPULAR
4x RTX 6000 — 384GB vRAM
Llama 3.1 70B
FP16 · ~140GB vRAM
~55 tok/s
Mixtral 8x22B
FP16 · ~262GB vRAM
~25 tok/s
Llama 3.1 405B
FP8 · ~203GB vRAM
~18 tok/s
DeepSeek-V3
INT4 · ~170GB vRAM
~35 tok/s
Qwen2.5 72B
FP16 · ~144GB vRAM
~50 tok/s
Permite ejecutar modelos 405B con cuantizacion y multiples modelos 70B de forma concurrente.
GPU Max
8x RTX 6000 — 768GB vRAM
Llama 3.1 405B
FP16 · ~810GB vRAM
~30 tok/s
Llama 3.1 405B
FP8 · ~405GB vRAM
~45 tok/s
DeepSeek-V3
FP8 · ~340GB vRAM
~30 tok/s
Falcon 180B
FP16 · ~360GB vRAM
~35 tok/s
3x Llama 3.1 70B
FP16 · ~420GB vRAM
~40 tok/s c/u
Capacidad para modelos 405B en FP16 completo o multiples instancias 70B simultaneas para alto throughput.
speed
Throughput Agregado con Batching
Con vLLM y continuous batching, el throughput agregado escala con usuarios concurrentes:
1,500+
tok/s · 8B batch
400+
tok/s · 70B batch
150+
tok/s · 405B batch

Infraestructura GPU de Alto Rendimiento

Cada servidor GPU incluye drivers NVIDIA, CUDA, conectividad premium y soporte 24/7 sin coste adicional.

verified NVIDIA AI Enterprise (Opcional)
shield Proteccion DDoS
all_inclusive Trafico Ilimitado
support_agent Soporte 24/7
developer_board CUDA 12.x
memory_alt

GPUs de Ultima Generacion

  • check NVIDIA RTX 6000 Server Edition
  • check Hasta 8 GPUs por servidor
  • check Hasta 768GB vRAM total
lan

Red de Alta Velocidad

  • check Conectividad hasta 200 Gbps
  • check Fibra Oscura Disponible
  • check Proteccion DDoS incluida
storage

Almacenamiento NVMe

  • check SSDs NVMe de alto rendimiento
  • check Hasta 61TB por servidor
  • check RAID por hardware
speed

Stack IA Preinstalado

  • check CUDA, cuDNN, TensorRT
  • check Contenedores NGC optimizados
  • check Drivers NVIDIA preconfigurados
build

SLA Hardware

  • check Reemplazo de hardware en 4 horas
  • check Repuestos en sitio permanentes
  • check Monitoreo proactivo 24/7
shield

Seguridad Integrada

  • check Arranque seguro (Secure Boot)
  • check Proteccion DDoS volumetrica
  • check VLAN privada disponible

Casos de Uso IA y HPC

Servidores GPU optimizados para cargas de trabajo de IA modernas

psychology

Entrenamiento LLM

Entrena modelos de lenguaje grandes con clusters multi-GPU

smart_toy

Inferencia GenAI

Despliega modelos tipo ChatGPT a escala

image

Vision por Computador

Reconocimiento de imagenes y analisis de video

biotech

Computacion Cientifica

Descubrimiento de farmacos, dinamica molecular, simulaciones

graphic_eq

IA de Voz

Reconocimiento y sintesis de voz

view_in_ar

Renderizado 3D

Ray tracing y renderizado en tiempo real

query_stats

Analitica de Datos

Procesamiento de datos acelerado con RAPIDS

currency_bitcoin

Blockchain

Web3 y cargas de trabajo criptograficas

Stack de Software IA Preinstalado

Cada servidor GPU viene con herramientas NVIDIA preinstaladas. NVIDIA AI Enterprise disponible como opcion.

verified
Opcional
NVIDIA AI Enterprise
CUDA
Toolkit 12.x
cuDNN
Redes Neuronales Profundas
TensorRT
Optimizador de Inferencia
Triton
Servidor de Inferencia
NCCL
Comunicacion Multi-GPU
RAPIDS
Ciencia de Datos
PyTorch
Contenedor NGC
TensorFlow
Contenedor NGC
vLLM
Servicio LLM

Sistemas Operativos

Elige tu sistema operativo. Pre-instalado con drivers NVIDIA y stack IA listo para usar

Ubuntu Server
22.04 / 24.04 LTS
Recomendado IA
Debian
11 / 12
Rocky Linux
8 / 9
AlmaLinux
8 / 9
Windows Server
2022 / 2025

Ubicacion del Datacenter

Todos nuestros servidores GPU estan alojados en nuestro centro de datos propio en Madrid, con certificacion Tier III+ y conectividad directa a los principales puntos de intercambio de trafico.

Tier III+
Clasificacion DC
N+1
Redundancia electrica
400G
Capacidad de red
24/7
Vigilancia y seguridad
Conoce nuestras instalaciones arrow_forward
Centro de datos EDH Madrid

Preguntas Frecuentes

Resolvemos tus dudas sobre los servidores GPU

Que GPUs NVIDIA estan disponibles? expand_more
Ofrecemos NVIDIA RTX 6000 Server Edition (96GB GDDR7 ECC, arquitectura Blackwell) con hasta 8 GPUs por servidor alcanzando 768GB de vRAM, y NVIDIA H200 (141GB HBM3e, arquitectura Hopper) para cargas HPC enterprise de maxima exigencia.
Que software NVIDIA esta incluido? expand_more
Todos los servidores GPU incluyen CUDA Toolkit 12.x, cuDNN, TensorRT, NCCL para comunicacion multi-GPU y drivers NVIDIA preinstalados. Opcionalmente se puede contratar NVIDIA AI Enterprise con Triton Inference Server, RAPIDS para ciencia de datos y contenedores NGC optimizados para PyTorch, TensorFlow y vLLM.
Puedo personalizar la configuracion del servidor GPU? expand_more
Si. Ademas de las configuraciones predefinidas, podemos construir servidores GPU a medida: numero y modelo de GPUs, procesador, RAM, almacenamiento NVMe, red y fibra oscura. Contacta con ventas para configuraciones personalizadas.
Que sistemas operativos soportan los servidores GPU? expand_more
Ofrecemos Ubuntu Server (recomendado para IA), Debian, Rocky Linux, AlmaLinux y Windows Server. Todos incluyen los drivers NVIDIA preinstalados. Ubuntu Server es la opcion mas popular para cargas de trabajo de IA y machine learning.
Que conectividad de red ofrecen los servidores GPU? expand_more
Los servidores GPU incluyen desde 25 Gbps hasta 200 Gbps de conectividad sin limite de trafico. Para entrenamiento distribuido multi-nodo, ofrecemos fibra oscura dedicada. Todos incluyen proteccion DDoS y VLAN privada disponible.
Cuanto tarda el aprovisionamiento de un servidor GPU? expand_more
Las configuraciones predefinidas del catalogo se despliegan en 24-48 horas con el sistema operativo y stack NVIDIA preinstalado. Configuraciones personalizadas pueden requerir entre 5-10 dias laborables segun disponibilidad de hardware.
rocket_launch Inicia tu Viaje en IA

Listo para Acelerar tus Cargas de Trabajo de IA?

Obtén orientación experta para seleccionar la configuración GPU adecuada para tu caso de uso.