reServer Jetson-50-1-H4 es un servidor AI Edge con NVIDIA Jetson AGX Orin 64GB

reServer Jetson-50-1-H4 es un servidor perimetral de inferencia de IA con tecnología de Jetson AGX Orin 64GB con hasta 275 TOPS de rendimiento de IA y basado en el mismo factor de forma que El NAS multimedia de 2 bahías reServer de Seeed Studio presentado el año pasado con una computadora de placa única Intel Core Tiger Lake.

El servidor Arm de 12 núcleos viene con LPDDR5 de 32 GB, un SSD NVMe de 256 GB precargado con Jetpack SDK y el servidor Triton Inference de código abierto, dos bahías SATA para unidades de 2,5 y 3,5 pulgadas, hasta 10 Gbps Ethernet, salida de video dual 8K a través de HDMI y DisplayPort, puertos USB 3.2 y más.

Jetson AGX Orin 64GB AI inference servidorreServer Jetson-50-1-H4 especificaciones (preliminares):

  • SoM: módulo Jetson AGX Orin con
    • CPU: procesador Arm Cortex-A78AE v8.2 de 64 bits de 12 núcleos con 3 MB L2 + 6 MB de caché L3
    • Aceleradores de GPU/IA
      • Arquitectura NVIDIA Ampere con 2048 núcleos NVIDIA CUDA y 64 Tensor Cores a 1,3 GHz
      • Acelerador DL: 2x NVDLA v2.0
      • Acelerador de visión: PVA v2.0 (acelerador de visión programable)
      • Rendimiento de IA: hasta 275 TOPS (INT8) a 60 W
    • Codificación de video: 2x 4K60 | 4x4K30 | 8x 1080p60 | 16x 1080p30 (H.265)
    • Descodificación de video: 1x 8K30 | 3x 4K60 | 7x 4K30 | 11x 1080p60| 22x 1080p30 (H.265)
    • Memoria del sistema: 32 GB LPDDR5 de 256 bits a 204,8 GB/s
    • Almacenamiento: flash eMMC 5.1 de 64 GB
  • Almacenamiento: SSD M.2 NVMe de 256 GB, 2 puertos SATA y bahías para unidades de 2,5 y 3,5 pulgadas
  • Salida de video: HDMI 2.1 y DisplayPort 1.4a con resolución de hasta 8Kp60
  • Redes
    • Puerto Ethernet RJ45 de 10 Gbps
    • Puerto Gigabit Ethernet RJ45
    • Wi-Fi y Bluetooth
    • B-Key M.2 para Lora, 4G LTE, 5G
  • USB: 3 puertos USB 3.2 tipo A, 1 puerto USB 3.2 tipo C
  • Depuración: encabezado UART para consola serie
  • Misc – Disipación de calor pasiva con un gran disipador de calor de la cámara de vapor, conector del ventilador (parece que se incluye un ventilador en la parte inferior), zumbador, RTC, puente AutoPwrOn
  • Fuente de alimentación: 24 V a través de un conector de alimentación de CC
  • Dimensiones: 233 x 132 x 124 mm

reServer Jetson-50-1-H4 hard drives

El servidor de inferencia reServer Jetson-50-1-H4 se enviará con el módulo Jetson AGX Orin de 64 GB, así como con un adaptador de corriente de 24 V.

Nunca había oído hablar del servidor de inferencia Triton y así es cómo lo describe NVIDIA:

Triton Inference Server agiliza la inferencia de IA al permitir que los equipos implementen, ejecuten y escalen modelos de IA capacitados desde cualquier marco en cualquier infraestructura basada en GPU o CPU. Brinda a los investigadores de IA y a los científicos de datos la libertad de elegir el marco adecuado para sus proyectos sin afectar el despliegue de producción. También ayuda a los desarrolladores a ofrecer inferencias de alto rendimiento en dispositivos en la nube, en las instalaciones, perimetrales e integrados.

(It) es compatible con todos los marcos principales, como TensorFlow, NVIDIA TensorRT, PyTorch, MXNet, Python, ONNX, RAPIDS™ FIL (para XGBoost, scikit-learn, etc.), OpenVINO, C++ personalizado y más

Seeed Studio enumera varias aplicaciones con servidores SOHO, automatización industrial, robótica, atención médica, agricultura inteligente y NAS. No me imagino a nadie usándolo como servidor de oficina o NAS, ya que será costoso. La compañía aún no proporcionó precios y dice que actualmente es hardware beta, pero considerando NVIDIA Jetson AGX Orin Developer Kit se vende por aproximadamente $ 2000 y el módulo en sí por $ 1599 (en cantidades de 1K), el reServer Jetson-50-1-H4 debería costar alrededor de $2500 o más en el lanzamiento. Es posible que pronto haya más detalles disponibles en tienda Seeed Studio.

Traducido del artículo en inglés «reServer Jetson-50-1-H4 is an AI Edge server powered by NVIDIA Jetson AGX Orin 64GB«.

Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments