Saltar al contenido
Home » chips patentados, centro de datos optimizado y supercomputadora

chips patentados, centro de datos optimizado y supercomputadora


Superordenador Research SuperCluster de Meta -META

MADRID, 19 de mayo. (Portal/PE) –

Meta Sus planes para construir un infraestructura de inteligencia artificial (IA), incluidos sus propios procesadores y un centro de datos optimizado, para admitir nuevas aplicaciones basadas en esa tecnología y el metaverso.

El vicepresidente y responsable de infraestructuras de Meta, Santosh Janardhan, ha asegurado que la empresa «implementar un plan ambicioso» construyendo la próxima generación de su infraestructura de IA.

Si bien la IA ya desempeña un papel importante en la infraestructura global que la empresa comenzó a implementar en 2010 con su primer centro de datos, los planes de Meta para el futuro de la IA y el metaverso incluyen un nuevo centro de datos de próxima generación que tiene el potencial de habilitar . entrenar e inferir la próxima generación de hardware de IA.

La empresa ha hecho hincapié eficiencia de este centro de datos optimizadogracias al sistema de refrigeración líquida que ayudará a enfriar el ‘hardware’ y la red de «miles de chips de IA de alto rendimiento», que permitirán entrenar a escala.

Meta también funciona en propios chips aceleradores (llamado MTIA) diseñado para cargas de trabajo internas, con más poder de cómputo que las CPU. Desde la compañía afirman que al combinarse con GPUs ofrecen “mejor rendimiento, menor latencia y mejor eficiencia para todas las cargas de trabajo”, tal y como recogen en el blog oficial.

http://comunicaos.org/wp-content/uploads/1684490197_398_chips-patentados-centro-de-datos-optimizado-y-supercomputadora.jpg

Este trabajo se completa con Supercomputadora SuperCluster de investigación de Meta, cuya construcción de la segunda fase ha sido finalizada. Afirma ser «una de las supercomputadoras de IA más rápidas del mundo», con una potencia informática que puede funcionar a cada 5 exaflops.

Esta es una supercomputadora 16.000 GPU Nvidia A100 Tensor Coreaccesible a través de la estructura de red Clos de tres capas que proporciona ancho de banda completo a cada uno de los 2000 sistemas de entrenamiento Nvidia DGX A100 que actúan como nodos de cómputocomo explican desde Meta.

Actualmente hay varios proyectos en marcha, como un traductor de voz universal y su propio modelo de lenguaje grande, LLaMa, con 65 mil millones de parámetros.

Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *