Actualizado: 05/07/2024
Alphabet, la empresa matriz de Google, ha presentado su última incorporación a la familia de chips de centros de datos de inteligencia artificial: Trillium.
Innovación en Hardware de IA
Representando el hardware más avanzado específico para IA, Trillium está compuesto por Unidades de Procesamiento Tensorial (TPUs, por sus siglas en inglés). Estos chips personalizados para centros de datos de IA son una alternativa destacada a las ofertas de Nvidia, proporcionando una opción convincente en el mercado.
Actualmente, Nvidia posee el 80% del mercado de chips de IA, con Google dominando el 20% restante. Es notable que Google no vende los chips, sino que los alquila a través de su plataforma de computación en la nube.
Rendimiento y Eficiencia Energética
Trillium es la sexta generación de TPU, la más performante y eficiente en energía hasta la fecha. Google ha destacado que los TPUs Trillium logran un impresionante aumento de 4.7 veces en el rendimiento máximo de cálculo por chip en comparación con el TPU v5e, según se indicó en una publicación de blog.
La última oferta de la compañía cuenta con el doble de capacidad y ancho de banda de memoria de alta capacidad (HBM, por sus siglas en inglés), junto con el doble de ancho de banda de Interconexión entre Chips (ICI, por sus siglas en inglés) en comparación con el TPU v5e.
Además, Trillium presenta una tercera generación de SparseCore, un acelerador especializado para procesar incrustaciones ultra-grandes encontradas en cargas de trabajo avanzadas de clasificación y recomendación. La publicación del blog también destaca la capacidad de entrenar la próxima ola de modelos fundamentales a menor latencia y menor costo.
Escalabilidad y Eficiencia
Los últimos TPUs Trillium se destacan por ser más del 67% más eficientes en energía que el TPU v5e, según Google. Además, el Trillium es capaz de escalar hasta 256 TPUs dentro de un solo pod de alta capacidad y baja latencia.
El blog también mencionó que más allá de esta escalabilidad a nivel de pod, los TPUs Trillium, equipados con tecnología multislice y Unidades de Procesamiento de Inteligencia Titanium (IPUs, por sus siglas en inglés), pueden escalar a cientos de pods, conectando decenas de miles de chips en un supercomputador a escala de edificio interconectado por una red de centro de datos de varios petabits por segundo.
Mejoras en el Rendimiento
La compañía logró un aumento de 4.7 veces en el rendimiento de cálculo por chip Trillium al aumentar el tamaño de las unidades de multiplicación de matrices (MXUs, por sus siglas en inglés) y aumentar la velocidad del reloj.
En una publicación de blog, la compañía declaró: «Los TPUs Trillium impulsarán la próxima ola de modelos y agentes de IA, y estamos deseando ayudar a habilitar a nuestros clientes con estas capacidades avanzadas».
Impacto en los Servicios de Computación en la Nube
Este avance beneficiará enormemente a los servicios de computación en la nube de Google y a Gemini. Empresas como Deep Genomics y Deloitte, que dependen de los servicios de Google Cloud, experimentarán un impulso significativo gracias al nuevo chip.
El soporte para entrenar y servir modelos multimodales de largo contexto en los TPUs Trillium permitirá a Google DeepMind entrenar y servir futuras generaciones de modelos Gemini más rápido, de manera más eficiente y con menor latencia que nunca.
Los TPUs Trillium son fundamentales para la Supercomputadora de IA de Google Cloud, una arquitectura de supercomputación diseñada específicamente para cargas de trabajo de IA de vanguardia.
Gemini 1.5 Pro es el modelo de IA más grande y capaz de Google, y fue entrenado usando decenas de miles de aceleradores TPU.
Nuestro equipo está entusiasmado con el anuncio de la sexta generación de TPUs, y esperamos con ansias el aumento en rendimiento y eficiencia para el entrenamiento e inferencia a la escala de nuestros modelos Gemini.
Jeff Dean, científico en jefe de Google Deepmind y Google Research.
Vía google.com
Deja una respuesta