Sin categorizar

Microsoft presenta un chip de IA personalizado, con la ayuda de OpenAI, poniéndose al día con Amazon – Chinaderita y ½

Microsoft describe Azure Maia AI Accelerator como el primero diseñado por Microsoft para el entrenamiento e inferencia de modelos de lenguaje grandes en la nube de Microsoft. (Imagen de Microsoft)

Microsoft confirmó públicamente su plan, del que se rumorea desde hace mucho tiempo, para introducir sus propios procesadores para centros de datos, incluido uno optimizado para inteligencia artificial y refinado en función de los comentarios de su principal socio de inteligencia artificial, el fabricante de ChatGPT OpenAI.

La compañía dice que los chips representan “una última pieza del rompecabezas” en su infraestructura Azure, dándole un papel directo en el diseño de cada capa de la plataforma en la nube responsable de una parte cada vez más importante de su negocio.

Uno de los chips diseñados por Microsoft, el Azure Maia AI Accelerator, está optimizado para tareas de IA, incluida la inteligencia artificial generativa. El otro, Azure Cobalt CPU, es un procesador basado en Arm destinado a cargas de trabajo en la nube de uso general.

Microsoft dice que los chips se implementarán en sus centros de datos a principios del próximo año. La compañía planea usarlos inicialmente para ejecutar sus propios servicios, incluidos Microsoft Copilot y Azure OpenAI Service, antes de expandirse a más cargas de trabajo.

El plan, anunciado el miércoles en la conferencia de Microsoft Encender conferencia, llega ocho años después de que Amazon comenzara a fabricar su propio silicio de centro de datos personalizado a través de la adquisición de Annapurna Labs. Desde entonces, Amazon Web Services se ha expandido hacia chips de IA especializados, Tranium e Inferentia, para construir y ejecutar modelos grandes.

Un bastidor hecho a medida para el acelerador de IA Maia 100 y su sistema “compañero” de refrigeración dentro de una cámara térmica en un laboratorio de Microsoft en Redmond. (Foto de Microsoft / John Brecher)

Microsoft también se está poniendo al día con Google, que ha desarrollado varias generaciones de sus chips Tensor Processing Unit, utilizados por Google Cloud para cargas de trabajo de aprendizaje automáticoy supuestamente está trabajando en sus propios chips basados ​​en Arm.

“A la escala en la que operamos, es importante para nosotros optimizar e integrar cada capa de la infraestructura para maximizar el rendimiento, diversificar nuestra cadena de suministro y brindar a los clientes opciones de infraestructura”, dijo Scott Guthrie, vicepresidente ejecutivo de Cloud + AI Group de Microsoft. en un comunicado difundido por la empresa.

La compañía dice que ha estado desarrollando los chips durante años en un laboratorio en su campus de Redmond, aparentemente en secreto, aunque a principios de este año surgieron noticias sobre los planes de silicio personalizados de Microsoft. a través de un reportaje en La Información.

OpenAI dice que trabajó con Microsoft para perfeccionar y probar el chip Maia. “La arquitectura de IA de extremo a extremo de Azure, ahora optimizada hasta el silicio con Maia, allana el camino para entrenar modelos más capaces y hacer que esos modelos sean más baratos para nuestros clientes”, dijo el CEO de OpenAI, Sam Altman, en el anuncio de Microsoft.

En otras noticias de IgniteMicrosoft está anunciando una serie de servicios de IA nuevos y actualizadosincluido Estudio copiloto para crear servicios personalizados para Microsoft 365 Copilot; la expansión de Copilot en Microsoft Teams; y Estudio de IA de Windows para desarrolladores.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *