Estos chips están diseñados específicamente para realizar inferencia...
Amazon Web Services (AWS) ha anunciado una alianza estratégica con la startup de inteligencia artificial Hugging Face para facilitar la ejecución de miles de modelos de inteligencia artificial en los chips personalizados de Amazon. Esta colaboración promete revolucionar el acceso y la eficiencia en el uso de IA para desarrolladores y empresas.
Hugging Face, valorada en 4.500 millones de dólares, se ha consolidado como un punto de encuentro crucial para investigadores y desarrolladores de IA.
La plataforma permite compartir y probar modelos de IA de código abierto, convirtiéndose en el recurso principal para la comunidad de desarrolladores que buscan implementar chatbots y otros software de inteligencia artificial. Con el respaldo de gigantes como Amazon, Google y Nvidia, Hugging Face ha logrado posicionarse como un líder en el sector.
Te recomendamos: ¿Qué son los robo advisors y cómo funcionan?
El poder de los chips Inferentia2 de Amazon
La asociación entre Amazon y Hugging Face busca aprovechar los chips Inferentia2 de AWS para mejorar la eficiencia y reducir costos en la ejecución de modelos de IA. Estos chips están diseñados específicamente para realizar inferencias, que es el proceso de ejecutar modelos ya entrenados para generar resultados.
Según Matt Wood, responsable de productos de inteligencia artificial en AWS, mientras que el entrenamiento de modelos puede ser esporádico, la inferencia se realiza constantemente, lo que hace crucial la eficiencia y el costo de este proceso.
«Los modelos se entrenan quizás una vez al mes, pero pueden estar realizando inferencias decenas de miles de veces por hora. Ahí es donde Inferentia2 realmente brilla», explicó Wood.
Te puede interesar: ¿Qué son los robo advisors y cómo funcionan?
Jeff Boudier, jefe de producto y crecimiento de Hugging Face, destacó la importancia de esta colaboración en términos de accesibilidad y rentabilidad.
Con esta alianza, AWS espera atraer a más desarrolladores de IA a su plataforma, ofreciéndoles una alternativa más económica y eficiente para la ejecución de modelos de IA. Mientras Nvidia domina el mercado de entrenamiento de modelos, AWS apuesta a que sus chips Inferentia2 serán preferidos para la inferencia, gracias a su capacidad de reducir costos operativos a largo plazo.
Si te interesa escuchar a expertos del sector franquicia, te invitamos a visitar nuestro canal de YouTube.