Lo de hoy

Amazon y Hugging Face se unen

Amazon Web Services (AWS) ha anunciado una alianza estratégica con la startup de inteligencia artificial Hugging Face para facilitar la ejecución de miles de modelos de inteligencia artificial en los chips personalizados de Amazon. Esta colaboración promete revolucionar el acceso y la eficiencia en el uso de IA para desarrolladores y empresas.

Hugging Face, valorada en 4.500 millones de dólares, se ha consolidado como un punto de encuentro crucial para investigadores y desarrolladores de IA.

La plataforma permite compartir y probar modelos de IA de código abierto, convirtiéndose en el recurso principal para la comunidad de desarrolladores que buscan implementar chatbots y otros software de inteligencia artificial. Con el respaldo de gigantes como Amazon, Google y Nvidia, Hugging Face ha logrado posicionarse como un líder en el sector.

Te recomendamos: ¿Qué son los robo advisors y cómo funcionan?

El poder de los chips Inferentia2 de Amazon

La asociación entre Amazon y Hugging Face busca aprovechar los chips Inferentia2 de AWS para mejorar la eficiencia y reducir costos en la ejecución de modelos de IA. Estos chips están diseñados específicamente para realizar inferencias, que es el proceso de ejecutar modelos ya entrenados para generar resultados.

Según Matt Wood, responsable de productos de inteligencia artificial en AWS, mientras que el entrenamiento de modelos puede ser esporádico, la inferencia se realiza constantemente, lo que hace crucial la eficiencia y el costo de este proceso.

«Los modelos se entrenan quizás una vez al mes, pero pueden estar realizando inferencias decenas de miles de veces por hora. Ahí es donde Inferentia2 realmente brilla», explicó Wood.

Te puede interesar: ¿Qué son los robo advisors y cómo funcionan?

Jeff Boudier, jefe de producto y crecimiento de Hugging Face, destacó la importancia de esta colaboración en términos de accesibilidad y rentabilidad.

Con esta alianza, AWS espera atraer a más desarrolladores de IA a su plataforma, ofreciéndoles una alternativa más económica y eficiente para la ejecución de modelos de IA. Mientras Nvidia domina el mercado de entrenamiento de modelos, AWS apuesta a que sus chips Inferentia2 serán preferidos para la inferencia, gracias a su capacidad de reducir costos operativos a largo plazo.

Si te interesa escuchar a expertos del sector franquicia, te invitamos a visitar nuestro canal de YouTube.

Marcia

Entradas recientes

Del Monte en quiebra después de más de un siglo de historia

Del Monte en quiebra, la empresa anunció que se encuentra en proceso de solicitar la…

4 horas hace

Netflix y la NASA se unen para transmitir desde el espacio

Netflix y la NASA anunciaron oficialmente que transmitirán en vivo de desde el espacio. La…

7 horas hace

Expo Franquicias Guadalajara 2025: el evento que conecta emprendedores con grandes marcas

La Expo Franquicias Guadalajara se consolida como uno de los eventos más importantes del sector…

9 horas hace

Corona y Modelo Especial son las marcas más valiosas de México

Corona y Modelo Especial encabezan el ranking de Brand Finance México 50 2025 como las…

10 horas hace

Banco Azteca fue reconocido por The Banker como el banco con mayor liquidez en México

Banco Azteca fue reconocido por The Banker, publicación del Financial Times Group, como el banco…

1 día hace

Franquicias de servicios: un modelo de negocio rentable que sigue creciendo en México

Las franquicias de servicios representan uno de los modelos de negocio más atractivos y con…

1 día hace