Foto de Christian Wiediger en Unsplash
Amazon Web Services (AWS) ha anunciado una alianza estratégica con la startup de inteligencia artificial Hugging Face para facilitar la ejecución de miles de modelos de inteligencia artificial en los chips personalizados de Amazon. Esta colaboración promete revolucionar el acceso y la eficiencia en el uso de IA para desarrolladores y empresas.
Hugging Face, valorada en 4.500 millones de dólares, se ha consolidado como un punto de encuentro crucial para investigadores y desarrolladores de IA.
La plataforma permite compartir y probar modelos de IA de código abierto, convirtiéndose en el recurso principal para la comunidad de desarrolladores que buscan implementar chatbots y otros software de inteligencia artificial. Con el respaldo de gigantes como Amazon, Google y Nvidia, Hugging Face ha logrado posicionarse como un líder en el sector.
Te recomendamos: ¿Qué son los robo advisors y cómo funcionan?
La asociación entre Amazon y Hugging Face busca aprovechar los chips Inferentia2 de AWS para mejorar la eficiencia y reducir costos en la ejecución de modelos de IA. Estos chips están diseñados específicamente para realizar inferencias, que es el proceso de ejecutar modelos ya entrenados para generar resultados.
Según Matt Wood, responsable de productos de inteligencia artificial en AWS, mientras que el entrenamiento de modelos puede ser esporádico, la inferencia se realiza constantemente, lo que hace crucial la eficiencia y el costo de este proceso.
«Los modelos se entrenan quizás una vez al mes, pero pueden estar realizando inferencias decenas de miles de veces por hora. Ahí es donde Inferentia2 realmente brilla», explicó Wood.
Te puede interesar: ¿Qué son los robo advisors y cómo funcionan?
Jeff Boudier, jefe de producto y crecimiento de Hugging Face, destacó la importancia de esta colaboración en términos de accesibilidad y rentabilidad.
Con esta alianza, AWS espera atraer a más desarrolladores de IA a su plataforma, ofreciéndoles una alternativa más económica y eficiente para la ejecución de modelos de IA. Mientras Nvidia domina el mercado de entrenamiento de modelos, AWS apuesta a que sus chips Inferentia2 serán preferidos para la inferencia, gracias a su capacidad de reducir costos operativos a largo plazo.
Si te interesa escuchar a expertos del sector franquicia, te invitamos a visitar nuestro canal de YouTube.
Del Monte en quiebra, la empresa anunció que se encuentra en proceso de solicitar la…
Netflix y la NASA anunciaron oficialmente que transmitirán en vivo de desde el espacio. La…
La Expo Franquicias Guadalajara se consolida como uno de los eventos más importantes del sector…
Corona y Modelo Especial encabezan el ranking de Brand Finance México 50 2025 como las…
Banco Azteca fue reconocido por The Banker, publicación del Financial Times Group, como el banco…
Las franquicias de servicios representan uno de los modelos de negocio más atractivos y con…