Foto de Christian Wiediger en Unsplash
Amazon Web Services (AWS) ha anunciado una alianza estratégica con la startup de inteligencia artificial Hugging Face para facilitar la ejecución de miles de modelos de inteligencia artificial en los chips personalizados de Amazon. Esta colaboración promete revolucionar el acceso y la eficiencia en el uso de IA para desarrolladores y empresas.
Hugging Face, valorada en 4.500 millones de dólares, se ha consolidado como un punto de encuentro crucial para investigadores y desarrolladores de IA.
La plataforma permite compartir y probar modelos de IA de código abierto, convirtiéndose en el recurso principal para la comunidad de desarrolladores que buscan implementar chatbots y otros software de inteligencia artificial. Con el respaldo de gigantes como Amazon, Google y Nvidia, Hugging Face ha logrado posicionarse como un líder en el sector.
Te recomendamos: ¿Qué son los robo advisors y cómo funcionan?
La asociación entre Amazon y Hugging Face busca aprovechar los chips Inferentia2 de AWS para mejorar la eficiencia y reducir costos en la ejecución de modelos de IA. Estos chips están diseñados específicamente para realizar inferencias, que es el proceso de ejecutar modelos ya entrenados para generar resultados.
Según Matt Wood, responsable de productos de inteligencia artificial en AWS, mientras que el entrenamiento de modelos puede ser esporádico, la inferencia se realiza constantemente, lo que hace crucial la eficiencia y el costo de este proceso.
«Los modelos se entrenan quizás una vez al mes, pero pueden estar realizando inferencias decenas de miles de veces por hora. Ahí es donde Inferentia2 realmente brilla», explicó Wood.
Te puede interesar: ¿Qué son los robo advisors y cómo funcionan?
Jeff Boudier, jefe de producto y crecimiento de Hugging Face, destacó la importancia de esta colaboración en términos de accesibilidad y rentabilidad.
Con esta alianza, AWS espera atraer a más desarrolladores de IA a su plataforma, ofreciéndoles una alternativa más económica y eficiente para la ejecución de modelos de IA. Mientras Nvidia domina el mercado de entrenamiento de modelos, AWS apuesta a que sus chips Inferentia2 serán preferidos para la inferencia, gracias a su capacidad de reducir costos operativos a largo plazo.
Si te interesa escuchar a expertos del sector franquicia, te invitamos a visitar nuestro canal de YouTube.
El Hot Sale 2025 está cada vez más cerca, se espera que esta edición rompa…
La CONSAR presenta resultados del Censo de Educación Financiera y Previsional. La Comisión Nacional del…
Changan llega a 80 sucursales en el país como parte de su proceso de expansión.…
El distintivo Hecho en México es una iniciativa impulsada por la Secretaría de Economía como…
Se estancó la economía mexicana durante el mes de abril, el INEGI señala que el…
Mercado Libre se prepara para Hot Sale, este evento para su edición 2025 se llevará…