Lo de hoy

Amazon y Hugging Face se unen

Amazon Web Services (AWS) ha anunciado una alianza estratégica con la startup de inteligencia artificial Hugging Face para facilitar la ejecución de miles de modelos de inteligencia artificial en los chips personalizados de Amazon. Esta colaboración promete revolucionar el acceso y la eficiencia en el uso de IA para desarrolladores y empresas.

Hugging Face, valorada en 4.500 millones de dólares, se ha consolidado como un punto de encuentro crucial para investigadores y desarrolladores de IA.

La plataforma permite compartir y probar modelos de IA de código abierto, convirtiéndose en el recurso principal para la comunidad de desarrolladores que buscan implementar chatbots y otros software de inteligencia artificial. Con el respaldo de gigantes como Amazon, Google y Nvidia, Hugging Face ha logrado posicionarse como un líder en el sector.

Te recomendamos: ¿Qué son los robo advisors y cómo funcionan?

El poder de los chips Inferentia2 de Amazon

La asociación entre Amazon y Hugging Face busca aprovechar los chips Inferentia2 de AWS para mejorar la eficiencia y reducir costos en la ejecución de modelos de IA. Estos chips están diseñados específicamente para realizar inferencias, que es el proceso de ejecutar modelos ya entrenados para generar resultados.

Según Matt Wood, responsable de productos de inteligencia artificial en AWS, mientras que el entrenamiento de modelos puede ser esporádico, la inferencia se realiza constantemente, lo que hace crucial la eficiencia y el costo de este proceso.

“Los modelos se entrenan quizás una vez al mes, pero pueden estar realizando inferencias decenas de miles de veces por hora. Ahí es donde Inferentia2 realmente brilla”, explicó Wood.

Te puede interesar: ¿Qué son los robo advisors y cómo funcionan?

Jeff Boudier, jefe de producto y crecimiento de Hugging Face, destacó la importancia de esta colaboración en términos de accesibilidad y rentabilidad.

Con esta alianza, AWS espera atraer a más desarrolladores de IA a su plataforma, ofreciéndoles una alternativa más económica y eficiente para la ejecución de modelos de IA. Mientras Nvidia domina el mercado de entrenamiento de modelos, AWS apuesta a que sus chips Inferentia2 serán preferidos para la inferencia, gracias a su capacidad de reducir costos operativos a largo plazo.

Si te interesa escuchar a expertos del sector franquicia, te invitamos a visitar nuestro canal de YouTube.

Marcia

Entradas recientes

Inclusión LGBTQ+ en estas 10 empresas de México

Para la Organización Internacional del Trabajo (OIT) la discriminación en el sector es "un fenómeno…

2 días hace

3 tips para medir el ambiente laboral

Mejorar la experiencia dentro de las empresas es clave para la productividad.

2 días hace

Inclusión laboral LGBT+: manejar una transición en el entorno laboral

305 empresas participaron en la séptima edición de HRC Equidad MX y 254 obtuvieron la…

3 días hace

Aprende de liderazgo a través de estas películas

¡Ve por tus palomita y toma nota!

3 días hace

Esquivel sugiere reforma fiscal progresiva

Esquivel enfatizó que la discusión sobre la reforma fiscal va más allá de los impuestos.

3 días hace

Mercados en tensión: bolsas europeas y yen en caída

El índice Nikkei de Japón y las acciones de Taiwán subieron...

4 días hace

Esta web usa cookies.