Llama 3.3 70B Ya Está Disponible en Amazon SageMaker JumpStart

Elena Digital López

Meta ha lanzado hoy su nuevo modelo de lenguaje, el Llama 3.3 70B, que ya está disponible en Amazon SageMaker JumpStart. Este modelo representa un avance significativo en la tecnología de modelos de lenguaje grande (LLM), ya que ofrece un rendimiento comparable a versiones de mayor tamaño, pero con un uso notablemente reducido de recursos computacionales. Esta eficiencia no solo mejora la calidad de la salida del modelo, sino que también conlleva una reducción considerable en los costos, lo que lo convierte en una opción atractiva para su implementación en entornos productivos.

El Llama 3.3 70B ha sido optimizado para una mayor eficiencia, logrando resultados similares a los del Llama 3.1 405B mientras utiliza solo una fracción de los recursos que este requeriría. Según información proporcionada por Meta, esta mejora en la eficiencia significa que los usuarios pueden realizar casi cinco veces más operaciones de inferencia por el mismo costo, permitiendo así a las organizaciones una solución más económica y accesible.

La arquitectura de este nuevo modelo se basa en una versión mejorada del diseño de transformadores, incorporando un mecanismo de atención que reduce significativamente los costos de inferencia. El equipo de ingeniería de Meta ha entrenado el modelo con un vasto conjunto de datos que incluye alrededor de 15 billones de tokens, combinando información de diversas fuentes en la web con más de 25 millones de ejemplos sintéticos creados específicamente para el desarrollo de modelos de lenguaje. Esta meticulosa estrategia de entrenamiento proporciona al modelo la capacidad de comprender y generar respuestas efectivas en una variedad de tareas.

Una de las características más sobresalientes del Llama 3.3 70B es su metodología de entrenamiento refinada, que incluye un proceso exhaustivo de afinamiento supervisado y el aprendizaje por refuerzo a partir de retroalimentación humana (RLHF). Gracias a esta estrategia, el modelo ha logrado alinearse mejor con las preferencias humanas sin comprometer su rendimiento. En evaluaciones de referencia, ha demostrado una notable consistencia, quedando a menos del 2% de diferencia con su modelo más grande en seis de diez evaluaciones estándar de inteligencia artificial y superándolo en tres categorías específicas.

Para facilitar la implementación de este nuevo modelo, SageMaker JumpStart ofrece herramientas que ayudan en la evaluación, comparación y selección de modelos preentrenados, incluyendo los modelos de Llama. Los usuarios pueden desplegar el Llama 3.3 70B utilizando una interfaz de usuario intuitiva o mediante un enfoque programático utilizando el SDK de Python de SageMaker, lo que brinda flexibilidad y escalabilidad para adaptarse a las necesidades específicas de cada organización.

El proceso de despliegue es sencillo, permitiendo a las organizaciones gestionar sus modelos de manera eficiente. Las capacidades amplias de SageMaker AI, como la carga rápida de modelos, el almacenamiento en caché de contenedores y la opción de escalar a cero, son herramientas que permiten optimizar los despliegues, maximizando las ventajas de la arquitectura del Llama 3.3 70B sin incurrir en costos innecesarios.

Esta combinación de características avanzadas en el Llama 3.3 70B y las herramientas de implementación de SageMaker AI ofrece una solución ideal para aquellas organizaciones que buscan maximizar tanto el rendimiento como la eficiencia en costos en sus operaciones de modelado de lenguaje.