Mistral-Small-24B-Instruct-2501 Ahora Disponible en SageMaker Jumpstart y el Mercado de Amazon Bedrock

Elena Digital López

Mistral AI ha hecho un anuncio importante en el ámbito de la inteligencia artificial al lanzar su nuevo modelo de lenguaje, el Mistral-Small-24B-Instruct-2501. Este modelo, que cuenta con veinticuatro mil millones de parámetros, ha sido optimizado específicamente para tareas de generación de texto de baja latencia y ya está disponible a través de Amazon SageMaker JumpStart y el nuevo Amazon Bedrock Marketplace. Esta plataforma ofrece a los desarrolladores la oportunidad de explorar y utilizar más de 100 modelos, incluyendo tanto opciones populares como más especializadas, además de los modelos líderes en la industria que están disponibles en Amazon Bedrock.

El Mistral Small 3 (2501) se destaca por su alto rendimiento y eficiencia computacional, permitiendo gestionar una amplia ventana de contexto de 32,000 tokens. La versión instruida de este modelo ha sido elaborada sobre la base de versiones anteriores, enfocándose en mejorar su habilidad para seguir instrucciones complejas y mantener conversaciones coherentes. Según afirmaciones de Mistral, el modelo muestra un rendimiento superior en ámbitos como la generación de código, matemáticas y conocimiento general, lo que lo convierte en una opción sobresaliente para tareas de inteligencia artificial generativa que demandan rapidez y precisión.

El nuevo modelo muestra una efectividad notable en la asistencia conversacional, siendo capaz de responder en menos de 100 milisegundos, lo que facilita su uso en la automatización del servicio al cliente y en asistencia interactiva. Con una precisión que supera el 81% en pruebas de comprensión de lenguaje multitarea, el Mistral-Small-24B-Instruct-2501 se posiciona como uno de los modelos más eficientes en su categoría, enfrentándose a modelos más grandes con un rendimiento similar, pero con tiempos de respuesta más rápidos.

Amazon SageMaker JumpStart proporciona a los usuarios acceso a una colección diversa de modelos preentrenados para distintos casos de uso, como la escritura de contenido, la generación de código y la respuesta a preguntas. Los desarrolladores pueden utilizar el nuevo marketplace para localizar modelos que se ajusten a sus necesidades particulares, filtrando según el proveedor y la modalidad.

Para implementar el Mistral-Small-24B-Instruct-2501, los usuarios deberán ingresar a la consola de Amazon Bedrock y buscar en el catálogo de modelos. El proceso de implementación incluirá la selección de la instancia adecuada, la configuración de opciones de seguridad y red, y finalmente el despliegue del modelo. Una vez que el despliegue está completo, los usuarios podrán probar las capacidades del modelo en un entorno interactivo.

El lanzamiento del Mistral-Small-24B-Instruct-2501 subraya la creciente relevancia de los modelos de lenguaje optimizados en la inteligencia artificial generativa, ofreciendo herramientas que son accesibles tanto para desarrolladores como para empresas que buscan mejorar su interactividad automatizada y contextual de manera efectiva y eficiente.