Los modelos de fundación abiertos (FMs) han emergido como una herramienta esencial en la vanguardia de la innovación en inteligencia artificial generativa, permitiendo a las organizaciones diseñar y personalizar sus aplicaciones de IA de manera más eficaz, al mismo tiempo que controlan sus costos y estrategias de implementación. En este marco, DeepSeek AI se ha posicionado como un actor destacado al desarrollar la familia de modelos de lenguaje grande (LLMs) conocida como DeepSeek-R1, que aborda diversas tareas, desde la generación de código hasta el razonamiento general, con un desempeño competitivo y eficiente.
Una de las innovaciones más relevantes en este ámbito es Amazon Bedrock Custom Model Import, una herramienta que facilita la importación y el uso de modelos personalizados junto con otros modelos de fundación a través de una única API unificada y sin servidores. Esta funcionalidad permite a las organizaciones acceder a modelos a la carta, eliminando la complejidad de la gestión de la infraestructura subyacente y brindando la oportunidad de utilizar capacidades de inteligencia artificial de última generación en un entorno seguro y escalable.
DeepSeek AI ha presentado versiones destiladas de sus modelos DeepSeek-R1, basadas en las arquitecturas de Meta, Llama y Qwen, con parámetros que varían desde 1.5 hasta 70 mil millones. El proceso de destilación consiste en entrenar modelos más pequeños y eficientes que representan el comportamiento y el razonamiento del modelo original, brindando un funcionamiento más ágil y reduciendo significativamente los costos computacionales. Ejemplos de estos modelos destilados incluyen el DeepSeek-R1-Distill-Llama-8B y el DeepSeek-R1-Distill-Llama-70B, que logran un equilibrio óptimo entre rendimiento y consumo de recursos.
La implementación de estos modelos a través de Amazon Bedrock Custom Model Import es un proceso sencillo. Los usuarios pueden importar modelos desde Amazon Simple Storage Service (S3) o un repositorio de modelos de Amazon SageMaker, desplegándolos en un ambiente totalmente administrado. Esta solución elimina la necesidad de gestionar la infraestructura, al tiempo que ofrece escalabilidad y seguridad a nivel empresarial.
Para realizar la implementación correctamente, es fundamental preparar un paquete de modelo adecuado, que incluye la descarga de artefactos de modelo y su carga en un bucket S3 dentro de la región de AWS correspondiente. Posteriormente, los usuarios pueden seguir un proceso simplificado para importar el modelo a través de la consola de Amazon Bedrock.
Una vez importados, los modelos pueden ser probados en Amazon Bedrock Playground, donde es posible ajustar los parámetros de inferencia y realizar las pruebas necesarias. Es importante señalar que la implementación de modelos personalizados a través de Amazon Bedrock no genera tarifas por importación; la facturación se basa en la cantidad de copias de modelo activas y su duración de uso.
DeepSeek ha compartido resultados de benchmarks que comparan sus modelos destilados con el original DeepSeek-R1 y otros modelos base de Llama, revelando que las versiones destiladas mantienen entre el 80% y el 90% de las capacidades de razonamiento del modelo original. Sin embargo, las organizaciones deben evaluar detenidamente sus requisitos, puesto que los modelos más grandes suelen resultar más efectivos, aunque las versiones más pequeñas pueden ser adecuadas para numerosas aplicaciones a un costo inferior.
En conclusión, Amazon Bedrock Custom Model Import ofrece a las organizaciones la posibilidad de elegir entre modelos abiertos y personalizados, brindando la flexibilidad necesaria para adaptar y optimizar sus implementaciones de inteligencia artificial en un entorno en constante cambio.