Optimización de Salesforce con Modelos de Alto Rendimiento Usando Amazon SageMaker AI

Elena Digital López

En un movimiento estratégico para elevar sus capacidades en inteligencia artificial y procesamiento del lenguaje natural, Salesforce ha puesto en marcha una serie de iniciativas enfocadas en la optimización de modelos de lenguaje de gran tamaño (LLMs). Este esfuerzo, dirigido por el equipo de Model Serving, se centra en la integración de soluciones avanzadas y la colaboración con proveedores tecnológicos de renombre, ampliando así las fronteras de la IA en aplicaciones empresariales.

El equipo no solo abarca los modelos de aprendizaje automático convencionales, sino que también explora áreas como la inteligencia artificial generativa, el reconocimiento de voz y la visión por computadora. Uno de los objetivos centrales del equipo es gestionar integralmente el ciclo de vida de los modelos, lo que incluye la recopilación de requisitos, optimización y escalado de los modelos de IA desarrollados por los científicos de datos de la compañía. En este proceso, se prioriza la minimización de la latencia y la maximización del rendimiento, especialmente al desplegar estos modelos en múltiples regiones de Amazon Web Services (AWS).

Sin embargo, Salesforce enfrenta varios retos significativos en esta implementación. Principalmente, el desafío reside en equilibrar la latencia y el rendimiento sin comprometer la eficiencia de costos, un aspecto crucial en un entorno empresarial que demanda respuestas rápidas y precisas. Además, la optimización del rendimiento, la seguridad y la protección de los datos del cliente son fundamentales para el éxito de estas iniciativas.

Para atender estos desafíos, el equipo ha diseñado un marco de alojamiento en AWS que simplifica la gestión del ciclo de vida de los modelos. Utilizando Amazon SageMaker AI, se han implementado herramientas que facilitan inferencias distribuidas y despliegues de múltiples modelos, lo cual ayuda a evitar cuellos de botella de memoria y a reducir los costos del hardware. SageMaker también permite el uso de contenedores de aprendizaje profundo que aceleran el desarrollo y la implementación, permitiendo a los ingenieros enfocarse en la optimización de modelos en lugar de en las configuraciones de infraestructura.

Adicionalmente, Salesforce ha adoptado prácticas recomendadas para el despliegue en SageMaker AI, lo que optimiza la utilización de GPUs y mejora la asignación de memoria. Esto resulta en un despliegue eficiente y rápido de modelos que cumplen con los estándares de alta disponibilidad y baja latencia.

A través de un enfoque modular, el equipo garantiza que las mejoras en un proyecto no interfieran con otros desarrollos en curso. Asimismo, están investigando nuevas tecnologías y técnicas de optimización con el objetivo de mejorar la eficiencia en costos y energía. Las colaboraciones continuas con la comunidad de código abierto y proveedores de la nube como AWS son un pilar importante para la incorporación de innovaciones en sus procesos.

En términos de seguridad, Salesforce mantiene estándares rigurosos desde el inicio del ciclo de desarrollo, implementando mecanismos de encriptación y controles de acceso para proteger la información sensible. A través de pruebas automatizadas, se asegura de que la rapidez en la implementación no comprometa la seguridad de los datos.

Con el crecimiento de las necesidades de IA generativa en Salesforce, el equipo se compromete a seguir mejorando su infraestructura de despliegue, explorando metodologías y tecnologías innovadoras para liderar en el dinámico campo de la inteligencia artificial.