Amazon ha anunciado la disponibilidad general de filtros de contenido de imagen en Amazon Bedrock Guardrails, una innovadora herramienta diseñada para moderar contenido tanto de texto como de imagen en aplicaciones de inteligencia artificial generativa. Anteriormente, la moderación se limitaba solo al texto, pero con esta nueva funcionalidad se amplían significativamente las capacidades de control de contenido, facilitando la gestión de insumos y respuestas generadas por la inteligencia artificial.
Tero Hottinen, Vicepresidente de Alianzas Estratégicas en KONE, ha expresado su opinión sobre esta innovación, subrayando que Amazon Bedrock Guardrails podría jugar un papel fundamental en la protección de las aplicaciones de IA generativa, especialmente al asegurar la verificación de relevancia y contexto. KONE tiene planes de integrar diagramas de diseño de productos y manuales en sus aplicaciones, utilizando estas medidas de seguridad para mejorar el diagnóstico y análisis de contenido multimodal.
Con Amazon Bedrock Guardrails, los usuarios pueden establecer salvaguardias configurables que permiten bloquear entradas y salidas perjudiciales. La herramienta incluye seis políticas distintas, que abarcan desde filtros de contenido hasta la detección de alucinaciones en el modelo, logrando eliminar hasta un 88% del contenido multimodal perjudicial. Los desarrolladores ahora pueden combinar la moderación de imágenes y texto, ajustando los umbrales de contenido de bajo a alto.
La utilidad de esta nueva función se extiende a varias regiones de AWS, incluidas US East, US West, Europa y Asia-Pacífico, permitiendo a organizaciones de diversos sectores, como salud, manufactura, servicios financieros, medios de comunicación y educación, mejorar la seguridad de marca sin necesidad de construir salvaguardias personalizadas o llevar a cabo evaluaciones manuales que pueden ser propensas a errores.
Para comenzar a utilizar los filtros de contenido de imagen, los usuarios deben crear un guardrail en la consola de gestión de AWS y configurar los filtros deseados. Además, tienen la opción de emplear el API independiente ApplyGuardrail para validar contenido en cualquier flujo de aplicación.
Esta herramienta representa un avance significativo hacia un uso más responsable y seguro de la inteligencia artificial, facilitando la creación de aplicaciones que se alineen con las políticas de IA responsable de cada organización.