La ley de competencia como herramienta para promover la innovación en IA en EE. UU.

Elena Digital López

En un esfuerzo por mantener el liderazgo en el ámbito del desarrollo y regulación de la inteligencia artificial (IA), Estados Unidos ha centrado su atención en gestar políticas que aborden esta tecnología en evolución. La iniciativa se consolidó con la aprobación de la Ley Nacional de Iniciativa de Inteligencia Artificial de 2020, que se convirtió en ley en 2021. Este documento estableció un marco integral para supervisar y evaluar los sistemas basados en IA en el país.

En 2022, la Oficina de Política Científica y Tecnológica de la Casa Blanca introdujo el Blueprint para una Carta de Derechos de la IA, un documento que busca salvaguardar los derechos de los estadounidenses ante los sistemas automatizados. Esta carta, fruto de un año de diálogo público, articula cinco principios clave que orientarán el desarrollo y gestión de estos sistemas.

El crecimiento de tecnologías como ChatGPT, lanzada por OpenAI en noviembre de 2022 y cuyo impacto económico podría superar los 2.1 billones de dólares, ha suscitado inquietudes respecto a su incorporación en el sistema de justicia, dadas su rapidez y evolución continua.

En respuesta, en octubre de 2023, el presidente Biden promulgó una orden ejecutiva para fomentar un entorno de IA seguro y confiable. Esta acción exige que las empresas desarrolladoras de los sistemas más avanzados compartan sus datos de prueba de seguridad con el gobierno estadounidense, especialmente si representan riesgos para la seguridad nacional o la salud pública.

Sin embargo, adaptar el marco regulatorio antimonopolio de Estados Unidos, que data de finales del siglo XIX, a la vertiginosa evolución de la IA, constituye un desafío. La Ley Sherman y la Ley Clayton, pilares de esta regulación, se diseñaron para mantener la competencia justa y prevenir la formación de monopolios y prácticas comerciales deshonestas.

A nivel estatal, iniciativas como la Ley de IA de Colorado están abriendo camino en la regulación específica de la IA. Esta legislación, que será vigente a partir de 2026, se concentra en los sistemas de IA de alto riesgo, obligando a los desarrolladores a implementar medidas de seguridad y compartir información vital sobre sus modelos y estrategias de mitigación de riesgos.

A pesar de estos avances significativos, Estados Unidos enfrenta el desafío de balancear la promoción de la innovación con la implementación de salvaguardas adecuadas para proteger a los consumidores y mantener la competencia sana. Con la legislación específica sobre competencia digital aún pendiente de aprobación, está claro que el país debe recorrer un extenso camino en la regulación de la IA. En este contexto, un enfoque colaborativo entre los sectores público y privado será crucial para establecer un marco regulatorio efectivo y equitativo para estas tecnologías emergentes.