En un escenario donde la Inteligencia Artificial (IA) ha cobrado protagonismo, el vicepresidente de Scalian en España, Fernando de Águeda, advierte sobre la urgente necesidad de establecer un equilibrio entre la regulación, la supervisión ciudadana, la innovación y la ética en su desarrollo. Recientemente, Elon Musk hizo una propuesta para adquirir OpenAI, la compañía detrás de ChatGPT, lo que generó un debate en torno a la regulación en este sector. A pesar de su intento fallido de frenar los negocios de la empresa, Musk ha expresado su inquietud por la escasa regulación que rodea a la IA, mientras busca colaborar con el gobierno estadounidense para optimizar gastos a través de su implementación.
De Águeda destaca que la IA ya está influyendo de manera significativa en la vida cotidiana, desde la priorización de contenidos en redes sociales hasta su uso en diagnóstico médico y prevención de delitos. Sin un control adecuado, el uso de esta tecnología puede tornarse impredecible y potencialmente peligroso. El reto radica en regular su uso de manera responsable, evitando tanto la restricción del potencial innovador como su entrega a las manos equivocadas.
Desde el enfoque técnico, Scalian propone diversas medidas de control, tales como la supervisión humana, límites en la toma de decisiones, y la necesidad de que los algoritmos sean comprensibles y transparentes. En el ámbito ético, es fundamental considerar la protección de datos, la privacidad y la transparencia, aspectos que, lejos de limitar la innovación, pueden legitimar su uso y construir confianza en la sociedad.
En el marco geopolítico, la IA se encuentra distribuida entre tres bloques principales: Estados Unidos, donde operan gigantes tecnológicos como Meta, Amazon, OpenAI, Google y Microsoft; China, donde el control gubernamental da lugar a una vigilancia social; y la Unión Europea, que prioriza la ética, aunque su ritmo de innovación es más lento. Junto a estos, países como el Reino Unido, Japón, Rusia e India emergen como actores secundarios. Según De Águeda, esta división conduce a una desigualdad tecnológica alarmante y a una falta de cooperación internacional.
Ante esta situación, surge la cuestión de si se requiere una regulación global o si cada país debe desarrollar su propio marco regulatorio. El directivo se muestra firme en su respuesta: «En un mundo conectado, donde la IA carece de fronteras, establecer normativas individuales por país podría generar un caos, permitiendo que algunas empresas operen sin restricciones mientras otras estén limitadas.» Sin una regulación unificada, advierte, el potencial de abuso y monopolio se multiplicaría.
En cuanto a la posibilidad de que los Estados dispongan de su propia IA como recurso para los ciudadanos, De Águeda se plantea si se puede confiar en una IA manejada por ciertos gobiernos. En teoría, una IA estatal podría optimizar la eficiencia y el acceso a servicios públicos. No obstante, si falta transparencia y confianza, las garantías de un uso ético y no manipulador de la IA resultan dudosas.
Finalmente, la interacción entre empresas tecnológicas y gobiernos debe establecerse dentro de límites, asegurando que la colaboración no derive en un control masivo ni afecte la competencia justa. Un modelo de colaboración regulada, que permita a las empresas compartir información sin comprometer su innovación, podría ser la clave.
En este momento crítico, la IA presenta la oportunidad de ser una herramienta de progreso o un medio de control masivo, dependiendo de quién la gestione y con qué fines. La solución radica en encontrar un equilibrio entre regulación, supervisión, innovación y ética. Al final, la pregunta no es si se puede controlar la IA, sino quién debería tener esa responsabilidad.