El uso de tecnologías de toma de decisiones algorítmicas (ADM) ha generado una creciente preocupación en 2024, siendo objeto de análisis por parte de la Electronic Frontier Foundation (EFF). Estas herramientas, que permiten a diversas entidades —como propietarios, empleadores, reguladores y fuerzas del orden— realizar decisiones con escasa o nula intervención humana, tienen el potencial de impactar profundamente la libertad personal y el acceso a servicios esenciales como la salud y la vivienda.
La EFF ha emitido informes y pronunciamientos a nivel global, alertando sobre los riesgos que implican estas tecnologías para los derechos humanos. Los algoritmos que sustentan las ADMs a menudo replican patrones de datos sesgados, lo que puede traducirse en la automatización de injusticias históricas. Por ejemplo, si un algoritmo se entrena usando datos sobre arrestos o historial de aprobación en seguros de salud, la decisión automatizada puede perpetuar desigualdades ya existentes. La falta de transparencia en el razonamiento de estos sistemas complica aún más cualquier intento de cuestionar sus decisiones.
Un aspecto crítico destacado por la EFF es que los decisores suelen usar las ADMs para justificar sus propios sesgos. A pesar de que estas herramientas se presentan como una solución para optimizar la toma de decisiones gubernamentales, su adopción rara vez cuenta con la participación pública necesaria. Esto plantea un riesgo considerable para los grupos más vulnerables de la sociedad, quienes pueden sufrir las consecuencias de tecnologías implementadas sin una evaluación adecuada.
El creciente optimismo en torno a la inteligencia artificial ha llevado a agencias policiales a gastar recursos públicos en tecnologías que dificultan la rendición de cuentas. De hecho, la EFF ha denunciado el uso de inteligencia generativa para crear informes policiales a partir de grabaciones de cámaras corporales, alertando que esto compromete la transparencia en el ámbito de la seguridad nacional.
El sector privado no está a salvo de esta tendencia, ya que las empresas también recurren a ADMs para decisiones relacionadas con empleo, vivienda y atención médica. La opinión pública es mayormente negativa acerca de esta práctica. Muchos estadounidenses sienten incomodidad ante el uso de estas tecnologías, especialmente cuando se observa que las empresas continúan despidiendo trabajadores a pesar de que las herramientas ADM no logran mejorar la productividad esperada.
Sin embargo, las ADMs también pueden servir para evitar decisiones discriminatorias en el ámbito laboral, subrayando la necesidad de implementar mecanismos que protejan contra la discriminación privada. Aun así, la búsqueda de maximizar datos de usuarios ha llevado a prácticas invasivas en términos de privacidad, lo que ha motivado a la EFF a promover un enfoque que priorice la privacidad frente a las aplicaciones perjudiciales de estas tecnologías.
Recientemente, en un episodio de su podcast, la EFF discutió los retos y las posibles aplicaciones constructivas de la inteligencia artificial, enfatizando que su uso debe alinearse con la protección de los derechos humanos y el bienestar integral de las personas. A menos que se implementen cambios significativos, es posible que el impacto de la IA en la toma de decisiones sobre seres humanos siga causando más perjuicio que beneficio.