Desde la aparición de tecnologías como ChatGPT, el panorama legal en torno a la inteligencia artificial ha cambiado drásticamente, marcando un aumento notable en las reclamaciones legales dirigidas contra los desarrolladores de estos modelos. Este creciente fenómeno plantea importantes interrogantes sobre los derechos de autor y el uso justo en un contexto donde la creación de contenido digital se ha vuelto más automatizada que nunca.
Los demandantes, muchos de los cuales son creadores de contenido, sostienen que las obras que han utilizado sus materiales para entrenar estos sistemas infringe sus derechos de propiedad intelectual. Por otro lado, los desarrolladores argumentan que el uso de estos datos se encuentra amparado por la doctrina del uso justo, una defensa legal que permite la utilización limitada de material protegido sin la autorización explícita del titular de los derechos.
En respuesta a esta creciente presión legal, algunos desarrolladores están optando por acuerdos de licencia con las plataformas que albergan contenido, una estrategia que parece más un intento de negociar que una simple función de cumplimiento legal. Esto sugiere que, más que meras disputas legales, estas acciones podrían ser parte de un complejo juego de negociación en el que ambos lados buscan proteger sus intereses.
Los resultados de estas acciones legales pueden variar significativamente; desde la prevalencia de derechos de autor, hasta acuerdos entre las partes, o incluso el triunfo de los desarrolladores en algunos casos. Analistas opinan que, aunque los creadores de contenido tienen preocupaciones legítimas, una expansión del marco legal de derechos de autor no necesariamente garantizaría la preservación de los puestos de trabajo frente a la automatización. Además, un fallo a favor de los derechos de autor podría tener repercusiones negativas, especialmente si se debilitan las protecciones de uso justo para la investigación o para expresiones artísticas.
En virtud de estos conflictos legales, diversos tribunales han desestimado reclamaciones bajo la Sección 1202(b) de la Ley de Derechos de Autor del Milenio Digital. En un caso emblemático, «Raw Story Media v. OpenAI, Inc.», la corte desestimó las reclamaciones al no encontrar evidencia de que el entrenamiento de ChatGPT hubiera causado perjuicio al demandante. Este principio ha sido aplicado en otros casos, como “Andersen v. Stability AI, Ltd.” y “Kadrey v. Meta Platforms, Inc.”, donde las reclamaciones fueron igualmente desestimadas.
Sin embargo, no todas las disputas han terminado en fallos favorables para los desarrolladores. En “Andersen v. Stability AI Ltd.”, se permitió que las reclamaciones continuaran cuando se alegó que las obras del demandante habían sido incluidas en un conjunto de datos de entrenamiento, punto que podría llevar a que se establezcan precedentes más claros en materia de derechos de autor.
La doctrina del uso justo es un tema central en este debate y, hasta la fecha, la mayoría de los casos relacionados con inteligencia artificial no han tenido en cuenta su aplicación. Un caso destacado que ilustra esta incertidumbre es “Thomson Reuters Enterprise Centre GMBH v. Ross Intelligence, Inc.”, donde un juez cambió su perspectiva sobre si el uso de la tecnología era justo, generando nuevas preocupaciones para los desarrolladores.
Mientras tanto, gigantes de la tecnología como OpenAI y Google están forjando acuerdos de licencia por sumas millonarias con diversas empresas de medios, lo que ha dado lugar a la aparición de un mercado de licencias de 2.500 millones de dólares para datos de entrenamiento. No obstante, la atención no debería centrarse únicamente en los beneficios económicos que obtendrán estas corporaciones. El verdadero peligro radica en que un pequeño grupo de empresas, capaces de asumir estos elevados costos, podría definir el rumbo de la inteligencia artificial, afectando su desarrollo y acceso en un futuro cercano.