noiassinregular / 11 de Febrero de 2023
LUCHEMOS POR LA REGULACIÓN DE LAS INTELIGENCIAS ARTIFICIALES

Si han estado en las redes sociales últimamente habrán visto la controversia que se ha creado alrededor de la generación de imágenes por IA (Inteligencia Artificial).

Las IA provocan tanto fascinación como rechazo. Lxs profesionales del sector suelen hacer referencia tanto a la novedad y curiosidad por saber qué nuevas maravillas podrán producir, como al miedo a ser reemplazadxs y a la destrucción de empleos. Cada avance plantea beneficios y retos. Es cierto que desde hace tiempo venimos usando formas rudimentarias de IA, sin saberlo. Parece muy probable que tecnologías de este tipo sigan evolucionando y se incorporen a nuestra realidad. Nadie puede negar su tremendo impacto sobre lo que significa ser humano y creativo. Por eso es inminente que abramos los ojos y tengamos un rol muy activo para determinar qué límites y alcances deben tener.

“Hay que preguntarse cómo te va a afectar la inteligencia artificial, porque te va a afectar, ya seas dentista, locutora de radio, programador o agricultor. Va a afectarnos a todos”, afirma el investigador y cofundador del Instituto de Inteligencia Artificial Andrés Torrubia.

Las empresas desarrolladoras de aprendizaje automático (machine learning) que han irrumpido violentamente en el campo creativo han incurrido en maniobras delictivas para acceder a datos protegidos, mediante triangulaciones que les permitieron hacer un lavado de datos (data laundering), de modo similar a como se hace con el dinero o las armas. El recorrido funciona así: empresas “sin fines de lucro” (non profit) como LAION obtienen datos protegidos, bajo la premisa de que serán usados para investigación. Así acceden a obra protegida y a imágenes de índole privada. Pero todo este trabajo “no lucrativo” se hizo con generosas “donaciones” de las empresas que ahora están explotando el software.

Luego, todos ese dateo fue estructurado como data set de entrenamiento para empresas con fines comerciales manifiestos, como Stable Diffusion, Midjourney, Dall-e y todas las que derivan del uso del software creado por Stability AI, incurriendo en una violación masiva a la propiedad intelectual y un uso lucrativo de los nombres y obras de artistas de todo el mundo y todas las épocas. Además de usar sus obras originales para hacer remezclas, usan los nombres en la promoción del producto. Obviamente, todo esto ocurre sin su conocimiento ni consentimiento. Todo este proceder es ilegal y lesivo de la comunidad artística, porque constituye un plan sistemático de apropiación de obras protegidas por copyright, para hacerlas pasar como propias del algoritmo al licuar las  miles de autorías originales que sustentan el funcionamiento del mismo, además de competir con las autorías originales en el mismo campo laboral. Esto constituye un plagio a escala mundial y sienta las bases de una competencia desleal nunca antes vista.

No estamos en contra de las nuevas tecnologías, sino del uso ilegal de nuestro trabajo para servir a los fines comerciales de corporaciones tecnológicas. De hecho la comunidad artística y su industria siempre se ha beneficiado de los avances tecnológicos y nuevas herramientas plásticas, productivas y de reproducción. Pero en este caso artistas y creativxs no están siendo protegidxs, esto NO ES UNA HERRAMIENTA MÁS y es una violación a todos los derechos de propiedad intelectual a una escala industrial y global.

Las imágenes espectaculares y efectistas generadas por IA, son el producto de este “entrenamiento” hecho por programadores y una enorme masa de usuarixs, en su inmensa mayoría no calificados ni artística ni legalmente. Ya que se usó y remezcló VERDADERO ARTE creado por millones de personas.

Además, esas bases de datos no sólo recurren a imágenes artísticas y a las personas listadas, sino que hacen uso de TODO lo que hay dando vueltas en internet, ya sean artistas de menor perfil o gente que ni siquiera son artistas. Entre todas estas imágenes, no hay filtro; por lo tanto, no solo están esas violaciones a nuestra privacidad cotidiana, que para algunas personas pueden resultar “inocuas” (aunque no lo son). También hay imágenes de violencia real y explícita, que son delictivas en sí mismas y una replicación infernal de todos los sesgos de género, raciales, etc.

Aplicar el término “Creatividad” o “Arte” a un software que ni siquiera es consciente de lo que replica con o sin exactitud a través de combinaciones de píxeles y directivas de texto, no corresponde. Cuando nos hablan de “aprendizaje” y “entrenamiento”, nos inducen a humanizar los softwares y analogar sus procesos con los procesos humanos  cuando en definitiva es una especie de collage automático a nivel de píxeles.

Que estos programas hayan sido “entrenados”, significa que 

  • se cargaron sus bases de datos con imágenes asociadas a textos (algo similar a cuando usamos “etiquetas”, por ejemplo, las copias digitalizadas de El Grito tendrán tags que incluirán, “grito”, “Munch”, “expresionismo”, “persona”, “muelle”, “angustia”, “cielo rojo”, “pintura”, etc.) 
  • se intentaron generar imágenes a través de comandos de texto (por ejemplo “perro pequinés con moño rosa + pintado por munch” + ENTER)
  • se hizo un análisis sobre la aceptación o rechazo que generaron las imágenes producidas en función de su capacidad de representación (un perrogato con tres ojos sería un fracaso)
  • se ajustaron parámetros en función de eso, hasta que los resultados empezaron a ser “aceptables”

Más allá del uso ilegítimo de nuestro trabajo (estemos o no listadxs como emulables) y de la violación a nuestra privacidad (seamos o no artistas), hay aspectos a considerar en relación con la suplantación de las personas para generar contenidos de consumo cultural, la competencia desleal que implica este tipo de generación de imágenes, la protección de nuestras fuentes y condiciones laborales, y una discusión más profunda y filosófica acerca de qué son el arte y el hecho creativo.

La problemática aquí se trata de cómo todo se ha hecho desde una base alejada de toda ética y moral. Hasta tanto los softwares y plataformas como Stable Diffusion, Midjourney, Dall-e 2 y todos sus derivados no se ajusten a derecho, ADA desalienta su uso por considerarlo una forma de complicidad con el delito penal de plagio y de competencia desleal, lo que ocasiona un daño moral y económico a las personas que se ven expropiadas de sus autorías.

Por todo esto, es que ADA se ha tomado un tiempo para abordar el tema con suficiente información y conocimientos. Actualmente nos estamos organizando junto a otras asociaciones internacionales, abogadxs y artistas afectados directamente para que entre todxs empecemos a generar un debate que nos permita concientizar tanto a colegas como a usuarixs; acercar propuestas a asociaciones internacionales y entidades del gobierno que actúen para que se legisle sobre el tema lo más pronto posible. Como en la demanda en USA, reclamamos las 3 C: el Consentimiento, el Crédito (autoral) y la Compensación (retribución económica) que nos garantizan previas leyes que defienden los Derechos de Autor en el mundo.

Para comprender la gravedad del problema tenemos que entender cómo funciona cuando se crea una imagen de esta manera. ¡Este contenido no se genera de la nada!

Desde ADA incentivamos a seguir debatiendo e informándonos para poder defender nuestros derechos como artistas y trabajadorxs y se ponga urgentemente un freno legal a prácticas poco éticas como las que aquí denuncia todo un colectivo de creativxs. Seguiremos compartiendo información y agradeceremos que se siga difundiendo esta problemática que nos termina afectando a todos los seres humanos.