El verano de 2022 ha visto el surgimiento de una tecnología nueva e increíble: AI text-to-image (TTI) o texto-a-imagen. Cada vez que una tecnología innovadora cobra vida, nuestra sociedad debe supervisar su despliegue para evitar cualquier daño o violación de los derechos humanos. Esto aún no ha sucedido con la tecnología de IA. Estas formas de inteligencia artificial pueden generar imágenes u otros contenidos a partir de mensajes de texto u otros medios proporcionados por el usuario. Para hacerlo, una IA debe entrenarse en un conjunto de datos de medios.
La calidad de una IA generativa se define por la calidad de su conjunto de datos; por ejemplo, con respecto a las imágenes, cuantas más imágenes e ilustraciones aprenda una IA, más estilos podrá replicar la IA y más cosas podrá hacer. Por lo tanto, los productos que venden las empresas de IA son el resultado de operaciones en conjuntos de datos, que contienen todo tipo de datos, incluidos millones de imágenes con derechos de autor, imágenes privadas y otro material confidencial. Estos archivos se recopilaron raspando indiscriminadamente Internet sin el consentimiento de los propietarios y las personas representadas en ellos y actualmente las empresas de inteligencia artificial los utilizan con fines de lucro. Además, algunas de estas empresas están utilizando los nombres de algunos de los artistas cuyo trabajo han recopilado para publicitar sus IA y los estilos que pueden replicar. Esta explotación de nuestro trabajo y datos no solo no cumple con los requisitos mínimos impuestos por los derechos humanos básicos que son fundamentales para nuestra sociedad: también está dañando gravemente el mercado del arte, lo que podría dejarlo marcado para siempre. Vemos esto como solo el comienzo de una crisis que afectará a todo tipo de trabajos y ocupaciones, ya sean trabajos creativos o no. El mercado del arte es el primero en verse afectado solo por sus vulnerabilidades estructurales, que lo convierten en una presa fácil. Es hora de cambiar esto. El mercado del arte es el primero en verse afectado solo por sus vulnerabilidades estructurales, que lo convierten en una presa fácil. Es hora de cambiar esto. El mercado del arte es el primero en verse afectado solo por sus vulnerabilidades estructurales, que lo convierten en una presa fácil. Es hora de cambiar esto.
Estos son los puntos clave que queremos hacer cumplir:
1) Los datos relacionados con personas u obras, en cualquier forma, ya sean datos digitales -como archivos de texto, audios, videos o imágenes- o capturados de la realidad por cámaras, micrófonos o cualquier otro medio de registro, no se utilizarán para entrenar modelo de IA sin el consentimiento explícito e informado de su propietario. Pedimos una extensión a las IA de los principios de protección de datos personales previamente introducidos por el RGPD y la introducción de una nueva forma de protección específica para este tipo de explotación: el “derecho de formación”.
2) Prohibir el uso de nombres de personas, nombres artísticos o títulos de obras no amparadas por una licencia de explotación para el entrenamiento de IA para aquellos software que permitan el uso de indicaciones textuales o vocales para generar imágenes, videos, textos o audio.
3) Prohibir el uso de videos, imágenes, audios y textos no cubiertos por una licencia de explotación para el entrenamiento de IA para aquellos software que permitan la carga de contenidos multimedia para generar una imagen, un video, un texto o un audio.
4) Se establecerá un sistema de indexación y certificación "legible por humanos y máquinas", que informe todas las actividades de las IA y el contenido completo de sus conjuntos de datos de imágenes, textos, videos y sonidos, ya sea que se reproduzcan total o parcialmente. Los subtítulos como "completamente hecho por IA", "hecho con material generado por IA" deberían convertirse en el estándar.
5) La distinción entre "material protegido por derechos de autor" y "dominio público" ya no es adecuada para identificar qué se puede y qué no se puede usar para los conjuntos de datos. Los conjuntos de datos de aprendizaje contienen datos personales confidenciales, protegidos por las leyes de privacidad, pero no por los derechos de autor. Podemos encontrar ejemplos de material publicado cuando no hubiera sido posible prever su uso en un conjunto de datos para entrenar un modelo de IA Cualquier dato utilizado en el entrenamiento de un modelo debe ser curado y autorizado por su propietario legítimo e insertado voluntariamente en el conjunto de datos por su autor con pleno conocimiento de ello, las empresas de AI deberán producir internamente materiales originales para la capacitación o licenciar material externo siguiendo términos y contratos previamente establecidos con los autores o legítimos titulares de dicho material.