Investigadores del Observatorio de internet de Stanford han detectado material de abuso sexual infantil en una de las grandes bases de datos que se utilizan para entrenar inteligencias artificiales de generación de imágenes, algunas tan populares como Stable Diffusion. Los modelos entrenados con este conjunto de datos, conocido como LAION-5B, se están usando para crear imágenes fotorrealistas de desnudos a través de IA, incluidas algunas de explotación sexual infantil.
LAION-5B es una base de datos con 5.850 millones de vínculos de texto-imagen extraídas de internet que se utilizan para el entrenamiento de IA generativas dedicadas a la creación de imágenes. Su finalidad, como explican en su página web, es la de "democratizar la investigación y la experimentación en el entrenamiento de modelos multimodales a gran escala", si bien admiten que su base de datos no está supervisada y que la "naturaleza no seleccionada del conjunto de datos" pueden dar lugar a "contenido muy incómodo y perturbador".
Los miembros del Observatorio de Internet de Stanford (SIO, por sus siglas en inglés) han descubierto que contenía 3.226 imágenes de niños abusados sexualmente entre todos esos datos de entrenamiento, de los que 1008 fueron validadas externamente.
Un informe anterior de SIO y Thorn, un grupo sin ánimo de lucro que vela por la seguridad infantil en línea, halló que los rápidos avances en el aprendizaje automático permitían crear imágenes realistas que facilitan la explotación sexual infantil utilizando modelos de generación de imágenes de IA de código abierto. Y esta nueva investigación lo que revela es que estos modelos se entrenan directamente con imágenes de abusos sexuales infantiles presentes en bases de datos de acceso libre como LAION-5B .
El conjunto de datos examinado incluía contenido de explotación infantil extraído de una amplia variedad de fuentes, incluidos sitios web de redes sociales convencionales y de populares plataformas de videos para adultos, según explican en una nota difundida por el Observatorio.
Datos sin supervisión
Hace tiempo que quienes trabajan en el ámbito de la ética de la inteligencia artificial advierten que la escala masiva de los conjuntos de datos de entrenamiento de estas herramientas tecnológicas hace que sea materialmente imposible filtrarlos o auditar los modelos de IA que los usan.
No obstante, las empresas de tecnología, ansiosas por situarse en el creciente mercado de la IA generativa, han ignorado en gran medida estas preocupaciones y han construido y siguen construyendo sus productos sobre modelos de IA entrenados con estos conjuntos de datos masivos.
Estamos ante una situación que no es nueva y que se repetirá por la falta de transparencia
"Estamos ante una situación que no es nueva y que se repetirá debido a la falta de transparencia tanto a nivel de gobernanza de los datos como a nivel técnico sobre el tipo de datos que se utilizan para entrenar los sistemas de IA, especialmente los LLM o grandes modelos de lenguaje", explica Albert Sabater Coll, director de la Cátedra – Observatorio de Ética en Inteligencia Artificial de Catalunya, de la Universitat de Girona, en relación a la presencia de datos de abusos sexuales infantiles en la base de datos LAION.
Y subraya que, aunque por sí sola no es suficiente para garantizar que los datos con los que se entrena la IA son correctos y apropiados, "la transparencia no solo fomenta una cultura de responsabilidad y desarrollo ético de la inteligencia artificial sino que también es clave para construir sistemas de efectivos, justos y confiables".
Porque, recuerda Sabater, los sistemas de IA son tan buenos como los datos con los que se entrenan, y si el conjunto de datos está sesgado, la IA probablemente perpetuará o incluso amplificará esos sesgos.
Por ello considera que los gobiernos y los organismos internacionales han de promulgar regulaciones "en las que transparencia sobre los conjuntos de datos sea una especie de imperativo kantiano y deba existir siempre información sobre de dónde provienen los datos, cómo se recopilaron y si respetan los derechos de privacidad de las personas cuyos datos podrían incluirse".
Según el director del Observatorio de Ética en IA de Catalunya, "sólo así se podrá comprender e identificar por qué un sistema de IA podría estar cometiendo errores o comportándose de manera anómala o de forma inaceptable debido a los datos de entrenamiento".
Por lo que respecta a la investigación realizada por el Observatorio de Internet de Stanford, actualmente se está eliminando el material identificado, ya que los investigadores comunicaron las URL de las imágenes al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de los Estados Unidos y al Centro Canadiense para la Protección Infantil (C3P).
El estudio se realizó utilizando herramientas alfanuméricas que comparan la huella digital de una imagen con bases de datos de organizaciones sin fines de lucro que reciben y procesan informes de explotación y abuso sexual infantil en línea, y los investigadores sugieren que estas prácticas serían un buen método para limpiar y minimizar la presencia de este tipo de contenidos en los conjuntos de datos que se usan para entrenar modelos de IA.
LAION, por su parte, ha retirado temporalmente su base de datos para asegurarse de que "son seguros antes de volver a publicarlos", según declararon fuentes de la firma al portal de tecnología 404 Media.