country flag

En breve: Prevención en los servicios de IA generativa

Introducción al problema y posición del NCMEC

¿Qué es?

Las herramientas de inteligencia artificial generativa (IAG) pueden crear nuevo contenido o modificar el contenido existente –incluido texto, instantáneas y vídeos– con base en instrucciones o comandos de un usuario. Es posible implementar distintas medidas para prevenir que las herramientas de IAG creen material de abuso sexual infantil (CSAM) y otros tipos de contenido de explotación, pero la implementación de dichas medidas no es obligatoria por ley o reglamentación ni se han adoptado universalmente de manera voluntaria.

Entre las medidas disponibles que respaldan los esfuerzos de prevención se incluyen:

  • incorporar los principios de «Seguridad desde el diseño»;
  • someter a las herramientas de IAG a esfuerzos simulados del mundo real para crear material perjudicial (una práctica conocida como «red teaming») para eliminar la capacidad de las herramientas de IAG de crear dicho contenido;
  • supervisar proactivamente los conjuntos de datos de entrenamiento para prevenir y eliminar, según sea necesario, el contenido perjudicial;
  • participar en iniciativas de seguridad colaborativas con otras organizaciones del sector y de protección de menores;
  • implementar clasificadores de texto para detectar y bloquear las instrucciones de los usuarios cuyo fin es producir contenido de explotación;
  • implementar clasificadores de imágenes para detectar y bloquear imágenes y vídeos de explotación generados; y
  • denunciar las instrucciones y contenido de explotación a NCMEC.

Posición del NCMEC:

Los servicios capaces de usar inteligencia artificial generativa para crear o modificar imágenes deberían implementar medidas para prevenir la generación de CSAM IAG y otros tipos de contenido de explotación sexual infantil.

¿Por qué importa?

La producción y distribución de CSAM es un delito penal grave que ocasiona perjuicios importantes a las víctimas y promueve el abuso y explotación sexual de los menores. Los recientes avances de la tecnología de IAG han permitido a los delincuentes crear CSAM original o modificar el CSAM existente de distintas maneras. Un delincuente puede instruir a una herramienta IAG con texto descriptivo para crear CSAM. Las imágenes no explícitas existentes pueden modificarse mediante herramientas de IAG automatizadas o guiadas por el usuario para crear una imagen de un desnudo infantil real o participando en conductas sexualmente explícitas. El CSAM fotorrealista resultante explota a los menores, crea desafíos adicionales para las línea de denuncias y los organismos de seguridad y desvía recursos de las investigaciones cuyo objetivo es rescatar a menores reales que padecen perjuicio continuo.

Algunos modelos de IAG también se han usado para generar instrucciones de texto sobre cómo abusar y explotar a un menor, evitar la detección, destruir evidencia y tomar medidas en respaldo de la actividad criminal que involucra la explotación sexual infantil.

Existen oportunidades de usar la tecnología para prevenir la creación de CSAM IAG y otros tipos de contenido de explotación. Permitir que se cree y comercialice al público tecnología IAG sin implementar esfuerzos sólidos para prevenir la creación de CSAM IAG, siempre que sea posible, equivale a facilitar la creación de dicho contenido y poner deliberadamente a los menores en riesgo de explotación sexual.

¿Qué contexto es relevante?

La reciente y rápida proliferación de las herramientas de IAG en ausencia de un marco legal o reglamentario ha creado un panorama en el cual algunos servicios son de código cerrado (controlados firmemente por las principales empresas como productos patentados) mientras que otros son de código abierto (permiten a cualquier persona acceder, descargar y modificar el código fuente). Las empresas que operan servicios de código cerrado, incluso ante la falta de obligaciones legales o reglamentarias para hacerlo, tienen motivos comerciales importantes para incorporar medidas de seguridad en sus herramientas de IAG y muchas lo han hecho. A pesar de que en la actualidad el publico usa ampliamente servicios de código cerrado, es mucho más difícil abordar los modelos de código abierto que pueden descargarse, modificarse e implementarse sin necesidad de comunicación con un servidor o servicio centralizado.

Los delincuentes de CSAM se han comunicado en foros de la web profunda para enseñar y aprender entre sí cómo usar los modelos de IAG de código abierto para crear CSAM. Los investigadores han documentado mensajes en foros públicos en los que los usuarios conversan sobre compartir CSAM, descargar modelos de IAG de código abierto, entrenar modelos en CSAM no artificial y otras estrategias para manipular las herramientas de IAG para crear CSAM IAG.

En 2024, las organizaciones tecnológicas sin fines de lucro Thorn y All Tech is Human colaboraron con once desarrolladores de IAG para comprometerse públicamente con los principios de Seguridad desde el diseño y así «proteger contra la creación y difusión de material de abuso sexual infantil generado por IA...y otros perjuicios sexuales contra los menores». Un documento formal acompañó al anuncio público para establecer los principios y compartir estrategias sobre cómo las distintas partes interesadas pueden implementarlos.

¿Qué revelan los datos?

En 2023, NCMEC comenzó a hacer un seguimiento de las denuncias a CyberTipline que involucraban CSAM IAG u otros tipos de contenido de explotación sexual relacionados con la IAG y descubrió aproximadamente 4700 de dichas denuncias. Solo durante el primer semestre de 2024, NCMEC identificó más de 7000 denuncias a CyberTipline relacionadas con IAG, incluidos más de 20 000 archivos de CSAM IAG.

¿Qué dicen los sobrevivientes?

Los sobrevivientes enfatizan la importancia de la prevención y destacan las oportunidades de adoptar medidas de prevención en los modelos de IAG. Algunos sobrevivientes expresan su frustración e ira acerca de la aparente rapidez del desarrollo y salida al mercado de modelos de IAG texto a imagen sin las salvaguardas adecuadas para prevenir la creación de CSAM. Es más probable que las soluciones centradas en la prevención, en lugar de la vigilancia y denuncia, cosechen un respaldo más generalizado frente a las preocupaciones de privacidad.

Opening Quote

La prevención es crucial porque aborda el problema en su origen y minimiza el perjuicio potencial antes de que se produzca. En el contexto de IA generativa, las medidas de prevención ayudan a detener la creación y difusión de contenido perjudicial. La existencia y difusión de imágenes de abuso generadas por IA pueden ocasionar perjuicios psicológicos importantes a las víctimas y los sobrevivientes que pueden sentirse violados sabiendo que tales imágenes están circulando. Incluso si no son reales, pueden perpetuar y normalizar las conductas y actitudes perjudiciales para los menores.

- Sobreviviente

¿Que impulsa los puntos de vista de oposición?

Las perspectivas que se oponen específicamente a las medidas de prevención contra CSAM pueden marginarse por tomar dicha posición. Entre la oposición general a las restricciones en el desarrollo de IAG se incluyen argumentos de que tal reglamentación podría sofocar la innovación, crear costes económicos que las empresas más pequeñas podrían no soportar e infringir la libertad de expresión.