WASHINGTON (AP) — Un psiquiatra pueril que alteró una foto del primer día de clases que vio en Facebook para que un camarilla de niñas pareciera desnuda. Un soldado del ejército estadounidense destacado de crear imágenes que mostraban a niños que conocía siendo abusados sexualmente. Un ingeniero de software encargado de crear imágenes hiperrealistas y sexualmente explícitas de niños.
Los organismos encargados de hacer cumplir la ley en todo Estados Unidos están tomando medidas enérgicas contra una preocupante proliferación de imágenes de atropello sexual pueril creadas mediante tecnología de inteligencia industrial, desde fotografías manipuladas de niños reales hasta representaciones gráficas de niños generadas por computadora. Los funcionarios del Unidad de Ecuanimidad dicen que están persiguiendo agresivamente a los delincuentes que explotan las herramientas de inteligencia industrial, mientras que los estados se apresuran para avalar que las personas que generan “deepfakes” y otras imágenes dañinas de niños puedan ser procesadas según sus leyes.
“Tenemos que señalar tempranamente y con frecuencia que se alcahuetería de un delito, que será investigado y procesado cuando la evidencia lo respalde”, dijo Steven Grocki, quien dirige la Sección de Explotación De niño y Obscenidad del Unidad de Ecuanimidad, en una entrevista con The Prensa asociada. “Y si estás ahí sentado pensando lo contrario, fundamentalmente estás desacertado. Y es sólo cuestión de tiempo antaño de que algún te haga responsable”.
El Unidad de Ecuanimidad dice que las leyes federales existentes se aplican claramente a dicho contenido, y recientemente presentó lo que se cree que es el primer caso federal que involucra imágenes puramente generadas por IA, lo que significa que los niños representados no son reales sino virtuales. En otro caso, las autoridades federales arrestaron en agosto a un soldado estadounidense estacionado en Alaska destacado de difundir fotografías inocentes de niños reales que conocía a través de un chatbot de inteligencia industrial para hacer que las imágenes fueran sexualmente explícitas.
Tratando de ponerse al día con la tecnología
Los procesamientos se producen mientras los defensores de los niños están trabajando urgentemente para frenar el uso indebido de la tecnología para evitar una avalancha de imágenes perturbadoras que los funcionarios temen puedan dificultar el rescate de víctimas reales. Los funcionarios encargados de hacer cumplir la ley temen que los investigadores pierdan tiempo y medios tratando de identificar y emplazar a niños explotados que en verdad no existen.
Mientras tanto, los legisladores están aprobando una serie de leyes para avalar que los fiscales locales puedan presentar cargos conforme a las leyes estatales por “deepfakes” generados por IA y otras imágenes sexualmente explícitas de niños. Los gobernadores de más de una docena de estados han firmado leyes este año para tomar medidas enérgicas contra las imágenes de atropello sexual pueril creadas o alteradas digitalmente, según una revisión del Centro Franquista para Niños Desaparecidos y Explotados.
“Estamos tratando de ponernos al día como fuerzas del orden con una tecnología que, francamente, se está moviendo mucho más rápido que nosotros”, dijo el fiscal de distrito del condado de Ventura, California, Erik Nasarenko.
Nasarenko impulsó una constitución firmada el mes pasado por el director Gavin Newsom que deja claro que el material de atropello sexual pueril generado por IA es ilegal según la ley de California. Nasarenko dijo que su oficina no pudo procesar ocho casos relacionados con contenido generado por IA entre diciembre pasado y mediados de septiembre porque la ley de California había requerido que los fiscales probaran que las imágenes representaban a un pibe positivo.
Las imágenes de atropello sexual pueril generadas por IA se pueden utilizar para preparar a los niños, dicen los funcionarios encargados de hacer cumplir la ley. E incluso si no sufren atropello físico, los niños pueden estar profundamente afectados cuando su imagen se transforma para parecer sexualmente explícita.
“Sentí que me habían quitado una parte de mí. Aunque no fui violada físicamente”, dijo Kaylin Hayman, de 17 primaveras, quien protagonizó el software de Disney Channel “Just Roll with It” y ayudó a impulsar el tesina de ley de California luego de convertirse en víctima de imágenes “deepfake”.
Hayman testificó el año pasado en el seso federal del hombre que superpuso digitalmente su rostro y el de otros niños actores en cuerpos que realizaban actos sexuales. En mayo fue condenado a más de 14 primaveras de prisión.
Se sabe que los delincuentes prefieren los modelos de inteligencia industrial de código descubierto que los usuarios pueden descargar en sus computadoras, quienes pueden entrenar o modificar aún más las herramientas para producir representaciones explícitas de niños, dicen los expertos. Los abusadores intercambian consejos en comunidades de la web oscura sobre cómo manipular herramientas de inteligencia industrial para crear dicho contenido, dicen los funcionarios.
Un mensaje del año pasado del Observatorio de Internet de Stanford encontró que un conjunto de datos de investigación que fue la fuente para los principales creadores de imágenes de IA, como Stable Diffusion, contenía enlaces a imágenes sexualmente explícitas de niños, lo que contribuyó a la facilidad con la que algunas herramientas han podido producir imágenes dañinas. El conjunto de datos fue eliminado y los investigadores dijeron más tarde que eliminaron más de 2.000 enlaces web a imágenes sospechosas de atropello sexual pueril.
Las principales empresas de tecnología, incluidas Google, OpenAI y Stability AI, acordaron trabajar con la ordenamiento contra el atropello sexual pueril Thorn para combatir la difusión de imágenes de atropello sexual pueril.
Pero los expertos dicen que se debería acaecer hecho más desde el principio para evitar el uso indebido antaño de que la tecnología estuviera ampliamente habitable. Y las medidas que las empresas están tomando ahora para dificultar el atropello de versiones futuras de herramientas de inteligencia industrial “harán poco para evitar” que los infractores ejecuten versiones anteriores de modelos en sus computadoras “sin ser detectados”, señaló un fiscal del Unidad de Ecuanimidad en documentos judiciales recientes.
“No se dedicó tiempo a hacer que los productos fueran seguros, en circunstancia de eficientes, y es muy difícil hacerlo luego del hecho, como hemos manido”, dijo David Thiel, tecnólogo caudillo del Observatorio de Internet de Stanford.
Las imágenes de IA se vuelven más realistas
El año pasado, el CyberTipline del Centro Franquista para Niños Desaparecidos y Explotados recibió en torno a de 4.700 informes de contenido que involucraba tecnología de inteligencia industrial, una pequeña fracción de los más de 36 millones de informes totales de sospecha de explotación sexual pueril. En octubre de este año, el camarilla estaba recibiendo en torno a de 450 informes por mes de contenido relacionado con IA, dijo Yiota Souras, directora legítimo del camarilla.
Sin secuestro, esas cifras pueden ser insuficientes, ya que las imágenes son tan realistas que a menudo es difícil retener si fueron generadas por IA, dicen los expertos.
“Los investigadores pasan horas tratando de determinar si una imagen en realidad representa a un beocio positivo o si está generada por IA”, dijo Rikole Kelly, fiscal adjunta del condado de Ventura, quien ayudó a redactar el tesina de ley de California. “Antiguamente había algunos indicadores en realidad claros… con los avances en la tecnología de inteligencia industrial, ese ya no es el caso”.
Los funcionarios del Unidad de Ecuanimidad dicen que ya cuentan con las herramientas previstas por la ley federal para perseguir a los infractores por ese tipo de imágenes.
En 2002, la Corte Suprema de Estados Unidos anuló una prohibición federal sobre material potencial de atropello sexual pueril. Pero una ley federal firmada el año posterior prohíbe la producción de representaciones visuales, incluidos dibujos, de niños involucrados en conductas sexualmente explícitas que se consideren “obscenas”. Esa ley, que según el Unidad de Ecuanimidad se ha utilizado en el pasado para incriminar imágenes de dibujos animados de atropello sexual pueril, señala específicamente que no existe ningún requisito “de que el beocio representado en realidad exista”.
El Unidad de Ecuanimidad presentó ese cargo en mayo contra un ingeniero de software de Wisconsin destacado de utilizar la utensilio de inteligencia industrial Stable Diffusion para crear imágenes fotorrealistas de niños involucrados en conductas sexualmente explícitas, y fue capturado luego de que envió algunas a un pibe de 15 primaveras a través de un enlace directo. mensaje en Instagram, dicen las autoridades. El abogado del hombre, que está presionando para que se desestimen los cargos basándose en la Primera Mejora, declinó hacer más comentarios sobre las acusaciones en un correo electrónico a la AP.
Un portavoz de Stability AI dijo que el hombre está destacado de utilizar una interpretación inicial de la utensilio rejonazo por otra empresa, Runway ML. Stability AI dice que ha “invertido en funciones proactivas para evitar el uso indebido de la IA para la producción de contenido dañino” desde que asumió el explicación exclusivo de los modelos. Un portavoz de Runway ML no respondió de inmediato a una solicitud de comentarios de la AP.
En casos que involucran “deepfakes”, cuando la foto de un pibe positivo ha sido alterada digitalmente para hacerla sexualmente explícita, el Unidad de Ecuanimidad está presentando cargos bajo la ley federal de “pornografía pueril”. En un caso, un psiquiatra pueril de Carolina del Septentrión que usó una IA Una aplicación para “desvestir” digitalmente a niñas que posaban el primer día de clases en una foto de hace décadas compartida en Facebook fue declarada culpable de cargos federales el año pasado.
“Estas leyes existen. Serán utilizados. Tenemos la voluntad. Tenemos los medios”, dijo Grocki. “Esta no será una prioridad quebranto que ignoraremos porque no hay un pibe involucrado”.