(CNN) – Un hombre surcoreano ha sido condenado a prisión por utilizar inteligencia artificial para generar imágenes de explotación de niños, el primer caso de este tipo en el país, mientras los tribunales de todo el mundo se enfrentan al uso de nuevas tecnologías para crear contenido sexual abusivo.

El hombre anónimo, de unos 40 años, fue sentenciado a dos años y medio de prisión este mes, según el Tribunal de Distrito de Busan y la Fiscalía del distrito.

Había creado alrededor de 360 ​​imágenes generadas por IA en abril, dijo la fiscalía a CNN. Las imágenes no fueron distribuidas y han sido confiscadas por la policía.

Los fiscales argumentaron durante el caso que la definición de material de explotación sexual debería incluir descripciones de comportamientos sexuales de “humanos virtuales” y no sólo la apariencia de niños reales.

El fallo demostró que el contenido sexualmente abusivo puede incluir imágenes creadas con tecnología de “alto nivel” que son lo suficientemente realistas como para parecerse a niños y menores reales, dijo la fiscalía.

El caso se presenta mientras los gobiernos de todo el mundo luchan contra la explosión de la industria de la IA, con impactos de gran alcance que van desde los derechos de autor y la propiedad intelectual hasta la seguridad nacional, la privacidad personal y el contenido explícito.

Muchos ahora están compitiendo para regular la tecnología, especialmente porque casos como la sentencia de Corea del Sur resaltan cómo la IA puede usarse para violar la autonomía y la seguridad corporal de las personas, especialmente de mujeres y menores.

A principios de este mes, la policía en España inició una investigación después de que imágenes de niñas menores de edad fueran alteradas con IA para quitarles la ropa y enviarlas por la ciudad. En un caso, un niño había intentado extorsionar a una de las niñas utilizando una imagen manipulada de ella desnuda, según dijo la madre de la niña al canal de televisión Canal Extremadura.

Durante años, los deepfakes (vídeos falsos muy convincentes creados con inteligencia artificial) se han utilizado para poner rostros de mujeres en vídeos pornográficos, a menudo agresivos, sin su consentimiento. Los videos a menudo parecen tan reales que puede ser difícil para las víctimas femeninas negar que en realidad no son ellas.

El tema saltó a la vista del público en febrero de este año, cuando se supo que un transmisor de videojuegos masculino de alto perfil había accedido a videos deepfake de algunas de sus colegas femeninas de streaming.

“Desde el principio, la persona que creó los deepfakes los estaba usando para hacer pornografía de mujeres sin su consentimiento”, dijo a CNN en ese momento Samantha Cole, reportera de Vice’s Motherboard, que ha estado rastreando los deepfakes desde sus inicios.

La plataforma de transmisión Twitch respondió a la controversia endureciendo sus políticas y calificando los videos sexuales deepfake como “violadores personales y más que molestos”. Otras plataformas importantes están actualizando sus reglas de manera similar, y TikTok agregó más restricciones para compartir deepfakes de IA en marzo.

La Unión Europea se convirtió en junio en una de las primeras del mundo en establecer regulaciones sobre cómo las empresas pueden utilizar la IA, seguida de China en julio. Y a principios de septiembre, algunos de los líderes tecnológicos más importantes de Estados Unidos –incluidos Bill Gates, Elon Musk y Mark Zuckerberg– se reunieron en Washington mientras el Senado se prepara para redactar una legislación sobre IA.

Tags:

Deja tu comentario


Estreno

Martes / 22:30 / CNN Chile