La fiscalía de Ecuador inició una investigación por el supuesto delito de pornografía, tras la difusión de videos de contenido sexual de estudiantes de un colegio de Quito hechos con inteligencia artificial (IA).
El caso recuerda al de España, donde once muchachas denunciaron la circulación de fotos suyas desnudas elaboradas con IA. Los presuntos autores manipularon las fotos de las adolescentes superponiendo sus rostros a cuerpos sin ropa de otras personas.
La indagación en Ecuador se abrió “de oficio” por “la difusión de imágenes y videos de estudiantes de una unidad educativa de #Quito, modificadas mediante IA“, señaló la fiscalía en su cuenta de X, antes Twitter.
El caso fue divulgado en redes sociales por Sybel Martínez, representante del Grupo Rescate Escolar, un programa que combate el acoso en escuelas y colegios.
Martínez denunció en X que adolescentes realizaron mediante IA “aproximadamente 700 videos de contenido sexual y erótico, tomando fotos de 20 a 24 de sus compañeras” de clase.
Familiares de los implicados y el colegio no se han pronunciado sobre el tema, como tampoco lo ha hecho el Ministerio de Educación.
De acuerdo con Martínez, los adolescentes involucrados “fueron retirados por voluntad propia de la institución”.
La realización de pornografía con niños y adolescentes se sanciona en Ecuador hasta con 16 años de cárcel.