banner
Centro de Noticias
Nuestros productos son apreciados tanto en los mercados locales como en el extranjero.

Los videos de IA en las redes sociales muestran a niños desaparecidos y muertos narrando sus historias

Jun 22, 2024

Estos son algunos de los casos penales más sonados del mundo que involucran a niños. Estas son historias de abusos, secuestros, torturas y asesinatos que han perseguido durante mucho tiempo a los países donde ocurrieron los crímenes.

Ahora, algunos creadores de contenidos están utilizando inteligencia artificial para recrear la imagen de estos niños fallecidos o desaparecidos, dándoles “voces” para narrar los inquietantes detalles de lo que les sucedió. Los expertos dicen que si bien los avances tecnológicos en IA brindan oportunidades creativas, también corren el riesgo de presentar información errónea y ofender a los seres queridos de las víctimas. Algunos creadores han defendido sus publicaciones como una nueva forma de generar conciencia.

“Hola, mi nombre es James Bulger”, dice la imagen en un vídeo de TikTok, realizado a imagen del niño británico de 2 años que fue secuestrado en 1993 mientras su madre pagaba la compra.

“Si mi mamá hubiera girado a la derecha, hoy podría haber estado vivo. Desafortunadamente, giró a la izquierda”, dice la voz infantil, citando lo que la madre de James dijo una vez que era uno de sus mayores arrepentimientos: si hubiera girado a la derecha, habría visto a su hijo siendo llevado por los dos niños de 10 años que más tarde lo torturó y mató.

Si bien TikTok ha eliminado varios vídeos que muestran a James narrando su secuestro y muerte en Kirkby, Inglaterra, muchos siguen disponibles para verlos en YouTube.

La madre de James, Denise Fergus, dijo al Daily Mirror que las publicaciones eran "repugnantes".

"Para usar la cara y la boca en movimiento de un niño que ya no está aquí, que nos han arrebatado brutalmente, no hay palabras", dijo al periódico.

Nuevo sospechoso en el caso de Madeleine McCann, cuya desaparición atormenta a Gran Bretaña

Un portavoz de TikTok describió el contenido sobre James como “perturbador” y dijo que “no hay lugar” en la plataforma para ese tipo de publicaciones. "Nuestras pautas comunitarias son claras: no permitimos medios sintéticos que contengan la imagen de una persona joven", dijo Barney Hooper en un correo electrónico al Washington Post. "Seguimos eliminando contenido de esta naturaleza a medida que lo encontramos".

Las directrices de TikTok dicen que el avance de la IA "puede hacer que sea más difícil distinguir entre realidad y ficción, lo que conlleva riesgos tanto sociales como individuales", y piden que los usuarios que compartan medios sintéticos o manipulados que muestren escenas realistas incluyan un descargo de responsabilidad que indique que el contenido no es real. YouTube no respondió de inmediato a una solicitud de comentarios sobre sus pautas el lunes.

Felix M. Simon, investigador de comunicaciones del Oxford Internet Institute, dijo que confiaba en que los videos mencionados en este artículo fueron producidos utilizando “una o varias herramientas de inteligencia artificial”, pero no podía decir exactamente qué software.

"Parecen haber sido creados con algún tipo de herramientas de inteligencia artificial y tienen algunas de las características típicas de los videos más baratos generados por inteligencia artificial", como una estética de anime o cómic y una piel pulida, dijo en un correo electrónico.

A los pacientes se les dijo que sus voces podrían desaparecer. Recurrieron a la IA para salvarlos.

Según el Mirror, Stuart Fergus, el marido de la madre de James Bulger, dijo que después de acercarse a un creador para pedirle que eliminara su vídeo, recibió una respuesta que decía: “No pretendemos ofender a nadie. Solo hacemos estos videos para asegurarnos de que los incidentes nunca le vuelvan a suceder a nadie. Continúe apoyando y compartiendo mi página para crear conciencia”.

A pesar de los intentos de TikTok de eliminar dichos videos, todavía se pueden encontrar muchos en la plataforma, algunos de los cuales han generado millones de visitas.

"Mi nombre es Madeleine Beth McCann", dice una voz infantil en otro vídeo, que muestra una imagen de la niña británica de 3 años que desapareció de un centro turístico portugués en 2007. "Aún estoy desaparecida". Ese vídeo de TikTok, que The Post revisó, había sido visto decenas de miles de veces antes de que TikTok lo eliminara. El propietario de la cuenta había escrito junto al vídeo que era un intento de "narrar historias inmersivas".

Otro vídeo muestra la imagen de Ana Frank anunciando ropa de bebé antes de hablar de los horrores del Holocausto. “¿Sigues buscando ropa de bebé bonita y de diseño propio? Entonces entra en el enlace de mi biografía y déjate sorprender”, dice en alemán la joven de pelo castaño hasta los hombros. “Y ahora les contaré la historia de Ana Frank”.

En otro vídeo de la misma cuenta, también en alemán, un niño de cabello rubio y rostro lleno de cicatrices emerge para contar la historia de Peter Connelly, también conocido como “Baby P” en Gran Bretaña. El niño de 17 meses murió en 2007 tras meses de abuso físico por parte de su madre y su novio.

El video sobre la corta vida de Peter viene con una advertencia de que puede causar angustia, pero no incluye un descargo de responsabilidad de que el video fue alterado o generado por IA, como lo exige la plataforma. El propietario de la cuenta se negó a hacer comentarios cuando The Post se le acercó.

Otro video de la plataforma, de otra cuenta, cuenta la historia de Gabriel Fernández, el niño de 8 años de California que fue torturado mortalmente por su madre y su novio. Murió en 2013. “Cuando comencé a asistir a una nueva escuela, la maestra informó a los servicios sociales que tenía hematomas en el cuerpo. Le pregunté si era normal sangrar cuando mi mamá me golpeaba con un cinturón”, dice la imagen de un niño que dice ser Gabriel en el video, que ha sido visto más de 25 millones de veces en TikTok.

Simon, el investigador, dijo que la producción de este tipo de vídeos se está volviendo más fácil debido a las crecientes funcionalidades de la IA y a que las aplicaciones se están volviendo más baratas y fáciles de usar para las personas.

Si bien los avances en inteligencia artificial han permitido que el software pueda imitar, o incluso clonar, las voces de las personas con precisión, las voces infantiles en estos videos parecen haber sido generadas por computadora y no basadas en las voces reales de las víctimas. La voz en uno de los videos de Madeleine vistos por The Post, por ejemplo, tiene acento estadounidense.

Simon advirtió que los videos, que a menudo van acompañados de música dramática o triste, o muestran a niños con cicatrices y rostros ensangrentados, “tienen el potencial de volver a traumatizar a los deudos”.

"Es una creencia muy extendida en muchas sociedades y culturas que los fallecidos deben ser tratados con dignidad y tener ciertos derechos", afirmó. “Estos vídeos me parecen posibles violaciones de este principio en dos sentidos. En primer lugar, se apropian de la personalidad del difunto, ignorando o desafiando sus probables deseos. En segundo lugar, pueden vulnerar lo que los familiares del difunto perciben como su dignidad”.

En las redes sociales, el contenido emocional tiende a generar una mayor participación, lo que puede aumentar la posibilidad de que se comparta el contenido, según una investigación. En la sección de comentarios de estos videos, muchos espectadores dejan homenajes a las jóvenes víctimas, mientras que otros critican a los creadores por utilizar a estas víctimas para obtener influencia.

Cory Bradford, un TikToker que ha ganado casi 1 millón de seguidores produciendo videos históricos, dijo que si bien generalmente evita usar IA en sus propias publicaciones, aquellos que lo hacen probablemente estén tratando de aumentar la participación, especialmente en una plataforma donde la audiencia es más joven. "Sospecho que quienes utilizan la IA para crear estas recreaciones lo hacen para generar conmoción y asombro y generar un alto número de visualizaciones", dijo.

Hany Farid, profesora de ciencia forense digital de la Universidad de California en Berkeley, también señaló que los medios manipulados están impulsando la participación de los usuarios probablemente porque son “morbosos y sensacionalistas”. Farid dijo que las imágenes de los niños caen en “la categoría general de deepfakes, que ahora se denominan más comúnmente IA generativa”.

Hay "definitivamente" un apetito por los videos históricos en TikTok y ciertamente un lugar para que la IA cuente estas historias, dijo Bradford.

Dijo que la tecnología para recrear imágenes históricas realistas aún no está "completamente lista", y agregó: "Creo que mientras la IA sea tan poco realista, habrá gente que diga que esto es demasiado espeluznante".

Pero “está llegando a ese punto”, dijo Bradford. “Y estará allí pronto. Y todos tenemos que lidiar con las consecuencias de lo que eso traerá”.