Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics, Youtube. Al utilizar el sitio web, usted acepta el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Haga clic en el botón para consultar nuestra Política de privacidad.

HereAfter AI: Hablar con quienes ya no están: el riesgo de resucitar a los muertos con inteligencia artificial | Tecnología

HereAfter AI: Hablar con quienes ya no están: el riesgo de resucitar a los muertos con inteligencia artificial | Tecnología

Entre lágrimas, tras escuchar a sus familiares fallecidos, varias mujeres confesaban su asombro en el show televisivo El Hormiguero (Antena 3). “Lo he sentido superreal y me hacía falta, me hacía mucha falta”, sollozaba una joven ante las cámaras. “Es que la voz es clavada, muy contenta por la experiencia”, añadía otra mujer secándose las lágrimas del rostro. El programa de Pablo Motos había aprovechado la inteligencia artificial para recrear, a partir de audios reales, la voz de personas muertas. No solo la reproducían, algo muy sencillo de hacer y que ha causado problemas de desinformación por el uso de estos deepfakes con la voz de Joe Biden o el líder de los laboristas británicos, Keir Starmer. Los audios generados planteaban preguntas que sugestionaban a las participantes —”¿nos quedó alguna conversación pendiente?”— en esta “experiencia real”, como la etiqueta el programa, que se ha zambullido en prime time en un mercado emergente, el de recrear a los fallecidos con inteligencia artificial (IA). Los psicólogos advierten de que puede interferir en la adaptación natural al duelo y cronificar las fases más dolorosas.

La muerte de alguien cercano es como perder una parte del propio ser. Es el origen de varias de las dificultades en el bienestar emocional y muchos estarían dispuestos a hacer cualquier cosa para aliviar esa sensación de pérdida abrumadora. Incluso conversar cara a cara con ese ser querido, si fuera posible. Suena a ciencia ficción, pero empresas como HereAfter, StoryFile y Replika lo están haciendo y no es nada sobrenatural. A partir de entrevistas y otros contenidos, crean versiones digitales de individuos fallecidos para interactuar con los vivos, ya sea a través de chat, voz o vídeo. En China, este negocio ya está creciendo, con varias compañías que declaran haber creado miles de estas personas digitales o bots fantasmas. Algunas incluso afirman que pueden realizarlo con apenas 30 segundos de grabación audiovisual del difunto.

La estadounidense StoryFile entrevista a personas durante su vida por vídeo, haciendo una serie de preguntas sobre vivencias clave, como su infancia, su boda o su mayor desafío, junto a otras que el entrevistado decida añadir. A partir de las respuestas y con el uso de la inteligencia artificial, se genera un vídeo conversacional con el cual los hijos, padres, amigos y parientes podrán interactuar en el futuro. Según indican, aproximadamente 5.000 personas ya han creado perfiles en la plataforma. El coste del servicio varía entre 40 y 450 euros, dependiendo del número de preguntas que se deseen incluir. También ofrecen una prueba gratuita.

Stephen Smith, cofundador de StoryFile, explica que la empresa nació hace una década con el objetivo preservar la memoria de supervivientes del Holocausto. Pero fue a finales de 2021 que la plataforma se convirtió en lo que es hoy, donde la cualquier persona puede grabar a los videos con una webcam desde su casa o en un estudio.

El cofundador subraya que la plataforma no inventa contenido, sino que “recupera algo que sí fue pregrabado”, ya existente. Pero es posible ir más allá y añadir información a partir de otros formatos. “Lo hemos hecho utilizando la metodología conversacional de archivos. Significa usar contenido de la vida de la persona, como un vídeo donde podemos clonar la voz y luego hacer que digan cosas que dijeron en sus vidas. Por ejemplo, podrías usar un correo electrónico y luego hacer que se lo lea. Si alguien quiere que eso suceda, es posible”, dice a EL PAÍS por videoconferencia.

El peligro de engancharse

Quizás el elemento más perturbador es que algunas personas podrían volverse dependientes o incluso adictas a conversar con avatares virtuales, porque generan una falsa sensación de cercanía con el muerto, como mostraba el programa de Antena 3. Las mujeres que se prestaron hablaban directamente a la voz ―“te diría…”, “te echo de menos”― como si esa recreación sintética fuera su abuela muerta un año antes.

“En un primer momento, hay alivio. Pero después surge una adicción, una dependencia”, advierte José González, psicólogo especialista en procesos de duelo. “Si la IA reproduce literalmente cómo era uno, hay un peligro grande de cronificación, sobre todo en los vínculos muy intensos. Es fácil entrar en esa fantasía de que no ha muerto. Puede provocar esa congelación en la fase de negación”, prosigue.

El experto, que ha trabajado con más de 20.000 personas en duelo a lo largo de 25 años, coincide de que los vídeos conversacionales pueden ser útiles para mantener vivos algunos recuerdos, contar anécdotas o traspasar información entre las generaciones con emoción. También a la hora de replicar algunas de las técnicas que se hacen en consulta para cerrar asuntos pendientes, que no se han podido arreglar hablando. “Hago unas preguntas sobre el vínculo con la persona que ha muerto, por ejemplo ‘lo que más me gustaba de ti’ o ‘cuando me decepcionaste más’. Con esas respuestas, el doliente escribe una carta y se la lee a una silla vacía”, describe. Según sostiene, la IA podría ser aplicada a dinámicas como esta, de forma puntual, siempre y cuando esté muy supervisada por un profesional.

González señala que también hay un riesgo asociado con lo que se expresa en esas grabaciones. Los mensajes de despedida pueden ser muy potentes y ayudar a aliviar el sufrimiento porque es el momento en que les dice a sus familiares lo tanto que les quiere, les libera de la culpa y eso hace que el duelo sea mucho más llevadero. No obstante, si no cuenta con la supervisión de un experto, incluso con las mejores intenciones se podría ocasionar un efecto adverso. “Imagina que soy padre de una hija única y le digo: ‘Te dejo como objetivo vital que cuides mucho de tu madre’. Puede ser muy bonito, pero también puede ser una condena si la que sería la madre está extremamente enferma”, ejemplifica. Es en este instante cuando un profesional recomendaría al padre hablar de una forma diferente para prevenir la creación de una carga emocional. Y si no existe supervisión alguna, la probabilidad de malentendidos aumenta.

Un problema ético

¿Hasta qué punto un avatar puede ser fiel? ¿A quién pertenece? ¿Qué tipo de datos se pueden emplear para su creación? Esos son solo algunos de los interrogantes que surgen en torno a este tema. Para Gry Hasselbalch, experta en ética del Consejo Europeo de Investigación, las implicaciones se amplían a una esfera existencial: “Cada tecnología que está basada en el hecho o en la idea de que puede competir con los humanos genera la pregunta de qué significa ser humano, cuáles son nuestros límites y si es posible utilizarla para superar un límite”.

Hasselbalch, que también es cofundadora del think tank danés DataEthics.eu, opina que la proliferación de avatares de difuntos supone de un dilema que va más allá de los datos, del consentimiento o de quién tiene los derechos. “Podría cambiar la identidad de la humanidad y del ser humano, porque cuestiona la propia idea de la mortalidad”, dice.

Entre varios problemas potenciales, la experta en ética de la IA resalta la posibilidad de una herramienta que no solo recolecte el contenido de redes sociales, correos electrónicos y mensajes de móvil de una persona fallecida, sino también sus patrones de búsqueda en internet. Esto podría revelar aficiones o intereses desconocidos de la persona, desde una pasión por un animal o un deporte hasta, en el peor de los casos, un secreto oscuro.

Si la inteligencia artificial combina esta información con otros elementos que constituyen su identidad, pero le da mayor relevancia a ciertos aspectos, podría resultar en la creación de un avatar o robot que poco o nada se asemeje a cómo era esa persona en la vida real. Es un escenario en que “se perdería el control”, alerta. Y no es el único. “¿Cuán fácilmente podrías ser manipulado si un ser querido que extrañas te dice para votar de cierta manera o comprar cosas específicas? No sabemos qué empresas surgirán detrás de esto”, reflexiona.

‘Deepfakes’ y ‘copyright’

Uno de los clientes de StoryFile ha sido el fallecido Sam Walton, fundador del gigantesco negocio Walmart. “Trabajamos con el archivo de su empresa. Revisamos muchas horas de material, transcribimos sus discursos, sus vídeos y creamos 2.500 respuestas a preguntas que él había respondido durante su vida con exactamente las mismas palabras que utilizó”, describe. El resultado fue una recreación digital que tiene el rostro, la voz y un holograma a tamaño real de Walton. ¿Puede ser muy realista? “A las personas que conocieron a Sam se les empañan los ojos por lo realista que es”, asegura Alan Dranow, ejecutivo de esta compañía. La familia del empresario había dado consentimiento para esta producción, pero otros famosos han tenido sus caras y palabras recreadas por IA sin un acuerdo común.

Es el caso del comediante estadunidense George Carlin, quien murió en 2008, y cuya su voz y estilo fueron clonados para la creación del podcast George Carlin: Me Alegro de Estar Muerto, publicado en YouTube a principios de enero. La pasada semana, se presentó una demanda en el tribunal federal de Los Ángeles solicitando que Dudesy, la empresa que lo impulsa, retire inmediatamente el especial de audio. Su hija, Kelly Carlin, ya había criticado la producción, en que una síntesis de voz del artista comenta episodios actuales. “Mi padre pasó toda una vida perfeccionando su oficio desde su humanidad, cerebro e imaginación. Ninguna máquina reemplazará jamás su genio. Estos productos generados por IA son ingeniosos intentos de recrear una mente que nunca más existirá. Dejen que el trabajo del artista hable por sí mismo”, dijo en la plataforma X.

Según StoryFile, el servicio que integra lo más avanzado en esta tecnología está dirigido únicamente a un grupo selecto. “No lo ofrecemos como un producto en nuestra página web en este momento, sino para clientes privados. No queremos que nuestra tecnología sea utilizada para crear un deepfake de otra persona”, matiza Smith.

Sin embargo, existen alternativas que sí lo hacen. La empresa HeyGen, por ejemplo, permite generar vídeos con clonación de voz, sincronización de labios y estilos de habla. Si no se fija con mucha cautela, es casi imposible notar que se trata de una creación artificial. Pese a que la plataforma se presenta como una solución para personalizar y traducir contenido en el mundo corporativo, en la práctica puede usarse para cualquier fin de este tipo: despedirse de un ser querido o usarlo para generar dinero.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.


By Laura Salas

Te puede interesar