Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics, Youtube. Al utilizar el sitio web, usted acepta el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Haga clic en el botón para consultar nuestra Política de privacidad.

Doce monos muertos y un abuelo resucitado difuminan la frontera del yo | Tecnología

Doce monos muertos y un abuelo resucitado difuminan la frontera del yo | Tecnología

Este análisis es parte del boletín semanal de Materia, la sección de ciencia de EL PAÍS, que se manda cada sábado. Si quiere apuntarse para recibirla entera, puede hacerlo en este enlace.

“Siempre quise decirte que me hizo mucha ilusión asistir a tu boda”. En una lección de pornografía sentimental, una voz sintética pronunció esa frase para provocar las lágrimas de una mujer que se prestó al experimento del programa El Hormiguero. Esa voz, recreada con inteligencia artificial a partir de una grabación real, simulaba la de su abuelo, que murió justo el día después de esa boda. Algunas familias ya resucitan a sus fallecidos con sistemas similares, es un mercado emergente en torno al duelo, pero no graban su reacción espontánea para emitirla en prime time.

Hace una década, la inteligencia artificial era una cosa académica, no la punta de lanza de la geopolítica, el tecnocapitalismo y el programa de Pablo Motos. En ese momento, Google se lanzó a por uno de los mayores esfuerzos en ese campo: alimentó a un cerebro de silicio formado por 16.000 procesadores con millones de vídeos de YouTube. Tras todo ese esfuerzo descomunal emergió un patrón: gatitos. La máquina aprendió a reconocer lo que era un gato. “¿Cuántos gatos necesita ver un niño para entender lo que es un gato? Uno. No tenemos ni idea de cómo lo hace, pero a partir de un solo ejemplo ya los puede reconocer”, me decía hace años Ramón López de Mántaras, experto del CSIC en este campo.

Sam, con 18 meses, durante el experimento.Wai Keen Vong

Ahora un experimento publicado en Science abre una puerta inquietante: alimentaron una máquina con las vivencias del pequeño Sam, que llevó un casco con cámara entre los 6 y los 25 meses. Ese programa ha entendido cómo un niño adquiere la palabra “gato” gracias al cruce de los estímulos visuales y verbales de su entorno. Y se propone reproducir ese aprendizaje, sin millones de visionados, solo con las mismas vivencias que un niño que se come el mundo en sus primeros pasos.

Ampliemos el experimento. Esa máquina que ha aprendido con Sam podría aprender mucho más si se siguiera grabando su vida, lo que ve, lo que oye, lo que dice y lo que hace. Del mismo modo que hicieron hablar al abuelo muerto, se podría recrear un Sam mucho más sofisticado, con todas sus vivencias, con todos sus patrones de voz, pero también de conducta, capaz de representarle. Llevamos los móviles encima permanentemente, y en breve serán dispositivos que también graben imagen, como broches y gafas. Eso ya está en el mercado y, mientras, las inteligencias artificiales conversacionales, los chatgepetés, ya son capaces de interpretar roles cada vez más específicos. No es difícil imaginar que así cada uno tendremos un avatar que hable por nosotros: charlará con el tuyo para ver cuándo podemos quedar, con mi jefa para pedirle un día libre y le consultará al de mi madre qué tal le va con el nuevo medicamento.

Sherry Turkle, experta en nuestra relación con la tecnología, lleva décadas alertando de cómo perdemos empatía al introducir intermediarios con pantalla y alejarnos de la conversación real. Ya no llamamos a nuestros amigos, les damos un like; seguimos su vida en sus stories, como hacemos con los famosos; no tomamos un café, les dejamos en visto en WhatsApp. En su libro de 2015 En defensa de la conversación (Ático), ya advertía de que tratamos a las máquinas casi como si fueran humanas y a las personas casi como máquinas, a las que “ponemos en pausa en medio de una conversación para mirar nuestros teléfonos”. Como no nos prestamos atención al 100% por culpa de los móviles, “interactuar con máquinas no se siente como una gran pérdida”. Antes, había escrito: “La tecnología cataliza cambios no solo en lo que hacemos, sino también en cómo pensamos”. Lo publicó en 1984 en un libro que se llamó El segundo yo.

Elon Musk en la presentación de su máquina de implantes cerebrales.Neuralink (AFP)

Hace 40 años no se podían imaginar la profundidad del cambio al que asistimos. El martes, Elon Musk anunció un nuevo paso en su camino hacia el iPhone cerebral. Su empresa, Neuralink, ha realizado el implante de un chip en la materia gris de un paciente. No es ni de lejos el primero que lo hace: ya se han implantado muchos y se usan para tratar de manera experimental el párkinson, la epilepsia, para mejorar el habla o la cognición. Un hombre completamente inmovilizado por la ELA, que nunca había hablado con su hijo de cuatro años, pudo proponerle ver juntos una peli de Disney gracias a esta neurotecnología. Pero el tuit de Musk (es toda la información que tenemos) generó mucho revuelo: porque sabemos que el tamaño de sus ambiciones solo son comparables a las de su diarrea verbal.

A Musk no le gusta esperar a que el semáforo se ponga en verde: Neuralink ha realizado el implante cuando tiene encima de la mesa una denuncia por la muerte de doce monos en la fase experimental de esos chips. Su primer producto, llamado Telepatía, está diseñado para permitir a personas con discapacidades el control de dispositivos a través del pensamiento. Pero su ambición abarca la integración profunda entre cerebros humanos y la inteligencia artificial, conectarnos a las máquinas para mejorar nuestras capacidades cognitivas, acceder a información instantáneamente y comunicarnos mediante el pensamiento. Ampliar los límites de la experiencia humana.

¿Pondríamos nuestros cerebros en manos de Musk? La trayectoria de cualquier tecnología emergente siempre se inclina hacia el dinero. La inteligencia artificial ya está en manos del tecnocapitalismo, más pendiente de que perdamos el tiempo usando sus productos que de mejorar la humanidad. De las 30 mayores empresas de neurotecnología del mundo, todas menos una optan por compartir los datos de nuestros cerebros con otras empresas.

Precisamente por eso, neurocientíficos como Rafael Yuste, de la Universidad de Columbia, viene años impulsando la promulgación de los neuroderechos: porque sabe que con implantes como los de Musk se puede, ya hoy, leer pensamientos, modificar conductas, alterar la percepción. “Tenemos una responsabilidad histórica. Estamos en un momento en que podemos decidir qué tipo de humanidad queremos”, me aseguró al lanzar su campaña. Hoy, me cuenta por videollamada, sigue intentando que los países lo legislen “más allá de las declaraciones de intenciones”, como la que promovió España en la UE.

Todas estas noticias muestran que la tecnología extenderá nuestros pensamientos y personalidad más allá de nuestro entorno, más allá de nuestra vida e incluso más allá de nuestra voluntad. ¿Los abuelos fallecidos querían ir a divertirse a El Hormiguero? ¿Crecerán avatares junto a los bebés del futuro? ¿Alguien pensó en las mujeres desnudadas y pornificadas, desde Taylor Swift hasta Almendralejo, al desarrollar esas apps?

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_


By Laura Salas

Te puede interesar