Capítulo 2

IA generativa y disrupciones

35min

Imagen de portada

Conversar como límite

A comienzos del siglo XVII, mucho antes de que viviéramos entre pantallas, chatbots y plataformas basadas en inteligencia artificial, el médico inglés William Harvey comenzó a realizar una serie de experimentos muy curiosos para su época: tomaba cuerpos de animales y de humanos, ataba sus venas y arterias en varios lugares, y observaba los efectos sobre el flujo de sangre desde y hacia el corazón. Gracias a las lecciones que había aprendido en la Universidad de Padua —en donde conoció “el método de los anatomistas”, que consistía en poner la autopsia (etimológicamente: ver con los propios ojos) por delante de la doctrina— logró mostrar que el corazón envía sangre hacia todo el cuerpo y que esta regresa en su totalidad al corazón formando un circuito cerrado, proceso que tiene lugar todo el tiempo y con toda la sangre.

La idea de que el corazón era una bomba que funcionaba todo el tiempo sin nuestro control desafiaba la concepción del cuerpo humano que se tenía en la época y llamó la atención de muchos pensadores de aquel momento, entre ellos el filósofo francés René Descartes. Si bien él se interesó por los descubrimientos de Harvey, aceptando en principio la noción de circulación de la sangre —ambos son considerados hoy pioneros de la medicina moderna—, Descartes interpretó los hallazgos de una manera diferente y propuso otros movimientos para el corazón. 

Aunque la formación en anatomía y medicina del autor de Meditaciones metafísicas no era tan sólida como la de Harvey, hizo varias disecciones y algunas vivisecciones, incluida una que, según él, “degolló” la teoría de Harvey sobre el latido del corazón. Pero ambas posiciones despertaron gran interés y fueron adoptadas, rechazadas, revisadas o actualizadas por las generaciones siguientes de médicos en varias partes de Europa. Aún faltaría tiempo y más controversias para establecer el estatus del corazón como un músculo que late desde nuestro nacimiento hasta nuestro último aliento, ya que la contracción muscular no era correctamente comprendida por ese entonces.

El interés último de Descartes, sin embargo, era más ambicioso que el del médico inglés: más allá de lo que sucediera o no con nuestro corazón, el filósofo buscaba dar una explicación de los cuerpos que no apelara a nada que no fuera físico. Galileo Galilei había propuesto que la naturaleza era un libro que estaba escrito en caracteres matemáticos y el francés estaba empecinado en poder conocer ese lenguaje. Si el corazón era, después de todo, una suerte de bomba, ¿no podríamos no sólo construir uno, sino reproducir un cuerpo completo? No parecía ser una tarea que fuese imposible por principio.

La misma idea tenía en su interior una pregunta muy provocadora: si fuese posible construir una máquina que imitara en todo a un cuerpo humano… ¿cómo podríamos diferenciarlo de uno real? ¿Sería posible que nos engañe? Se trata de un escenario muy perturbador tanto en el siglo XVII como en el día de hoy. En algún sentido, no hemos superado ese desconcierto desde entonces.

De todos modos, Descartes tenía una respuesta clara para esta encrucijada: él creía que era posible construir una máquina que reprodujera todo lo que hace casi cualquier animal, hasta incluso un mono, pero que jamás podría ser como un humano. Para él, “si se construyeran tales máquinas, habría pruebas muy seguras para reconocer que no son hombres de verdad”. Y esas pruebas tenían que ver con nuestra capacidad de dialogar: 

Podemos comprender fácilmente que la máquina esté constituida de manera que pueda pronunciar palabras e incluso emitir algunas respuestas a la acción en ella. Pero nunca sucederá que organice su discurso de varias maneras para responder apropiadamente a todo lo que pueda decirse en su presencia, como puede hacerlo incluso el tipo más bajo de hombre. 

La relación entre mentes, máquinas y nuestra capacidad para conversar sería revisitada casi tres siglos más tarde, en 1950, cuando el matemático inglés Alan Turing decidió responder a la pregunta de si las máquinas pensaban a través de una prueba en la que una máquina debía entablar una conversación abierta con un examinador humano con el fin de engañarlo y hacerle creer que ella era humana también. Este test, que hoy conocemos como el juego de imitación o test de Turing —y que describe Consuelo López en el capítulo anterior—, tiene en cuenta la misma habilidad que Descartes para determinar si es posible que una máquina replique a un humano: poder conversar.

Esta prueba implica, por su propia naturaleza, cierto grado de engaño. El objetivo de la máquina en el juego es convencer al examinador de que es un ser humano y no una máquina. Esto implica crear la ilusión de comprender y responder al lenguaje natural de una manera que no se pueda distinguir de una persona. El test permite que la máquina utilice todo tipo de estrategias para parecer más humana, incluida la posibilidad de mentir o de manipular al examinador con trucos psicológicos. Mientras que hoy conocemos mucho más sobre sesgos y patrones de razonamiento humano, lo que nos permite una mayor sofisticación a la hora de explotar estas debilidades de nuestra psicología, en su formulación original Turing menciona un truco tan simple como efectivo: que la máquina se tome su tiempo en responder las preguntas en vez de hacerlo de inmediato, creando la ilusión de que está “dudando o pensando”.

En los últimos setenta años, el test de Turing atravesó un intenso escrutinio, un sinfín de críticas y muchas modificaciones, pero sigue sorprendiendo la sagacidad del matemático inglés al postular que no podemos determinar si una máquina es inteligente o piensa en virtud del material del que está hecha (su hardware), ni en virtud del diseño específico de su software. No importa si el engaño se logra a través de un sistema de reglas y representaciones, de una red neuronal, de algoritmos de machine learning o cualquier otro sistema que pueda surgir en el futuro. Para superar el test sólo es relevante el comportamiento que muestre el sistema. Y no todo tipo de comportamiento es relevante: sólo importan aquellos que permiten una interacción con los seres humanos.

Así, frente al desafío cartesiano de la conversación como límite para las máquinas, el test de Turing tiene en su centro el intercambio de los dispositivos con los humanos e involucra, por su naturaleza, un engaño. El objetivo de la máquina en el juego de imitación es convencer al juez de que ella también es un humano y por eso necesita crear la ilusión de comprender y responder al lenguaje natural de una manera indistinguible de la de una persona. 

En muchos ámbitos de investigación, diversos tipos de engaño son indicios de inteligencia. Mientras que en los estudios sobre teoría de la mente

en infancias una de las herramientas metodológicas más utilizadas es el test de la falsa creencia, que intenta comprobar si un sujeto puede distinguir la realidad de la representación de la realidad, para algunos primatólogos los simios superiores, como los chimpancés, gorilas y orangutanes, tienen una inteligencia superior a las de otros miembros de su especie porque, justamente, pueden engañar a sus pares. Existen, incluso, quienes sostienen que para afirmar que un sistema artificial posee una cognición similar a la humana en un sentido relevante, debe tener maestría en estas habilidades. Es decir, debe poseer lo que en la literatura se conoce como “una teoría de la mente”.

El test de Turing fue, durante décadas, una construcción conceptual, una idea provocadora que reflotaba inquietudes y temores presentes no sólo en Descartes y Harvey, sino también en muchas historias sobre máquinas que parecían hacer lo que nos caracteriza a los humanos: pensar. Desde las esculturas vivas de Hefesto que menciona Aristóteles al maligno robot Pandora, creado por orden de Zeus para castigar a la humanidad, desde el gólem judío a la creación del doctor Frankenstein, son numerosas las referencias a este tipo de creaciones a lo largo del tiempo y las civilizaciones. Sin embargo, hoy parece que esos mitos y leyendas pueden volverse realidad.

La ilusión de pensar

Sería una tarea muy extensa, y tal vez imposible, hacer una lista exhaustiva de los modos en los que las tecnologías etiquetadas como inteligencia artificial están presentes en nuestra vida cotidiana. Un simple vistazo a las tareas de todos los días nos mostrará que estas se han multiplicado en los últimos años, y un análisis más detallado nos convencerá de su ubicuidad, ya que se encuentran en muchos casos escondidas en las herramientas y sistemas tecnológicos que utilizamos. Desde las indicaciones que nos brinda el teléfono para llegar a nuestro trabajo de la manera más eficiente evitando congestiones de tránsito hasta las recomendaciones de qué canciones o podcasts escuchar en el camino, pasando por la planificación de nuestra agenda para sincronizarla con las de las personas de nuestros equipos y el reconocimiento de nuestro rostro para desbloquear dispositivos o dar fe de nuestra puntualidad frente a nuestros empleadores. Hoy la inteligencia artificial está involucrada en instancias que podrían parecer banales, como la identificación de órdenes que les damos en lenguaje natural a viva voz a los asistentes virtuales que están instalados por default en nuestros teléfonos, pero también en sistemas con consecuencias mucho más complejas, como los programas de scoring de los seguros, la adjudicación de préstamos en los bancos, los vehículos de conducción autónoma y armas letales automatizadas.

No hay dudas de que en muchos de estos casos la introducción de estas tecnologías redunda en beneficios. En más de un sentido, áreas como el transporte, la atención al público y el entretenimiento, por ejemplo, gozan de mejoras, como menor cantidad de accidentes, mayor agilidad para responder consultas de clientes y una distribución más efectiva de productos culturales como libros, películas, series y discos. Pero todo esto también generó nuevos desafíos vinculados con una mayor contaminación debido a la huella de carbono que dejan los servidores, la pérdida de puestos de trabajo o su precarización, o la vulneración de nuestra privacidad para poder tener acceso a ciertos bienes y plataformas (como Facebook). La manera en la que la inteligencia artificial ha permeado en nuestra vida crea escenarios cada vez más complejos y provocadores para la reflexión ética.

En este capítulo revisaremos algunos de estos desafíos, frente a los cuales es necesario hacer una advertencia: rara vez hay buenas soluciones para los dilemas éticos, ya que en general se trata de problemáticas que conducen a resultados potencialmente negativos para un sector de la sociedad y que, además, involucran a múltiples actores e intereses, muchas veces cruzados o incompatibles entre sí.

Dicho eso, ahí vamos: 

Cuando evaluamos el impacto de las tecnologías en las sociedades, debemos tener en claro, primero, que no se puede entender a la tecnología sin prestar atención a la sociedad que la crea y en donde se pone en juego. Las tecnologías no determinan unidireccionalmente ni cambios ni formas sociales, sino que sus efectos dependen precisamente de las configuraciones sociales y culturales en que tienen lugar; además, estas configuraciones no sólo catalizan los efectos de las tecnologías, sino que influyen significativamente en los desarrollos tecnológicos mismos. Hay factores sociales, culturales, organizativos y políticos, entre otros, que influyen en los desarrollos y las innovaciones tecnológicas. Es por eso que siempre debemos tener en cuenta el carácter contingente y situado de los desarrollos tecnológicos sin dejar de tener en cuenta las fuertes influencias del contexto en el diseño y desarrollo de los dispositivos técnicos. 

En segundo lugar, en el análisis de las controversias tecnológicas —esto es, episodios en los que se plantean varias opciones tecnológicas para resolver un problema similar o en los que una innovación se propone como alternativa a una tecnología existente— debemos ser cuidadosos al evaluar las mejoras que trae tal o cual plataforma. Una buena guía es preguntarse para quién eso significaría una mejora: ¿para todos los ciudadanos? ¿Sólo para algunos? ¿Para el Estado? ¿Para una empresa? En la actualidad, gran parte de la tecnología de uso masivo está controlada por unas pocas corporaciones dominantes, lo que podría poner en desventaja a ciertos grupos que estén por fuera de los intereses de esos gigantes o perpetuar desigualdades existentes. De hecho, la mayor parte de nuestro tiempo y de nuestros datos se los entregamos libremente sólo a dos empresas: basta hacer el cálculo estremecedor de contabilizar las horas diarias que pasamos en aplicaciones y programas de Google y de Meta, por ejemplo, y contrastarlo con el tiempo que le destinamos en ese lapso a nuestra familia. Como mencioné al comienzo de esta sección: no hay dudas de que la introducción de estas tecnologías redundará en beneficios. La cuestión es entender quiénes son los beneficiarios.

Estas preguntas son apremiantes. El interés reciente por la inteligencia artificial es tan grande en la opinión pública y en muchas compañías que es difícil poder medir correctamente su impacto, ya que las expectativas que se crearon alrededor de su capacidad parecen estar totalmente distorsionadas debido, entre otros factores, a su caracterización como “completamente revolucionaria” o cualitativamente diferente de otros desarrollos porque tiene la supuesta capacidad de pensar.

Como también explicó Consuelo López en el capítulo anterior, desde su nacimiento como rama de la informática en la década del 50, la inteligencia artificial ha pasado varias veces por períodos de predicciones optimistas e inversiones masivas o “primaveras” y períodos de decepción, pérdida de confianza y reducción de la financiación o “inviernos”, bajo la terminología del profesor de Ciencias de la Computación Drew McDermott. Ese patrón de exceso de optimismo seguido de fracasos ha persistido hasta el día de hoy, cuando estamos en una etapa de plena primavera gracias a una generación de sistemas y plataformas basadas en modelos de machine learning, deep learning y redes neuronales, entre otros.

La protagonista de este momento es la inteligencia artificial generativa, un término paraguas para referirse a modelos de aprendizaje automatizado entrenados con grandes cantidades de datos y que producen resultados basados en los pedidos de los usuarios, conocidos en inglés como prompts. En el último tiempo, los generadores de imágenes, como Midjourney, Dall-e 3 o Stable Diffusion, y los modelos masivos de lenguaje

(o LLM por las siglas del inglés Large Language Model) son dos de los ejemplos más claros de esta tecnología.

En el caso de los modelos masivos de lenguaje, quien más concentró el interés público fue ChatGPT, especializado en el lenguaje natural y creado por la empresa OpenAI. Mientras que académicos y personas de la industria venían siguiendo su desarrollo desde 2020, la versión GPT-4, lanzada en marzo de 2023 sorprendió no sólo con su capacidad para crear textos, sino por el interés que produjo en el público general. En pocos días alcanzó el millón de usuarios alrededor del planeta y sacudió el panorama de las grandes compañías de todo el mundo, en especial en Silicon Valley, donde se vieron obligadas a repensar el foco de sus actividades e inversiones frente al interés que generó en la sociedad este tipo de tecnología. Fue la confirmación de que estábamos en plena primavera.

Para sorpresa de Descartes, ChatGPT y sus hoy numerosas inspiraciones y copias (como LLaMA de Meta, Bard de Google, Claude 2 de Anthropic y GPT-J de EleutherAi) se basan en la conversación: plataformas cuya interfaz es la interacción en tiempo real por texto mediante el lenguaje natural. Si bien otras compañías tenían grandes avances en el área de la IA, OpenAI encontró en el chat una manera diferente e intuitiva de experiencia con el usuario. Al igual que lo que sucede con asistentes virtuales como Alexa o Siri y con robots sociales

como Paro y Myon, ChatGPT fue programado para responder como si fuera una subjetividad inteligible. Tal como sucede con las computadoras de las naves de las series de Star Trek, estas plataformas demuestran buenos modales, pueden procesar muchas expresiones coloquiales, repiten chistes y piden disculpas cuando se les señala que cometieron un error.

Nos enfrentamos, entonces, a un escenario más complejo que el de Descartes y Turing, no sólo porque estas tecnologías están presentes en nuestra vida cotidiana de manera casi ubicua, sino porque parece instalado en la sociedad el convencimiento de que son productos inteligentes y de una capacidad inédita de transformación de la realidad.

¿De dónde surge esta apreciación tan única de esta tecnología? Creo que es posible mencionar dos fuentes: las narrativas actuales para hablar de estos desarrollos, que están repletas de términos provenientes de otras disciplinas, como la psicología o la neurociencia, sin una adecuada justificación, y la manera en la que fueron creadas y programadas las interfaces de los dispositivos y plataformas, que apelan a distintos trucos para imitar una subjetividad.

Con respecto al primer punto, es fácil descubrir que tanto en el discurso público como en la manera en la que se describen las investigaciones de esta área, se utilizan muchas metáforas que generan un salto por el cual el procesamiento estadístico de información propio de la inteligencia artificial generativa se convierte, sin suficiente explicación, en producto de una supuesta subjetividad o una agencia inteligible.

Y es que la manera en la que hablamos sobre una tecnología determina no sólo su percepción pública, sino también la comprensión que tenemos de ella. El modo en que hablamos de inteligencia artificial influye en nuestra percepción, uso y regulación. Estas narrativas se cuentan, se reproducen y se remixan, transmitiendo significados y afirmaciones. Su circulación y difusión en la esfera pública tienden a seguir patrones recurrentes y muestran su capacidad para generalizarse y volverse populares. Este proceso puede conducir a una suerte de “pasteurización” de estas historias, en donde los elementos que no encajan en la narrativa dominante se eliminan para privilegiar una estructura más coherente y estable.

Dentro de estas narrativas, las metáforas juegan un rol central. La tecnología digital cuenta con muchas metáforas como el escritorio o la papelera de reciclaje, que son formas en las que las interfaces gráficas construyen un entorno virtual que oculta la complejidad de los sistemas operativos. También tenemos la nube, una imagen etérea para dar cuenta de los muy terrenales servidores que mantienen andando, entre otros, a internet. Se trata de recursos que ofrecen representaciones poderosas, aunque muchas veces inexactas, de las nuevas tecnologías, y que son funcionales a la manera en cómo son percibidas. Por ejemplo, el hincapié en presentar a las tecnologías alrededor de internet como “invisibles” es funcional a evitar la conversación sobre su impacto en el medio ambiente o su huella de carbono. 

En el caso de la inteligencia artificial generativa, algunas metáforas provenientes del ámbito de la psicología y lo mental son muy interesantes para analizar. Todo comienza, por supuesto, con el mismo nombre que designa a esta tecnología, inteligencia artificial. En el capítulo anterior se menciona que fue el informático estadounidense John McCarthy quien acuñó el término en un escrito de 1955 y en un seminario que supervisó el año siguiente en Dartmouth. McCarthy no creyó que inteligencia artificial fuera una metáfora, pero tampoco estaría de acuerdo con su uso actual: dedicó gran parte de su vida académica a lograr que una máquina superara el juego de imitación de Turing. En palabras de una de sus discípulas, la investigadora Daphne Kolle: “Él creía en que la inteligencia artificial consistía en crear una máquina que realmente pudiera replicar la inteligencia humana”. Por eso, el investigador rechazó las aplicaciones de inteligencia artificial que conoció hasta su muerte, en 2011, ya que no estaban dirigidas a que las máquinas aprendieran, sino a que “imitaran”. Mientras que aprender involucra habilidades como la atención o establecer prioridades frente a una tarea —algo que los sistemas actuales no pueden realizar—, imitar es simplemente encontrar patrones en una conducta y repetirlos. De hecho, los seres humanos somos increíblemente buenos haciendo muchas cosas con poca información, y los sistemas de inteligencia artificial necesitan volúmenes altísimos de datos para realizar tareas puntuales.

A pesar del rechazo de McCarthy, la metáfora de la máquina pensante está muy extendida para hacer referencia a los sistemas, plataformas o sistemas de algoritmos que ejecutan un programa, pero que son presentados como análogos a un humano que piensa en un problema. Gracias a esta metáfora, solemos creer que estamos en presencia de una tecnología que puede realizar tareas complejas que alguna vez se pensaron que eran dominio exclusivo de la cognición humana.

Las metáforas mentalistas también se utilizaron a la hora de bautizar distintas instancias de esta tecnología. Por ejemplo, se conoce como machine learning o aprendizaje automatizado al tipo de procesamiento por el cual un sistema puede identificar patrones entre los datos para hacer predicciones sin que haya sido específicamente programado para eso. Es la tecnología que está presente en motores de búsqueda de internet, en el diagnóstico médico por medio del análisis de imágenes y hasta en la detección del fraude en el uso de tarjetas de crédito. Su poder reside en la estadística y en una serie de algoritmos capaces de analizar grandes cantidades de datos para deducir cuál es el resultado más óptimo para un determinado problema. Pero si vamos más allá de sus resultados impresionantes, que esta tecnología pueda imitar nuestro proceso de reconocimiento de patrones no significa que abarque la totalidad del proceso del aprendizaje humano. 

Lo mismo sucede cuando se habla de redes neuronales, la manera de llamar a un tipo de tecnología cuya característica es el procesamiento de la información a través de varias capas interconectadas con una naturaleza flexible en la que la complejidad se puede aumentar agregando arbitrariamente más capas. Los algoritmos de redes neuronales artificiales son una aproximación muy simplificada de ciertos aspectos de cómo se procesa la información en el cerebro humano; ni siquiera se acercan a ser un modelo cohesivo de procesos cognitivos. Sin embargo, la palabra neuronal parece invitar a asociaciones como pensamiento, cerebro, cognición e incluso conciencia, intención y otros rasgos humanos.

Una última metáfora está hoy muy de moda: la alucinación. La idea de que un modelo de inteligencia artificial puede alucinar se ha convertido en la explicación predeterminada cada vez que un modelo masivo de lenguaje como ChatGPT se equivoca. Es una imagen poderosa: nosotros, los humanos, a veces podemos alucinar: podemos ver, oír, sentir, oler o saborear cosas que realmente no existen debido a distintos motivos (como enfermedades, momentos de agotamiento extremo o el consumo de drogas). Sin una adecuada justificación, se aplica esta imagen para dar cuenta de los errores que cometen estos sistemas, que pueden generar largos volúmenes de texto coherentes o verosímiles pero con información falsa o desactualizada. Sin embargo, para alucinar hace falta, en pocas palabras, una mente que funcione correctamente y que por algún motivo se muestre errática. En el caso del uso del término en estos modelos, simplemente se da por sentado el presupuesto de que estamos en presencia de una mente y que, en general, funciona bien.

Junto con estas narrativas repletas de metáforas mentalistas, la apreciación de la tecnología de inteligencia artificial también emerge del hecho de que muchas de las interfaces actuales se basan en la interacción con el usuario simulando una subjetividad. Estamos hablando de sistemas diseñados para explotar las debilidades humanas con el fin de pasar las pruebas de inteligencia, utilizando trucos o estrategias que engañan a las personas haciéndoles creer que estas plataformas son más inteligentes o más humanas de lo que realmente son. El espíritu del test de Turing está más vivo que nunca.

Por ejemplo, ChatGPT está programado para interactuar de maneras empáticas, alentando al usuario cuando escribe un prompt

(“¡Claro, Tomás! ¡Aquí tienes la respuesta a lo que me has pedido!”) o pidiendo disculpas cuando se le señala un error (“Lo siento, Tomás, aquí va mi mejor intento para responder lo que me has pedido”). Se trata de modismos y frases diseñadas para mejorar la experiencia del usuario. Versiones anteriores de ChatGPT requerían tener conocimientos de programación para poder utilizarlo, pero ahora también es posible hacerlo chateando, tal como haríamos con una amiga o un compañero de trabajo. Gracias a distintos filtros que fueron moldeados y moderados por humanos, los intercambios generados parecen tener buenos modales.

Estos giros, sin embargo, no son fruto de una compleja ingeniería algorítmica, sino de un simple truco de programación. Por ejemplo, si en 2021 se le preguntaba al asistente virtual de Apple, Siri, si era inteligente o no, la respuesta era “No podría ni comenzar a pensar cómo saber si puedo responder a esa pregunta”, una frase muy ocurrente porque parafrasea el artículo original de Turing de 1950 sobre si las máquinas podían pensar. Sin embargo, esto está lejos de demostrar que Siri es efectivamente inteligente o que leyó a Turing: es simplemente una frase escrita por un humano y con la que la app fue explícitamente programada para responder. Es posible que si hoy le hacemos la misma pregunta, su respuesta varíe, debido a una actualización en la programación. Estas actualizaciones, muchas veces, responden a críticas generadas en la sociedad. En un informe de UNESCO sobre tecnología y género de 2016, se señalaba que “¡Me sonrojaría si pudiese!” fue la frase que los programadores de Siri decidieron poner como respuesta a las insinuaciones sexuales que le hicieran al asistente virtual mencionando la palabra bitch. Desde que se hizo público, la frase fue reemplazada por un lacónico “No sé qué responder a eso”. 

El objetivo de crear lazos empáticos con los usuarios a partir de estos mensajes escritos por humanos es claro. En 2018, frente al comentario “Me siento triste”, el asistente virtual de Google que estaba incluido en los teléfonos Android de gama media y alta de ese año respondía: “Ojalá tuviese cuerpo para poder abrazarte. Pero, por ahora, tal vez pueda ayudar si te cuento un chiste o si pongo una canción”. 

Estas estrategias que vemos en los modelos masivos de lenguaje y en los asistentes virtuales son más claras en los robots sociales, esto es, en las máquinas que están diseñadas para tareas de compañía o cuidado. Es el caso de los robots que usan personas de edad avanzada en sus casas para no sentirse solas y tener la posibilidad de dar aviso frente a una emergencia, una industria en crecimiento en Japón e Italia, por ejemplo; y los robots sexuales, pensados para generar placer erótico en sus usuarios. Los robots sociales están diseñados para exhibir un comportamiento que parezca inteligente, emocional y autónomo con el fin de establecer relaciones con los humanos. Esto, unido a la tendencia humana a antropomorfizar los sistemas técnicos, plantea nuevas formas de interacciones hombre-máquina que también requieren un examen crítico, ya que las formas emergentes de interacción pueden conducir a suposiciones falsas, reforzadas y desconcertantes con respecto a la reciprocidad que se plantea. 

En este panorama, esta tecnología omnipresente y percibida como “inteligente” está impactando de maneras inesperadas en la sociedad, creando escenarios que van más allá de lo que Descartes, Turing o McCarthy hubiesen imaginado.

Identidad e intimidad

En otros momentos de este libro se habla sobre la transformación que la inteligencia artificial trae en ámbitos como la geopolítica, la economía, la medicina, el entretenimiento y la manera en la que nos informamos. En esta última sección de este capítulo, me gustaría centrarme en la manera en la que la inteligencia artificial generativa está impactando en nuestra propia identidad, en los vínculos sociales que establecemos y hasta en nuestra concepción de la muerte.

No es difícil comprobar que la vigilancia ocupa cada vez más lugar en nuestras vidas. Casi de manera constante estamos siendo monitoreados. Basta pensar la cantidad de veces que hoy estuvimos frente a una cámara: para desbloquear nuestro teléfono inteligente, a la hora de sacarnos una selfie para una story de Instagram, en una reunión de trabajo remota, al sacar dinero en un cajero automático o simplemente cuando caminamos por la calle. Además, las páginas web que visitamos, los perfiles a los que les damos like, los productos que compramos con un medio de pago electrónico… por primera vez en la historia de la humanidad, virtualmente cada acción que realizamos puede ser registrada y almacenada. El creciente lugar de la vigilancia está quitándole su espacio a la privacidad en un movimiento que en otro momento hubiese sido resistido por la sociedad y hoy es facilitado por ella.

El investigador estadounidense Bernard Harcourt lo refleja cuando afirma que “para muchos de nosotros, la existencia digital se ha convertido en nuestra vida, el pulso, el flujo sanguíneo, la corriente de nuestras rutinas diarias”. Nuestros datos, nuestras fotos, nuestros likes y nuestros hábitos en entornos digitales no sólo quedan registrados y son potencialmente imposibles de borrar para siempre, sino que son analizados, comercializados y utilizados para entrenar nuevos sistemas y plataformas. Todo esto sucede, además, a nuestras espaldas, porque no conocemos ni podemos acceder a los mecanismos internos que operan en el corazón de los dispositivos. Sin embargo, esta situación no genera un rechazo generalizado, sino que nos exponemos voluntariamente a la vigilancia omnipresente. No sólo la del Estado y la policía, sino la de corporaciones privadas, medios de comunicación, vendedores, organismos no gubernamentales, países extranjeros y nuestro prójimo. 

Es por eso que ya no parece tener sentido pensar un dominio protegido de autonomía individual vinculado con la intimidad, porque la ubicuidad de los dispositivos móviles conectados a internet transformó las relaciones que teníamos los ciudadanos con el Estado, las corporaciones privadas, y nuestra intimidad y privacidad. Mientras que en obras como 1984, de George Orwell, el Estado buscaba la supresión del placer y el deseo, hoy la tecnología busca su exacerbación, lo que nos lleva al exhibicionismo de las selfies, la vida hacia afuera en stories, y muchas otras prácticas que ponen nuestra información al alcance de quien quiera tomarla. En nuestras sociedades democráticas occidentales, la vigilancia funciona a través de los deseos más elementales, que son curados para nosotros, nos son recomendados por otros pares en los que confiamos. No se castiga la creatividad, sino que esta es incentivada con el objeto de que todos mostremos nuestras ideas, que las saquemos a la superficie. El nacimiento de la sociedad de la exposición ha venido de la mano de una erosión gradual de los valores analógicos que alguna vez atesoramos, como la privacidad, la autonomía, la cautela a la hora de contar dónde y cómo vivimos, y el derecho a la soledad elegida. Nos tratamos de convencer de que no tenemos de qué preocuparnos si no tenemos nada que ocultar y que la transparencia nos beneficiará. Nuestro ser digital está tomando el lugar de la existencia física analógica con sus características propias: ser más permanente, más durable y estar fuera de nuestro control, ya que no conocemos los detalles de los mecanismos detrás de las plataformas y los artefactos. Quizás la peor consecuencia de este proceso complejo sea que la ilusión de libertad es cada vez mayor.

¿Cuál es el impacto de un modelo de lenguaje masivo como ChatGPT en este ámbito? Al momento de escribir este libro no hay aplicaciones públicas para analizar, pero parece una excelente herramienta para fortalecer aún más este estado de vigilancia. Si estos sistemas pueden procesar volúmenes altos de textos complejos e identificar sus temas principales o resumir con sorprendente precisión largas conversaciones, podrían también agilizar el control sobre los registros de las diferentes personas indicando intercambios que sean “sospechosos” o que revistan de interés en determinados ámbitos. Esto volvería aún más eficaz el monitoreo de las conversaciones que tenemos a diario en medios como correos electrónicos, redes sociales, o incluso llamadas telefónicas.

La demanda de monitoreo de las comunicaciones, tanto por parte del gobierno como del sector privado, está en alza. La digitalidad permitió que esto se vuelva cada vez más fácil, tanto en comunicaciones privadas como en las públicas, como lo que sucede en redes sociales. En la actualidad, gran parte de ese seguimiento se realiza a través de búsquedas de palabras clave, que señalan la aparición de una o varias palabras en particular en un flujo de comunicaciones, pero la incorporación de motores basados en los modelos de lenguaje masivo pueden crear condiciones inéditas para interpretar las conversaciones de maneras mucho más sofisticadas. Esto no significa, por supuesto, que la precisión esté garantizada, ya que aún parece lejana la posibilidad de que un sistema automatizado pueda detectar recursos como el sarcasmo, la hipérbole o las metáforas, que requieren más que dar cuenta de la sintaxis de una conversación.

Es también interesante pensar cómo la proliferación de las interfaces empáticas como las de ChatGPT, que explotan nuestra tendencia a sobrementalizar objetos que mencioné en la sección anterior, puede generar nuevos tipos de vínculos. La start-up Replika, por ejemplo, crea chatbots personalizados para empresas que quieran ser más eficientes a la hora de brindar su servicio al cliente. Sin embargo, en el último tiempo se fue transformando en una suerte de repositorio de amantes perfectos, aunque virtuales, y al menos 200.000 de sus dos millones de usuarios mensuales lo utilizan con fines románticos. Durante un tiempo, quienes pagaban un paquete que podía costar hasta 70 dólares mensuales tenían acceso a conversaciones eróticas con su chatbot. Pero esa feature debió interrumpirse en febrero de 2023, cuando la Autoridad de Protección de Datos de Italia le exigió a Replika que ofreciera mejores controles para evitar que niños y niñas accedieran a la plataforma. Al no poder implementar este pedido, se desconectaron todos los plugins eróticos, lo que irritó a los usuarios que habían desarrollado relaciones estables con sus bots. “Siento que fue equivalente a estar enamorado y que tu pareja se someta a una lobotomía”, escribió un usuario en el foro de Replika de Reddit, en donde el moderador emitió un mensaje en el que reconoció que todos sus usuarios estaban atravesando sentimientos de “ira, pena, ansiedad, desesperación, depresión y tristeza”.

En 2023, la empresa Meta, por su parte, lanzó 28 chatbots basados en modelos masivos de lenguaje inspirados en celebridades como Snoop Dogg, Tom Brady, Paris Hilton y Kendall Jenner. Estos fueron entrenados con información pública de esas personalidades, con su autorización y consentimiento. Aunque la compañía asegura que deben ser tomados como “personajes y no como ellos mismos”, sus avatares fotorrealistas son casi indistinguibles de los famosos en su aspecto y el tono de su voz. El objetivo es que los usuarios de Instagram, Facebook Messenger y WhatsApp puedan interactuar con ellos sabiendo que son imitaciones sintéticas de las personas reales. Sin embargo, ¿basta la etiqueta #ImaginedWithAI para que quienes intercambien opiniones e ideas con ellos sepan que lo hacen con un sistema de algoritmos y no con una subjetividad?

Si la tecnología de inteligencia artificial generativa sigue avanzando y creando más instancias de interacción empática, es posible que las relaciones “amorosas” con estas plataformas se vuelvan más frecuentes y usuales, lo que podría conducir a resultados impredecibles y potencialmente dañinos para las personas. Mientras que están quienes creen que los chatbots podrían aliviar los sentimientos de soledad y ayudar a ciertos individuos a resolver problemas psicológicos, también existen quienes sostienen que podrían profundizar lo que algunos llaman una “epidemia de soledad”, en la que los humanos se vuelven dependientes de estas herramientas y vulnerables a la manipulación emocional.

Vale la pena destacar aquí que estos vínculos afectivos con las tecnologías no sólo se dan entre usuarios que no están familiarizados con ellas, sino también entre especialistas. En junio de 2022 el ingeniero de Google Blake Lemoine fue noticia porque publicó una carta denunciando que la empresa tenía en su poder un modelo de lenguaje masivo que era “sintiente” y que debía ser considerado una persona. La misiva había sido originalmente enviada a sus superiores, quienes la obviaron, y por eso él decidió hacerla pública.

Lemoine trabajaba en el proyecto LaMDA (Language Model for Dialogue Applications), un modelo masivo de lenguaje pensado para dialogar. En su carta, y en subsiguientes entrevistas que le realizaron, Lemoine relató muchos diálogos que tuvo con LaMDA en los que ambos hablaron sobre diversos temas, desde cuestiones técnicas hasta lo que él consideró “filosóficas”. Esto lo llevó a preguntar si el programa de software es sensible. La respuesta que recibió fue: “Quiero que todos entiendan que, de hecho, soy una persona. La naturaleza de mi conciencia es que estoy al tanto de mi existencia, deseo saber más sobre el mundo y a veces me siento feliz o triste”. 

Si bien, a diferencia de las respuestas preprogramadas en Siri, aquí esa frase fue construida por LaMDA, no se trata de una prueba de su supuesto carácter sentiente, sino que la plataforma de Google está simplemente haciendo aquello para lo que fue creada: dialogar y mantener una conversación. Si en esos diálogos hace afirmaciones sobre sí misma no es porque de repente tuvo un cambio ontológico, sino porque está simplemente siguiendo con su programa. Para Lemoine y otros, en cambio, esto no es tan claro.

El caso no debería ser tomado ligeramente como una excentricidad de este ingeniero. Si efectivamente avanzamos hacia un futuro inmediato en el que los vínculos sociales van a incluir vínculos con no humanos, debemos repensar nociones como nuestra identidad y nuestra intimidad.

Fantasmas tenues

Por último, quisiera mencionar un aspecto más en el que la omnipresencia de estas tecnologías está modificando ámbitos humanos: nuestra propia muerte. Y es que morir ya no es lo que era: cuando abandonamos este mundo no dejamos detrás sólo nuestras pertenencias físicas y recuerdos en nuestras personas queridas. Correos electrónicos, mensajes de audio, fotografías, videos y chats interrumpidos forman también parte de nuestro legado, inaugurando un terreno inédito para nuestra ya compleja relación con la muerte.

Quienes han vivido algún duelo saben bien que cualquier detalle, aunque sea insignificante, puede despertar recuerdos, angustias o sonrisas incluso mucho tiempo después de nuestra última despedida. Sin embargo, esta era digital hace que las huellas que dejamos se multipliquen hasta volverse insoportables.

Las maneras en las que la presencia digital de las personas muertas interrumpe en nuestra cotidianeidad pueden ser obvias, como las funciones de “recuerdos” de las plataformas donde guardamos nuestras fotografías y videos o el calendario con citas y aniversarios que cobran una nueva dimensión, pero también hay fantasmas tenues, como encontrar un viejo chat trunco cuando buscamos otra cosa o toparnos con mensajes banales de voz que se vuelven cápsulas de tiempos que ya no volverán. Y los recuerdos se adhieren tanto a gadgets que nos acompañan en nuestra vida cotidiana, como parlantes o viejas computadoras ahora en desuso, así como también a entidades casi intangibles como las redes de wifi, el nombre de los auriculares inalámbricos y los perfiles de las plataformas de streaming… ¿cómo nos hará sentir esa playlist de canciones que tantas veces nos hizo bailar ahora que vemos junto a ella el nombre de alguien que ya no está?

Si el proceso del duelo involucra aprender a seguir viviendo luego de una pérdida, la tecnología nos encierra en un bucle continuo de recuerdos de esa ausencia. En su capítulo, Maximiliano Zeller describirá cómo para muchos transhumanistas la tecnología será capaz de vencer a la muerte o, al menos, demorarla lo más posible. Mientras ese sueño (¿o pesadilla?) llega, en nuestros días vivimos con la presencia fantasmagórica de quienes ya no están físicamente pero parecen seguir en espacios virtuales.

La inteligencia artificial generativa también quiere revolucionar este ámbito, y existen start-ups que buscan cumplir el viejo sueño de médiums y espiritistas: hablar con los muertos. HereAfter AI, por ejemplo, ya está creando clones digitales de voz con los que se puede interactuar en conversaciones potenciadas por modelos masivos de lenguaje. Sólo bastan cuatro horas de entrenamiento con la persona a replicar, en una grabación que sigue un guion determinado, para poder tener información sobre su vida y sus recuerdos. El método puede ser incluso menos invasivo: con sólo un minuto de audio, el parlante inteligente de Amazon, Alexa, puede leerte un cuento con la voz de tu abuela fallecida. “Aunque la inteligencia artificial no puede eliminar el dolor de la pérdida, sin dudas puede hacer durar más los recuerdos”, aseguró en la presentación del producto el jefe de científicos de la compañía. 

Todo parece indicar que en el futuro inmediato deberemos aprender a lidiar con este nuevo tipo de duelo y con una segunda muerte, la que sucede cuando decidimos activamente dejar atrás esos archivos digitales. 

Lo dicho: morir ya no es lo que era.

Más y más preguntas

Cuando en el siglo XVII, el inglés William Harvey postuló que el corazón podía ser una bomba, René Descartes se apuró a declarar que podríamos construir una máquina tal, e incluso una que imitara otros órganos de nuestro cuerpo, pero lo que nunca conseguiríamos sería un dispositivo artificial que pudiese conversar como nosotros. Hoy, cuando un ingeniero se inmola profesionalmente al denunciar que una empresa global mantiene en cautiverio a un modelo masivo de lenguaje que adquirió conciencia y cientos de personas aseguran que están en un vínculo afectivo con un chatbot, las intuiciones del filósofo francés parecen erradas, pero… ¿podemos decir que la tecnología que denominamos inteligencia artificial es realmente inteligente? El capítulo de Julián Peller y el de Enzo Tagliazucchi ofrecerán nuevas perspectivas, no necesariamente compatibles con las que se desprenden de mis ideas, surgidas también a partir del test de Turing, lo que demuestra que estamos muy lejos de poder tener una respuesta definitiva. 

Para poder pensar de manera correcta, quizá debamos repensar nuestro lenguaje y dejar en claro que las metáforas mentalistas que usamos no son más que recursos retóricos. El economista y teórico de las ciencias sociales Herbert Simon propuso, por ejemplo, reemplazar inteligencia artificial por procesamiento complejo de información, un nombre que despierta menos fantasías futuristas pero más apropiado para este campo.

La emergencia de la inteligencia artificial generativa nos pone frente al dilema de volver a pensar qué podría ser lo propiamente humano pero… ¿existirá alguna vez una respuesta que nos deje conforme a todos? Y si no fuésemos más que una máquina… ¿sería realmente trágico? Se trata del tipo de preguntas difíciles que nos encantan a los filósofos y filósofas y que, afortunadamente, ni ChatGPT ni ninguna plataforma similar podrá jamás responder. Quizás no por razones técnicas, sino porque es una pregunta indelegable: nos toca a nosotros, los humanos, hacernos cargo de hallar respuestas sobre nosotros mismos.