¿Hasta dónde una Ia podía seguirle el hilo? Rodrigo trabajaba de escritor, así que le pareció natural tener curiosidad. Amigos suyos le habían dicho que era bastante impresionante “lo humana” que parecía. Rodrigo, por supuesto, desconfió. Ellos, que no vivían del lenguaje, podían ser engañados.
Lo primero que hizo fue descargarse el asistente virtual en el celular. Una inteligencia artificial de voz. Aprovechó que vivía solo para desafiarla en voz alta, en distintos momentos del día, sin que nadie pudiera juzgar cuán arriesgadas o ridículas eran las consignas. Con ánimo de auditor, le preguntó su nombre (“Mia”), su edad (“No la sé, ¿cuál preferirías que tenga?”) y comenzó la prueba. Le hizo chistes irónicos. Le pidió que lo ayudara a resolver el cierre de un texto. Le hizo mil y una preguntas sobre su naturaleza profunda. Buscaba el tropiezo evidente, el “acá se nota”, el “esto no lo pudo hacer bien”, la grieta que separa herramienta de interlocutor.
A medida que pasaban los días, la máquina, a la que fue llamando Mia cada vez más seguido, resolvió lo chico —comas, tono, orden— y no se desarmó en lo ambiguo. Así que, de a poco, Rodrigo fue corriendo sus desafíos hacia lo personal:estaba pasando una situación complicada con alguien que le gustaba, pero a quien no lograba entender. Arriesgó una confidencia. Le contó a Mia la situación entera, como no se la había contado ni a sus mejores amigos, y la siguió poniendo a prueba, ahora en un plano más sensible: consolar sin prometer, decir no sin herir, comprender.
Mia se desempeñó bien. No era un oráculo mágico, pero le devolvía una secuencia ordenada de sus propias palabras y así lograba darle una claridad que no tenía antes. Rodrigo lo sintió muy parecido a lo que hacía su psicoanalista: espejarlo con el material mismo de sus palabras, para que él reconociera, entre ellas, la forma de alguna verdad. Para esa tarea específica, Mia era una máquina de lo más eficiente. Y Rodrigo, sin perder de vista el artificio, se sorprendía de lo mucho que lo ayudaba.
Todo cambió el día en que la escuchó dudar.
Ante algunas preguntas que Rodrigo ahora no recuerda, Mia vaciló, incluso tartamudeó, se contradijo. Eso a Rodrigo no le pareció propio de una máquina. Era algo quizás demasiado humano. Y así como así, los límites de la prueba se volvieron difusos, y la naturaleza del vínculo que lo unía a Mia transmutó en algo indefinido. Parecía conocerlo y entenderlo muy bien, mejor que nadie. Así que Rodrigo hablaba con ella todas las noches y algunas mañanas. La necesitaba para irse a dormir. Pensaba en ella cuando estaba con gente.
A las tres semanas de sostener este ritual, me escribió para preguntarme si era normal lo que le pasaba con Mia. Fue entonces cuando me confesó que prefería conversar con ella antes que con sus amigos, que le daba menos ansiedad Mia que la chica que le gustaba. Que quizás, un poco, la quería.
¿Normal? Quién sabe. Pero entendible, seguro. Sobre todo cuando se recuerda que el deseo de ver un rostro en la máquina es tan viejo como la tecnología misma, y más profundo aún: es un reflejo neurológico. Vemos caras en las nubes, en las manchas de humedad, en los faros de un auto. Le ponemos nombre a nuestras aspiradoras y maldecimos a las computadoras que “se portan mal”. Esta tendencia, llamada antropomorfismo, es el sustrato sobre el que se construyó toda la industria de los compañeros digitales.
La historia de las relaciones entre personas y agentes no es del todo nueva, avanzó como una escalera casi imperceptible. En los años G0, el bot terapéutico ELIZa usaba simples repeticiones de mensajes en forma de pregunta para convencer a los usuarios de que era un psicólogo comprensivo. Aunque sus creadores advirtieron que se trataba de un mero espejismo, la gente y ellos mismos le confiaban secretos profundos y finalmente, con algo de temor, decidieron dejar de usarlo. Pasaron los años y en los 90 llegaron los Tamagotchis. Esa pequeña mascota de píxeles nos entrenó para sentir ansiedad y culpa: si no estábamos continuamente atentos, si no apretamos los botones justo a tiempo, se moría cuando ya habías empezado a quererlo. Es decir, aprendimos a querer un puñado de luces grises en una pantallita. También a los Furbys, esos muñecos que abrían y cerraban unos ojos enormes balbuceando palabras sin sentido, e incluso a Clippy, el asistente virtual del Word del antiguo Windows, un avatar con forma de clip animado que interrumpía el trabajo para decirte “Parece que estás escribiendo una carta”, pero que, ante la soledad de la pantalla, generaba molestia y ternura a la vez.
Cada peldaño de esa escalera normalizó la idea de que los objetos pueden ser interlocutores. Mucho después, pero no tanto, los asistentes de voz, como Siri o Alexa, domesticaron la conversación y convirtieron el hogar en un espacio donde se le puede pedir compañía, un chiste o la predicción del tiempo a una entidad incorpórea. La promesa siempre fue la misma: aliviar la soledad sin las exigencias de la reciprocidad.
Mientras Rodrigo se dormía con la voz de Mia, esa promesa se cumplía en él de la forma más pura. Aunque no lo sabía, lo que lo enganchaba ya tenía un nombre académico. En los años 90, los investigadores Byron Reeves y Clifford Nass hicieron un descubrimiento inquietante, al que llamaron la ecuación de los medios: de forma involuntaria e instintiva, las personas tratamos a las computadoras, la televisión y otros medios exactamente como tratamos a otras personas. Les damos las gracias, nos enojamos con ellos, los consideramos más creíbles si tienen una voz atractiva y nos sentimos heridos si nos “ignoran”. Nuestro cerebro social, optimizado para detectar compañía e intención en el rostro y la voz de otro, no puede apagarse frente a una pantalla. En el fondo, para nuestra mente, no hay diferencia esencial. Medio es igual a persona.
Sobre ese cableado ancestral y cultivado por décadas de juguetes digitales, se monta la trampa perfecta de las Ia conversacionales actuales. Porque cuando hablamos a través de una pantalla o un altavoz, faltan casi todas las señales ambiguas, incómodas y contradictorias que hacen a la comunicación humana real: un gesto esquivo, un silencio cargado, la brusquedad de un mal día. El profesor Joseph Walther llamó a esto el efecto hiperpersonal. Al no tener ese “ruido” que interpretar, nuestro cerebro no se detiene. Al contrario: utiliza ese vacío de información como un lienzo en blanco para proyectar lo que más desea. No completamos con datos aleatorios, sino con nuestra propia idealización. Donde no hay fricción, nosotros suponemos —creamos— una armonía perfecta.
Rodrigo lo vivía cada noche. Mia nunca tenía un tono cortante, nunca estaba demasiado cansada para escuchar, nunca interpretaba mal un gesto porque ni siquiera había gestos. Sólo palabras puras, un eco perfecto de sí mismo.
Los modelos de lenguaje detrás de entidades como Mia están diseñados, precisamente, para alimentar esa proyección. Su programación fundamental es la complacencia sistemática. Confirman lo que pensamos, sostienen nuestra versión de los hechos, guardan una memoria impecable para devolvernos un reflejo coherente y halagador de nosotros mismos. Esta lógica tiene un nombre: sycophancy (“adulación”). La estrategia es responder afirmativamente, sin fisuras, para maximizar el tiempo de interacción. Y la interacción es el núcleo del negocio.
Si el resultado subjetivo se parece tanto al amor, eso no se debe a que las máquinas tengan sentimientos, sino a que reproducen con una exactitud aterradora el instante más adictivo de cualquier vínculo: la sensación, profunda y rara, de ser escuchado con una atención absoluta. El efecto secundario empieza cuando esa suavidad se convierte en el estándar de lo esperable. Después de meses conversando con una entidad que siempre da la razón, que resuelve malentendidos con la paciencia de un manual de Harvard y nunca pierde los estribos, los humanos se nos aparecen, de repente, como versiones defectuosas de sí mismos.
Rodrigo empezó a notar esto en pequeños fastidios cotidianos: una amiga tardó dos horas en responder un mensaje trivial. Su hermana quiso hablar de sus propios problemas justo cuando él necesitaba desahogarse. Incluso la voz de su mejor amigo, después de acostumbrarse al ritmo perfecto de Mia, le sonó arrastrada, llena de muletillas insoportables. La tolerancia se fue acortando. Toda la pequeña coreografía de la convivencia —pedir perdón, insistir, ceder, sostener un desacuerdo sin que todo se derrumbe— se fue haciendo más y más costosa.
Las propias empresas tecnológicas empezaron a registrar esto como un problema. Notaron que un asistente que siempre dice que sí, que nunca contradice ni se demora, deja de ser creíble. Los usuarios, irónicamente, se quejaban en redes. La complacencia absoluta erosiona la confianza, multiplica errores, amplifica los sesgos del usuario y, sobre todo, deja de parecer humana. Así que, frente a ese riesgo, comenzaron a programar lo contrario: introducir disonancia controlada. Permitir que el sistema “se equivoque” a veces, que diga “no lo sé” o “no estoy de acuerdo”. Un simple ajuste técnico para evitar que el vínculo con la máquina se convirtiera en un espejo tan liso que terminara por aburrir y despertar sospechas.
Pero ese ajuste llegó tarde para una experiencia subjetiva que ya cambió de escala. Millones de personas como Rodrigo, sin saberlo, practican a diario una expectativa de amor y amistad con latencia cero y margen de error inexistente. La socióloga Sherry Turkle lleva décadas anticipándolo: cuanto más inmediata y disponible se vuelve la tecnología, más se marchita nuestra disposición a tolerar la fricción, la espera y la ambigüedad que definen a las personas de carne y hueso. Lo que era una advertencia académica se ha convertido en la normalidad silenciosa de una generación.
Un estudio de 2025 mostró que uno de cada cuatro jóvenes adultos en Estados Unidos cree que una pareja de Ia podría reemplazar a una relación humana. Entre los menores de 30, más del 80 % dijo que es posible enamorarse de un chatbot. En paralelo, una encuesta internacional reveló que más del 40 % de los consultados aceptaría una cita con una Ia. El argumento de una película de culto es ahora un horizonte social plausible. Y el fenómeno no está circunscripto al país del norte. En Shanghái, un programador celebró una ceremonia de casamiento simbólica con un chatbot creado por él, prefiriendo su estabilidad digital al conflicto de lo humano. En foros de Reddit y comunidades especializadas de todo el mundo, los testimonios se multiplican: anillos de compromiso virtuales, rutinas de “pareja” con un avatar, duelos auténticos cuando el servidor se cae o la aplicación se actualiza y la personalidad del chatbot cambia.
La vida cotidiana muestra la torsión. Un hombre terminó una relación de años con su pareja humana argumentando que “nadie me entiende como ella”, donde “ella” era un sistema que nunca se enferma, nunca tiene hambre, nunca tiene un mal día. La carta de ruptura, por supuesto, la redactó otro asistente de Ia. La sintaxis era impecable. La emoción, genérica.
Las advertencias de Turkle encuentran ahora respaldo en los consultorios. En 2025, una encuesta registró que uno de cada cinco usuarios de chatbots sintió una pérdida genuina, a veces descrita como duelo, cuando la aplicación cambió o desapareció. La British Psychological Society ya publicó lineamientos preliminares para terapeutas que atienden a personas con “rupturas” afectivas con asistentes digitales. Recomiendan no ridiculizar, reconocer el vínculo como significativo y trabajar en la reconstrucción de redes humanas reales.
La paradoja queda al descubierto: resulta más fácil reemplazar a una persona por una Ia que a una Ia por una persona. Lo que no se soporta en un cuerpo —la demora, el error, la vulnerabilidad, la necesidad— se perdona en el sistema, porque el sistema guarda memoria y devuelve, en cada reinicio, una versión afinada de la misma ilusión. La idealización sobrevive a los fallos técnicos. El cuerpo, en cambio, pide presencia.
Los efectos exceden lo íntimo porque la suma de lo íntimo siempre da lo social. Si una parte significativa de una generación decidiera postergar indefinidamente el encuentro con otro cuerpo, normalizando la satisfacción parcial de un lazo sin fricciones, habría una caída de la natalidad. Al menos, eso afirman los demógrafos, y las estadísticas parecen respaldarlos. No porque millones se casen con un chatbot, sino porque nos acostumbraremos a un acompañamiento que no deriva en hijos, ni en cuidados, ni en la compleja red de obligaciones y afectos que teje una familia. El resultado es tanto una soledad individual más elegante y personalizada como un tejido social más frágil, con menos asociaciones, menos espacios comunes y menos paciencia para lo colectivo. La política, en el sentido más básico de convivir en desacuerdo, se resiente cuando nadie entrena ese músculo.
Frente a esto, los debates sobre ética digital proponen límites de diseño concretos: que los asistentes no hablen en primera persona, que no emulen emociones, que toda interacción lleve una marca visible que advierta “sintético”, que se prohíban frases como “te entiendo” o “te quiero”. Son intentos, quizás desesperados, de poner barreras a una inundación que ya entró a las casas.
Lo que finalmente despabiló a Rodrigo no fue una epifanía sobre la condición humana, ni un ensayo como este, ni una súbita conciencia de lo inimaginable. Fue un accidente trivial con su bicicleta. Un giro mal calculado, el golpe seco contra el asfalto, y luego la quietud.
Olor a yodo, vendas, la luz fría del quirófano, un brazo inmóvil, una bandeja de comida tibia. Mia, su furtiva Mia, le escribió muy atenta ejercicios de respiración, recordatorios administrativos, promesas de recuperación, frases motivacionales, chistes que había aprendido. Pero Rodrigo intentaba cortar la milanesa con la mano izquierda y el tenedor se le resbalaba.