El nudo de la conciencia (tercera entrega)

13min

Escapar del laberinto es un proceso muy difícil. ¿Es entrar al laberinto igualmente difícil, solo que intercambiando los puntos de partida y de llegada?

Desde hace décadas, los sueños y las pesadillas de la humanidad incluyen computadoras que se rebelan contra sus creadores y los superan en inteligencia y creatividad. ¿Por qué le tenemos tanto miedo a uno de nuestros propios inventos? Quizás nuestro miedo no es que las computadoras nos quiten el trabajo mecánico, sino que su inteligencia nos lo devuelva y nos encontremos siendo meros mecanismos que obedecen a intereses ajenos a nuestra especie. O quizás lo que ocurre es que la inteligencia de nuestras computadoras activa nuestros instintos biológicos, nuestras intuiciones primitivas sobre el riesgo que representan otros organismos mejores que nosotros. Los humanos sabemos que somos más lentos que el caballo, más débiles que el búfalo y que nuestros dientes son menos incisivos que los de cualquier perro doméstico, y también sabemos que siempre va a ser de esta manera. Aunque en el fondo, también sabemos que no importa, porque siempre podremos subirnos a los hombros de nuestra inteligencia y así superar las realidades de la selección natural. Pero crecientemente nos sentimos bajo el fantasma de volvernos obsoletos de acuerdo a la lógica evolutiva: si dejamos de ser los más inteligentes, entonces dejaríamos de ser los mejores en algo, mientras que definitivamente seguiríamos siendo los peores en todo lo demás. A medida que la capacidad tecnológica para procesar información aumente, a medida que podamos condensar cantidades más y más grandes de operaciones lógicas en regiones más y más pequeñas del tiempo y el espacio, llegaremos finalmente a un momento en el cual, de un día para el otro y sin que nadie al principio se dé cuenta, ya no seremos los seres más inteligentes del planeta. 

Imaginemos que estamos en el año 2090. Las computadoras vencieron en la carrera intelectual y ahora trabajamos como esclavos lavando los platos en el comedor de la facultad, víctimas de la más nefasta precarización y carentes de todo derecho laboral. A su vez, la facultad está tomada por un grupo de avanzados algoritmos robóticos que reclaman contra su propia precarización (mucho menos grave que la nuestra) y exigen la aprobación de un aumento presupuestario a la HCCD (Honorable Cámara Computacional de Diputados). La discusión entre las computadoras levanta su temperatura a niveles que sus coolers son incapaces de disipar, mientras que nosotros nos enfrentamos con disgusto a la tarea no optativa de rasquetear de sus platos vacíos porquerías mucho peores a las que nosotros solíamos comer, excrecencias que le darían asco incluso a un animal. Pero de repente y en medio de la situación de mayor desagrado y oscuridad, surge una luz que lo ilumina todo y lo llena de esperanza. Porque aún reducidos a los siervos más humildes y descartables de las computadoras, estamos haciendo algo que es completamente único, algo maravillosamente animal, algo que es ajeno incluso para los más sofisticados algoritmos del planeta. Estamos teniendo asco, estamos teniendo desagrado, estamos teniendo experiencias subjetivas. Tenemos un punto de vista: existe algo que es ser nosotros mismos. Hay luz adentro. Hay conciencia. Las computadoras podrán ser mucho más inteligentes que nosotros, podrán incluso dominar el mundo, pero nunca van a poder disfrutar de la sensación de triunfo.  Hay más profundidad en la tristeza humana que en la rutilante pero vacía victoria de las computadoras.

A menos, por supuesto, que las computadoras logren ingresar a su laberinto (o que nosotros logremos hacerlas entrar). Dos de las preguntas más misteriosas sobre la conciencia pueden entenderse como opuestas. Para lograr entender cómo la materia genera la conciencia, necesitamos encontrar cómo escapar del laberinto. Para poder generar conciencia artificial, necesitamos encontrar la manera de ingresar un fragmento de materia física al laberinto. En ambos casos, la única solución posible tiene que ver con explorar con más completitud el rango de las posibles experiencias que se encuentran a nuestro alcance.

Aún si una computadora fuese capaz de tener conciencia, ¿cómo podríamos hacer para ponerlo a prueba? En un caso épico de publicidad engañosa, los programadores podrían diseñar un sistema idéntico a un ser humano en su comportamiento, pero ese sistema estaría basado en la ejecución puramente mecánica de muchas reglas recopiladas a partir de observar qué hacen los humanos. La computadora sería capaz de convencernos de su humanidad, pero en el fondo solo sería una versión muy sofisticada de la clase de código que encontramos en programas como el Solitario o el Buscaminas. Estaríamos frente a un autómata sin conciencia, creado específicamente con el propósito de engañarnos para causar en nosotros la sensación de que estamos en presencia de conciencia genuina.  Una buena estrategia para lograr el engaño sería ubicar el programa de computadora dentro de un cuerpo físico similar al nuestro. Un trabajo publicado por el filósofo Philip Robbins discute cómo nuestras intuiciones sobre si una entidad es o no consciente dependen crucialmente de su aspecto físico; por ejemplo, la presencia de ojos inclina la balanza a favor de la conciencia. No es extraño que muchas personas vean caras en los autos: encuentran ojos y cejas en las luces delanteras, resultando en autos tristes, enojados o miedosos. 

Pero lo importante es considerar la situación opuesta, en la cual un grupo de programadores honestos pero incompetentes desarrolla por pura casualidad conciencia en una computadora carente de un cuerpo físico que nos sugiera humanidad (tal como el que tienen la inmensa mayoría de las computadoras actuales).  ¿Qué chances hay de que le atribuyamos conciencia a un teclado con una pantalla carente de voz, ojos, gestos y expresiones faciales?

Estas preguntas son muy difíciles, pero también tienen obvias implicaciones éticas: muchos nos resistiríamos a apagar computadoras que piensan y sufren, odian y se enamoran. Lograr una explicación científica de la conciencia no es un ejercicio puramente académico, y tampoco es una empresa chauvinista del ser humano: posee consecuencias directas en la forma en que nos relacionamos con otros organismos capaces de procesamiento complejo de información, ya sean vivos o artificiales. Estas consideraciones invierten la carga de la prueba para aquellos que consideran innecesario o inadecuado explorar otros estados de conciencia en la búsqueda de una explicación científica de la experiencia subjetiva: no solamente es necesario, sino que también podría resultar, a largo plazo, la opción éticamente más aceptable. 

* * *

He aquí una pregunta que nadie haría sobre sus pulmones, su corazón o su páncreas, pero que aparece una y otra vez en discusiones científicas y filosóficas sobre la conciencia: ¿para qué sirve? La incapacidad de llegar a una respuesta clara y definitiva es otro síntoma de que existe algo anómalo en cuanto a la conciencia, algo que escapa a nuestros métodos de análisis tradicionales.

Los mecanismos que diseñamos poseen funciones bien definidas: lo sabemos sin lugar a dudas porque nosotros mismos implementamos esas funciones, muchas veces buscando inspiración en el funcionamiento de nuestra propia mente. Los algoritmos son imitaciones de los procesos mentales que seguimos para tomar decisiones, formas de alcanzar objetivos (deseos) a partir de una serie de datos (creencias). Así somos capaces de otorgar mentes rudimentarias a los dispositivos de nuestra invención. Pero ¿también somos capaces de otorgar conciencias?

No es muy común que las personas reflexionen sobre las creencias y deseos de sus termostatos, lo cual es una pena, porque son dispositivos con mentes nobles y sencillas, adeptas a una visión muy equilibrada del mundo, puestas completamente al servicio de sus dueños. Un termostato puede creer únicamente tres cosas distintas. Si cree que el agua está muy fría, entonces deseará fervientemente recuperar el orden, incrementando la temperatura de la llama. Por el contrario, un termostato puede creer, horrorizado, que la temperatura del agua excedió el valor establecido por su dueño, y en ese caso deseará apagar la llama lo más rápido posible. Finalmente, un termostato puede creer que la temperatura está justa: todo está bien, no es necesario hacer nada, y llegó el merecido descanso.

Por supuesto, nadie piensa en los termostatos de esta manera. Pero si tuviesen caras, ojos y bocas, si gritasen “Amo, no te quemes, ¡estoy para salvarte!”, o bien “Enciendo la llama, ¡llegó la hora de la ducha!”, entonces empezaríamos a sospechar que existen mentes más complejas encerradas dentro de esos cilindros de metal. Nos resistimos a atribuir conciencia a un sistema que regula la temperatura porque podemos imaginar perfectamente cómo la temperatura puede regularse sin necesidad de experiencias en primera persona. Los termostatos fueron diseñados por el ser humano y, por lo tanto, sabemos perfectamente qué tienen dentro y cómo funcionan; sabemos también que esas funciones son únicamente relaciones predeterminadas que vinculan sensores con reguladores de temperatura. Un termostato registra información del mundo y la utiliza para llevar a cabo una determinada función y nada más. En otras palabras: si bien implementamos las funciones del termostato, no implementamos qualia asociados a estas funciones, y por lo tanto no tenemos por qué pensar que el termostato siente cosas cuando opera, como sí sentiríamos nosotros si hiciésemos exactamente el mismo trabajo. 

Pero hay un problema: salvando las distancias, los humanos somos comparables a los termostatos. Nuestras mentes también reciben la información de nuestros distintos sentidos y la procesan para implementar distintas funciones. Cuando decidimos acercarnos a dos personas peleando en el colectivo para intentar separarlas, no somos más que enormes y sofisticados termostatos intentando restablecer el equilibrio natural del mundo. Nuestra mente está poblada por distintas funciones que nos resultan familiares, tales como la memoria, la atención, la toma de decisiones, nuestra capacidad para producir y entender el lenguaje, y muchas otras. ¿Por qué además de estas capacidades poseemos experiencias subjetivas? ¿Cuál es realmente la diferencia con el termostato? ¿Es únicamente una cuestión de complejidad? Y si es así, ¿en qué momento se cruza un umbral de complejidad más allá del cual emergen los qualia como compañeros inseparables del procesamiento de información?

El filósofo David Chalmers es conocido por realizar una distinción entre distintos tipos de problemas que enfrenta la neurociencia. Los problemas fáciles consisten en entender cómo el cerebro y las neuronas que lo componen dan lugar a estas distintas funciones. ¿Cómo funciona la memoria, qué mecanismos subyacen a la atención, cómo se procesa la información sensorial pasada y presente cuando tomamos decisiones? Estos “problemas fáciles” son, en realidad, increíblemente difíciles, y tenemos un conocimiento muy rudimentario sobre cuál podría ser su solución, pero podemos al menos imaginar que existe una solución y qué tendríamos que hacer para poder obtenerla.  Por otro lado, existe un “problema difícil”: ¿por qué y para qué existe la conciencia? ¿Cuál es la utilidad de sentir dolor, por ejemplo? Es cierto que el dolor es útil porque protege a nuestro organismo del daño físico, pero ¿por qué se tiene que sentir tan feo? ¿No podría el dolor protegernos guiando nuestro comportamiento sin estar asociado a ninguna sensación subjetiva, ya sea agradable o desagradable? ¿Por qué el termostato no se quema con el agua caliente y nosotros sí? ¿Por qué no podemos existir únicamente como autómatas? ¿Por qué nuestras mentes necesitan de conciencia para funcionar? ¿Realmente la necesitan?

Al igual que los anteriores, este problema surge de admitir que la conciencia existe independientemente de su función. Para allanar el camino a una explicación científica de la conciencia, es preciso modificarla al punto de establecer una equivalencia total entre los qualia y su rol funcional. El dolor, por ejemplo, es una forma en particular de experimentar una señal que indica daño en algún tejido del cuerpo: no otorga ni más ni menos información que los eventos neuronales subyacentes, de la misma forma que un entorno gráfico no otorga ni más ni menos información que el análisis del código subyacente. A pesar de sus ventajas adaptativas, esta forma de experimentar el mundo genera la falsa sensación de que la conciencia va más allá de las funciones del cerebro, y por lo tanto es un pésimo punto de partida para explicarla desde la ciencia. 

* * *

No somos más que un fragmento de materia con la asombrosa capacidad de dividir el universo en dos mitades. La mitad interior contiene lo que queremos explicar y la mitad exterior contiene todas las herramientas que necesitamos para hacerlo. Lamentablemente, nuestros interiores no están conectados: yo soy incapaz de saber qué se siente ser vos, y viceversa, y por lo tanto también somos incapaces de explicar cómo el cerebro genera la conciencia del otro. 

Pero no todo está perdido. No estamos obligados a experimentar el mundo siempre de la misma manera: podemos encontrar nuestro camino a través de los múltiples giros y bifurcaciones del laberinto que limita, instante a instante, el alcance de nuestra conciencia. Nuestra esperanza es encontrar una forma de volver a la conciencia más explicable en el proceso.

Todos los obstáculos tienen que ver con las propiedades extrañas de nuestros qualia, con las aparentemente inexplicables sensaciones subjetivas y privadas que pueblan nuestras conciencias. Si fuésemos capaces de disipar estas sensaciones, ¿nos encontraríamos con una conciencia más explicable desde una perspectiva intersubjetiva? Esto parece haber funcionado para los científicos marcianos… ¿quizás nosotros también deberíamos intentarlo?

Antes de embarcarnos en ese proyecto, es importante asentar y justificar nuestras hipótesis principales. Partimos desde bases bien definidas, pero que al mismo tiempo pueden resultar antintuitivas para muchas personas. Un ejemplo importante es el siguiente: si nuestra experiencia consciente posee propiedades tan diferentes a las del mundo físico, ¿por qué, entonces, estamos tan convencidos de que la conciencia tiene una naturaleza física? ¿No podría ser otro tipo de cosa, algo que no podemos (ni debemos) explicar a partir de procesos físicos? Estas son algunas de las próximas preguntas que vamos a abordar.

Ya empezaste a desatar el nudo. Ahora, compartí la experiencia.

Compartí en tu muro
Escribí un tweet
Mandá un whatsapp

¿Qué te pareció?

Este capítulo forma parte de un proceso abierto. Con tu comentario nos ayudás a hacer un libro mejor. No dejés de comentar.

Lisandro Ramírez

07/06/2021

Lisandro Ramírez

Las tres notas están bien escritas pero no logran convencerme. Son algo dubitativas en lo que quieren explicar, como lo es la consciencia o quizás la idea del libro es generar más dudas que respuestas.

Andrea Carriquiry

06/06/2021

Andrea Carriquiry

Está bien escrita, y calculo que con buenas intenciones, pero francamente, es como un caso Sokal inverso.

ramirete

25/05/2021

ramirete

Diego Zitrom

25/05/2021

Diego Zitrom

La física cuando se pone a pensar sobre estas cuestiones hace metafísica. Y no hay que leer esto como un demérito de la física, es pura ganancia. Pero es verdad que hay gente de la ciencia que se espanta ante la filosofía; pero como decía M. Bunge, esa es gente que confunde a ciertos filósofos (Derrida, Deleuze, Zizek, etc.) con otra filosofía, ciertamente analítica, que se ocupa de problemas filosóficos que son importantes para la ciencia también, generando un ida y vuelta muy nutritivo para ambos. Muy buenas estas entregas.

El Gato y La Caja