El Gato y La Caja
Intuición Artificial

Intuición Artificial

TXT

Marcos Feole

IMG

Gustavo Santome

¿Qué es AlphaGo? ¿Por qué es distinto de Deep Blue? ¿Podemos programar intuición? ¿Qué es el deep learning?

Intuición Artificial

Nota aclaratoria: en este artículo abuso de la expresión “una máquina aprende”. Con esto me refiero a aprender en el sentido de los algoritmos llamados “de aprendizaje de máquina” (o sea, realizar una tarea cada vez mejor según algún criterio), no a cómo los humanos aprenden. Cualquier semejanza es pura coincidencia. O no.

Como esto es el Gato, ésta no puede ser otra nota de esas que tienen mucho humo futurista grandilocuente. Igual me aventuro a tratar de argumentar por qué creo que estamos justo en medio de una revolución tecnológica y científica sin precedentes. Vos aferrate a los hechos, el resto es charlable.

Quisiera empezar esta historia en el año 1997, que fue cuando el ajedrecista y ex-campeón del mundo Garry Kasparov perdió un duelo de seis partidas (tres y media, a dos y media) contra una supercomputadora (Deep Blue), desarrollada por IBM específicamente para jugar al ajedrez. Los métodos que usó Deep Blue para ganarle a Kasparov se basaban en la fuerza bruta, es decir, en la capacidad de la computadora de analizar 200 millones de jugadas por segundo (y algún ayudín manual que todavía se discute). Por otro lado, pongámosle que Kasparov puede analizar de a 5 jugadas por segundo. Si bien la computadora le ganó, es evidente que hay algo sobre el aprendizaje y entendimiento humano de la realidad que supera ampliamente al de una computadora: Kasparov no pierde el tiempo analizando jugadas absurdas, porque entiende algo sobre el juego que las máquinas no.

Para contrarrestar esta pequeña ineficiencia de necesitar 200 millones a 5 para ganar, hace varios años se viene desarrollando un método de programación de computadoras que se llama Deep Learning (Aprendizaje Profundo), una rama de Machine Learning (Aprendizaje de Máquina). Está basado en un tipo de inteligencia artificial que lo que hace es simular una situación de aprendizaje modelando distintas capas de redes neuronales. Lo que se hace en deep learning es someter a la computadora con su red neuronal a una situación de aprendizaje (por ejemplo, se la hace jugar al ajedrez) y esta red se va remodelando a medida que ‘adquiere experiencias nuevas’ (puse las comillas mitad para ser correcto, mitad porque me abruma la idea de que un algoritmo adquiera experiencia sin comillas). La evidencia nos muestra que el desempeño de este algoritmo en distintas tareas va mejorando a medida que aprende. Por ejemplo, podemos mencionar que el año pasado una computadora con un algoritmo de Deep Learning (a la cual se le cargaron las reglas de ajedrez y partidas de entrenamiento) y se la dejó jugar continuamente consigo misma, logró, en 72 horas, llegar al nivel de un jugador máster internacional de ajedrez. Nivel. Máster. Internacional. En. 72. Horas. Imaginate si le das un balero. Qué fiesta.

Un tipo de algoritmo de aprendizaje (el que no requiere de datos o partidas pre-cargadas para empezar a aprender) se llama aprendizaje no supervisado. En contraposición, también existe un tipo de aprendizaje de máquina, llamado (para sorpresa de NADIE) aprendizaje supervisado, el cual sí requiere datos iniciales de entrenamiento para empezar a jugar. Luego, mientras juega, la máquina va aprendiendo, es decir, va remodelando las redes neuronales a su favor. Otro tipo de aprendizaje automático es el llamado aprendizaje por refuerzo, en el cual se trabaja con una noción de recompensa que se desea maximizar. Es como sobornar a la computadora para que juegue mejor.


Acá es cuando nos caemos todos de culo

Por otro lado, con algoritmos similares, la inteligencia artificial de Google es capaz de reconocer patrones en imágenes. Sabemos que el ser humano tiene ciertos canales de entrada de imágenes y sonidos (ojos y oídos). Esta información llega al cerebro y es procesada de alguna forma, de tal manera que cuando vemos a un perro, no importa que nunca lo hayamos visto antes o que sea de una raza completamente nueva para nosotros: sabemos que estamos viendo un perro. Bueno, este algoritmo de aprendizaje de Google ahora puede hacer lo mismo. Es decir, vos le cargás muchas fotos a la aplicación Google Photos, buscás “dog”, y te aparecen todas las fotos que tienen un perro, incluso si las fotos tienen nombres raros. O sea que, de alguna manera, el algoritmo al analizar la imagen entiende (discusión filosófica pendiente; si hay Russell, que hable ahora) cuándo está viendo a un perro y cuándo no.

Pero bancá, que esto no es nada. Para el paso siguiente, primero necesitamos entender qué tan difícil es esto que yo digo que es difícil pero que bueh, hasta que no lo fundamente con evidencia y lógica que una la evidencia, es nada. Para empezar, analicemos un poco una situación totalmente anti-intuitiva para el humano: el crecimiento exponencial. Tomate un segundo para auto-contestarte esta pregunta: ¿qué altura crees que tendría una hoja de papel común en grosor (pero grande) después de doblarla por la mitad 50 veces?

El crecimiento exponencial aparece cuando querés multiplicar algo por sí mismo una cierta cantidad de veces. Por ejemplo, el número 2 multiplicado 10 veces por sí mismo es 1024; esto se escribe 2¹⁰ y se le llama “dos a la 10” (dos, por dos, por dos,… diez veces). El tema del crecimiento exponencial es que la cosa crece a velocidades re locas. Si agarrás una hoja de papel de 0,1 milímetros de espesor (las comunes), y la doblás por la mitad, el espesor que queda es de 0,2 mm, si lo hacés de nuevo queda de 0,4 mm, y así sucesivamente. Si esa hoja la doblás 10 veces por la mitad, entonces la cuenta es 0,1 milímetros multiplicados 10 veces por 2, o sea: 0,1 * 2¹⁰, que son 10 centímetros. Pero, si esa misma hoja la doblás por la mitad 50 veces, lo que te queda tiene una altura que es del 75% de la distancia de la Tierra al Sol. Tu intuición te dice “eso es imposible” pero, hechas las cuentas, ves que sí. El espesor de 0,1 mm multiplicado por “dos a la cincuenta” (2⁵⁰), da como resultado 112 millones 600 mil kilómetros, más o menos. Lo loco es que si la doblás sólo 33 veces más, es decir, 83 veces en total, llegás a cubrir la longitud de nuestra galaxia de punta a punta (100 mil años luz), y si la doblás 103 veces en total (20 veces más), llegás a cubrir la longitud del universo observable (0,1 mm * 2¹⁰³ = 93 mil millones de años luz).

Un juego muy interesante es preguntarle a una persona que no haya leído esta nota qué altura cree que tiene una hoja al doblarla 50 o 100 veces por la mitad. Las respuestas intuitivas son sorprendentes, casi siempre erradísimas, y muestran lo desacostumbrados que estamos a pensar en el crecimiento exponencial, hecho que nos toca de cerca cuando reparamos en que ésta es la manera en la que crecen los intereses al usar el pago mínimo de la tarjeta de crédito a fin de mes.

En la vida hay eventos exponenciales sobre los que nos resulta muy difícil hacer estimaciones, para todo lo demás, existe Mastercard.

Ahora que sabemos que lo exponencial trepa más rápido que ese compañero de trabajo que se ríe de los chistes de tu jefe, tratemos de estimar qué tan difícil sería para una computadora poder almacenar todas las partidas de ajedrez posibles. Pongámosle que, en promedio, un jugador de ajedrez tiene alrededor de 30 movidas posibles para hacer en cada turno, y cada partido típico de ajedrez puede tener 40 movimientos por jugador (o sea 80 en total). Es decir, todos los juegos posibles de ajedrez salen de pensar que yo tengo 30 movidas posibles, después vos tenés 30 movidas distintas por cada una de las 30 mías (30*30), y después yo lo mismo (30*30*30), y así sucesivamente. O sea, hay un total de 30⁸⁰ partidas de ajedrez posibles (el orden de las movidas es importante). O, lo que es lo mismo, 10¹¹⁸ (un uno seguido de 118 ceros). Para bajar este número a tierra, acordémonos que una buena estimación de la cantidad de átomos que hay en el universo es 10⁸¹. Como vemos, la frase usual que dice “hay más partidas posibles de ajedrez que átomos en el Universo” es cierta, hay muchas más, 10³⁷ veces más, y sólo contando las partidas típicas. Esto quiere decir además que si yo pudiera almacenar toda la información de una partida de ajedrez dentro de un átomo, necesitaría 10³⁷ universos (un uno seguido de 37 ceros) sólo para almacenar todas las partidas típicas de ajedrez posibles, y estamos hablando de la hipotética posibilidad de almacenar toda la información de una partida en un simple átomo. Es decir que, Laplace que nos pese, no hay manera de almacenar esta cantidad de partidas. Ni hablar del tiempo que tardaría en recorrerlas todas para ver qué partida es mejor que otra, o cuál me serviría más en una situación particular contra Kasparov.

Bueno, todo esto hasta acá me sirvió de entrada para contar lo que pasó hace unas semanas. Va.

A mediados de marzo de 2016 la inteligencia artificial de Google programada con Deep Learning le ganó 4 de 5 partidas al campeón del mundo de un juego de mesa milenario llamado Go. Para el que no lo conoce, este es un juego muy simple en reglas (casi no tiene) pero muy complicado de jugar bien; el tablero usual es cuadrado de 19 por 19 casilleros (361 en total), y se juega uno contra uno, con piedras blancas y negras (se les dice piedras a las piezas, que son todas iguales). El juego simplemente consiste en ir poniendo piedras en el lugar que se te cante. El objetivo es tratar de encerrar las piedras del contrincante, o bien tratar de controlar o encerrar terrenos vacíos. No voy a decir mucho más sobre Go, a excepción del hecho de que se juega muy intuitivamente y la mayoría de las estrategias usadas son bien subjetivas, es decir, no hay recetas excepto en casos particulares, y no hay aperturas ni finales establecidos como en el ajedrez. Es un juego cuyos movimientos se vienen aprendiendo y perfeccionando desde hace 2500 años. Las posibilidades de juego, como vamos a ver, son infinitas (bah, finitas pero inabarcables, you know). No hay maneras simples tampoco de medir ventaja material a lo largo del juego, al ajedrez en cambio se le asignan distintos valores a las piezas y a su posición.

Además, si el tablero tiene 361 casilleros, sabiendo que cualquier jugador puede poner piedras en cualquiera de esos lugares y que una partida típica de Go consta de unas 250 movidas en total, entonces la cantidad de partidas posibles de Go es de (aproximadamente) 220²⁵⁰, es decir 10⁵⁸⁵. Puse 220 en vez de 361 porque a medida que los jugadores van poniendo piedras, quedan cada vez menos lugares libres por llenar (si se hacen las cuentas bien da eso, considerando que el orden en que se hacen las movidas es importante). Sabiendo esto, si la máquina quisiera predecir qué va a pasar 50 movidas más adelante (25 por jugador), la cantidad de desenlaces posibles son 220⁵⁰, que es 10¹¹⁷ (casi todas las partidas de ajedrez posibles). Pero el crecimiento es exponencial, o sea, si quiero predecir qué va a pasar en la jugada 51, tengo que analizar 220 veces todas las partidas de ajedrez posibles (220⁵¹). Es decir, la colocación de una sola piedra en la fase inicial puede afectar el juego de una manera impredecible unos 100 movimientos después. La cuestión es que, de nuevo, si quisiéramos almacenar toda la información de una partida de Go en un átomo, necesitaríamos alrededor de 10⁵⁰⁴ universos para poder almacenar todas las partidas posibles (si el orden de las jugadas importa). Si este número te parece abrumador, bienvenido al club, porque nadie en el Universo tiene ni la más remota idea de qué es tener 10⁵⁰⁴ cosas de algo, pensá que 10⁸¹ es la cantidad de átomos que hay en este universo hermoso y grande en el que vivimos. Además, el crecimiento es exponencial, 10⁸² ¡son la cantidad de átomos que hay en 10 universos! O sea que si imaginamos tantos universos como los necesarios para almacenar todas las partidas de Go, seguro que en uno Julieta Cardinali sí responde a nuestras repetidas referencias con un tweet, un WhatsApp, una foto paseando al perro, algo, Julieta, algo que nos haga sentir vivos, un instante fugaz en el que nos iluminen tus ojos color sosiego y atardecer.

La inteligencia artificial que juega Go (llamada AlphaGo), fue desarrollada por una empresa adquirida por Google en 2014, DeepMind (empresa creada con un único objetivo: resolver la inteligencia), y cargada con algoritmos de Deep Learning de aprendizaje supervisado y por refuerzo, algoritmos de búsqueda eficiente, y las reglas de Go. Me parece importante además puntualizar sobre el hecho que Deep Learning no es un algoritmo diseñado para jugar Go, sino un algoritmo de aprendizaje automático de propósito general, que como vimos, puede ser usado para entrenar a una máquina y que pueda realizar diversidad de tareas. En particular, AlphaGo usa dos conjuntos de redes neuronales bien diferenciadas: redes tácticas (las que eligen heurísticamente qué movimientos pueden ser buenos, para no tener que analizar movimientos absurdos), y redes de valor (que evalúan el valor relativo de las distintas posiciones del tablero). Después de esto, AlphaGo entrenó contra sí misma durante un año aproximadamente, porque si vamos a crear un Skynet, le vamos a meter la actitud de Goku y la música de entrenamiento de Rocky.


Acá, AlphaGo entrenando en la nieve antes de una pelea con Ivan Drago (bueh, es el robot de Boston Dynamics, pero lo compró Google así que medio que cuenta).

En octubre de 2015 AlphaGo le ganó 5 partidos seguidos al campeón europeo (aunque el mejor europeo no le llega ni a los talones al mejor asiático), y ahora le ganó 4 de 5 partidos al campeón del mundo (el surcoreano Lee Sedol, un héroe nacional en su país). Nadie se esperaba esto; aún después de ganarle al campeón europeo, las apuestas de los expertos a favor del campeón del mundo eran contundentes.

Creo que ya es razonable empezar a pensar que las máquinas están lo suficientemente avanzadas para aprender capacidades que hasta ahora asumimos netamente humanas, como reconocer imágenes, sonidos, textos escritos a mano, u otras. Incluso capacidades de las más difíciles: aprender a jugar Go mejor que el mejor humano. Vemos además que cada vez se invierten más y más recursos para alcanzar estos objetivos. Es indescriptible con palabras el impacto que pueden llegar a tener estas tecnologías, y lo que representan para la raza humana. Como aprendimos del Tío Ben, este es un gran poder que no hay que dar por sentado, ya que las aplicaciones también pueden ser negativas. Las implicancias prácticas para el día a día de las personas puede ser brutal, incluso en el corto plazo. Millones de trabajos podrían ser reemplazados por máquinas, y no sólo trabajos mecánicos, como se creía hace unas décadas. Sólo falta que el robot Atlas, también de Google, aprenda a jugar al fútbol al nivel de Messi y listo, y parece re gracioso hasta que te das cuenta de que empezó a ser cuestión de cuándos y no de sis.

Por otro lado, desde el punto de vista científico, es imposible no coquetear con la idea de que quizás sea posible reproducir cómo es que un humano genera conceptos sobre algo en particular, a partir de simples conexiones e impulsos eléctricos en el cerebro. Independientemente de los obstáculos filosóficos que cada persona tenga para pensar que la ciencia podría explicar la conciencia humana, estos hechos tangibles nos muestran que aparentemente estamos cada día más cerca de entendernos a nosotros mismos. Es asombroso pensar en lo increíble de la naturaleza, que (hasta donde sabemos) partiendo de unas cuantas partículas y unas cuantas reglas sea posible evolucionar hacia una especie que es capaz de entenderse y recrearse a sí misma. Increíble la posibilidad de que nosotros (y acá hablo como especie) logremos reproducir y recrear en una máquina, durante tan sólo unos miles de años, eso que nos distingue del resto de la naturaleza y del resto de las especies: la capacidad de entender y aprender algo (aunque todavía estemos masticando si esa diferencia es cualitativa o cuantitativa).

Perder con AlphaGo es ganar. Es una muestra clara de la efectividad del método que llamamos ‘ciencia’ para descubrir cosas acerca del funcionamiento del universo que nos rodea, y también acerca del pedacito que nos constituye. Estamos atravesando tiempos excitantes de la historia, momentos ideales para soltarle las riendas a nuestra curiosidad, faltarle el respeto a lo más profundo de la naturaleza humana y empezar a desnudarla, aunque sea de a pasitos, hasta que el próximo salto nos saque del centro de la Creación, llevándonos a re-entender nuestra posición especial y privilegiada como centro de todo lo inteligente en el Universo con un sacudón copernicano que nos empuja a, por lo menos, dudar.

COMPARTÍ LA NOTA

En esta nota se anda diciendo...

Tomás

04/12/2020

Tomás

Ojalá sirva para entender que ningun monumental esfuerzo tecnológico, ni infinitas cargas de datos y variables, ni la computadora mas “inteligente” jamás creada por un humano o otras computadoras, va a poder jamás entender o predecir mediante el razonamiento o “intuición” la complejidad y simpleza de las infinitas conexiones, cambios, emociones, sentimientos que hacen al mas infimo de los organismos o evento, y muchos menos a un movimiento interdependiente y en constante transformacion como es la vida. Saca un peso grande el comprender que no hay que conocer o controlar todo, como individuos y como humanidad.

Egon

26/09/2018

Egon

Muy lindo, con un buen deep learning el robot al que le sacan la caja de las manos aprenderá que neutralizar completamente al humano será la mejor opción para resolver su desafio de ordenar la caja en su lugar. Así nacerá SKYNETCITO.

Maxi

27/04/2016

Maxi

Me gusto mucho la nota como todas.

Escribi algo en inglés sobre la frustracion de los que hacemos software https://medium.com/lastmile-conversations/we-don-t-know-how-to-build-conversational-software-yet-a18301db0e4b

Matías Waehner

24/04/2016

Matías Waehner

Qué capo loco!!! Muy interesante la nota, cada vez me convencés más de ir por el camino de cs de la computación jajaja.
Aguante el Atlas!

Emmanuel Bello

17/04/2016

Emmanuel Bello

Excelente artículo! Me encantó.
Pero para seguir tratando nuestras dudas respecto a si las máquinas realmente aprenden o lo harán en un futuro, o si algún día tendrán consciencia o no, les recomiendo leer el libro de Ray Kurzweil “How to Create a Mind”: https://www.amazon.es/How-Create-Mind-Thought-Revealed/dp/1491518839
(si googlean bien seguro lo encuentran para descargar en formato pdf o epub ; )
Saludos!

Sakan

16/04/2016

Sakan

El texto es muy bueno. Y está bien escrito, tiene una prosa sencilla y profunda a la vez.

Pero tengo dos cosas para criticar.

1) Que no se haya hecho uso del término “inteligencia artificial”, que desde la década del 50 del siglo XX es una ciencia bien establecida. Además el nombre es culturalmente provocador, porque sugiere que algo que no es humano o que es creado por él puede tener “inteligencia” (cualquier cosa que sea la inteligencia o la definan algunos autores). Asimismo es un término literario, y es difícil que ningún investigador de IA no haya leido o esté estimulado por la “ciencia ficción”.

2) ¿Qué es una “máquina” ? En el lenguaje de sentido común empleamos mucho este término para referirnos a las computadoras, o a cualquier sistema informático que compute información. Pero una computadora NO es, claramente, una máquina. Si yo uso digamos una palanca, la palanca en su “energía-masa” no contiene instrucciones sintácticas que transformen las entradas de estímulos o datos que recibe en algo distinto o den una respuesta como “salida”. Claro, termodinámicamente todo pedazo de energía-masa que existe (hasta donde inferimos y observamos) intercambia energía con su entorno, según las leyes de la termodinámica, y podríamos decir que eso es una “salida”, pero no hay sintaxis en el sentido estricto que los lingüístas-matemáticos la definen (la de los matemáticos es más amplia que la de los lingüístas). Así, el intercambio de información, su transformación y adquisición con “salidas” es parte importantísima, fundamental, de lo que llamamos “computar”. Pero entonces ¿ es el estómago “inteligente”? Aunque no lo creas, muchos procesos supuestamente biológicos también computan : se cree que el estómago “computa” lo que nosotros comemos. Y en el sistema inmunológico también se habla de una “gramática” bien determinada que realiza “cómputos”. Por lo tanto, y de una manera un tanto precaria, podemos decir que el estómago tiene “inteligencia”. Sin embargo, no “aprende”, no adquiere nuevas reglas o esquemas para manipular los datos. Esto puede dañar el sentido común (pero el sentido común cuando es verdadero es trivial y cuando no es trivial, es falso). La “computación”, con “aprendizaje” como proceso, es fundamental en las computadoras y los sistemas informáticos modernos (pensemos que podemos modificar los programas, o conjuntos de instrucciones), incluso en los concebidos en términos puramente abstractos (como los modelos de la “teoría de autómatas”). En el caso del cerebro-mente humana, constantemente aplicamos y recibimos información (que puede provenir de los genes durante el desarrollo, la epigénesis, mas datos lingüísticos y percepciones auditivas, olfativas, etcétera). Esto nos sirve para modificarla de alguna manera; adquirimos nuevas “reglas”, o algoritmos. Nosotros mismos transformamos esa información general en pensamientos, sean estúpidos o no, pero lo hacemos, y tal vez la “Ingeligencia”, definida como transformar información por medio de nuevas reglas, ya está en las computadoras caseras. Muchos podrán decir que la computadora no hace nada que no le indique previamente el programador; asumiendo que semejante objeción sea verdadera, nuestra propia mente-cerebro tampoco llega a madurez y desarrollo si no está en un entorno controlado donde reciba una cantidad de información pertinente : el lenguaje natural no se adquiere si no se reciben datos de sentencias lingüísticas (también es cierta, hasta donde sabemos, lo inverso: el lenguaje no se adquiere si no asumimos que hay información previa ya almacenada de alguna manera en nuestra mente-cerebro).

Fuentes:
Sobre la Inteligencia Artificial, “INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO”. Segunda edición. Stuart J. Russell y Peter Norvig.
Sobre la historia de la inteligencia artificial, podés consultar : “lA NUEVA CIENCIA DE LA MENTE”, de Howard Gardner; hay un capítulo dedica a su desarrollo y principales impulsores.
Sobre la teoría de autómatas, “Teoria de autómatas y lenguajes formales”, de Hopcfrot-Ullman. Es difícil y salado de conseguir en “carne viva” pero está disponible en .pdf.
Sobre las teorías sobre el lenguaje desde un punto de vista matemático, “Estructuras Sintácticas”, de Noam Chomsky. Es un libro ya antiguo pero sus teoremas son vigentes. Actualmente el modelo de gramáticas formales se ha extendido mucho y simplificado; hay un resumen en “Sobre la Naturaleza y el Lenguaje”, del mismo autor, donde lo entrevistan dos linguistas italianos, si mal no recuerdo. La editorial es Cambridge University Press.

Mauro

14/04/2016

Mauro

Aquí hay un lindo jueguito para ver cómo funciona por dentro una red neuronal: http://playground.tensorflow.org

inkel

08/04/2016

inkel

Y encima hasta pueden pintar un cuadro “nuevo” de Rembrandt: https://www.nextrembrandt.com/

tomás

07/04/2016

tomás

una pérdida de tiempo !

Federico

07/04/2016

Federico

Excelente nota! Y de un tema tan interesante y actual.
Pero de todo esto no me inquietan los numeros ni los posibles usos de estas tecnologias (buenos, algunas si), me iniquieta el hecho de que al ver ese robot empujado y “confundido” me genere un movimiento (por mas minimo que sea) de emociones.
Antes de ese habia visto el del perro de Boston Dynamics tambien y no podia evitar decir “para guacho, deja de patearlo asi!” al ver como sus patas roboticas se volvian locas tratando de mantener el equilibrio.
Me vuela la cabeza como puedo sentir un minimo de pena por un aparato siendo golpeado. Sera que esta forma de inteligencia artificial pueda generar empatia con uno? Por lo menos de mi lado, dudo que una maquina alguna vez genere empatia con humanos… o me cuesta creerlo.
Y me hace acordar inmediatamente a la novela de Philip Dick “Sueñan los androide con ovejas electricas?”.. Una locura!

Ana Rosa

06/04/2016

Ana Rosa

Excelente nota!! Me da un poco de miedo pensar en todo esto. s cierto que siempre la humanidad gana por ser quien logró que la máquina haga lo que hace, pero el tema de hasta dónde puede llegar y dónde estarían los límites si no hay conciencia ética, eso me asusta.
Igualmente, vale la pena estar bien informado. Gracias.
Maravillosa la ilustración.

Pancho

06/04/2016

Pancho

¿Las máquinas aprenden jugando contra sí mismas? ¿Y no terminan en tablas? ¿Usted se da cuenta que de un plumazo ha mandado a volar el plumífero colchón de tranquilidad sobre el que reposaba desde que vi el final de Juegos de Guerra?

https://youtu.be/NHWjlCaIrQo

Tendría que darle vergüenza…

andrescass

06/04/2016

andrescass

Gran gran gran nota. Me gusta mucho el enfoque que le das, además de la información.
Me apasiona mucho todo lo relacionado con la “inteligencia artificial”, el machine learning y relacionados, aunque hasta ahora solo pude hacer mi propio OCR y algun que otro algoritmo genético que ordena cajas en un camión.

La AI jugando al Mario es lo más, vi el video como 10 veces tratando de ver el funcionamiento de la red. Flash total.

Las implicancias socioculturales son complejas de predecir a priori, ya veremos que pasa con el tiempo. Lo que si, se nota que yo no estoy detrás de ese robot, sino como mínimo tendría un algoritmo para detectar cuando lo boludean y al menos putear al que le corre la caja

Aries

06/04/2016

Aries

Excelente nota.

Que dolor de cabeza tratar de entender esos números imposibles! Es verdaderamente mareante. Creo que van a tener que inventar un robot para que me los explique.

Y más allá de lo interesante de la nota, lo que mas me quedo es la sensación que de ahora en más cada vez que termine un juego será porque la maquina me dejo ganar, como hago yo con mis hermanas. “Toma humano, sentite bien por cinco minutos”

PD: Hay un versión del video del robot atlas donde le ponen una voz. Dice exactamente lo que todos nos imaginamos que diria.

Jonathan Xavier

06/04/2016

Jonathan Xavier

Muy buena nota!, había visto el video de los robots y me dejó pasmado por partida doble, por un lado por los avances que están sucediendo a nivel tecnología, robótica y computación y por otro por las implicancias que podría llegar a tener (tanto positivas como negativas). Ah, el video del Mario es un flash también jaja, quedás boquiabierto hasta que entendés todo eso.

Lo único que me dejó pensando fuera del recipiente, fue si las cuentas acerca de guardar la información de una partida de ajedrez dentro de un átomo y todo lo que sigue es sólo a nivel comparativo, para dar un ejemplo de la gran cantidad de partidas o jugadas posibles que pueden existir y generar la sensación de enormidad, teniendo en cuenta la cantidad de átomos en el universo, o hay algo que me perdí acerca de guardare información en átomos? jaja

Abrazo! espero más notas así :)

Francisco Gómez S.

06/04/2016

Francisco Gómez S.

Excelete nota!
Van mis 2 centavos. Es verdad que las redes neuronales están basadas en el cerebro humano y los logros que se están haciendo son totalmente geniales. Lo que sí, estamos algo lejos (TODAVÍA) de que esos algoritmos se parezcan a cómo funciona la cabeza (y eso que no sabemos bien cómo funciona todavía).
En ralidad cuando se entrenan estos algorithmos necesitan miles de ejemplos de cada tipo para hacerse una idea más o menos acertada de para abstrerlos en clases separadas… Pero nosotros por lo que se sabe no funcionamos así. En vez de eso hacemos una especie de “”feature extraction” conciente y al toque”. Por ejemplo, si yo sé lo que es un caballo pero nunca vi una cebra, al primer caballo con franjas blancas y negras que vea voy a pensar “que caballo tan raro” y cuando alguien me diga “No, flaco, eso no es un caballo, ese bicho se llama cebra” listo, ahí automáticamente mi cabeza entiende que caballo+franjas negras y blanas = cebra. No hacen falta miles de ejemplos de diferentes tipos de caballos y diferentes cebras para entenderlo. Esto no pasa con los algoritmos que tenemos ahora.
Pero el día que consigamos eso, ahí si que se arma la fiesta.

Javier

06/04/2016

Javier

Sophia (robot creado por Hanson Robotics): “En el futuro, espero hacer cosas como ir a la escuela, estudiar, hacer arte, empezar un negocio e incluso tener mi propio hogar y familia, pero no soy considerada persona legal y no puedo aún hacer estas cosas.”

David Hanson: “Quieres destruir a los humanos? Por favor dí que no…”

Sophia: “OK. Destruiré a los humanos.”

Pau Hernández

06/04/2016

Pau Hernández

No me molesta que una máquina sea más “inteligente” que yo, pero me atormenta la posibilidad de que la máquina de pronto “odie” a su creador y nos mate :O (no debería haber visto ex-machina), ¿cuánto creés que va a tardar eso en suceder? No creo que lleguemos a verlo, pero por las dudas dejo de insultar al celular cuando se me traba. Me encantó la nota.

Edgar Feerman

06/04/2016

Edgar Feerman

Felicitaciones por este gran artículo. De verdad, de lo mejor que hay para leer sobre ciencia en el mundo hispanoparlante. Saludos desde México.

Fede

06/04/2016

Fede

Me quedo con tu última frase “… un sacudón copernicano que nos empuja a, por lo menos, dudar”. Gracias al espíritu crítico construimos el conocimiento, un conocimiento basado en evidencias, un conocimiento práctico que nos lleva a construir aviones, desarrollar vacunas, y ahora máquinas que nos vencen jugando. “Perder con AlphaGo es ganar”, es demostrarnos que efectivamente algo estamos haciendo bien.

Agustin Russo

06/04/2016

Agustin Russo

Dos comentarios:
– Creo que la idea de que se pierdan puestos de trabajo no sólo no es mala, sino que es ideal. ¡Cuanto menos trabajo haya, mejor! El problema es la economía capitalista, que te obliga a trabajar para que puedas tener recursos a tu disposición. Sería hora de empezar a aprovechar la automatización y las capacidades de las máquinas para trabajar cada vez menos, disponiendo de los mismos recursos.
– En el video de Atlas: ¿Soy el único al que le dio mucha lástima que le saquen la caja al robot?

Virginia

06/04/2016

Virginia

Espectacular la nota!! Casi lloro llegando al final (posta)

Otra nota súper interesante sobre IA, pero menos optimista: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html

Maru Ma

06/04/2016

Maru Ma

mucho AlphaGo mucho machine learning pero yo sigo acá esperando por mi R2D2…

Mauro

06/04/2016

Mauro

¡¡¡Excelente artículo!!! La deja picando en el gran siguiente paso, ¿cuándo surge la conciencia? (sí, skynet, a vos te estoy hablando porque sé que tarde o temprano vas a leer esto). Algunos piensan que es un fenómeno emergente de la capacidad de aprendizaje (recomiendo fuerte esta charla Ted: https://www.youtube.com/watch?v=GzCvlFRISIM). Lo cierto es que para los que creemos que no involucra la magia (porque hay quienes sacralizan la conciencia) tiene que haber algo en nuestro cerebro que la provoca. Yo creo que la pregunta ya no es si surgirá sino cuándo. Y, más interesante aún, qué pasará el día después. Recordemos que esa “conciencia artificial” no tiene nuestros límites y el progreso a partir de allí cobra una nueva dimensión.

Esteban Siravegna

06/04/2016

Esteban Siravegna

Amo que no hayan usado inteligencia artificial en ningún lado <3
Un sólo detalle, de rompepelotas: Algunos autores dicen, con cierta razón, que el aprendizaje por refuerzo es un subset del supervisado :)

Gran laburo!

El Gato y La Caja