El 30 de noviembre pasado se cumplieron dos años del lanzamiento de ChatGPT, un evento que generó grandes ondas expansivas en el desarrollo tecnológico, la sociedad y la economía. En el espacio que abrió este acontecimiento no siempre fue fácil (o tal vez siquiera posible) separar realidades de expectativas. Por ejemplo, durante 2024, Nvidia llegó a ser la empresa pública más valiosa del mundo en un rally alcista impactante. La compañía, que fabrica el hardware que usan los modelos como ChatGPT, hoy vale seis veces más que hace dos años. Pero ¿lo vale realmente o estamos ante un delirio colectivo? Esta pregunta —y no su eventual respuesta— es la que representa el momento presente.

El día D
Empecemos recordando el día del lanzamiento. ChatGPT 3.5 fue un chatbot ampliamente superior a todo lo conocido hasta entonces en términos de capacidades discursivas e inteligencia. Este salto de capacidad generó una fascinación enorme y el producto se viralizó muy velozmente: logró una base de 100 millones de usuarios en apenas 2 meses, superando por mucho a otras aplicaciones consideradas virales como TikTok, Instagram, Spotify, etc. También llegó a los medios masivos de comunicación y al debate público: la IA desembarcó en el mainstream y de pronto todos hablaban de ChatGPT. Para colmo, apenas unos meses después, OpenAI lanzó GPT-4, una versión muy superior en inteligencia a la 3.5 y, además, capaz de entender imágenes.
La situación disparó debates sobre las posibilidades y problemas implícitos en esta tecnología concreta en lo que respecta a copyright, desinformación, productividad y mercado laboral, así como también sobre los riesgos que podría suponer el avance de la investigación en IA en el mediano y largo plazo. Destacaban diversas inquietudes: el riesgo existencial (al estilo Terminator), un escenario en el que se haga real el fin del trabajo, y la posibilidad de la aparición de una conciencia artificial, entre otros. En esta discusión amplia y apasionada escuchamos opiniones de lo más disímiles y, con el correr de los meses, el debate comenzó a madurar. Tomó un tiempo acomodarnos a este producto porque el avance que supuso nos dejó a todos un poco en offside. ¿Qué pasó desde aquel entonces hasta hoy?
Te quiero pero soy un Bard
En lo que respecta a las empresas de tecnología, estos dos años fueron una montaña rusa. La aparición en escena de OpenAI, con sus avances futuristas y su CEO con espíritu y look de “startupero”, generó dudas sobre el liderazgo tecnológico de Google, hasta ese momento indiscutido. Por su parte, Google hizo todo lo que pudo para confirmar estas dudas, humillándose públicamente en reiteradas oportunidades. Primero, con el bochorno del video de presentación de Bard, el chatbot pensado como competencia de ChatGPT. En este video, el chatbot comete un error factual: al pedirle información sobre el telescopio James Webb Space, el modelo responde que fue el primer telescopio en tomar fotos de planetas fuera del sistema solar, lo que es falso. Esto generó una caída de 9 % en las acciones de Google durante la semana siguiente. Más adelante, con la presentación del nuevo modelo Gemini —otro competidor, esta vez de GPT-4—, Google volvió a perder credibilidad al saberse que las capacidades increíbles que este nuevo producto mostraba en la demo (y que lo hubieran colocado a la vanguardia) eran en realidad montajes falsos creados sobre capacidades mucho menores.
En medio de este proceso, Microsoft, la arcaica empresa de Bill Gates —esa que fabricaba los viejos Windows 95 y que los jóvenes odiábamos tanto como amábamos a Google— reapareció y se alió con Altman, incorporando ChatGPT a Bing y mostrándose ágil y desafiante. “Quiero que la gente sepa que los hicimos bailar”, dijo Satya Nadella, el CEO de Microsoft, refiriéndose a Google. Durante 2023, Microsoft rejuveneció mientras Google envejecía.
Esta situación se prolongó y OpenAI permaneció por un tiempo como líder indiscutido tanto en evaluaciones técnicas como en los reportes subjetivos de las personas (conocidos como “vibe checks”), con GPT-4 a la cabeza. Pero con el tiempo esto cambió, y así como GPT-4 ganó un liderazgo único a fines de 2022, a mediados de 2024 su sucesor no muy lejano (GPT-4o) estaba compitiendo con otros de su misma talla: Gemini 1.5 pro, de Google; Claude Sonnet 3.5, de Anthropic y Grok 2, de xAI.
Al momento de escribir esta nota, iniciando 2025, el escenario de competencia intensa entre los proveedores de LLM parece estar consolidado: los grandes esfuerzos de OpenAI por recuperar su brillo vanguardista de 2022 —con su flamante línea de modelos de razonamiento o1 y o3— se encontraron con la respuesta competitiva inmediata y contundente de un nuevo actor, el laboratorio chino DeepSeek, que liberó un modelo de calidad similar en apenas dos meses 1Podés preguntarle a DeepSeek qué piensa del Partido Comunista Chino y de la masacre de Tiananmén acá: chat.deepseek.com. . Lo que la innovación te da, la innovación te quita.
El open source contraataca
Para completar el escenario de golpes, caídas y comebacks épicos de los últimos dos años, tenemos que hablar del mundo del software libre. Esta nueva época de la IA empezó con dos crosses a la mandíbula al mundo del open source.
En primer lugar, OpenAI, a pesar de su nombre, fue pionera en dejar de hacer públicos sus avances tecnológicos. Durante una época dorada previa al 2022, eran usos y costumbres de la investigación en IA publicar al detalle los resultados de la investigación, creando un ecosistema simbiótico entre las grandes corporaciones y la academia. Sin ir más lejos, ChatGPT y los demás grandes modelos de lenguaje (LLM, por sus siglas en inglés) se basan en el célebre paper Attention is all you need publicado por Google en 2017. En este paper se hace pública la arquitectura de redes neuronales llamada Transformer, piedra fundacional de la revolución de la IA generativa y la que pone la “T” en “GPT”. Pero en un plot twist apasionante, OpenAI se apalancó en este descubrimiento para sacar ventaja y comenzar con una investigación a puertas cerradas. El lanzamiento de GPT-4 fue el momento bisagra entre ambas épocas: por primera vez, OpenAI no explicó nada sobre el funcionamiento interno de sus avances. A partir de ese momento comenzaron a aparecer muchos LLM cerrados, como Gemini y Claude, que modificaron para mal el ecosistema de investigación.
El segundo golpe a la comunidad open source fue la escala de los nuevos modelos. Hasta GPT-2 bastaba una GPU 2 Tarjeta gráfica que acelera masivamente los cálculos.
modesta para entrenar modelos de deep learning. Desde GPT-3, el costo de infraestructura aumentó enormemente, y entrenar modelos dejó de ser algo accesible a cualquier individuo o institución. Los avances fundamentales pasaron a estar en manos de pesos pesados.
Pero después de estos golpes, y con todos esperando el knockout, el mundo del software libre dio batalla y demostró estar a la altura de la nueva era. Tuvo de su lado, para suerte de todos, a un paladín inesperado. Mark Zuckerberg, el androide reptiliano más odiado del planeta, dio un giro de imagen radical al posicionarse como el abanderado del open source y de la libertad en el campo de la IA generativa. Meta, el conglomerado que domina gran parte del tejido de comunicaciones digitales de Occidente según su propio designio y voluntad, se hizo cargo de llevar el open source a la época de la IA generativa con su línea de modelos LLaMA. Definitivamente, es un mal momento para ser maniqueo. Los lanzamientos de LLaMA comenzaron con licencias abiertas tímidas y capacidades limitadas (aunque la comunidad hacía muchos esfuerzos por creer lo contrario), pero con las versiones recientes (LLaMA 3.1, 3.2 y 3.3), la brecha con las propuestas privadas comenzó a cerrarse, lo que permitió que el mundo del open source pudiera continuar a la vanguardia de la investigación tecnológica.
Muy recientemente, el comeback épico del open source sumó epicidad y dos nuevos paladines inesperados: los laboratorios chinos DeepSeek, con su familia de modelos homónimos, y Alibaba, el “Amazon chino”, con la familia de modelos Qwen. Las empresas entraron a escena pisando fuerte con modelos código abierto de vanguardia que las posicionaron entre los grandes jugadores de Estados Unidos, causando revuelo internacional. De manera destacable, DeepSeek-R1, liberado el 20 de enero de 2025, es un modelo libre de calidad comparable con o1, el modelo cerrado más avanzado disponible a esa fecha, pero a un costo muchísimo más bajo. El R1 corona con contundencia el proceso de recuperación del open source tras dos años de crisis.

Una idea nunca antes explorada
En estos dos años, la investigación en grandes modelos de lenguaje fue prolífica. El primer avance fundamental, hoy dado por hecho, fue que las empresas lograron aumentar las ventanas de contexto de los chatbots (cuántos tokens 3Los tokens son las unidades textuales con que trabajan los LLM e incluyen palabras, fracciones de palabras y signos de puntuación, entre otros; un token equivale a 0,75 palabras aproximadamente. pueden leer como input y generar como output) y, a la vez, bajar los costos por token de una forma impresionante y sostenida. Pero también vimos a los modelos volverse multimodales (aceptar como input no sólo texto, sino también imágenes, audios o videos), vimos cómo se les permitía a los LLM utilizar herramientas —destacablemente, buscar en Internet—, y vimos avances constantes en torno a la capacidad.

Por otro lado, aparecieron diferentes técnicas de cuantización y destilado, que permiten comprimir modelos gigantes en versiones más pequeñas, hasta llegar a poder correrlos en computadoras de escritorio (aunque el precio a pagar haya sido una reducción a veces inadmisible en su capacidad). Todo parece indicar que esta optimización en el tamaño está en una curva de progreso positiva y que estamos cerca de modelos de lenguaje chicos (SLM, por sus siglas en inglés) y que estos eventualmente llegarán a caber en un smartphone.
Por el lado negativo, no hubo avances fundamentales respecto al control de las famosas alucinaciones, los textos falsos que los modelos pueden generar con verosimilitud. Este problema, pintoresco al comienzo, parece quedar confirmado como una característica estructural de esta tecnología. Quienes la utilizamos para trabajar conocemos la frustración de utilizar una herramienta que se suele comportar como una experta pero que, el 10 % de las veces, comete un error grosero sin darse cuenta o directamente inventa cualquier cosa. De este modo, Yann Lecun —líder de Meta AI y un peso pesado de la industria— se anota para sí un logro, considerando que sostuvo una postura más bien deflacionista sobre los LLM durante el pico de entusiasmo de 2023.
Pero marcar limitaciones en los LLM no significa que se haya saldado el debate sobre sus capacidades y hasta dónde podrán llevarnos. Por ejemplo, Sam Altman cree que el actual programa de investigación todavía tiene mucho para dar antes de chocarse con una pared, y el mercado, como veremos en breve, parece secundarlo. Muchos de los avances que vimos en estos dos años parecen secundarlo también. Hemos visto a OpenAI lanzar su asistente por voz y una versión mejorada que permite una interacción casi en tiempo real, con interrupciones (como entre humanos) y no por turnos. Recientemente, también vimos las primeras tentativas avanzadas de LLM con acceso y control sobre un explorador o incluso la computadora de los usuarios, como en la demo de 4o, el lanzamiento de Claude 3.5 y la reciente prueba limitada del producto Operator. Estas herramientas, aún en estado embrionario, son una muestra de cómo podrá verse el futuro cercano con LLM con mayor capacidad de agencia y una de las actuales apuestas fuertes del programa de investigación.
Por otro lado, la familia de modelos o1 y o3, presentados como “modelos de razonamiento” (y ya no sólo “de lenguaje”), anticipa una línea de investigación con mucho potencial de mejora. En efecto, esta familia parte de una idea novedosa: apalancarse en el tiempo de inferencia —y no en el de entrenamiento— para mejorar la calidad de la respuesta generada. Con esta estrategia, el LLM no genera inmediatamente la primera palabra más probable, sino que tiene la capacidad de “detenerse a pensar” antes de empezar a hablar. Uno de los investigadores del proyecto sugirió que, en el futuro, estos sistemas podrían emplear semanas o meses de cómputo para producir una sola respuesta, una idea nunca antes explorada. A fines del año pasado, el anuncio de o3 dobló la apuesta por la “pausa reflexiva” y sorprendió con avances notables en razonamiento abstracto, matemática avanzada y programación. El progreso que o3 mostró en la demo causó mucho revuelo y expectativa, ya que parece validar fuertemente esta línea de investigación y, con ella, una dirección clara a seguir para lograr modelos más y más inteligentes. Queda por ver cuánto se sostienen los resultados anunciados una vez que el modelo sea de acceso público y, por otro lado, hasta dónde llegará esta línea de investigación, cuyos próximos pasos —o4 y o5, R2 y R3— podrían marcar un nuevo hito en la evolución de la IA generativa.
En lo que respecta a la seguridad de la IA, vimos un avance clave del lado de Anthropic. La empresa logró un hito fundamental de interpretabilidad respecto de los LLM, permitiendo entender un poco mejor la caja negra que son estas arquitecturas. Con su descubrimiento sobre el carácter polisemántico de las neuronas y su método para extraer patrones de activaciones neuronales que representan conceptos, la principal barrera para controlar a los modelos transformers parece haber caído. La posibilidad de afectar los circuitos a voluntad, torciendo la conducta observable de estos modelos, resulta prometedora y trajo un poco de tranquilidad respecto de la brecha entre capacidades de los LLM y nuestra comprensión de estos.
Más allá de los modelos de lenguaje, estos dos años implicaron enormes avances en otros frentes. La primera mención debe ser a la generación de imágenes, los modelos text-to-image que empezaron a despegar incluso antes que los chatbots y continuaron desarrollándose a un ritmo acelerado hasta desbordar a la generación de video, con productos como Sora y Veo 2, capaces de generar videos de calidad altísima. Quizás un poco menos conocidos pero con avances igualmente asombrosos son los campos de la generación de música, con plataformas como Suno y Udio, y la generación de voz, con Eleven Labs a la cabeza logrando estándares de calidad altísimos.
Fueron sin duda dos años intensos.
Palas y picos
Si llevamos nuestra mirada al aspecto financiero del fenómeno, vamos a ver ingentes cantidades de capitales volcándose al mundo de la IA de forma sostenida y creciente. Actualmente estamos en plena fiebre del oro de la IA y nadie quiere quedarse afuera de una tecnología que sus inventores, modestos, presentaron como equivalente a la máquina de vapor, la imprenta o Internet.
Quizás sea sintomático que la empresa que más capitalizó esta fiebre no venda IA, sino el hardware que ella utiliza de infraestructura, cumpliendo con aquel viejo saber popular que dice que durante la fiebre del oro una buena forma de hacerse rico era vender palas y picos. Como mencioné anteriormente, a fines de 2024 Nvidia se posicionó como la compañía más valiosa del mundo al alcanzar una capitalización de 3,5 “trillions” o millones de millones. Para dar un contexto, USD 3.500.000.000.000 es un número muy superior al PBI de Francia. Aún hoy, tras el reciente sacudón bursátil que causó el lanzamiento de DeepSeek, con un desplome de 17 %, la empresa sigue posicionada en el top 3 y con una capitalización seis veces superior a la que tenía en 2022.
Por otro lado, mirando la lista de compañías públicas de mayor valor de mercado vamos a encontrar dominando el podio a las tecnológicas vinculadas parcial o totalmente a las promesas de la IA. Apple, Microsoft, Nvidia y Google son las primeras cuatro a la fecha en que escribo y entre todas ellas superan los USD 12T de capitalización. A modo de referencia, en noviembre de 2022 la capitalización combinada de estas 4 empresas era de menos de la mitad de este valor. Mientras tanto, startups de IA generativa en Silicon Valley recaudan inversiones récord. Como diría Maslatón, el mercado está bullish.
Mientras que la tecnología avanza sin frenos, el modelo de negocios de la IA generativa, más allá de algunos casos particulares, no parece estar claro. En paralelo a este frenesí alcista que sigue su curso, algunas voces, entre ellas el reciente nobel de economía Daron Acemoglu, se muestran escépticas sobre la capacidad de la IA de pagar todo el dinero que se está volcando en ella. Por ejemplo, en esta entrevista con Bloomberg, Acemoglu sostiene que la IA generativa actual sólo podrá automatizar menos del 5 % de las tareas existentes en la próxima década y eso mal podría ser la revolución productiva que las inversiones esperan.
¿Es esta la fiebre de la IA o más bien el delirio febril de la IA? Por ahora, las expectativas en el programa actual están altísimas y el rally alcista no se detiene. Como con cualquier burbuja, con el diario del lunes va a ser muy fácil verla explotar en retrospectiva, pero mientras estamos aquí adentro no es obvio si habrá una corrección y, si la hubiera, cuándo será. ¿Estamos en una burbuja pronta a reventar como cree Acemoglu? ¿O, como sugirió un inversor, Nvidia está en camino a ser una compañía de más de 50 millones de millones de dólares en una década? Esta es la gran incógnita y, lamentablemente, no sé la respuesta. Todo parece indicar que, así como en la burbuja dot com, saldremos de esta situación con algunas empresas surfeando la ola y muchas debajo del agua. Mis únicas sugerencias son las siguientes: desconfiar de cualquiera que transmita una sensación de certeza marcada y considerar siempre la posibilidad de una corrección de mercado fuerte si se quiere invertir en las grandes tecnológicas.
Los problemas de la inteligencia
Hablemos ahora del impacto más amplio que tuvo el desembarco de la IA generativa a nivel social. El salto de calidad de ChatGPT respecto del horizonte tecnológico socialmente conocido hasta su lanzamiento generó mucho revuelo, abriendo debates sobre las oportunidades y los riesgos de esa tecnología concreta, así como de las oportunidades y riesgos que podrían implicar desarrollos tecnológicos más avanzados. A diferencia de lo que fue la llegada de Internet y de las redes sociales, esta vez la sociedad pareció reaccionar rápidamente y mostrarse atenta y preocupada por las implicaciones y los desafíos que pudiera suponer esta nueva tecnología. Además del debate profundo sobre el riesgo existencial, relacionado con el desarrollo tecnológico futuro y con la pregunta por la velocidad del progreso, también se discutieron ampliamente los impactos de los modelos de lenguaje existentes. Los focos de problemas de la IA generativa son varios, pero quizás los tres más destacados sean: 1) el temor a una potenciación de la desinformación y la contaminación digital, 2) los grandes problemas con el copyright y el uso de datos privados, y 3) el impacto en la productividad y el mercado laboral.
Respecto de la desinformación, este trabajo sugiere que, al menos por ahora, no vimos incrementada de una manera significativa el nivel de desinformación al que estamos expuestos. Es difícil decirlo a ciencia cierta, pero mis impresiones personales son similares: si bien la desinformación es fuerte, y quizás se haya incrementado incluso en los últimos años, no atravesó ningún cambio de fase significativo que pueda ser atribuible a la emergencia de la IA generativa. Con esto obviamente no se quiere sugerir que la desinformación no sea un problema gravísimo. La tesis es más débil: la IA generativa no parece haber tenido, al menos hasta ahora, un impacto significativo sobre ese problema.
Sí hemos visto deep fakes como es el caso de noticias recientes de producción y distribución de material pornográfico generado con IA utilizando rostros de personas reales y varios casos en escuelas donde los sujetos afectados son niñas menores. Esto reviste la mayor gravedad y es necesario apuntalar los sistemas judiciales y policiales para abordarlo, pero parece a priori controlable y, en el gran esquema de las cosas, representa impactos relativamente menores comparado con una posible pesadilla de desinformación detonada por la IA generativa. Los sistemas legales tardan más de lo que quisiéramos, pero hay indicios de que las instituciones quizás estén a la altura de las circunstancias, al menos en lo que a deep fakes porno de menores se refiere, como ilustra la condena ejemplar de 18 años que recibió un personaje en el Reino Unido por crear y distribuir tal material.
En lo que respecta al impacto en el mercado laboral y la productividad —la otra cara del boom de mercado—, el debate no parece estar saldado ni es claro el alcance que pueda tener, tanto en el incremento de la productividad de los trabajadores como en la reducción o el aumento de puestos de trabajo. Si uno ingresa a Internet encontrará opiniones muy diversas sobre el impacto que tendrá esta tecnología. Escuchamos cosas como “la IA reemplaza tareas, no personas” o “no va a reemplazarte una IA, sino una persona usando IA” dichas con mucha seguridad y sin ninguna fuente, algo que recuerda a las alucinaciones de un modelo de lenguaje. Es verdad que ChatGPT no puede realizar tareas complejas y, quienes lo usamos en nuestro día a día, sabemos todos los enormes y frustrantes límites que tiene. Pero también es verdad que tareas como redactar un email profesional o revisar cantidades grandes de texto en busca de alguna información puntual se volvieron muchísimo más rápidas. En mi experiencia, puedo decir que en el mundo de la programación y la ciencia de datos, la productividad aumentó enormemente con los entornos de programación asistidos por IA como Copilot o Cursor. En mi equipo, los perfiles de menor seniority lograron mayor autonomía y todos producimos código con más velocidad que antes. Sin embargo, esa misma velocidad podría ser un arma de doble filo y algunos estudios sugieren que el código generado con asistentes de IA generativa sería de peor calidad que el generado por humanos sin esta asistencia.
Si el impacto de los LLM existentes no está del todo claro, a eso debemos sumarle la incertidumbre aparejada a los grandes avances en las líneas de investigación novedosas que generan expectativas sobre la automatización de tareas complejas (destacablemente, las líneas de investigación de modelos de razonamiento y de agentes con control de exploradores que discutimos antes). Y mientras el mercado apuesta fuerte a un boom de productividad marcado por la IA generativa, muchas voces serias minimizan el impacto potencial de esta tecnología en el mercado laboral, como mencionamos anteriormente al hablar del aspecto financiero del fenómeno. En principio, las limitaciones más fuertes —las alucinaciones— no sólo no fueron resueltas, sino que cada vez parecen más irresolubles, al tiempo que las instituciones humanas se mostraron menos ágiles y revolucionarias que la tecnología en sí misma, poniendo paños fríos a la conversación.
En todo caso, la promesa de una revolución masiva en el ámbito laboral en estos dos años aún no se concretó. Considerando la acelerada adopción de esta tecnología (según este estudio, más del 24 % de los trabajadores estadounidenses hoy usan IA generativa al menos una vez por semana) y suponiendo que los primeros en adoptarla sean quizás los que mayores beneficios encuentren, podemos pensar que ya hemos visto bastante del impacto potencial.
Otro de los grandes desafíos que trajo consigo el surgimiento de la IA generativa fue los problemas en torno a los derechos de autor. Creadores de contenido —incluyendo artistas, escritores y empresas de medios— expresaron su descontento al ver que obras de su propiedad fueron utilizadas sin autorización para entrenar IA generativas, lo cual consideran una violación a sus derechos de propiedad intelectual. La otra cara de la moneda la representan las empresas de IA, argumentando que el uso de material protegido para el entrenamiento de modelos está amparado bajo el concepto de "uso legítimo" (fair use) y que la producción de estos modelos no es una reproducción, sino una transformación creativa de las obras.
Este conflicto derivó en una gran cantidad de juicios, como el caso de Getty Images contra Stability AI por el uso no autorizado de imágenes para entrenar modelos, o las demandas de artistas y autores, como la presentada por Sarah Silverman contra OpenAI, Meta y otras empresas de IA. Otro caso destacado es la demanda de compañías discográficas contra Suno y Udio, en la que se alega la infracción de derechos de autor al utilizar canciones protegidas para entrenar modelos de IA generativa de música.
En esta reedición futurista de la vieja diferencia entre la inspiración y el plagio, hasta ahora, los casos judiciales no inclinaron claramente la balanza hacia un lado u otro. Los tribunales permitieron que algunos aspectos de las demandas avancen, mientras que otros fueron desestimados, lo que sostiene un escenario de incertidumbre. Las recientes presentaciones judiciales y la postura de las empresas, incluyendo estrategias como la indemnización a clientes de Adobe, Google y OpenAI, demuestran que la cuestión sigue sin resolverse de manera definitiva.
El marco regulatorio de la IA también experimentó avances importantes; el más destacado de este lado del globo fue la aprobación del AI Act por parte de la Unión Europea en marzo de 2024. Esta legislación posicionó a Europa como el primer bloque del mundo en adoptar un marco regulatorio integral para la IA, y establece un sistema de etapas para asegurar su cumplimiento. Su implementación comenzará en febrero de 2025 y avanzará de forma escalonada. El AI Act clasifica los riesgos de la IA, y restringe los casos de “riesgo inaceptable”, como el uso de la tecnología para engañar o realizar puntuaciones sociales. Aunque durante la discusión se lograron suavizar ciertas disposiciones, asegurando reglas básicas aplicables a todos los modelos y regulaciones más estrictas para aplicaciones en contextos sensibles, la industria ha manifestado inquietudes sobre la carga que esta normativa representa.
Con estas tensiones, oportunidades y desafíos, queda claro que el impacto de la IA generativa marca el comienzo de una nueva etapa de transformaciones profundas en lo social, económico y legal, cuyos alcances aún estamos empezando a comprender.
Se vienen cositas
Vivimos un presente de excitación y de expectativas: una primavera de la IA con todas las letras, con avances impresionantes que no dejan de ocurrir y con líneas de investigación prometedoras listas para ser exploradas. Por otro lado, son tiempos de incertidumbre. La sospecha de estar en una burbuja y la expectativa de una corrección bursátil y emocional de magnitud es más que razonable. Pero como con cualquier corrección de mercado, lo importante no es predecir que ocurrirá, sino saber exactamente cuándo.
¿Qué pasará en 2025? ¿Colapsarán las acciones de Nvidia o, al contrario, la compañía seguirá su rally alcista bajo la promesa de convertirse en una empresa de más de 50 billones de dólares en 10 años? ¿Y qué pasará con el mercado bursátil de la IA en general? Por otro lado, ¿qué pasará con la línea de investigación de modelos que razonan iniciada por o1, R1 y o3? ¿Tocará un techo o seguirá una espiral de progreso masivo así como la línea GPT avanzó en sus versiones 1, 2, 3 y 4? ¿Cuánto mejorarán los hoy rústicos agentes basados en LLM que controlan escritorios y entornos digitales en general?
Lo sabremos más temprano que tarde, porque hacia allá es hacia donde vamos.