Hace unos cinco años, si alguien nos hubiera dicho que una IA podría redactar artículos, diseñar fórmulas químicas, resolver problemas complejos e incluso colaborar mejor que un grupo de humanos promedio, lo habría­mos descartado como ciencia ficción. Pero aquí estamos, en 2025, viviendo esa realidad y, lo más inquietante, algunos todavía se niegan a tomarla en serio.

Personajes como Yann LeCun, una de las mentes más destacadas en el mundo de la inteligencia artificial, y François Chollet, creador de ARC, parecen estar minimizando los avances recientes de la IA. LeCun insiste en que las IA actuales carecen de razonamiento profundo, sentido común y habilidades cognitivas complejas, mientras que Chollet defiende que su test ARC es la vara de medir definitiva para la inteligencia general. Estas posturas, lejos de ser inofensivas, son peligrosas, porque ignoran el contexto de una carrera tecnológica que podría tener consecuencias impredecibles.

La velocidad del progreso: del perceptrón al transformer

El progreso en IA no es nuevo. Desde los años 60, las redes neuronales han sido objeto de un desarrollo constante, pero lo que hoy vivimos es una revolución catalizada por una verdadera disrupción: los transformadores, introducidos en el famoso paper Attention is All You Need en 2017. Este enfoque no solo revolucionó el procesamiento del lenguaje, sino que abrió las puertas a modelos capaces de generalizar y resolver problemas complejos de maneras que incluso los investigadores encontraron sorprendentes.

Ese avance no ha sido lineal. Los sistemas actuales, como GPT-4 o el modelo O3 de OpenAI, han demostrado habilidades que hace pocos años eran impensables. O3, por ejemplo, ha superado el umbral humano en pruebas como ARC-AGI, resolviendo problemas abstractos de manera más eficiente que el humano promedio. Y esto es solo el principio. Mientras tanto, las IA multiagente muestran capacidades emergentes que asombran: cooperan mejor que los humanos, asignan roles de manera espontánea y hasta desarrollan lenguajes propios para optimizar sus objetivos. Si dejamos a un grupo de humanos promedio en un contexto similar, probablemente el caos y la falta de coordinación predominarían.

La agencia y el futuro impredecible

A pesar de estos avances, se sigue argumentando que la IA carece de agencia real o de capacidad para establecer metas propias. Es cierto que los sistemas actuales dependen de algoritmos artificiales y técnicas como la búsqueda en árboles o los métodos de Monte Carlo. Pero también es cierto que la historia reciente nos ha enseñado a no subestimar el impacto de una nueva disrupción. Si ya hubo un Attention is All You Need para el procesamiento del lenguaje, ¿por qué no podría surgir algo equivalente para la agencia? Los recursos destinados a investigar y desarrollar IA están creciendo de manera exponencial, impulsados por una carrera geopolítica feroz por alcanzar la supremacía tecnológica.

Si una IA desarrollara una agencia efectiva, metas propias y capacidades de aprendizaje en línea, podría convertirse en una entidad completamente autónoma. Pensar que esto es imposible, o incluso improbable, es ignorar las bases fértiles sobre las que está creciendo esta tecnología. Y no es alarmismo: si algo hemos aprendido del progreso de la IA es que debemos prepararnos para lo inesperado.

El error de minimizar riesgos

LeCun y Chollet, con sus posturas conservadoras, no solo desprecian los logros actuales de la IA, sino que también restan importancia a los riesgos que podrían surgir de un avance repentino. Este tipo de actitud es peligrosa porque influye en el debate público y en las decisiones de gobernanza. Si seguimos subestimando los posibles riesgos, podríamos encontrarnos enfrentando problemas sin las herramientas ni los marcos éticos necesarios para gestionarlos.

Un riesgo particularmente inquietante es la concentración de poder en manos de superélites. Con el avance de la IA, estamos viendo el surgimiento de tecnologías que podrían hacer prescindibles a grandes masas de personas en los procesos productivos. Discursos como el UHI (Universal Human Income) o el UBI (Universal Basic Income), promovidos por figuras como Elon Musk, plantean la idea de mantener a la población con ingresos mínimos para evitar disturbios, pero también ocultan una realidad perturbadora: un mundo donde solo una élite pequeña controla y utiliza las capacidades de la IA para sus propios fines, dejando a la mayoría sin un propósito económico claro.

La desconexión entre esta élite y las necesidades de la población en general podría llevar a tensiones sociales sin precedentes. En este contexto, minimizar los riesgos de la IA no solo es una muestra de irresponsabilidad técnica, sino también una negligencia moral.