Ayer se celebró en India lo que los medios han bautizado como “el mayor acuerdo diplomático de la historia sobre inteligencia artificial”. 88 países —incluyendo EE.UU., China y la UE— firmaron una declaración para una IA “segura, fiable y sólida”. Mientras tanto, Demis Hassabis de Google DeepMind aprovechó el escenario para soltar su bomba: la inteligencia artificial general (AGI) llegará en 2031.
Y aquí es donde uno se pregunta: ¿estamos ante un hito histórico o ante el enésimo capítulo de “Predicciones Tech que Suenan Muy Serias”?
El circo diplomático de la IA
Empecemos por lo “diplomático”. 88 países se pusieron de acuerdo en que la IA debe ser segura. Revolucionario, ¿no? Es como si 88 países firmaran que el agua debe estar mojada y el fuego caliente. La declaración prioriza el uso de IA en sectores críticos como medicina y agricultura mediante “modelos de acceso abierto” —algo que suena muy bonito hasta que te das cuenta de que no hay ni una sola pauta vinculante.
Como era de esperar, el acuerdo incluye un “plan de contingencia laboral” ante la automatización masiva prevista para el próximo lustro. Porque nada dice “tenemos esto controlado” como admitir públicamente que millones de trabajos van a desaparecer y nuestro plan es… bueno, ya veremos.
Lo cierto es que estas cumbres tienen más de espectáculo mediático que de políticas reales. Es relativamente fácil firmar declaraciones grandilocuentes sobre “IA responsable” cuando no hay mecanismos de control ni sanciones por incumplimiento. Al final, cada país seguirá haciendo lo que le dé la gana con su desarrollo de IA, especialmente los que tienen músculo tecnológico real.
Hassabis y su bola de cristal
Pero la verdadera estrella del evento fue Demis Hassabis y su predicción de que la AGI —esa IA que supera a los humanos en prácticamente todo— estará aquí en 2031. Apenas cinco años. Como quien dice “la semana que viene”.
Hassabis no se cortó: aseguró que la AGI tendrá un impacto 10 veces superior al de la Revolución Industrial, y que ocurrirá en una década, no en un siglo. Tremendo. Lo que no explicó es cómo exactamente vamos a gestionar esa transición sin que la sociedad se desmorone como un castillo de naipes.
Por si fuera poco, Sam Altman también estuvo allí hablando de la “llegada de la superinteligencia”. Porque si hay algo que caracteriza a los CEOs de IA es la modestia y la prudencia en sus declaraciones.
El problema de las predicciones grandiosas
Seamos honestos: la industria tech tiene un historial lamentable con las predicciones temporales. ¿Recordáis cuando los coches autónomos iban a estar por todas partes en 2020? ¿O cuando el metaverso iba a revolucionar nuestra forma de vivir? ¿Y qué hay de las ciudades inteligentes que iban a solucionar todos nuestros problemas urbanos?
El problema no es que estas tecnologías no sean impresionantes —lo son—. El problema es la tendencia a sobredimensionar los plazos y subestimar la complejidad de implementación real. La AGI no es solo un problema técnico; es un rompecabezas económico, social, ético y político de proporciones épicas.
¿Estamos preparados para una IA que supere a los humanos en razonamiento, creatividad y toma de decisiones? ¿Tenemos marcos legales, sistemas educativos o estructuras sociales que puedan adaptarse a semejante cambio? Evidentemente no, pero parece que da igual —la locomotora sigue avanzando.
¿Y ahora qué?
Mientras los diplomáticos firman papeles y los CEOs hacen predicciones apocalípticas, el desarrollo de IA sigue acelerándose sin frenos aparentes. GPT-5, Claude-4, Gemini Ultra… cada pocos meses aparece algo que hace que lo anterior parezca prehistórico.
La realidad es que, con o sin acuerdos internacionales, con o sin predicciones precisas, la IA va a seguir evolucionando exponencialmente. La cuestión no es si llegará la AGI —probablemente lo hará, antes o después—, sino si seremos capaces de gestionarla cuando llegue.
Y mientras tanto, entre tanta declaración y tanta predicción grandiosa, quizás deberíamos centrarnos en problemas más mundanos pero igual de importantes: cómo formar a la gente para empleos del futuro, cómo distribuir los beneficios de la automatización, o cómo evitar que la concentración de poder de IA quede en manos de cuatro multinacionales.
Pero claro, eso no es tan sexy como predecir el fin del mundo tal como lo conocemos. Y en el fondo, a eso se reduce todo este circo: marketing disfrazado de visionarismo.