Guía para los perplejos (How to Think About AI)
Richard Susskind
Oxford UP © 2025
La inteligencia artificial (IA) ha dejado de ser una promesa futurista para convertirse en un protagonista del presente. Cada día, nuevos desarrollos tecnológicos modifican nuestra forma de trabajar, aprender y relacionarnos. Sin embargo, junto a los avances surgen preguntas fundamentales: ¿qué papel juega el ser humano en un mundo dominado por sistemas inteligentes? ¿Cómo equilibrar innovación y ética?
El jurista y futurista Richard Susskind plantea en su obra una reflexión esencial: no se trata solo de entender lo que la IA puede hacer, sino de decidir cómo debemos pensar sobre ella.
Su análisis ofrece una guía para navegar la revolución digital sin perder el sentido humano y estratégico que define a nuestra especie.
La IA: Una vieja idea que avanza exponencialmente
Aunque hoy parezca una invención reciente, la idea de máquinas pensantes tiene raíces profundas. Desde el siglo XIX se fantaseaba con autómatas dotados de razón. En los años 50, Alan Turing dio forma científica al concepto al preguntar: ¿Pueden pensar las máquinas?
Décadas más tarde, en los años 80, los sistemas expertos marcaron el primer auge de la IA. Sin embargo, la llegada de internet en los 90 desplazó temporalmente la atención hacia tecnologías más accesibles.
El renacimiento llegó con el aprendizaje automático (machine learning), que permitió a los sistemas aprender por sí mismos a partir de datos masivos. Ejemplos como Watson de IBM o AlphaGo de DeepMind demostraron el potencial real de la IA para superar tareas humanas específicas.
El verdadero salto se produjo en 2022, con el lanzamiento de ChatGPT y la adopción de arquitecturas de “transformadores”. Por primera vez, las máquinas comenzaron a mostrar capacidades generativas y adaptativas.
En 2024, el modelo AlphaFold revolucionó la biología molecular al resolver el plegamiento de proteínas, un logro que otorgó a sus creadores el Premio Nobel de Química. Desde entonces, el progreso no se mide en años, sino en meses o incluso semanas.
Susskind sostiene que hemos superado el punto de inflexión de la curva exponencial: cada avance acelera el siguiente. La humanidad enfrenta así una transformación sin precedentes, comparable a la revolución industrial, pero de alcance cognitivo.
Escenarios posibles del futuro de la IA
El autor propone cinco escenarios que resumen las posturas más relevantes sobre el destino de la inteligencia artificial:
- La hipótesis de la sobrevaloración: los beneficios de la IA disminuirán y su impacto será menor del previsto.
- La hipótesis de la IAGen+: los sistemas seguirán mejorando sin transformaciones radicales.
- La hipótesis de la Inteligencia Artificial General (IAG): surgirán máquinas con inteligencia comparable a la humana.
- La hipótesis de la superinteligencia: los sistemas se auto-mejorarán más allá de la comprensión humana.
- La hipótesis de la singularidad: humanos y máquinas se fusionarán en una nueva forma de conciencia híbrida.
Ninguno de estos escenarios es descartable. Todos sugieren que la IA cambiará la definición misma de lo que significa ser inteligente y creativo.
Procesos vs. Resultados: Dos formas de entender la IA
La percepción de la inteligencia artificial suele dividirse entre dos enfoques:
- El enfoque de procesos, propio de científicos y tecnólogos, analiza cómo funcionan los algoritmos, redes neuronales y sistemas de aprendizaje.
- El enfoque de resultados, común entre políticos y empresarios, se concentra en los efectos sociales y económicos de la IA.
Ambos son necesarios, pero la desconexión entre ellos distorsiona el debate público. Mientras unos discuten sobre arquitectura de datos, otros se preocupan por empleo, privacidad o ética.
Susskind propone reconciliar ambas visiones: entender el funcionamiento técnico sin perder de vista su impacto humano.
Falacias comunes y errores de percepción
Entre los errores más frecuentes al hablar de inteligencia artificial destacan:
- La falacia del campo ajeno: creer que la IA afectará a todas las profesiones excepto la propia.
- La falacia de la equivalencia: suponer que una máquina debe pensar como un humano para superarlo.
- La falacia del control humano absoluto: asumir que siempre podremos explicar o supervisar completamente las decisiones algorítmicas.
Susskind recuerda que las máquinas no necesitan razonar como nosotros para lograr resultados superiores. Su lógica es distinta, no menos válida.
Por ello, el debate sobre “pensamiento humano versus artificial” debe transformarse en una conversación sobre efectividad, confiabilidad y ética.
Transformación Institucional y Rediseño del Trabajo
El fin del modelo organizacional tradicional
La mayoría de las empresas y entidades públicas aún operan bajo estructuras rígidas del siglo pasado. En ellas, la IA se incorpora como herramienta auxiliar, pero no como pilar estratégico.
Susskind advierte que esta visión limitará la competitividad de las organizaciones, pues el cambio no es incremental sino estructural.
El futuro empresarial exige rediseñar procesos, roles y modelos de negocio desde una perspectiva centrada en datos, automatización y aprendizaje continuo.
Autodisrupción y liderazgo adaptativo
Las empresas más exitosas serán aquellas capaces de disrumpirse a sí mismas antes de ser desplazadas por competidores más ágiles.
Esto requiere una nueva mentalidad directiva: los líderes deben pasar de administrar tareas a diseñar sistemas inteligentes.
Ya no se trata solo de aumentar la eficiencia, sino de reinventar el propósito empresarial en torno a la inteligencia digital.
Del capital humano al capital híbrido
El valor de una organización dependerá de la interacción entre personas y sistemas inteligentes.
Las habilidades más demandadas serán las cognitivas, creativas y adaptativas: pensamiento crítico, ética digital y gestión de datos.
El futuro del trabajo no consiste en resistir la automatización, sino en aprender a trabajar con ella.
Riesgos, Ética y Gobernanza Global
El doble filo del progreso
La IA puede resolver desafíos globales, pero también amplificar desigualdades, manipular información o desestabilizar instituciones.
Susskind clasifica los riesgos en siete categorías: existenciales, catastróficos, políticos, socioeconómicos, de desempeño, de dependencia y por inacción.
Cada uno representa un desafío distinto que exige gobernanza tecnológica, ética aplicada y transparencia operativa.
Gestión del riesgo algorítmico
La nueva gestión empresarial debe incorporar mecanismos de risk management algorítmico: auditorías de datos, comités éticos, trazabilidad de decisiones y protocolos de supervisión humana (human-in-the-loop).
Estas prácticas no solo previenen sanciones, sino que fortalecen la reputación y legitimidad corporativa.
Regulación y cooperación internacional
El marco legal actual es insuficiente. Las leyes deben ser flexibles, evolutivas y globales, equilibrando innovación y protección.
Susskind propone una gobernanza colaborativa entre gobiernos, empresas y organismos internacionales para garantizar un desarrollo responsable y sostenible de la IA.
Conciencia Artificial y Futuro de la Humanidad
El misterio de la conciencia
Aunque los sistemas actuales muestran un rendimiento extraordinario, aún carecen de experiencia subjetiva o emociones.
El debate no debería centrarse en si las máquinas llegarán a ser conscientes, sino en cómo los humanos deben actuar ante esa posibilidad.
Humanismo digital: el nuevo horizonte
Susskind plantea que el propósito final de la inteligencia artificial no debe ser reemplazar la conciencia humana, sino potenciarla.
La IA debe ayudar a resolver los grandes retos de la humanidad, preservando al mismo tiempo los valores que nos definen: empatía, creatividad, justicia y cooperación.
El liderazgo del futuro no será tecnológico ni financiero, sino moral: la capacidad de decidir qué tipo de inteligencia —natural o artificial— queremos que dirija nuestro destino.
Conclusión: Redefiniendo el papel del ser humano
El desafío no es evitar el avance de la inteligencia artificial, sino orientarlo hacia un propósito ético y humano.
Susskind nos recuerda que el futuro dependerá de nuestra capacidad para equilibrar dos fuerzas opuestas:
- Salvar a los humanos gracias a la IA.
- Proteger a los humanos de la IA.
La elección no recae en las máquinas, sino en nosotros.
En nuestras manos está decidir si la inteligencia artificial será la herramienta que amplifique nuestra humanidad o el sistema que la reemplace.
Esa decisión marcará el rumbo moral, económico y existencial del siglo XXI.










