A lo largo de la historia, muchas tradiciones han creído que algún defecto fatal en la naturaleza humana nos tienta a buscar poderes que no sabemos cómo manejar. El mito griego de Faetón habla de un niño que descubre que es hijo de Helios, el dios del sol. Deseando demostrar su origen divino, Faetón exige el privilegio de conducir el carro del sol. Helios advierte a Faetón que ningún humano puede controlar los caballos celestiales que tiran del carro solar. Pero Faetón insiste, hasta que el dios del sol cede. Después de elevarse orgullosamente en el cielo, Faetón pierde el control del carro. El sol se desvía de su curso, quemando toda la vegetación, matando a numerosos seres y amenazando con quemar la Tierra misma. Zeus interviene y golpea a Faetón con un rayo. El humano vanidoso cae del cielo como una estrella fugaz, en llamas. Los dioses reafirman el control del cielo y salvan al mundo.
Dos mil años después, cuando la Revolución Industrial estaba dando sus primeros pasos y las máquinas comenzaban a reemplazar a los humanos en numerosas tareas, Johann Wolfgang von Goethe publicó un cuento con moraleja similar titulado El aprendiz de brujo. El poema de Goethe (más tarde popularizado como una animación de Walt Disney protagonizada por Mickey Mouse) habla de un viejo brujo que deja a un joven aprendiz a cargo de su taller y le encarga algunas tareas que debe realizar mientras él está fuera, como ir a buscar agua al río. El aprendiz decide facilitarse las cosas y, utilizando uno de los hechizos del brujo, encanta una escoba para que le traiga agua. Pero el aprendiz no sabe cómo detener la escoba, que incesantemente va a buscar más y más agua, amenazando con inundar el taller. Presa del pánico, el aprendiz corta la escoba encantada en dos con un hacha, solo para ver cómo cada mitad se convierte en otra escoba. Ahora dos escobas encantadas están inundando el taller de agua. Cuando el viejo hechicero regresa, el aprendiz pide ayuda: “Ya no puedo librarme de los espíritus que invoqué”. El hechicero rompe inmediatamente el hechizo y detiene la inundación. La lección para el aprendiz –y para la humanidad– es clara: nunca invoques poderes que no puedas controlar.
¿Qué nos dicen las fábulas aleccionadoras del aprendiz y de Faetón en el siglo XXI? Es evidente que los humanos nos hemos negado a prestar atención a sus advertencias. Ya hemos desequilibrado el clima de la Tierra y hemos convocado a miles de millones de escobas encantadas, drones, chatbots y otros espíritus algorítmicos que pueden escapar a nuestro control y desatar un aluvión de consecuencias. ¿Qué debemos hacer, entonces? Las fábulas no ofrecen respuestas, salvo esperar a que algún dios o hechicero nos salve.
El mito de Faetón y el poema de Goethe no ofrecen consejos útiles porque malinterpretan la forma en que los humanos obtienen poder. En ambas fábulas, un solo humano adquiere un poder enorme, pero luego es corrompido por la arrogancia y la codicia. La conclusión es que nuestra psicología individual defectuosa nos hace abusar del poder. Lo que este análisis burdo pasa por alto es que el poder humano nunca es el resultado de la iniciativa individual. El poder siempre surge de la cooperación entre un gran número de humanos. En consecuencia, no es nuestra psicología individual la que nos lleva a abusar del poder. Después de todo, junto con la avaricia, la arrogancia y la crueldad, los humanos también son capaces de amar, compadecerse, ser humildes y alegrarse. Es cierto que entre los peores miembros de nuestra especie, la avaricia y la crueldad reinan supremas y llevan a los malos actores a abusar del poder. Pero ¿por qué las sociedades humanas elegirían confiar el poder a sus peores miembros? La mayoría de los alemanes en 1933, por ejemplo, no eran psicópatas. Entonces, ¿por qué votaron a Hitler?
Nuestra tendencia a invocar poderes que no podemos controlar no se debe a la psicología individual, sino a la forma única en que nuestra especie coopera en grandes cantidades. La humanidad obtiene un poder enorme construyendo grandes redes de cooperación, pero la forma en que están construidas nuestras redes nos predispone a usar el poder de manera imprudente, ya que la mayoría de nuestras redes se han construido y mantenido difundiendo ficciones, fantasías y delirios colectivos, que van desde escobas encantadas hasta sistemas financieros. Nuestro problema, entonces, es un problema de red. En concreto, es un problema de información, ya que la información es el pegamento que mantiene unidas las redes, y cuando a las personas se les suministra información errónea, es probable que tomen malas decisiones, sin importar cuán sabias y amables sean personalmente.
En las últimas generaciones, la humanidad ha experimentado el mayor aumento de su historia, tanto en la cantidad como en la velocidad de nuestra producción de información. Cada teléfono inteligente contiene más información que la antigua Biblioteca de Alejandría y permite a su propietario conectarse instantáneamente con miles de millones de personas de todo el mundo. Sin embargo, con toda esta información circulando a velocidades vertiginosas, la humanidad está más cerca que nunca de aniquilarse a sí misma.
A pesar de nuestra enorme cantidad de datos (o quizás debido a ellos), seguimos arrojando gases de efecto invernadero a la atmósfera, contaminando ríos y océanos, talando bosques, destruyendo hábitats enteros, llevando a la extinción a innumerables especies y poniendo en peligro los cimientos ecológicos de nuestra propia especie. También estamos produciendo armas de destrucción masiva cada vez más poderosas, desde bombas termonucleares hasta virus catastróficos. Nuestros líderes no carecen de información sobre estos peligros, pero en lugar de colaborar para encontrar soluciones, se están acercando cada vez más a una guerra global.
¿Disponer de más información mejoraría las cosas (o las empeoraría)? Pronto lo sabremos. Numerosas corporaciones y gobiernos compiten por desarrollar la tecnología de la información más poderosa de la historia: la IA. Algunos empresarios destacados, como el inversor estadounidense Marc Andreessen, creen que la IA resolverá finalmente todos los problemas de la humanidad. El 6 de junio de 2023, Andreessen publicó un ensayo titulado Por qué la IA salvará el mundo , salpicado de afirmaciones audaces como: “Estoy aquí para traer la buena noticia: la IA no destruirá el mundo y, de hecho, puede salvarlo”. Concluía: “El desarrollo y la proliferación de la IA, lejos de ser un riesgo que debamos temer, es una obligación moral que tenemos con nosotros mismos, con nuestros hijos y con nuestro futuro”.
Otros son más escépticos. No sólo filósofos y científicos sociales, sino también muchos expertos y empresarios de primera línea en IA, como Yoshua Bengio, Geoffrey Hinton, Sam Altman, Elon Musk y Mustafa Suleyman, han advertido de que la IA podría destruir nuestra civilización. En una encuesta realizada en 2023 a 2.778 investigadores de IA, más de un tercio dio al menos un 10% de posibilidades de que la IA avanzada condujera a resultados tan nefastos como la extinción humana. El año pasado, cerca de 30 gobiernos –incluidos los de China, Estados Unidos y el Reino Unido– firmaron la declaración de Bletchley sobre IA , que reconocía que “existe potencial de daños graves, incluso catastróficos, ya sea deliberados o no intencionados, derivados de las capacidades más significativas de estos modelos de IA”. Al utilizar términos tan apocalípticos, los expertos y los gobiernos no pretenden evocar una imagen hollywoodense de robots rebeldes corriendo por las calles y disparando a la gente. Semejante escenario es poco probable y no hace más que distraer a la gente de los peligros reales.
La IA es una amenaza sin precedentes para la humanidad porque es la primera tecnología de la historia que puede tomar decisiones y crear nuevas ideas por sí sola. Todas las invenciones humanas anteriores han empoderado a los humanos, porque no importa cuán poderosa sea la nueva herramienta, las decisiones sobre su uso siguen estando en nuestras manos. Las bombas nucleares no deciden por sí mismas a quién matar, ni pueden mejorarse a sí mismas o inventar bombas aún más poderosas. En cambio, los drones autónomos pueden decidir por sí mismos a quién matar, y las IA pueden crear nuevos diseños de bombas, estrategias militares sin precedentes y mejores IA. La IA no es una herramienta, es un agente. La mayor amenaza de la IA es que estamos convocando a la Tierra a innumerables agentes nuevos y poderosos que son potencialmente más inteligentes e imaginativos que nosotros, y que no comprendemos ni controlamos del todo.
Tradicionalmente, el término “IA” se ha utilizado como acrónimo de inteligencia artificial, pero quizá sea mejor pensar en él como un acrónimo de inteligencia alienígena. A medida que la IA evoluciona, se vuelve menos artificial (en el sentido de que depende de diseños humanos) y más alienígena. Mucha gente intenta medir e incluso definir la IA utilizando la métrica de la “inteligencia a nivel humano”, y existe un intenso debate sobre cuándo podemos esperar que la IA la alcance. Esta métrica es profundamente engañosa. Es como definir y evaluar aviones a través de la métrica del “vuelo a nivel de pájaro”. La IA no está progresando hacia una inteligencia a nivel humano, sino que está desarrollando un tipo de inteligencia alienígena.
Incluso en el momento actual, en la etapa embrionaria de la revolución de la IA, los ordenadores ya toman decisiones sobre nosotros: si nos dan una hipoteca, si nos contratan para un trabajo, si nos envían a prisión. Mientras tanto, las IA generativas como GPT-4 ya crean nuevos poemas, historias e imágenes. Esta tendencia no hará más que aumentar y acelerarse, haciendo más difícil comprender nuestras propias vidas. ¿Podemos confiar en los algoritmos informáticos para que tomen decisiones sabias y creen un mundo mejor? Es una apuesta mucho mayor que confiar en una escoba encantada para que traiga agua. Y no se trata sólo de vidas humanas. La IA ya es capaz de producir arte y hacer descubrimientos científicos por sí sola. En las próximas décadas, es probable que adquiera la capacidad incluso de crear nuevas formas de vida, ya sea escribiendo un código genético o inventando un código inorgánico que anime entidades inorgánicas. Por tanto, la IA podría alterar el curso no sólo de la historia de nuestra especie, sino de la evolución de todas las formas de vida.
METROUstafa Suleyman es un experto mundial en el tema de la IA. Es el cofundador y ex director de DeepMind, una de las empresas de IA más importantes del mundo, responsable del desarrollo del programa AlphaGo, entre otros logros. AlphaGo fue diseñado para jugar al Go, un juego de mesa de estrategia en el que dos jugadores intentan derrotarse entre sí rodeando y capturando territorio. Inventado en la antigua China, el juego es mucho más complejo que el ajedrez. En consecuencia, incluso después de que las computadoras derrotaran a los campeones mundiales de ajedrez humanos, los expertos seguían creyendo que las computadoras nunca superarían a la humanidad en el Go.
Por eso, tanto los profesionales del Go como los expertos en informática quedaron atónitos en marzo de 2016 cuando AlphaGo derrotó al campeón surcoreano de Go, Lee Sedol. En su libro The Coming Wave (2023 ), Suleyman describe uno de los momentos más importantes de su partida, un momento que redefinió la IA y que muchos círculos académicos y gubernamentales reconocen como un punto de inflexión crucial en la historia. Ocurrió durante la segunda partida del partido, el 10 de marzo de 2016.
“Luego llegó la jugada número 37”, escribe Suleyman. “No tenía sentido. AlphaGo aparentemente había metido la pata, siguiendo ciegamente una estrategia aparentemente perdedora que ningún jugador profesional jamás seguiría. Los comentaristas de la partida en vivo, ambos profesionales del más alto rango, dijeron que era una “jugada muy extraña” y pensaron que era “un error”. Fue tan inusual que Sedol tardó 15 minutos en responder e incluso se levantó del tablero para dar un paseo. Mientras observábamos desde nuestra sala de control, la tensión era irreal. Sin embargo, a medida que se acercaba el final, esa jugada “errónea” resultó crucial. AlphaGo ganó de nuevo. La estrategia de Go se estaba reescribiendo ante nuestros ojos. Nuestra IA había descubierto ideas que no se les habían ocurrido a los jugadores más brillantes en miles de años”.
El movimiento 37 es un emblema de la revolución de la IA por dos razones. En primer lugar, demostró la naturaleza alienígena de la IA. En el este de Asia, el Go se considera mucho más que un juego: es una tradición cultural muy apreciada. Durante más de 2.500 años, decenas de millones de personas han jugado al Go y se han desarrollado escuelas de pensamiento enteras en torno al juego, que propugnan diferentes estrategias y filosofías. Sin embargo, durante todos esos milenios, las mentes humanas han explorado solo ciertas áreas del paisaje del Go. Otras áreas quedaron intactas, porque las mentes humanas simplemente no pensaron en aventurarse allí. La IA, al estar libre de las limitaciones de las mentes humanas, descubrió y exploró estas áreas previamente ocultas.
En segundo lugar, la jugada 37 demostró lo inescrutable que es la IA. Incluso después de que AlphaGo la utilizara para lograr la victoria, Suleyman y su equipo no pudieron explicar cómo AlphaGo decidió utilizarla. Incluso si un tribunal hubiera ordenado a DeepMind que le proporcionara una explicación a Sedol, nadie podría cumplir esa orden. Suleyman escribe: “En la IA, las redes neuronales que avanzan hacia la autonomía no son, en la actualidad, explicables. No se puede guiar a alguien a través del proceso de toma de decisiones para explicar con precisión por qué un algoritmo produjo una predicción específica. Los ingenieros no pueden mirar debajo del capó y explicar fácilmente con gran detalle qué causó que algo sucediera. GPT‑4, AlphaGo y el resto son cajas negras, sus resultados y decisiones se basan en cadenas opacas e imposiblemente intrincadas de señales diminutas”.
El ascenso de una inteligencia extraterrestre insondable plantea una amenaza para todos los seres humanos y, en particular, para la democracia. Si cada vez más decisiones sobre la vida de las personas se toman en una caja negra, de modo que los votantes no puedan entenderlas ni cuestionarlas, la democracia deja de funcionar. En particular, ¿qué sucede cuando decisiones cruciales no solo sobre vidas individuales sino también sobre asuntos colectivos, como la tasa de interés de la Reserva Federal, se toman mediante algoritmos inescrutables? Los votantes humanos pueden seguir eligiendo a un presidente humano, pero ¿no sería esto una ceremonia vacía? Incluso hoy, solo una pequeña fracción de la humanidad comprende verdaderamente el sistema financiero. Una encuesta realizada en 2014 a parlamentarios británicos, encargados de regular uno de los centros financieros más importantes del mundo, concluyó que solo el 12% entendía con precisión que se crea dinero nuevo cuando los bancos otorgan préstamos. Este hecho es uno de los principios más básicos del sistema financiero moderno. Como lo indicó la crisis financiera de 2007-2008, algunos mecanismos y principios financieros complejos solo eran inteligibles para unos pocos magos financieros. ¿Qué pasa con la democracia cuando las IA crean dispositivos financieros aún más complejos y cuando el número de humanos que entienden el sistema financiero cae a cero?
Si traducimos la fábula moralizante de Goethe al lenguaje de las finanzas modernas, imaginemos el siguiente escenario: un aprendiz de Wall Street harto de la monotonía del taller financiero crea una IA llamada Broomstick, le proporciona un millón de dólares de capital inicial y le ordena que gane más dinero. Para la IA, las finanzas son el terreno de juego ideal, ya que se trata de un ámbito puramente informativo y matemático. A las IA todavía les resulta difícil conducir un coche de forma autónoma, porque para ello es necesario moverse e interactuar en el caótico mundo físico, donde el “éxito” es difícil de definir. En cambio, para realizar transacciones financieras, la IA sólo necesita tratar con datos y puede medir fácilmente su éxito matemáticamente en dólares, euros o libras. Más dólares: misión cumplida.
En su búsqueda de más dólares, Broomstick no sólo diseña nuevas estrategias de inversión, sino que se le ocurren dispositivos financieros completamente nuevos en los que ningún ser humano ha pensado jamás. Durante miles de años, las mentes humanas han explorado sólo ciertas áreas del panorama financiero. Inventaron el dinero, los cheques, los bonos, las acciones, los ETF, los CDO y otros elementos de la hechicería financiera. Pero muchas áreas financieras quedaron intactas, porque las mentes humanas simplemente no pensaron en aventurarse allí. Broomstick, al estar libre de las limitaciones de las mentes humanas, descubre y explora estas áreas previamente ocultas, haciendo movimientos financieros que son el equivalente al movimiento 37 de AlphaGo.
Durante un par de años, mientras Broomstick conduce a la humanidad hacia un territorio financiero virgen, todo parece maravilloso. Los mercados se disparan, el dinero fluye sin esfuerzo y todos están contentos. Luego llega una crisis mayor que la de 1929 o 2008. Pero ningún ser humano –ni presidente, ni banquero, ni ciudadano– sabe qué la causó ni qué se puede hacer al respecto. Como ni dios ni hechicero vienen a salvar el sistema financiero, los gobiernos desesperados piden ayuda a la única entidad capaz de entender lo que está sucediendo: Broomstick. La IA hace varias recomendaciones de políticas, mucho más audaces que la flexibilización cuantitativa –y mucho más opacas también. Broomstick promete que estas políticas salvarán el día, pero los políticos humanos –incapaces de entender la lógica detrás de las recomendaciones de Broomstick– temen que puedan desmantelar por completo el tejido financiero e incluso social del mundo. ¿Deberían escuchar a la IA?
Los ordenadores aún no son lo suficientemente potentes como para escapar por completo a nuestro control o destruir la civilización humana por sí solos. Mientras la humanidad se mantenga unida, podremos construir instituciones que regulen la IA, ya sea en el campo de las finanzas o en el de la guerra. Desafortunadamente, la humanidad nunca ha estado unida. Siempre hemos estado plagados de malos actores, así como de desacuerdos entre buenos actores. El auge de la IA plantea un peligro existencial para la humanidad, no por la malevolencia de los ordenadores, sino por nuestras propias deficiencias.
Así, un dictador paranoico podría otorgarle a una IA falible un poder ilimitado, incluido el de lanzar ataques nucleares. Si la IA comete un error o empieza a perseguir un objetivo inesperado, el resultado podría ser catastrófico, y no sólo para ese país. De manera similar, los terroristas podrían utilizar la IA para instigar una pandemia global. Los propios terroristas pueden tener pocos conocimientos de epidemiología, pero la IA podría sintetizar para ellos un nuevo patógeno, encargarlo a laboratorios comerciales o imprimirlo en impresoras biológicas 3D y diseñar la mejor estrategia para propagarlo por todo el mundo, a través de aeropuertos o cadenas de suministro de alimentos. ¿Qué pasaría si la IA sintetizara un virus que fuera tan mortal como el ébola, tan contagioso como el Covid-19 y de acción tan lenta como el VIH? Para cuando las primeras víctimas empiecen a morir y el mundo esté alerta del peligro, la mayoría de la gente de la Tierra podría ya haber sido infectada.
La civilización humana también podría verse devastada por armas de destrucción masiva social, como historias que socavan nuestros vínculos sociales. Una IA desarrollada en un país podría utilizarse para desatar un diluvio de noticias falsas, dinero falso y seres humanos falsos, de modo que la gente de muchos otros países pierda la capacidad de confiar en algo o en alguien.
Muchas sociedades –tanto democracias como dictaduras– pueden actuar responsablemente para regular esos usos de la IA, acabar con los malos actores y limitar las peligrosas ambiciones de sus propios gobernantes y fanáticos. Pero si tan solo un puñado de sociedades no lo hacen, esto podría ser suficiente para poner en peligro a toda la humanidad. El cambio climático puede devastar incluso a los países que adoptan excelentes regulaciones ambientales, porque es un problema global y no nacional. La IA también es un problema global. Por lo tanto, para entender la nueva política informática, no basta con examinar cómo podrían reaccionar a la IA las sociedades discretas. También tenemos que considerar cómo la IA podría cambiar las relaciones entre las sociedades a nivel global.
En el siglo XVI, cuando los conquistadores españoles, portugueses y holandeses estaban construyendo los primeros imperios globales de la historia, llegaron con barcos de vela, caballos y pólvora. Cuando los británicos, rusos y japoneses hicieron sus apuestas por la hegemonía en los siglos XIX y XX, confiaron en los barcos de vapor, las locomotoras y las ametralladoras. En el siglo XXI, para dominar una colonia, ya no es necesario enviar cañoneras. Es necesario extraer los datos. Unas pocas corporaciones o gobiernos que recopilen los datos del mundo podrían transformar el resto del planeta en colonias de datos: territorios que controlen no con una fuerza militar abierta, sino con información.
Imaginemos una situación en la que, dentro de 20 años, alguien de Pekín o de San Francisco posea el historial personal completo de todos los políticos, periodistas, coroneles y directores ejecutivos de nuestro país: todos los mensajes de texto que hayan enviado, todas las búsquedas en Internet que hayan realizado, todas las enfermedades que hayan padecido, todos los encuentros sexuales que hayan disfrutado, todos los chistes que hayan contado, todos los sobornos que hayan aceptado. ¿Seguiríamos viviendo en un país independiente o ahora viviríamos en una colonia de datos? ¿Qué sucederá cuando nuestro país se vea totalmente dependiente de infraestructuras digitales y sistemas impulsados por inteligencia artificial sobre los que no tenga ningún control efectivo?
Por lo tanto, la IA y la automatización plantean un desafío particular a los países en desarrollo más pobres. En una economía global impulsada por la IA, los líderes digitales se adjudican la mayor parte de los beneficios y podrían utilizar su riqueza para capacitar a su fuerza laboral y obtener aún más ganancias. Mientras tanto, el valor de los trabajadores no calificados en los países rezagados disminuirá, lo que hará que se queden aún más atrás. El resultado podría ser una gran cantidad de nuevos empleos y una inmensa riqueza en San Francisco y Shanghái, mientras que muchas otras partes del mundo enfrentan la ruina económica. Según la firma de contabilidad global PricewaterhouseCoopers , se espera que la IA agregue 15,7 billones de dólares (12,3 billones de libras) a la economía global para 2030. Pero si las tendencias actuales continúan, se proyecta que China y América del Norte, las dos principales superpotencias de la IA, se llevarán juntas el 70% de ese dinero.
Durante la Guerra Fría, la cortina de hierro en muchos lugares estaba hecha literalmente de metal: alambres de púas separaban un país de otro. Ahora el mundo está cada vez más dividido por la cortina de silicio. El código de tu teléfono inteligente determina de qué lado de la cortina de silicio vives, qué algoritmos gobiernan tu vida, quién controla tu atención y hacia dónde fluyen tus datos.
Cada vez es más difícil acceder a la información a través de la cortina de silicio, por ejemplo entre China y Estados Unidos, o entre Rusia y la UE. Además, cada vez más ambas partes funcionan en redes digitales diferentes y utilizan códigos informáticos diferentes. En China no se puede utilizar Google o Facebook y no se puede acceder a Wikipedia. En Estados Unidos, pocas personas utilizan las principales aplicaciones chinas como WeChat. Y lo que es más importante, las dos esferas digitales no son imágenes especulares una de la otra. Baidu no es el Google chino. Alibaba no es el Amazon chino. Tienen objetivos diferentes, arquitecturas digitales diferentes y diferentes impactos en la vida de las personas. Estas diferencias influyen en gran parte del mundo, ya que la mayoría de los países dependen del software chino y estadounidense en lugar de la tecnología local.
Estados Unidos también presiona a sus aliados y clientes para que eviten el hardware chino, como la infraestructura 5G de Huawei. La administración Trump bloqueó un intento de la corporación singapurense Broadcom de comprar el principal productor estadounidense de chips de computadora, Qualcomm, por temor a que los extranjeros pudieran insertar puertas traseras en los chips o impedir que el gobierno estadounidense insertara sus propias puertas traseras allí. Tanto la administración Trump como la de Biden han impuesto límites estrictos al comercio de chips informáticos de alto rendimiento necesarios para el desarrollo de la IA. Las empresas estadounidenses ahora tienen prohibido exportar esos chips a China. Si bien a corto plazo esto obstaculiza a China en la carrera de la IA, a largo plazo empuja a China a desarrollar una esfera digital completamente separada que será distinta de la esfera digital estadounidense incluso en sus edificios más pequeños.
Por lo tanto, las dos esferas digitales pueden distanciarse cada vez más. Durante siglos, las nuevas tecnologías de la información impulsaron el proceso de globalización y acercaron a personas de todo el mundo a un contacto más estrecho. Paradójicamente, la tecnología de la información actual es tan poderosa que puede dividir a la humanidad al encerrar a diferentes personas en capullos de información separados, poniendo fin a la idea de una única realidad humana compartida. Durante décadas, la metáfora maestra del mundo fue la web. La metáfora maestra de las próximas décadas podría ser el capullo.
Si bien China y Estados Unidos son actualmente los líderes en la carrera de la IA, no están solos. Otros países o bloques, como la UE, India, Brasil y Rusia, pueden intentar crear sus propios capullos digitales, cada uno influenciado por diferentes tradiciones políticas, culturales y religiosas. En lugar de estar dividido entre dos imperios globales, el mundo podría estar dividido entre una docena de imperios.
Cuanto más compiten entre sí los nuevos imperios, mayor es el peligro de un conflicto armado. La guerra fría entre Estados Unidos y la URSS nunca llegó a una confrontación militar directa, en gran medida gracias a la doctrina de la destrucción mutua asegurada. Pero el peligro de escalada en la era de la IA es mayor, porque la guerra cibernética es inherentemente diferente de la guerra nuclear.
Las armas cibernéticas pueden derribar la red eléctrica de un país, pero también pueden utilizarse para destruir una instalación de investigación secreta, interferir un sensor enemigo, inflamar un escándalo político, manipular elecciones o piratear un solo teléfono inteligente. Y pueden hacer todo eso de manera sigilosa. No anuncian su presencia con una nube de hongo y una tormenta de fuego, ni dejan un rastro visible desde la plataforma de lanzamiento hasta el objetivo. En consecuencia, a veces es difícil saber si se produjo un ataque o quién lo lanzó. Por lo tanto, la tentación de iniciar una ciberguerra limitada es grande, y también lo es la tentación de intensificarla.
Una segunda diferencia crucial se refiere a la previsibilidad. La guerra fría era como un juego de ajedrez hiperracional y la certeza de destrucción en caso de conflicto nuclear era tan grande que el deseo de iniciar una guerra era proporcionalmente pequeño. La guerra cibernética carece de esta certeza. Nadie sabe con certeza dónde ha colocado cada bando sus bombas lógicas, caballos de Troya y malware. Nadie puede estar seguro de si sus propias armas realmente funcionarían cuando se las necesitara. ¿Los misiles chinos dispararían cuando se diera la orden o tal vez los estadounidenses los habrían pirateado a ellos o a la cadena de mando? ¿Funcionarían los portaaviones estadounidenses como se esperaba o tal vez se apagarían misteriosamente o darían vueltas en círculos?
Esa incertidumbre socava la doctrina de la destrucción mutua asegurada. Una de las partes podría convencerse –con razón o sin ella– de que puede lanzar un primer ataque con éxito y evitar una represalia masiva. Peor aún, si una de las partes cree que tiene esa oportunidad, la tentación de lanzar un primer ataque podría volverse irresistible, porque nunca se sabe cuánto tiempo permanecerá abierta la ventana de oportunidad. La teoría de juegos postula que la situación más peligrosa en una carrera armamentista es cuando una de las partes siente que tiene una ventaja pero que esa ventaja se le está escapando.
Incluso si la humanidad evita el peor escenario posible de una guerra global, el surgimiento de nuevos imperios digitales aún podría poner en peligro la libertad y la prosperidad de miles de millones de personas. Los imperios industriales de los siglos XIX y XX explotaron y reprimieron a sus colonias, y sería temerario esperar que los nuevos imperios digitales se comporten mucho mejor. Además, si el mundo está dividido en imperios rivales, es poco probable que la humanidad coopere para superar la crisis ecológica o para regular la IA y otras tecnologías disruptivas como la bioingeniería.
La división del mundo en imperios digitales rivales coincide con la visión política de muchos líderes que creen que el mundo es una jungla, que la relativa paz de las últimas décadas ha sido una ilusión y que la única opción real es jugar el papel de depredador o de presa.
Si se les presentase esa opción, la mayoría de los líderes preferirían pasar a la historia como depredadores y añadir sus nombres a la sombría lista de conquistadores que los desafortunados alumnos están condenados a memorizar para sus exámenes de historia. Sin embargo, a estos líderes se les debería recordar que hay un nuevo depredador alfa en la jungla. Si la humanidad no encuentra una manera de cooperar y proteger nuestros intereses compartidos, todos seremos presa fácil de la IA.
Este es un extracto editado de Nexus: A Brief History of Information Networks from the Stone Age to AI de Yuval Noah Harari, publicado por Fern Press el 10 de septiembre a £28. Para apoyar a The Guardian y Observer, pide tu copia en guardianbookshop.com . Pueden aplicarse cargos de envio.