3. La militarización de la inteligencia artificial

Posted on October 14, 2018 by

La lucha por el recurso

La problemática del recurso limitado se encuentra en la base de todo conflicto. Incluso si imaginamos un conflicto que fuese puramente ideológico o religioso, se puede determinar que el control de poblaciones y países es un recurso último en sí mismo. El control de la población servirá al liderazgo de una facción para expandir su poder y lograr sus objetivos, de igual manera que un recurso natural como el petróleo o el oro ayudarán al esfuerzo de guerra. Además de ello, una disputa de recursos es a menudo el desencadenante original de un conflicto; que a menudo conlleva una evolución cultural de confrontación o guerra histórica entre facciones, y no solamente un conflicto aislado.

La guerra eterna

Las sociedades sometidas a conflictos duraderos tienden a desarrollar una evolución cultural hacia la militarización y la radicalización de sus posiciones. Algunos ejemplos de ello son los conflictos de Israel-Palestina, India-Paquistán, la península de Corea, la Guerra Fría, el período de Reconquista en España, etcétera. Es por ello que los conflictos estancados tienen difícil resolución. Hay una internalización cultural del conflicto y del enemigo, que requiere una voluntad grande y honesta de todas las partes implicadas para ser superada. Esto ocurre en raras ocasiones. El proceso de formación de la Unión Europea es una de ellas, pero su validez es cuestionable sin la supervisión de la potencia liberal, en su época dorada, que supuso EE.UU. tras la Segunda Guerra Mundial. Además de las mencionadas barreras histórico-culturales, hay una serie de factores naturales a la consciencia humana, tanto individual como colectiva, que impiden la desmilitarización pactada:

  • La intuición de los riesgos que supondría una mala decisión para nuestra facción, la cual tiene una base matemático-estadística (aunque el estadista es altamente subjetivo y está culturalmente condicionado, por lo tanto es una estimación de riesgo basado en características de la personalidad de un grupo de estadistas con información y conocimiento limitados y sesgados).
  • La inercia originada por la falta de confianza causada por dinámicas competitivas o conflictos. La proyección de futuro se fundamenta en las experiencias sufridas anteriormente. Es por ello que deben existir intercambios cooperativos iniciales antes de poder alcanzar grandes pactos que cambien las reglas del juego.
  • Además, debe existir transparencia que aumente la información sobre lo que está ocurriendo en el otro bando, y que reduzca nuestra incerteza y especulación del riesgo.

El dilema del prisionero

El dilema del prisionero[2] es un problema fundamental de teoría de juegos. Este problema es definitorio de los sistemas de gobernanza internacionales, en cuanto a: (a) la anarquía causada por falta de un sistema central de organización que optimice la decisión más óptima para varios jugadores; (b) la desconfianza basada en la falta de información, así como su relación con el riesgo asumido. En estas condiciones, lo que se conoce como sentido común se aísla. Es un “juego” de suma no nula. El equilibrio de Nash es la situación en la que, en condiciones de información incompleta, se produce un estancamiento que desincentiva el cambio de estrategia para todos los jugadores. Esto imposibilita el desbloqueo de las carreras armamentísticas, entre otras muchas consecuencias políticas.

Tabla 1: Ejemplo de matriz resolutoria del dilema del prisionero.

DILEMA DEL PRISIONERO En función a la posición de los prisioneros frente al dilemaCooperativaNo cooperativa
Cooperativa10 / 101 / 15
No cooperativa15 / 15 / 5 Equilibrio de Nash

La tendencia “No cooperativa” aumenta con la percepción del beneficio comparativo.

El dilema de seguridad

Al mismo tiempo, un incremento de la militarización sin moderación lleva asociado otro riesgo que se conoce como el dilema de seguridad (John H. Herz, 1950). Es decir, un aumento de la capacidad bélica lleva asociado una amenaza inherente al resto de poderes circundantes, que se verán obligados, estratégicamente, a equilibrar estas medidas. Este es el origen, desde el punto de vista sociopolítico, de las carreras armamentísticas. Es especialmente acuciante cuando se desarrollan innovaciones sociales o tecnológicas que suponen una ventaja estratégica decisiva, capaz de crear un hegemón.

La trampa de Tucídides

El dilema del prisionero es el principio que funciona como desencadenante lógico de una carrera armamentística en un ambiente hipercompetitivo o de conflicto activo. El dilema de la seguridad funciona como “combustible” para la misma. Cuando no existe un poder centralizado superior que ejerza como árbitro (escenario anárquico), o una confianza mutua debido a que las intenciones de las facciones son irreconciliables y conflictivas, entonces una carrera armamentística es inevitable; y la probabilidad de guerra aumenta.

El primer análisis histórico de estos acontecimientos fue realizado, de hecho, por el propio padre de la historia moderna. Tucídides, en el siglo V a.C., ya aventuró esta intuición en su narración de la Guerra del Peloponeso: “Fue el ascenso de Atenas y el temor que eso inculcó en Esparta lo que hizo que la guerra fuera inevitable.”

Carrera en el uso armamentístico de la IA

La inteligencia artificial ofrecerá sin duda una ventaja estratégica decisiva. El liderazgo mundial es consciente del poder asociado a esta tecnología. La demografía o el poder previo de una facción pierden relevancia si se expande la inteligencia por medios artificiales. Muestra de ello son las declaraciones al respecto del Presidente de Rusia, Vladimir Putin, durante una reunión con estudiantes en la ciudad de Yaroslavl: “Quién se convierta en líder en esta esfera será dueño del mundo.” (CNN, 2017). Estas declaraciones de uno de los principales líderes de Rusia (país tecnológicamente avanzado, con tendencias revisionistas y con un historial de violación del derecho internacional) son definitorias de la situación actual.

¿Estamos entonces ya en una situación de carrera armamentística? Sin duda, las inversiones y el liderazgo actual apuntan a ello. Aunque, como plantea el analista militar Paul Scharre en su reciente libro Army of None (2019): If it is true, as some have suggested, that a dangerous arms race in autonomous weapons is under way, then it is a strange kind of race. Hay un claro desarrollo en el campo tecnológico y operativo, pero al mismo tiempo algunos de los gobiernos más tecnológicamente competitivos intentan materializar esfuerzos en el control ético de este tipo de armamento; principalmente en lo referente a la autonomía de las máquinas para tomar la decisión de matar. Los gobiernos de las potencias occidentales están limitados por la opinión pública, con tendencias pacifistas. Al mismo tiempo, estas naciones son las potencias económicas mundiales, y la OTAN es la principal potencia militar. Occidente aún tiene ventaja económica y militar como para permitirse límites éticos sin arriesgar su seguridad. No obstante, como ya se ha mencionado, esta diferencia se está acortando rápidamente. Si otras facciones con intenciones revisionistas fuerzan un desarrollo sin límites éticos, es previsible que se reevalúen las prioridades.

Militarización de la inteligencia, un paradigma del siglo XXI

Como experimento mental, imaginémonos que una nación decide implementar un sistema autónomo de gestión de defensa nuclear y balística continental de tal manera que sobrepase las capacidades de operadores humanos… Entonces, sus rivales se verán forzados a la adopción de sistemas similares para no perder la competitividad estratégica. Esta situación podría darse incluso como resultado de información poco fiable de que tal tecnología está de hecho siendo desarrollada por otra facción. Una vez ambas naciones han automatizado sus defensas, nos encontramos ante un equilibrio de Nash. Las dos han aceptado un riesgo innecesario volcando un sistema que no acepta ni un solo accidente, lo cual ha sido imposible implementar hasta ahora, y del que no se tienen precedentes. Si otros actores se suman al “juego”, como es previsible, las probabilidades de que se cree un sistema inestable aumentan al añadir complejidad. Se incurre en un dilema de seguridad de todos porque un jugador no decide aceptar el riesgo de que otras naciones desarrollen primero tal sistema. De llegarse a esta situación, una guerra termonuclear pasaría a ser una eventualidad técnica.

El anterior es una ejemplificación de IA aplicada que llevaría a una catástrofe nuclear eventualmente asegurada, basada en nuestros sistemas actuales. Ejemplos parecidos podrían establecerse para armamento basado en nanotecnología asociada a IA, propagación de virus evolutivos en Internet, algoritmos con la intención de colapsar la economía de un país, software que prediga el comportamiento humano (permitiendo la manipulación social), etcétera. Es imposible prever todas las aplicaciones de la IA con potencial para disrupciones catastróficas de la seguridad internacional. La mente militar del Homo sapiens sapiens, aquello que es en parte nuestra herencia genética y en parte cultural (cuando se automatiza y dota de poder casi ilimitado), lleva el dilema de la seguridad a sus últimas consecuencias lógicas.

De esta forma, la Humanidad sería entonces prisionera de un viejo conocido: “The oldest and strongest emotion of mankind is fear, and the oldest and strongest kind of fear is fear of the unknown.” (Howard P. Lovecraft, 1927).

Notas

[2] El dilema del prisionero es un concepto teórico desarrollado por Merrill Flood y Melvin Dresher como parte de sus trabajos para la RAND Corporation, en 1950. Un ejemplo sería: dos sospechosos se encuentra en prisión preventiva por un crimen conjunto, por  el cual  han sido ya declarados culpables.  Cada uno de ellos puede elegir entre una condena de 10 años de cárcel sin confesión o 5 años si decide confesar. No obstante, si uno de los sospechosos confiesa el crimen y el otro no, el prisionero confeso cumplirá una pena de 15 años y el no confeso cumplirá solamente 1 año.

Leave a Reply

Your email address will not be published. Required fields are marked *