5. La solución al conflicto de la inteligencia como recurso natural

Un viejo conflicto, un nuevo teatro

La evolución de un sistema internacional anárquico (con actores con intenciones competitivas carentes de regulación o en situación de conflicto abierto) generará un sistema inestable, que será susceptible de ser catastrófico si ciertos grupos de tecnologías y procesos socioeconómicos se vuelcan en sistemas autónomos. Se trata de procesos sociales que nos llevan a situaciones estructuralmente inestables asociados a conceptos ideológicos que no admiten un acuerdo de mínimos entre actores; en casos extremos, aquellos que buscan el control social absoluto o promueven la aniquilación. Por lo tanto, el problema es en raíz el que siempre ha sido. La diferencia fundamental es que los sistemas que pueden llevarlo a la práctica son más sutiles y fáciles de ocultar. Un grupo terrorista o un rogue state podrán desarrollar software inteligente con fines catastróficos o absolutistas en instalaciones pequeñas, sin levantar sospecha. Resolver el conflicto de la inteligencia como recurso natural es de vital importancia para la supervivencia de nuestra especie.

La inteligencia artificial es una herramienta ofensiva potente, porque busca activamente maneras de penetrar las defensas del adversario, pero al mismo tiempo sirve para proteger sistemas. La solución al problema del conflicto de intenciones (llevado al límite) es el del acuerdo de una ética global. Es posible que la voluntad de resolverlo sólo nazca a medida que las consecuencias de nuestras diferencias se hagan más y más evidentes, al ser automatizadas y proyectadas al límite. Al llevar nuestros conflictos a la esfera digital, creando un sistema de facto sometido a prueba, se mostrarán las inconsistencias lógicas internas y los factores desestabilizantes. Habrá que asegurarse de que este proceso no se desarrolla en el campo físico al mismo tiempo, sino como ejercicio teórico o como simulación previa. Si bien el caos social es inevitable desde una perspectiva matemática, sí puede ser gestionado y equilibrado. El clima es caótico, pero puede predecirse estadísticamente (aunque de momento no puede ser alterado). Nuestros cerebros y mecanismos sociales sí nos permiten modificar nuestro comportamiento y ajustarlo a la nueva información disponible y a los problemas identificados.

Huida hacia adelante

El potencial de esta tecnología nos obliga a proyectar planes detallados para el futuro, que sólo podrán ser llevados a cabo si son compartidos por una gran mayoría de la Humanidad. Deberemos someter a escrutinio las contradicciones y dogmatismos de nuestros modelos sociales porque estos incrementan el riesgo y la tendencia a la inestabilidad en una sociedad global crecientemente automatizada y dependiente de la IA. El resultado será una ética global que haya evolucionado para adaptarse a este ambiente, que es un conflicto de objetivos. Y al cambiar la ética global para ser más acorde a todos nosotros, la propia naturaleza del conflicto se minimiza, ya que la IA es un espejo de nuestras propias intenciones. La confianza, siendo la única vía real para la reducción de la intensidad de un conflicto, procede en su sentido más profundo de un entendimiento mutuo de las partes; aunque este debe también estar acompañado de empatía, que es una característica de la Humanidad (no inherente a la inteligencia).

La idea de abandonar el desarrollo tecnológico ante la posibilidad de grandes riesgos es tentadora cuando no se tienen todas las respuestas a los peligros, pero no es realista. Dejando de lado el coste humano que supondría un sistema social tan controlador y dogmático que impidiese efectivamente el desarrollo tecnológico a escala global, existen otros riesgos asociados a tal abandono. Las tormentas solares, asteroides o supervolcanes son eventualidades de la vida en la Tierra que tienen impacto de escala civilizacional. A ello hay que añadir nuestra propia capacidad de destrucción con la tecnología actual. Es evidente que nuestra civilización global es inestable. Un ejemplo: se ha evitado el abismo termonuclear, por escaso margen y en diferentes incidentes, en tan solo 75 años de Historia desde la creación de la bomba atómica; aun cuando sólo unas pocas facciones controlan esta tecnología…

Estrategias para la solución del problema de la competencia ilimitada

Por suerte, muchas de las estrategias de cooperación son inherentes a la naturaleza. Además, existen una gran variedad de estrategias propuestas por académicos de diversos campos para fomentar la cooperación en el ámbito humano.

El estudio de la cooperación es recurrente. Por ser un factor natural observable, ha captado la atención de intelectuales a través de la Historia. Es decir, surge de la curiosidad y de manera espontánea. En la Historia moderna es una rama más de la biología y la sociología, aunque su estudio se está volviendo más multidisciplinar y objeto de investigaciones psicológicas, filosóficas, físicas, de ciencias de la computación… La presente investigación es parte de esta tendencia.

Uno de los trabajos más significativos es el del científico en ciencias políticas Robert Axelrod. En su libro The Evolution of Cooperation (1984), investiga los fundamentos de la cooperación a través de la evolución de programas que simulaban poblaciones en ecosistemas con recursos limitados. Sus descubrimientos son extensos, pero algunas ideas sencillas subyacen: el denominado recurso lógico TIT for TAT, tan simple e intuitivo como acción inicial seguida de reciprocidad, quedó consolidado como principio básico para la construcción de la cooperación. Aunque algunos programas algo más complejos conseguían mejorar los resultados cooperativos, estos también estaban basados en configuraciones simples. Añadir complejidad y sofisticación a los algoritmos no es una cualidad inherentemente positiva en la mejora de la dinámica cooperativa.

Uno de los problemas inherentes a la cooperación natural es la aparición de jugadores no cooperativos. Un jugador no cooperativo compromete las estructuras cooperativas aprovechándose de un sistema que cede recursos (conscientemente o no, y generando una situación más beneficiosa para el conjunto de las partes). En la naturaleza, esto se resuelve por selección natural: un parásito puede matar al huésped, incluso eliminando su propio sustento, pero esto mismo puede provocar la supervivencia de la asociación parásito-huésped que no sea letal (un compromiso), que será entonces ventajosa frente a otras relaciones parásito-huésped que lleven a la muerte o estagnación de ambos organismos. Este sería sólo un ejemplo de las muy variadas situaciones que se encuentran en la naturaleza. Además, y afortunadamente, nuestras sociedades no se limitan a la supervivencia y a la lucha depredador-presa. Creamos nuestras propias grúas; como en el caso del buen arte, que transforma la consciencia colectiva de una generación.

En su libro Destined for War (2017), Graham Allison ofrecía mediante ejemplos históricos, 12 circunstancias que han ayudado a la distribución de poder entre naciones de manera pacífica; estudiando aquellas transiciones de la hegemonía mundial que se habían resuelto sin guerra. Es decir, transiciones en las que se había evitado la Trampa de Tucídides. Aquellos factores identificados como estabilizantes son:

  • Una autoridad central compartida puede ayudar a resolver el problema.
  • Los procesos de integración en grandes realidades económicas, políticas y de seguridad evitan comportamientos históricos conflictivos.
  • Aceptar las realidades políticas de la distribución de poder.
  • Aprovechar los momentos adecuados.
  • Compartir una base cultural común.
  • Aceptar los paradigmas de las nuevas tecnologías.
  • La Mutually assured destruction (MAD) es realmente disuasoria.
  • La guerra convencional ya no es una opción estratégica racional.
  • Los líderes de potencias tecnológicas deben estar dispuestos a arriesgarse a una guerra que pueden perder para que la disuasión funcione.
  • La interdependencia económica minimiza el riesgo de conflicto.
  • La interdependencia de alianzas puede ser una causa de escalada de conflicto.
  • La influencia externa tiene que ser comedida a la capacidad de la nación.

Estas circunstancias son útiles para el análisis histórico de conflictos entre naciones, aunque algunas de ellas se ven bloqueadas en un escenario de proliferación de armas de destrucción masiva donde la inestabilidad del sistema aumenta.

David E. Hoffman, en su crónica sobre la Guerra Fría titulada The Dead Hand (2009), registraba las aterradoras realidades de la carrera armamentística (con tecnología actualmente obsoleta) previa a la caída de la Unión Soviética. A pesar de todo, la Guerra Fría fue un éxito al derivar la competencia a otros campos no armamentísticos, como la pugna por la carrera espacial o el liderazgo académico. Un mundo libre de competencia es una utopía, pero no lo es, por ejemplo, la consecución de un mundo libre de armamento nuclear. Lo cual no sucederá automáticamente sin la eliminación de ciertas dinámicas sociales.

En cuanto a las reglas intrínsecas a la IA, existen muchos planteamientos para resolver el problema de alineamiento de valores de la IA. Los principios de Stuart J. Russell son básicos, y en sí mismos definen el problema. Para ser segura, cualquier IA debe ser creada, al menos, con estas tres características:

  • Ser puramente altruista, incluyendo instinto de supervivencia.
  • Operar con objetivos inciertos; con un grado de incerteza acerca de sus objetivos que le haga dudar de cada paso.
  • Que aprenda observando el comportamiento humano; aunque la imitación literal es desaconsejable, un aprendizaje basado en nuestra conducta es necesario.

Una IA potente sin estas características no es segura para ser liberada; y tampoco segura para ser contenida.

Una observación relevante acerca de la segunda de estas leyes es la similitud entre el dogmatismo humano y el “dogmatismo artificial”. Las ideologías con objetivos (como la supremacía religiosa) que se propagan meméticamente a través del adoctrinamiento dogmático (opuesto a la evidencia científica), presentan riesgos análogos a los de la IA no segura.

La creación de valor

Paradójicamente, la que va a ser nuestra tecnología computacional más desarrollada, tradicionalmente acusada de fría y vacía de esencia humana, devuelve la discusión al campo de las humanidades. El estudio filosófico de la creación, categorización y distribución de valor, que acaba conformando el orden de prioridades y la motivación psicológica (Jordan Peterson, 1999), se vuelve una pieza central en la estabilización de la IA aplicada.

En cualquier caso, los procesos psicológicos que bloquean la empatía, como el proceso denominado othering, son esfuerzos contrarios al proceso social de mejora de la seguridad internacional descrito en la presente investigación. Estos procesos sociales, aunque no impiden técnicamente todo esfuerzo de reciprocidad, sí impiden la confianza.

Se puede establecer que la estrategia última para abordar la cuestión pasa por el entendimiento del problema, y concluir que confrontar estas realidades y buscar soluciones realistas es inevitable. La sentencia del prisionero aun no está escrita: So, first of all, let me assert my firm belief that the only thing we have to fear is fear itself-nameless, unreasoning, unjustified terror which paralyzes needed efforts to convert retreat into advance. (Franklin D. Roosevelt, 1933).

Las instituciones públicas, los centros de educación y los comités de ética de las grandes corporaciones a nivel internacional deben comenzar ya a coordinarse y plantear un enfoque común, aunque sea un acuerdo de mínimos. Un ejemplo sería evitar que un camión dotado de conducción automática pueda ser utilizado en modo manual, con fines terroristas, contra una multitud. La diversidad humana complica la tarea, pero existen principios básicos comunes a todas las partes susceptibles de ser aceptadas en un marco amplio, aunque es imperativo estar alerta para identificar y anular a aquellos agentes no cooperativos con tendencias absolutistas.

La creación de valor es a menudo un proceso literario. Como muestra de ello propongo el recurso léxico economicom (y el dominio adquirido asociado www.economicom.org, así como la dirección de correo electrónico economicom@protonmail.com), para facilitar la comprensión, investigación y difusión pública del problema definido como: el riesgo de autodestrucción inherente a la automatización de nuestra civilización global mediante redes de inteligencias artificiales.

Figura 1: Mapa de Internet del Opte Project, creado por Barrett Lyon en 2003.

*MoMa’s Online Collection

Cada línea mapea una conexión entre dos direcciones IP (Internet Protocol). La distancia muestra el retraso de la conexión. Los colores muestran diferentes regiones del planeta.

Leave a Reply

Your email address will not be published. Required fields are marked *