2. El problema del control

El desarrollo de IA

Actualmente, el campo de la investigación en inteligencia artificial está en pleno auge. No es la primera vez que esto ocurre. En dos períodos anteriores, bien identificados, la investigación, financiación y desarrollo de IA prosperó; seguidos por sendos períodos de estancamiento consecuencia de límites en las capacidades tecnológicas y teóricas. Algunos tecnólogos apuntan a que el momento actual se encuentra en esta misma fase de optimismo infundado, pero a día de hoy suponen una minoría. La IA es ahora económicamente competitiva y estratégicamente prioritaria. Los gastos de desarrollo superan en grados de magnitud los costes asociados a la producción de este producto de alta tecnificación. La financiación ha desbordado la investigación en todos los campos de estudio. No menos importante, otra cosa ha cambiado… La percepción pública sobre la materia ha aumentado exponencialmente, dando lugar a que profesionales de todos los campos del saber humano analicen la tecnología dentro de sus especialidades: antropología, física, economía, psicología, sociología, filosofía, matemáticas, salud, lenguaje, ingeniería, etcétera.

Hace tan sólo dos décadas que la computación doméstica ha entrado en los hogares de familias de todo el mundo. Previo a este fenómeno, no existe por parte del ciudadano un conocimiento sobre lo que supone para la sociedad el desarrollo último de las Máquinas de Turing[1]. Es ahora cuando la opinión pública comienza a entrever el poder real de esta tecnología tal y como los expertos lo veían hace 40 o 50 años; o Alan Turing cuando definió el concepto; y aquellos autores clásicos que escribieron literatura y mitología sobre autómatas, ya intuyendo una idea que subyace a una realidad posible. Algunos logros importantes han conseguido captar la atención del mundo, pero también sus temores. Logros tecnológicos como Watson de IBM, Alpha Go y Alpha Zero de Alphabet Inc. o Google DeepMind; así como el avance del software aplicado a robótica de aplicación militar de compañías como Lockheed Martin o Boston Dynamics.

Velocidad

El filósofo de biología evolucionista Daniel C. Dennet acuñó el concepto de grúas (cranes en inglés) para explicar aquellos desarrollos evolutivos que suponían un cambio de las reglas del juego. Aquellos que habilitan todo un nuevo espectro de posibilidades. En este sentido, el desarrollo humano del lenguaje sería una de estas grúas, ya que permitió la difusión de conocimiento y cultura de una manera mucho más efectiva. De este modo, el aprendizaje sociocultural (la difusión de patrones cerebrales eficaces para el éxito de una sociedad) creó la miríada de sistemas de organización humana que tenemos y hemos tenido a lo largo de nuestra Historia, desde la civilización egipcia hasta la ingeniería aeroespacial.

La inteligencia artificial entra en la misma categoría de dinámica de cambio de reglas del juego por dos motivos principales: (a) la transversalidad de la IA es un catalizador que permite el desarrollo de otras tecnologías de vanguardia (nanotecnología, el control de la fusión nuclear, tecnologías espacial y oceánica de profundidad, bioingeniería, etcétera); (b) su efecto catalizador retroalimenta su propio desarrollo. Es decir, es una tecnología que posibilita mejoras en su propia naturaleza; e incluso es capaz de programar mejoras en su propio código de manera autónoma mediante estrategias de evolución computacional.

Todo esto provoca un progreso exponencial, que podrá adquirir velocidad electrónica, en una fase avanzada de este proceso que ya ha comenzado. Es lo que el filósofo Nick Bostrom denominó una explosión de inteligencia, estudiando su dinámica y riesgos asociados desde un enfoque basado en la lógica y los estudios estratégicos. Este enfoque académico basado en lógica puede ser criticado como ciencia ficción por falta de datos previos que lo avalen. La defensa del Dr. Bostrom  al respecto es, no obstante, el hecho de que no se puede esperar a una situación posterior a la explosión de inteligencia para analizar su dinámica y riesgos. De igual manera que el estudio de los efectos de una guerra termonuclear no debe ser pospuesto hasta la aparición de evidencia científica.

Inercia

Además de la rápida velocidad de desarrollo, hay que tener en cuenta la inercia que esta tecnología está adquiriendo. Si las herramientas para la creación de IA de manera simple y sin barreras proliferan, con unos costes computacionales que ya a día de hoy son bajos para máquinas de relativa potencia, se llega a la conclusión de que la inercia del desarrollo de IA ilimitada será demasiado grande como para permitir los controles deseables (superado cierto umbral).

La combinación de gran velocidad de desarrollo e inercia social constriñe el tiempo de investigación y actuación sobre los múltiples usos cuestionables de las tecnologías de IA, incluyendo los que ya están disponibles hoy en día: la primera generación de armas autónomas, tecnologías de control social, los denominados deep fakes (que permiten la creación de material audiovisual indistinguible de uno original), los algoritmos asociados a campañas de propaganda política y religiosa, etcétera.

Los sistemas de gobierno actuales son demasiado lentos como para gestionar el desarrollo tecnológico exponencial, por lo que es de vital importancia la creación de nuevas instituciones dedicadas a tal aspecto. Algunas de las cuales deberán ser globales si se quiere tener algún tipo de posibilidad de regular el sector. Si se fracasa en esta tarea, la situación global que se entrevé es altamente caótica e insegura.

Inestabilidad

Existe un riesgo añadido particular en la gestión de la gobernanza de un mundo que avance exponencialmente en el desarrollo tecnológico: la gestión de la complejidad y el caos. La problemática del caos es inherente a la naturaleza, desde el clima hasta la economía mundial. Fue descubierto casualmente a partir del estudio físico de la meteorología (Edward N. Lorenz, 1963). El caos se presenta en sistemas naturales con retroalimentación interna: es un desarrollo de eventos, que se ha iniciado por cambios menores en un sistema, los cuales se magnifican consecuencialmente y terminan alterando el resultado final a gran escala, de manera imprevisible. El aumento de complejidad aumenta la tendencia al caos al aumentar el potencial del sistema; es decir, el aumento del número de enlaces causales. Aumento de la complejidad y caos son dos factores que dificultan o imposibilitan el problema del control. Este problema se ve acentuado al reducirse el tiempo de reacción.

En economía y otras ciencias sociales, se puede decir que una situación pasa de un momento de estabilidad a uno de inestabilidad, de un cierto orden estructural y previsibilidad a una situación caótica, cuando alcanza un punto crítico a partir del cual no hay un retorno (una corrección posible que permita devolver el sistema a una fase de control anterior). La situación entonces se vuelve imprevisible. Por ello las crisis económicas suelen tener un momento definitorio como el Black Thursday de 1929, el Black Monday de 1987 o la caída de Lehman Brothers de 2007. No obstante, el hecho de que exista un punto crítico no quiere decir que el sistema en sí mismo fuese previamente estable, sino que el sistema era ya estructuralmente inestable previo al colapso (James E. Lovelock, 2007).

Un sistema inestable se caracteriza por su sensibilidad a condiciones iniciales, lo cual quiere decir que pequeños cambios iniciales desencadenan cambios completamente imprevisibles en magnitud y dirección. Cuanto más complejo es un sistema, más imprevisibles serán los resultados una vez que este se vuelva caótico (debido al aumento del número de enlaces causales). Una ilustración histórica clásica de un sistema social inestable que se volvió caótico, y de consecuencias desastrosas, fue el juego de alianzas de Europa previo a la Primera Guerra Mundial. Es lo que se conoce como un momento Franz Ferdinand (Jane Goodal, 2014), en el que un suceso previsiblemente de relevancia menor sirve, no obstante, como desencadenante desestabilizador del sistema. La magnitud del efecto no es proporcional a la magnitud de la causa.

El problema del control de la inteligencia artificial en un ambiente de hipercompetencia o conflicto internacional debe ser analizado bajo esta óptica. Hay que considerar que un sistema inestable, llegado a un punto crítico se volverá caótico. Esto ocurrirá crecientemente a velocidades propias de la electrónica y a niveles de complejidad incomprensibles para operadores humanos (a medida que más sistemas humanos se digitalizan y se vuelcan en la esfera digital). En la ingeniería, ningún sistema es calificado como infalible. Es un ámbito bien estudiado, especialmente por cierto tipo de instituciones o departamentos que requieren tasas de eficacia extremas (como la NASA) o secciones de los ejércitos más especializados (como el programa SUBSAFE para el control de submarinos nucleares del ejército de EE.UU). Estas se denominan organizaciones de alta-confiabilidad (Scharre, 2019). Sin duda sus técnicas y procedimientos tienen gran relevancia para el problema del control de la IA, pero no son totalmente eficaces. Ciertas aplicaciones requieren una garantía absoluta de eficacia, como por ejemplo sistemas de armamento nuclear autónomo.

Notas:

[1] Una Máquina de Turing es un modelo matemático que consiste en un autómata capaz de implementar cualquier problema matemático expresado por medio de un algoritmo. Es el origen conceptual de la computación electrónica moderna.

Leave a Reply

Your email address will not be published. Required fields are marked *