Inteligencia Artificial (y III): regulación, ¿cuándo, y quién?

10/06/2023

La velocidad a la que avanza la Inteligencia Artificial (IA) es tan brutal que cualquier artículo que se escriba sobre el asunto corre el riesgo de quedar obsoleto a los pocos días. Fue escribir sobre el desarrollo de la IA y los riesgo de sus aplicaciones militares (Parar Skynet) y nos encontramos con la noticia del dron controlado por IA que se había revuelto contra su operador humano y lo había «eliminado» (era una simulación) porque imposibilitaba la consecución del objetivo para el que había sido programado. El contrato social que demandaba Álvarez-Pallete en su célebre y celebrada carta sobre el control de la IA dio sus primeros pasos hace apenas unos días, con el acuerdo entre Estados Unidos y la Unión Europea para la creación de un código de conducta «para que podamos mitigar algunos de los posibles inconvenientes y amplificar las ventajas de esta extraordinaria tecnología» (Antony Blinken, secretario de Estado de Estados Unidos).

Sin embargo, el ritmo y los planes de trabajo previstos hacen pensar que las autoridades no están seriamente preocupadas por el asunto, aparte de que el acuerdo es de mínimos: crear un código de conducta voluntario. El anterior post finalizaba con la frase del neurocirujano Rafael Yuste, presidente de la fundación NeuroRights: “hay que actuar antes de que sea demasiado tarde”. Y todo hace indicar que, efectivamente, el momento es ya, ahora. Igual de tajante se pronunciaba el manifiesto que a finales de marzo de este mismo año firmó un millar de empresarios e investigadores relacionados con la Inteligencia Artificial, un manifiesto en el que solicitaban una moratoria de seis meses para recapacitar sobre el uso de la IA y analizar sus efectos con objeto de asegurar que sean positivos para la sociedad: “en los últimos meses los laboratorios de IA han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”, dice la carta.

Pero esto no lo frena nadie. Entre los firmantes, voces autorizadas como Steve Wozniak, cofundador de Apple, Elon Musk, Yoshua Bengio (premio Turing, algo así como el Nobel de la informática), el español Ramón López de Mántaras, uno de los pioneros europeos en la materia, o el historiador israelí Yuval Noah Harari. El mismo autor de Sapiens ya hablaba en 2021 de “dictaduras digitales” y “colonialismo de datos”: “en el siglo XXI, la información es el activo más importante; es la base del poder político”, “el que controla los datos, controla el mundo”. Por ese mismo motivo se mostraba contrario a ceder su control a corporaciones o gobiernos.

La secretaria de Estado de Digitalización e Inteligencia Artificial Carme Artigas coincide con Noah Harari y afirma que “los datos no deben ser de las empresas ni de los Gobiernos, sino de la ciudadanía”. Me parece un concepto buenista, bienintencionado, pero no sé si factible. “En este sentido, en España hemos sido pioneros en la Carta de Derechos Digitales, que son 25 derechos fundamentales en clave digital, como la libertad de expresión o a no ser discriminado por un algoritmo. Estamos a la espera de la declaración de derechos de la Unión Europea, lo estamos incorporando a la OCDE y lo hemos elevado a Naciones Unidas”. Pues ya está, quedará en manos de ese organismo tan eficiente como las Naciones Unidas, me quedo mucho más tranquilo.

¿Van a colaborar todos los países en este nuevo problema de ámbito global? ¿Acaso Rusia, China o el propio Estados Unidos van a frenar su desarrollo por seis meses? Este artículo, de abril de este mismo año, habla de algunas de las limitaciones que están poniendo algunos países para su desarrollo o su uso (China e Italia, por ejemplo, con el ChatGPT). Y si nos planteamos un código de conducta planetario, en un mundo globalizado, sí, pero con culturas e intereses tan diferentes, ¿quién decide qué datos son los «utilizables»? ¿O quiénes marcan los sesgos a la Inteligencia Artificial? En mis primeras pruebas con ChatGPT, he comprobado que trabaja con un sesgo «políticamente correcto», logré que saltaran algunas advertencias sobre determinados temas (lo forzé, lo reconozco), pero a lo mejor, algunas cosas «políticamente correctas» para las mentes programadoras tras estas herramientas a mí me parecen una soberana estupidez. O a millones de personas. O podemos no estar de acuerdo, . Me recuerda al capítulo de 1984 (George Orwell) sobre el Ministerio de la Verdad, los funcionarios que decidían qué textos conformaban la versión oficial permitida y difundida, y cuáles eran arrojados a los «agujeros de la memoria», en donde eran destruidos. Y es importante saber quién o cómo se toman estas decisiones porque se ha visto la importancia de los algoritmos y estas herramientas en asuntos como procesos electorales o conflictos sociales. Por cierto, como curiosidad, la próxima exposición del Espacio Fundación Telefónica, tras Cerebro(s) y la dedicada a la neurociencia, será Fake news: la Fábrica de mentiras.

Los datos son la materia prima (Tim Berners-Lee), y los chips y procesadores de última generación son la «industria» que los transforma. Más del sesenta por ciento de los mismos, y cerca del noventa por ciento de los ultraprocesadores más utilizados en IA se fabrican en Taiwán, esa isla de 36.000 kilómetros cuadrados, separada de China apenas un centenar de kilómetros.

China (la República Popular) no reconoce la independencia de este territorio cuyo nombre oficial sigue siendo República de China y los movimientos de los últimos años para controlar su soberanía no se deben en exclusiva a un sentimiento nacionalista. Y es obvio que la reacción de Estados Unidos al enviar a su flota tampoco responde a un sentimiento de «justicia universal», de respeto a la soberanía nacional de Taiwán.

Por tanto, parece difícil avanzar en una solución global para la regulación de la IA cuando hay tantos intereses detrás. “Nadie está al frente del planeta, no se puede culpar a nadie, todo el mundo es responsable. Es extraño. No hay un superpoder con el que enfadarse, ante el que ejercer la queja”, así se manifestaba Marvin Minsky, considerado uno de los padres de la Inteligencia Artificial, en 2014.

Todo esto me recuerda a lo que decía el filósofo y jurista italiano Luigi Ferrajoli acerca de la necesidad de un “constitucionalismo planetario”, un movimiento que aboga por la creación de instituciones globales que busquen soluciones a problemas de toda la humanidad, retos que no pueden ser afrontados de manera individual por cada nación, como el cambio climático, el acceso universal a medicamentos, agua y alimentos, los conflictos nucleares o las pandemias. Pero él mismo habla de “hipótesis utópicas”, de la “soberanía insensata” de los gobiernos de la Unión Europea o de su “optimismo estratégico”. Y no sé si es optimismo o lavado de cara ante la opinión pública: «vamos a bajar la temperatura de la Tierra», «vamos a reducir la emisión de gases contaminantes«, vamos a reducir la producción de plásticos y sus vertidos, ¡vamos a producir el veinte por ciento de los chips del mundo!… En fin, soy bastante escéptico ante esto, así que no creo que quede otra que adaptarse, evolucionar, ¿no decía eso Darwin?

ChatGPT, termina este post, por favor, que no tengo claro cómo hacerlo.

ChatGPT: En el contexto de la Inteligencia Artificial, podríamos aplicar esta crítica a nivel global. ¿Sería sensato esperar que los países renuncien a su soberanía y cedan el control del desarrollo de la IA a instituciones supranacionales? La realidad es que el avance de la Inteligencia Artificial plantea desafíos complejos en términos de regulación y control. Cada país tiene sus propios intereses, agendas y enfoques en relación con la IA. Además, la IA tiene el potencial de generar beneficios económicos y militares significativos, lo que puede llevar a una carrera desenfrenada en su desarrollo sin tener en cuenta los posibles riesgos.

Si bien es crucial fomentar la colaboración internacional y establecer marcos regulatorios comunes, es difícil imaginar que todos los países se pongan de acuerdo y actúen de manera conjunta y coordinada para controlar el avance de la IA. Sin embargo, esto no significa que debamos resignarnos a la inacción. En lugar de depender únicamente de la cooperación global, también es importante que cada país asuma su responsabilidad individual en la regulación y uso ético de la Inteligencia Artificial.

  • ¿Y algo más optimista?

ChatGPT: Aunque pueda parecer difícil, existen razones para tener esperanza en la capacidad de los países para colaborar y regular de manera efectiva este nuevo desafío global.

En primer lugar, el reconocimiento de los posibles riesgos asociados con la IA está aumentando a nivel mundial. Cada vez más líderes políticos, expertos en tecnología y organizaciones internacionales están tomando conciencia de la importancia de establecer marcos regulatorios sólidos. El diálogo y la cooperación internacional se están intensificando, ya que se entiende que el control de la IA no puede ser abordado de forma aislada por cada país.

Además, se están llevando a cabo importantes avances en el establecimiento de normas y estándares éticos para el desarrollo y uso de la Inteligencia Artificial. Organizaciones como la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y la Comisión Europea están liderando iniciativas para promover la confianza y la responsabilidad en la IA, buscando consensos internacionales y fomentando el intercambio de mejores prácticas.

La conciencia pública también está aumentando en relación a los impactos de la IA en la sociedad. A medida que se discuten más abiertamente los desafíos y los riesgos, se genera una presión para que los gobiernos y las empresas actúen de manera responsable y ética en el desarrollo y despliegue de la IA. Esta creciente demanda de transparencia y rendición de cuentas puede impulsar a los países a colaborar y establecer regulaciones más estrictas.

Además, el beneficio de un control adecuado de la IA es amplio y trasciende las fronteras nacionales. La cooperación en este ámbito puede conducir a avances científicos y tecnológicos compartidos, promover la innovación responsable y mitigar los posibles riesgos para la seguridad y la privacidad de las personas. Al reconocer la importancia de estos beneficios comunes, los países podrían encontrar incentivos para trabajar juntos en la regulación de la IA.

En resumen, aunque el control del avance de la Inteligencia Artificial puede parecer un desafío abrumador, existen motivos para ser optimistas. El aumento de la conciencia global, los esfuerzos en la creación de normas éticas y la demanda pública de responsabilidad están sentando las bases para una mayor colaboración entre los países. Al reconocer los beneficios compartidos y los riesgos asociados con la IA, es posible que los países encuentren un terreno común para regular y controlar su desarrollo de manera efectiva. Con una voluntad política y una cooperación global continuada, podemos trabajar hacia un futuro en el que la Inteligencia Artificial se desarrolle y utilice de manera responsable en beneficio de toda la humanidad.

  • Gracias, máquina.

Anteriores:

Inteligencia (I): parar Skynet.

Inteligencia Artificial (II): el contrato social.

Relacionados:

¿Impuestos a los robots?

El futuro ya está aquí

Veinte años de Matrix

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.