Inteligencia Artificial (y III): regulación, ¿cuándo, y quién?

10/06/2023

La velocidad a la que avanza la Inteligencia Artificial (IA) es tan brutal que cualquier artículo que se escriba sobre el asunto corre el riesgo de quedar obsoleto a los pocos días. Fue escribir sobre el desarrollo de la IA y los riesgo de sus aplicaciones militares (Parar Skynet) y nos encontramos con la noticia del dron controlado por IA que se había revuelto contra su operador humano y lo había «eliminado» (era una simulación) porque imposibilitaba la consecución del objetivo para el que había sido programado. El contrato social que demandaba Álvarez-Pallete en su célebre y celebrada carta sobre el control de la IA dio sus primeros pasos hace apenas unos días, con el acuerdo entre Estados Unidos y la Unión Europea para la creación de un código de conducta «para que podamos mitigar algunos de los posibles inconvenientes y amplificar las ventajas de esta extraordinaria tecnología» (Antony Blinken, secretario de Estado de Estados Unidos).

Sin embargo, el ritmo y los planes de trabajo previstos hacen pensar que las autoridades no están seriamente preocupadas por el asunto, aparte de que el acuerdo es de mínimos: crear un código de conducta voluntario. El anterior post finalizaba con la frase del neurocirujano Rafael Yuste, presidente de la fundación NeuroRights: “hay que actuar antes de que sea demasiado tarde”. Y todo hace indicar que, efectivamente, el momento es ya, ahora. Igual de tajante se pronunciaba el manifiesto que a finales de marzo de este mismo año firmó un millar de empresarios e investigadores relacionados con la Inteligencia Artificial, un manifiesto en el que solicitaban una moratoria de seis meses para recapacitar sobre el uso de la IA y analizar sus efectos con objeto de asegurar que sean positivos para la sociedad: “en los últimos meses los laboratorios de IA han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”, dice la carta.

Pero esto no lo frena nadie. Entre los firmantes, voces autorizadas como Steve Wozniak, cofundador de Apple, Elon Musk, Yoshua Bengio (premio Turing, algo así como el Nobel de la informática), el español Ramón López de Mántaras, uno de los pioneros europeos en la materia, o el historiador israelí Yuval Noah Harari. El mismo autor de Sapiens ya hablaba en 2021 de “dictaduras digitales” y “colonialismo de datos”: “en el siglo XXI, la información es el activo más importante; es la base del poder político”, “el que controla los datos, controla el mundo”. Por ese mismo motivo se mostraba contrario a ceder su control a corporaciones o gobiernos.

La secretaria de Estado de Digitalización e Inteligencia Artificial Carme Artigas coincide con Noah Harari y afirma que “los datos no deben ser de las empresas ni de los Gobiernos, sino de la ciudadanía”. Me parece un concepto buenista, bienintencionado, pero no sé si factible. “En este sentido, en España hemos sido pioneros en la Carta de Derechos Digitales, que son 25 derechos fundamentales en clave digital, como la libertad de expresión o a no ser discriminado por un algoritmo. Estamos a la espera de la declaración de derechos de la Unión Europea, lo estamos incorporando a la OCDE y lo hemos elevado a Naciones Unidas”. Pues ya está, quedará en manos de ese organismo tan eficiente como las Naciones Unidas, me quedo mucho más tranquilo.

¿Van a colaborar todos los países en este nuevo problema de ámbito global? ¿Acaso Rusia, China o el propio Estados Unidos van a frenar su desarrollo por seis meses? Este artículo, de abril de este mismo año, habla de algunas de las limitaciones que están poniendo algunos países para su desarrollo o su uso (China e Italia, por ejemplo, con el ChatGPT). Y si nos planteamos un código de conducta planetario, en un mundo globalizado, sí, pero con culturas e intereses tan diferentes, ¿quién decide qué datos son los «utilizables»? ¿O quiénes marcan los sesgos a la Inteligencia Artificial? En mis primeras pruebas con ChatGPT, he comprobado que trabaja con un sesgo «políticamente correcto», logré que saltaran algunas advertencias sobre determinados temas (lo forzé, lo reconozco), pero a lo mejor, algunas cosas «políticamente correctas» para las mentes programadoras tras estas herramientas a mí me parecen una soberana estupidez. O a millones de personas. O podemos no estar de acuerdo, . Me recuerda al capítulo de 1984 (George Orwell) sobre el Ministerio de la Verdad, los funcionarios que decidían qué textos conformaban la versión oficial permitida y difundida, y cuáles eran arrojados a los «agujeros de la memoria», en donde eran destruidos. Y es importante saber quién o cómo se toman estas decisiones porque se ha visto la importancia de los algoritmos y estas herramientas en asuntos como procesos electorales o conflictos sociales. Por cierto, como curiosidad, la próxima exposición del Espacio Fundación Telefónica, tras Cerebro(s) y la dedicada a la neurociencia, será Fake news: la Fábrica de mentiras.

Los datos son la materia prima (Tim Berners-Lee), y los chips y procesadores de última generación son la «industria» que los transforma. Más del sesenta por ciento de los mismos, y cerca del noventa por ciento de los ultraprocesadores más utilizados en IA se fabrican en Taiwán, esa isla de 36.000 kilómetros cuadrados, separada de China apenas un centenar de kilómetros.

China (la República Popular) no reconoce la independencia de este territorio cuyo nombre oficial sigue siendo República de China y los movimientos de los últimos años para controlar su soberanía no se deben en exclusiva a un sentimiento nacionalista. Y es obvio que la reacción de Estados Unidos al enviar a su flota tampoco responde a un sentimiento de «justicia universal», de respeto a la soberanía nacional de Taiwán.

Por tanto, parece difícil avanzar en una solución global para la regulación de la IA cuando hay tantos intereses detrás. “Nadie está al frente del planeta, no se puede culpar a nadie, todo el mundo es responsable. Es extraño. No hay un superpoder con el que enfadarse, ante el que ejercer la queja”, así se manifestaba Marvin Minsky, considerado uno de los padres de la Inteligencia Artificial, en 2014.

Todo esto me recuerda a lo que decía el filósofo y jurista italiano Luigi Ferrajoli acerca de la necesidad de un “constitucionalismo planetario”, un movimiento que aboga por la creación de instituciones globales que busquen soluciones a problemas de toda la humanidad, retos que no pueden ser afrontados de manera individual por cada nación, como el cambio climático, el acceso universal a medicamentos, agua y alimentos, los conflictos nucleares o las pandemias. Pero él mismo habla de “hipótesis utópicas”, de la “soberanía insensata” de los gobiernos de la Unión Europea o de su “optimismo estratégico”. Y no sé si es optimismo o lavado de cara ante la opinión pública: «vamos a bajar la temperatura de la Tierra», «vamos a reducir la emisión de gases contaminantes«, vamos a reducir la producción de plásticos y sus vertidos, ¡vamos a producir el veinte por ciento de los chips del mundo!… En fin, soy bastante escéptico ante esto, así que no creo que quede otra que adaptarse, evolucionar, ¿no decía eso Darwin?

ChatGPT, termina este post, por favor, que no tengo claro cómo hacerlo.

ChatGPT: En el contexto de la Inteligencia Artificial, podríamos aplicar esta crítica a nivel global. ¿Sería sensato esperar que los países renuncien a su soberanía y cedan el control del desarrollo de la IA a instituciones supranacionales? La realidad es que el avance de la Inteligencia Artificial plantea desafíos complejos en términos de regulación y control. Cada país tiene sus propios intereses, agendas y enfoques en relación con la IA. Además, la IA tiene el potencial de generar beneficios económicos y militares significativos, lo que puede llevar a una carrera desenfrenada en su desarrollo sin tener en cuenta los posibles riesgos.

Si bien es crucial fomentar la colaboración internacional y establecer marcos regulatorios comunes, es difícil imaginar que todos los países se pongan de acuerdo y actúen de manera conjunta y coordinada para controlar el avance de la IA. Sin embargo, esto no significa que debamos resignarnos a la inacción. En lugar de depender únicamente de la cooperación global, también es importante que cada país asuma su responsabilidad individual en la regulación y uso ético de la Inteligencia Artificial.

  • ¿Y algo más optimista?

ChatGPT: Aunque pueda parecer difícil, existen razones para tener esperanza en la capacidad de los países para colaborar y regular de manera efectiva este nuevo desafío global.

En primer lugar, el reconocimiento de los posibles riesgos asociados con la IA está aumentando a nivel mundial. Cada vez más líderes políticos, expertos en tecnología y organizaciones internacionales están tomando conciencia de la importancia de establecer marcos regulatorios sólidos. El diálogo y la cooperación internacional se están intensificando, ya que se entiende que el control de la IA no puede ser abordado de forma aislada por cada país.

Además, se están llevando a cabo importantes avances en el establecimiento de normas y estándares éticos para el desarrollo y uso de la Inteligencia Artificial. Organizaciones como la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y la Comisión Europea están liderando iniciativas para promover la confianza y la responsabilidad en la IA, buscando consensos internacionales y fomentando el intercambio de mejores prácticas.

La conciencia pública también está aumentando en relación a los impactos de la IA en la sociedad. A medida que se discuten más abiertamente los desafíos y los riesgos, se genera una presión para que los gobiernos y las empresas actúen de manera responsable y ética en el desarrollo y despliegue de la IA. Esta creciente demanda de transparencia y rendición de cuentas puede impulsar a los países a colaborar y establecer regulaciones más estrictas.

Además, el beneficio de un control adecuado de la IA es amplio y trasciende las fronteras nacionales. La cooperación en este ámbito puede conducir a avances científicos y tecnológicos compartidos, promover la innovación responsable y mitigar los posibles riesgos para la seguridad y la privacidad de las personas. Al reconocer la importancia de estos beneficios comunes, los países podrían encontrar incentivos para trabajar juntos en la regulación de la IA.

En resumen, aunque el control del avance de la Inteligencia Artificial puede parecer un desafío abrumador, existen motivos para ser optimistas. El aumento de la conciencia global, los esfuerzos en la creación de normas éticas y la demanda pública de responsabilidad están sentando las bases para una mayor colaboración entre los países. Al reconocer los beneficios compartidos y los riesgos asociados con la IA, es posible que los países encuentren un terreno común para regular y controlar su desarrollo de manera efectiva. Con una voluntad política y una cooperación global continuada, podemos trabajar hacia un futuro en el que la Inteligencia Artificial se desarrolle y utilice de manera responsable en beneficio de toda la humanidad.

  • Gracias, máquina.

Anteriores:

Inteligencia (I): parar Skynet.

Inteligencia Artificial (II): el contrato social.

Relacionados:

¿Impuestos a los robots?

El futuro ya está aquí

Veinte años de Matrix

Inteligencia Artificial (II): el contrato social

28/05/2023

Como el propio ChatGPT indicaba en la primera parte, la Inteligencia Artificial plantea una serie de retos para el futuro que conviene considerar («Skynet» y usos militares aparte):

  • Riesgo de sesgos y discriminación.
  • Amenazas a la privacidad y la seguridad.
  • Pérdida de empleos y desigualdad económica.

a) Los sesgos y la discriminación: existen en nuestro día a día, mucho antes del desarrollo de la Inteligencia Artificial, y así como está prohibida la discriminación resultante de dichos sesgos, la realidad es que siguen existiendo. Porque «el problema no son los algoritmos, sino los sesgos que introducen quienes los programan» (Ángel Gómez de Ágreda, en Mundo Orwell, muy recomendable). «Los algoritmos son opiniones insertadas en código informático», afirma la matemática Cathy O’Neil. La Inteligencia Artificial puede determinar si se concede un préstamo o no a una familia, la elección de un arrendatario en lugar de otro, o podría derivar en decisiones drásticas como la aprobación o denegación de un seguro médico en Estados Unidos, o la elección de un vehículo autónomo que tiene que decidir en décimas de segundo a quién atropella en una situación crítica. El mismo libro muestra algunos ejemplos en los que, según el profesor de la universidad de Pensilvania Alex P. Miller, «la decisión que toma la inteligencia artificial resulta menos sesgada que las que venían adoptando los humanos». Pero la duda radica en saber si somos capaces de dejar (y si queremos) que determinadas decisiones en las que hay que adoptar un juicio de valor sean tomadas por un algoritmo programado. La concesión de la libertad condicional para un individuo, la custodia de los niños o el acceso a un puesto de trabajo son algunos de los ejemplos que menciona.

b) Amenazas a la privacidad y la seguridad: Meta (Facebook) acaba de ser multada con 1.200 millones de euros por saltarse la normativa europea de protección de datos. Las revelaciones de Edward Snowden en 2013 demostraron que la Agencia de Seguridad del gobierno de Estados Unidos (NSA) había espiado de manera ilegal a millones de ciudadanos, de los que había obtenido abundante información sin autorización judicial. La NSA se basó en la seguridad nacional y la lucha contra el terrorismo para tratar de defender que «todo vale» en aras de la protección de la población. El artículo 12 de la Declaración Universal de los Derechos Humanos indica que «nadie será objeto de injerencias arbitrarias en su vida privada, su familia, su domicilio o su correspondencia, ni de ataques a su honra o a su reputación. Toda persona tiene derecho a la protección de la ley contra tales injerencias o ataques». Los gobiernos de China, Rusia, Reino Unido, más todos los que utilizan el sistema Pegasus ya espían a sus ciudadanos, luego el problema no es la tecnología, como siempre, sino el uso que el ser humano hace de la misma. La Inteligencia Artificial, si no se controla, o si se controla de manera intencionada y fraudulenta, contribuirá a mejorar el espionaje masivo de todas nuestras vidas, pero no es el peligro, es solo otro arma.

c) Pérdida de empleos: es un mantra repetido tras cada gran avance tecnológico. Las cadenas de montaje, los ordenadores, Internet, la automatización, los robots… en su día seguro que se dijo lo mismo de la máquina de vapor o de la imprenta. En el post dedicado a los impuestos a los robots, mencionaba el dato del Foro Económico Mundial: se destruirán 75 millones de puestos de trabajo en el mundo por la implantación sistemática de robots, pero se crearán 133 millones de nuevos empleos.

Nunca sabré la fiabilidad de estas cifras globales y con tantas incertidumbres, pero algún sesudo análisis habrá tras las mismas. Y si no, siempre nos quedará la palabra mágica: se crearán 800 millones de empleos en el mundo relacionados con la sostenibilidad. No 714, ni 1.152, no. 800 millones. Pues vale, «me lo creeré».

Luego estos problemas planteados no son nuevos, han existido siempre con la presencia humana detrás de los potenciales peligros. La Inteligencia Artificial se basa en el análisis continuo de datos, en su interpretación, la búsqueda de patrones comunes, el aprendizaje… la posibilidad de plantear soluciones. Los datos vienen a través de los millones de aparatos y sensores ya existentes en el mundo: imágenes, documentos escritos y orales, vídeos, movimientos de personas y objetos, mensajería instantánea, interacciones en redes sociales o webs… todo puede ser medido y analizado. Como dijo Tim Berners-Lee, el científico británico considerado el padre de la World Wide Web, “los datos serán la materia prima del siglo XXI”. Y si no pagamos por esas magníficas aplicaciones que se nos ofrecen de manera aparentemente gratuita, como cualquiera de Google, por ejemplo, resulta una obviedad decir que se debe a que el producto vendido somos nosotros mismos, nuestros datos.

Por eso es tan necesario regular la relación entre estas nuevas tecnologías y el ser humano. Como con cualquier otra tecnología, por cierto. Durante su intervención en el Congreso de Estados Unidos, el director ejecutivo de la empresa desarrolladora de ChatGPT, Sam Altman, se mostraba convencido de los potenciales beneficios de herramientas como la mencionada, pero advertía de sus riesgos, entre los cuales se encontraba su posible uso para la creación de contenidos falsos. Resulta paradójico que en la sociedad de la información hayamos recibido más desinformación que nunca (elecciones norteamericanas, pandemia, crisis migratorias,…). El manejo de estas tecnologías puede contribuir a influir en procesos electorales (ya lo han hecho) o a crear estados de opinión más proclives o contrarios a la adopción de determinadas medidas. Influyen, sin duda, en la polarización de las opiniones, lo que en Mundo Orwell se definía como «algoritmo populista»: «un mensaje puede crear una conciencia social -justificada o no- sobre un tema, polarizarlo y centrar en torno a él buena parte del discurso político». Manipularlo en función de unos intereses, por eso las compañías «que han acumulado los datos de todos los aspectos de todas nuestras vidas son las que tienen el potencial de cambiar todas las aristas y los ángulos del futuro». Como indicó el senador republicano Josh Hawley en la propia audiencia de Altman, la IA es “una de las innovaciones más significativas de la historia, pero no está claro si será más parecida a la invención de la imprenta o a la de la bomba atómica”.

José María Álvarez-Pallete hablaba en el artículo IA: es el momento de pararse a pensar de la necesidad de redactar un nuevo «contrato social» que tuviera como objeto «decidir y determinar cuáles son los derechos y obligaciones básicas de personas y máquinas en este nuevo mundo». Esta idea ya estaba presente en la Declaración de Independencia del Ciberespacio (John Perry Barlow), presentada en Davos ¡en 1996!, si bien de un modo bastante más transgresor que el que plantea el presidente de Telefónica. Barlow diferenciaba el mundo real del digital y venía a decir que las reglas del primero no pueden ser impuestas en el segundo: «El Ciberespacio no se halla dentro de vuestras fronteras». «Estamos creando nuestro propio Contrato Social. Esa gobernanza se creará según las condiciones de nuestro mundo, no del vuestro». «Estamos creando un mundo en el que todos pueden entrar sin privilegios o prejuicios de raza, poder económico, fuerza militar o lugar de nacimiento».

Siempre que se habla de estos temas se llega a las tres leyes de la robótica de Isaac Asimov, un buen punto de partida para hablar de sistemas de funcionamiento autónomo, ya sea un robot o un algoritmo que toma sus propias decisiones:

  • Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
  • Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  • Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

Ángel Gómez de Ágreda (Mundo Orwell) añade otros dos principios, propuestos por el abogado Marc Rotenberg, derivados de la experiencia en el uso de la inteligencia artificial:

  • Los robots siempre deben revelar su naturaleza e identidad a los humanos cuando se les solicite.
  • Los robots siempre deben ser capaces de explicar sus procesos de toma de decisiones.

Desde un punto de vista ético, parece fundamental que se pueda explicar qué lleva a un algoritmo a decantarse por un resultado, qué juicios de valor llevaron a una u otra conclusión. En esa misma línea se encuentra la transparencia demandada por el director general de Microsoft, Satya Nadella, para entender cómo razonan estos sistemas de manera que se puedan incorporar principios éticos en su configuración. Y añade otros aspectos a considerar, como la objetividad de la Inteligencia Artificial, la privacidad de los datos de las personas, su dignidad y algo tan básico como la responsabilidad. «El diseñador es responsable de los actos de las máquinas y las personas deben tener la capacidad para revertir cualquier acto de aquellas».

Neuroderechos

Tomé la foto con la que empieza este post en la exposición Cerebro(s) del Espacio Fundación Telefónica, concretamente en la parte dedicada a la neurociencia y el desarrollo de las inteligencias artificiales. Del texto junto al neurocientífico español Rafael Yuste extraje este párrafo:

“El imparable progreso de la neurotecnología augura que en pocos años podemos llegar a descifrar y alterar la actividad de las neuronas a través de dispositivos tecnológicos. Esto permitirá tratar enfermedades neurológicas, pero también abre un escenario en el que se podrá acceder a la información de nuestro cerebro, ampliar nuestros sentidos o modificar nuestros recuerdos”.

Rafael Yuste es profesor de la universidad de Columbia (Nueva York), dirige desde hace varios años el proyecto BRAIN (Brain Research through Advancing Innovative Neurotechnologies) y preside la Fundación NeuroRights, cuyo objeto es “reflexionar sobre las implicaciones éticas y sociales de las neurotecnologías” y la Inteligencia Artificial. La Fundación ha fijado cinco neuroderechos, que pueden ser una buena base de partida sobre la que comenzar esa tan necesaria regulación:

  • Identidad personal: la neurotecnología no podrá alterar el sentido del yo de las personas bajo ninguna circunstancia.
  • Acceso equitativo: la mejora en las capacidades cerebrales gracias a la neurotecnología deberá estar al alcance de todos.
  • Libre albedrío: las personas podrán tomar decisiones libremente, sin manipulación neurotecnológica.
  • Privacidad mental: no se podrán usar los datos de la actividad cerebral de las personas sin su consentimiento.
  • Protección contra los sesgos: no se podrá discriminar a las personas a partir de los datos obtenidos por medio de la neurotecnología.

En la entrevista incluida en el link del párrafo anterior, Rafael Yuste se expresa con tanta claridad como contundencia: “hay que actuar antes de que sea demasiado tarde”.

Continuará: Inteligencia Artificial (y III): regulación, ¿cuándo, y quién?

Inteligencia Artificial (II): el contrato social.

Inteligencia (I): parar Skynet.