Inteligencia Artificial (II): el contrato social

28/05/2023

Como el propio ChatGPT indicaba en la primera parte, la Inteligencia Artificial plantea una serie de retos para el futuro que conviene considerar («Skynet» y usos militares aparte):

  • Riesgo de sesgos y discriminación.
  • Amenazas a la privacidad y la seguridad.
  • Pérdida de empleos y desigualdad económica.

a) Los sesgos y la discriminación: existen en nuestro día a día, mucho antes del desarrollo de la Inteligencia Artificial, y así como está prohibida la discriminación resultante de dichos sesgos, la realidad es que siguen existiendo. Porque «el problema no son los algoritmos, sino los sesgos que introducen quienes los programan» (Ángel Gómez de Ágreda, en Mundo Orwell, muy recomendable). «Los algoritmos son opiniones insertadas en código informático», afirma la matemática Cathy O’Neil. La Inteligencia Artificial puede determinar si se concede un préstamo o no a una familia, la elección de un arrendatario en lugar de otro, o podría derivar en decisiones drásticas como la aprobación o denegación de un seguro médico en Estados Unidos, o la elección de un vehículo autónomo que tiene que decidir en décimas de segundo a quién atropella en una situación crítica. El mismo libro muestra algunos ejemplos en los que, según el profesor de la universidad de Pensilvania Alex P. Miller, «la decisión que toma la inteligencia artificial resulta menos sesgada que las que venían adoptando los humanos». Pero la duda radica en saber si somos capaces de dejar (y si queremos) que determinadas decisiones en las que hay que adoptar un juicio de valor sean tomadas por un algoritmo programado. La concesión de la libertad condicional para un individuo, la custodia de los niños o el acceso a un puesto de trabajo son algunos de los ejemplos que menciona.

b) Amenazas a la privacidad y la seguridad: Meta (Facebook) acaba de ser multada con 1.200 millones de euros por saltarse la normativa europea de protección de datos. Las revelaciones de Edward Snowden en 2013 demostraron que la Agencia de Seguridad del gobierno de Estados Unidos (NSA) había espiado de manera ilegal a millones de ciudadanos, de los que había obtenido abundante información sin autorización judicial. La NSA se basó en la seguridad nacional y la lucha contra el terrorismo para tratar de defender que «todo vale» en aras de la protección de la población. El artículo 12 de la Declaración Universal de los Derechos Humanos indica que «nadie será objeto de injerencias arbitrarias en su vida privada, su familia, su domicilio o su correspondencia, ni de ataques a su honra o a su reputación. Toda persona tiene derecho a la protección de la ley contra tales injerencias o ataques». Los gobiernos de China, Rusia, Reino Unido, más todos los que utilizan el sistema Pegasus ya espían a sus ciudadanos, luego el problema no es la tecnología, como siempre, sino el uso que el ser humano hace de la misma. La Inteligencia Artificial, si no se controla, o si se controla de manera intencionada y fraudulenta, contribuirá a mejorar el espionaje masivo de todas nuestras vidas, pero no es el peligro, es solo otro arma.

c) Pérdida de empleos: es un mantra repetido tras cada gran avance tecnológico. Las cadenas de montaje, los ordenadores, Internet, la automatización, los robots… en su día seguro que se dijo lo mismo de la máquina de vapor o de la imprenta. En el post dedicado a los impuestos a los robots, mencionaba el dato del Foro Económico Mundial: se destruirán 75 millones de puestos de trabajo en el mundo por la implantación sistemática de robots, pero se crearán 133 millones de nuevos empleos.

Nunca sabré la fiabilidad de estas cifras globales y con tantas incertidumbres, pero algún sesudo análisis habrá tras las mismas. Y si no, siempre nos quedará la palabra mágica: se crearán 800 millones de empleos en el mundo relacionados con la sostenibilidad. No 714, ni 1.152, no. 800 millones. Pues vale, «me lo creeré».

Luego estos problemas planteados no son nuevos, han existido siempre con la presencia humana detrás de los potenciales peligros. La Inteligencia Artificial se basa en el análisis continuo de datos, en su interpretación, la búsqueda de patrones comunes, el aprendizaje… la posibilidad de plantear soluciones. Los datos vienen a través de los millones de aparatos y sensores ya existentes en el mundo: imágenes, documentos escritos y orales, vídeos, movimientos de personas y objetos, mensajería instantánea, interacciones en redes sociales o webs… todo puede ser medido y analizado. Como dijo Tim Berners-Lee, el científico británico considerado el padre de la World Wide Web, “los datos serán la materia prima del siglo XXI”. Y si no pagamos por esas magníficas aplicaciones que se nos ofrecen de manera aparentemente gratuita, como cualquiera de Google, por ejemplo, resulta una obviedad decir que se debe a que el producto vendido somos nosotros mismos, nuestros datos.

Por eso es tan necesario regular la relación entre estas nuevas tecnologías y el ser humano. Como con cualquier otra tecnología, por cierto. Durante su intervención en el Congreso de Estados Unidos, el director ejecutivo de la empresa desarrolladora de ChatGPT, Sam Altman, se mostraba convencido de los potenciales beneficios de herramientas como la mencionada, pero advertía de sus riesgos, entre los cuales se encontraba su posible uso para la creación de contenidos falsos. Resulta paradójico que en la sociedad de la información hayamos recibido más desinformación que nunca (elecciones norteamericanas, pandemia, crisis migratorias,…). El manejo de estas tecnologías puede contribuir a influir en procesos electorales (ya lo han hecho) o a crear estados de opinión más proclives o contrarios a la adopción de determinadas medidas. Influyen, sin duda, en la polarización de las opiniones, lo que en Mundo Orwell se definía como «algoritmo populista»: «un mensaje puede crear una conciencia social -justificada o no- sobre un tema, polarizarlo y centrar en torno a él buena parte del discurso político». Manipularlo en función de unos intereses, por eso las compañías «que han acumulado los datos de todos los aspectos de todas nuestras vidas son las que tienen el potencial de cambiar todas las aristas y los ángulos del futuro». Como indicó el senador republicano Josh Hawley en la propia audiencia de Altman, la IA es “una de las innovaciones más significativas de la historia, pero no está claro si será más parecida a la invención de la imprenta o a la de la bomba atómica”.

José María Álvarez-Pallete hablaba en el artículo IA: es el momento de pararse a pensar de la necesidad de redactar un nuevo «contrato social» que tuviera como objeto «decidir y determinar cuáles son los derechos y obligaciones básicas de personas y máquinas en este nuevo mundo». Esta idea ya estaba presente en la Declaración de Independencia del Ciberespacio (John Perry Barlow), presentada en Davos ¡en 1996!, si bien de un modo bastante más transgresor que el que plantea el presidente de Telefónica. Barlow diferenciaba el mundo real del digital y venía a decir que las reglas del primero no pueden ser impuestas en el segundo: «El Ciberespacio no se halla dentro de vuestras fronteras». «Estamos creando nuestro propio Contrato Social. Esa gobernanza se creará según las condiciones de nuestro mundo, no del vuestro». «Estamos creando un mundo en el que todos pueden entrar sin privilegios o prejuicios de raza, poder económico, fuerza militar o lugar de nacimiento».

Siempre que se habla de estos temas se llega a las tres leyes de la robótica de Isaac Asimov, un buen punto de partida para hablar de sistemas de funcionamiento autónomo, ya sea un robot o un algoritmo que toma sus propias decisiones:

  • Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
  • Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  • Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

Ángel Gómez de Ágreda (Mundo Orwell) añade otros dos principios, propuestos por el abogado Marc Rotenberg, derivados de la experiencia en el uso de la inteligencia artificial:

  • Los robots siempre deben revelar su naturaleza e identidad a los humanos cuando se les solicite.
  • Los robots siempre deben ser capaces de explicar sus procesos de toma de decisiones.

Desde un punto de vista ético, parece fundamental que se pueda explicar qué lleva a un algoritmo a decantarse por un resultado, qué juicios de valor llevaron a una u otra conclusión. En esa misma línea se encuentra la transparencia demandada por el director general de Microsoft, Satya Nadella, para entender cómo razonan estos sistemas de manera que se puedan incorporar principios éticos en su configuración. Y añade otros aspectos a considerar, como la objetividad de la Inteligencia Artificial, la privacidad de los datos de las personas, su dignidad y algo tan básico como la responsabilidad. «El diseñador es responsable de los actos de las máquinas y las personas deben tener la capacidad para revertir cualquier acto de aquellas».

Neuroderechos

Tomé la foto con la que empieza este post en la exposición Cerebro(s) del Espacio Fundación Telefónica, concretamente en la parte dedicada a la neurociencia y el desarrollo de las inteligencias artificiales. Del texto junto al neurocientífico español Rafael Yuste extraje este párrafo:

“El imparable progreso de la neurotecnología augura que en pocos años podemos llegar a descifrar y alterar la actividad de las neuronas a través de dispositivos tecnológicos. Esto permitirá tratar enfermedades neurológicas, pero también abre un escenario en el que se podrá acceder a la información de nuestro cerebro, ampliar nuestros sentidos o modificar nuestros recuerdos”.

Rafael Yuste es profesor de la universidad de Columbia (Nueva York), dirige desde hace varios años el proyecto BRAIN (Brain Research through Advancing Innovative Neurotechnologies) y preside la Fundación NeuroRights, cuyo objeto es “reflexionar sobre las implicaciones éticas y sociales de las neurotecnologías” y la Inteligencia Artificial. La Fundación ha fijado cinco neuroderechos, que pueden ser una buena base de partida sobre la que comenzar esa tan necesaria regulación:

  • Identidad personal: la neurotecnología no podrá alterar el sentido del yo de las personas bajo ninguna circunstancia.
  • Acceso equitativo: la mejora en las capacidades cerebrales gracias a la neurotecnología deberá estar al alcance de todos.
  • Libre albedrío: las personas podrán tomar decisiones libremente, sin manipulación neurotecnológica.
  • Privacidad mental: no se podrán usar los datos de la actividad cerebral de las personas sin su consentimiento.
  • Protección contra los sesgos: no se podrá discriminar a las personas a partir de los datos obtenidos por medio de la neurotecnología.

En la entrevista incluida en el link del párrafo anterior, Rafael Yuste se expresa con tanta claridad como contundencia: “hay que actuar antes de que sea demasiado tarde”.

Continuará: Inteligencia Artificial (y III): regulación, ¿cuándo, y quién?

Inteligencia Artificial (II): el contrato social.

Inteligencia (I): parar Skynet.

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.