Inteligencia Artificial (y III): regulación, ¿cuándo, y quién?

10/06/2023

La velocidad a la que avanza la Inteligencia Artificial (IA) es tan brutal que cualquier artículo que se escriba sobre el asunto corre el riesgo de quedar obsoleto a los pocos días. Fue escribir sobre el desarrollo de la IA y los riesgo de sus aplicaciones militares (Parar Skynet) y nos encontramos con la noticia del dron controlado por IA que se había revuelto contra su operador humano y lo había «eliminado» (era una simulación) porque imposibilitaba la consecución del objetivo para el que había sido programado. El contrato social que demandaba Álvarez-Pallete en su célebre y celebrada carta sobre el control de la IA dio sus primeros pasos hace apenas unos días, con el acuerdo entre Estados Unidos y la Unión Europea para la creación de un código de conducta «para que podamos mitigar algunos de los posibles inconvenientes y amplificar las ventajas de esta extraordinaria tecnología» (Antony Blinken, secretario de Estado de Estados Unidos).

Sin embargo, el ritmo y los planes de trabajo previstos hacen pensar que las autoridades no están seriamente preocupadas por el asunto, aparte de que el acuerdo es de mínimos: crear un código de conducta voluntario. El anterior post finalizaba con la frase del neurocirujano Rafael Yuste, presidente de la fundación NeuroRights: “hay que actuar antes de que sea demasiado tarde”. Y todo hace indicar que, efectivamente, el momento es ya, ahora. Igual de tajante se pronunciaba el manifiesto que a finales de marzo de este mismo año firmó un millar de empresarios e investigadores relacionados con la Inteligencia Artificial, un manifiesto en el que solicitaban una moratoria de seis meses para recapacitar sobre el uso de la IA y analizar sus efectos con objeto de asegurar que sean positivos para la sociedad: “en los últimos meses los laboratorios de IA han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”, dice la carta.

Pero esto no lo frena nadie. Entre los firmantes, voces autorizadas como Steve Wozniak, cofundador de Apple, Elon Musk, Yoshua Bengio (premio Turing, algo así como el Nobel de la informática), el español Ramón López de Mántaras, uno de los pioneros europeos en la materia, o el historiador israelí Yuval Noah Harari. El mismo autor de Sapiens ya hablaba en 2021 de “dictaduras digitales” y “colonialismo de datos”: “en el siglo XXI, la información es el activo más importante; es la base del poder político”, “el que controla los datos, controla el mundo”. Por ese mismo motivo se mostraba contrario a ceder su control a corporaciones o gobiernos.

La secretaria de Estado de Digitalización e Inteligencia Artificial Carme Artigas coincide con Noah Harari y afirma que “los datos no deben ser de las empresas ni de los Gobiernos, sino de la ciudadanía”. Me parece un concepto buenista, bienintencionado, pero no sé si factible. “En este sentido, en España hemos sido pioneros en la Carta de Derechos Digitales, que son 25 derechos fundamentales en clave digital, como la libertad de expresión o a no ser discriminado por un algoritmo. Estamos a la espera de la declaración de derechos de la Unión Europea, lo estamos incorporando a la OCDE y lo hemos elevado a Naciones Unidas”. Pues ya está, quedará en manos de ese organismo tan eficiente como las Naciones Unidas, me quedo mucho más tranquilo.

¿Van a colaborar todos los países en este nuevo problema de ámbito global? ¿Acaso Rusia, China o el propio Estados Unidos van a frenar su desarrollo por seis meses? Este artículo, de abril de este mismo año, habla de algunas de las limitaciones que están poniendo algunos países para su desarrollo o su uso (China e Italia, por ejemplo, con el ChatGPT). Y si nos planteamos un código de conducta planetario, en un mundo globalizado, sí, pero con culturas e intereses tan diferentes, ¿quién decide qué datos son los «utilizables»? ¿O quiénes marcan los sesgos a la Inteligencia Artificial? En mis primeras pruebas con ChatGPT, he comprobado que trabaja con un sesgo «políticamente correcto», logré que saltaran algunas advertencias sobre determinados temas (lo forzé, lo reconozco), pero a lo mejor, algunas cosas «políticamente correctas» para las mentes programadoras tras estas herramientas a mí me parecen una soberana estupidez. O a millones de personas. O podemos no estar de acuerdo, . Me recuerda al capítulo de 1984 (George Orwell) sobre el Ministerio de la Verdad, los funcionarios que decidían qué textos conformaban la versión oficial permitida y difundida, y cuáles eran arrojados a los «agujeros de la memoria», en donde eran destruidos. Y es importante saber quién o cómo se toman estas decisiones porque se ha visto la importancia de los algoritmos y estas herramientas en asuntos como procesos electorales o conflictos sociales. Por cierto, como curiosidad, la próxima exposición del Espacio Fundación Telefónica, tras Cerebro(s) y la dedicada a la neurociencia, será Fake news: la Fábrica de mentiras.

Los datos son la materia prima (Tim Berners-Lee), y los chips y procesadores de última generación son la «industria» que los transforma. Más del sesenta por ciento de los mismos, y cerca del noventa por ciento de los ultraprocesadores más utilizados en IA se fabrican en Taiwán, esa isla de 36.000 kilómetros cuadrados, separada de China apenas un centenar de kilómetros.

China (la República Popular) no reconoce la independencia de este territorio cuyo nombre oficial sigue siendo República de China y los movimientos de los últimos años para controlar su soberanía no se deben en exclusiva a un sentimiento nacionalista. Y es obvio que la reacción de Estados Unidos al enviar a su flota tampoco responde a un sentimiento de «justicia universal», de respeto a la soberanía nacional de Taiwán.

Por tanto, parece difícil avanzar en una solución global para la regulación de la IA cuando hay tantos intereses detrás. “Nadie está al frente del planeta, no se puede culpar a nadie, todo el mundo es responsable. Es extraño. No hay un superpoder con el que enfadarse, ante el que ejercer la queja”, así se manifestaba Marvin Minsky, considerado uno de los padres de la Inteligencia Artificial, en 2014.

Todo esto me recuerda a lo que decía el filósofo y jurista italiano Luigi Ferrajoli acerca de la necesidad de un “constitucionalismo planetario”, un movimiento que aboga por la creación de instituciones globales que busquen soluciones a problemas de toda la humanidad, retos que no pueden ser afrontados de manera individual por cada nación, como el cambio climático, el acceso universal a medicamentos, agua y alimentos, los conflictos nucleares o las pandemias. Pero él mismo habla de “hipótesis utópicas”, de la “soberanía insensata” de los gobiernos de la Unión Europea o de su “optimismo estratégico”. Y no sé si es optimismo o lavado de cara ante la opinión pública: «vamos a bajar la temperatura de la Tierra», «vamos a reducir la emisión de gases contaminantes«, vamos a reducir la producción de plásticos y sus vertidos, ¡vamos a producir el veinte por ciento de los chips del mundo!… En fin, soy bastante escéptico ante esto, así que no creo que quede otra que adaptarse, evolucionar, ¿no decía eso Darwin?

ChatGPT, termina este post, por favor, que no tengo claro cómo hacerlo.

ChatGPT: En el contexto de la Inteligencia Artificial, podríamos aplicar esta crítica a nivel global. ¿Sería sensato esperar que los países renuncien a su soberanía y cedan el control del desarrollo de la IA a instituciones supranacionales? La realidad es que el avance de la Inteligencia Artificial plantea desafíos complejos en términos de regulación y control. Cada país tiene sus propios intereses, agendas y enfoques en relación con la IA. Además, la IA tiene el potencial de generar beneficios económicos y militares significativos, lo que puede llevar a una carrera desenfrenada en su desarrollo sin tener en cuenta los posibles riesgos.

Si bien es crucial fomentar la colaboración internacional y establecer marcos regulatorios comunes, es difícil imaginar que todos los países se pongan de acuerdo y actúen de manera conjunta y coordinada para controlar el avance de la IA. Sin embargo, esto no significa que debamos resignarnos a la inacción. En lugar de depender únicamente de la cooperación global, también es importante que cada país asuma su responsabilidad individual en la regulación y uso ético de la Inteligencia Artificial.

  • ¿Y algo más optimista?

ChatGPT: Aunque pueda parecer difícil, existen razones para tener esperanza en la capacidad de los países para colaborar y regular de manera efectiva este nuevo desafío global.

En primer lugar, el reconocimiento de los posibles riesgos asociados con la IA está aumentando a nivel mundial. Cada vez más líderes políticos, expertos en tecnología y organizaciones internacionales están tomando conciencia de la importancia de establecer marcos regulatorios sólidos. El diálogo y la cooperación internacional se están intensificando, ya que se entiende que el control de la IA no puede ser abordado de forma aislada por cada país.

Además, se están llevando a cabo importantes avances en el establecimiento de normas y estándares éticos para el desarrollo y uso de la Inteligencia Artificial. Organizaciones como la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y la Comisión Europea están liderando iniciativas para promover la confianza y la responsabilidad en la IA, buscando consensos internacionales y fomentando el intercambio de mejores prácticas.

La conciencia pública también está aumentando en relación a los impactos de la IA en la sociedad. A medida que se discuten más abiertamente los desafíos y los riesgos, se genera una presión para que los gobiernos y las empresas actúen de manera responsable y ética en el desarrollo y despliegue de la IA. Esta creciente demanda de transparencia y rendición de cuentas puede impulsar a los países a colaborar y establecer regulaciones más estrictas.

Además, el beneficio de un control adecuado de la IA es amplio y trasciende las fronteras nacionales. La cooperación en este ámbito puede conducir a avances científicos y tecnológicos compartidos, promover la innovación responsable y mitigar los posibles riesgos para la seguridad y la privacidad de las personas. Al reconocer la importancia de estos beneficios comunes, los países podrían encontrar incentivos para trabajar juntos en la regulación de la IA.

En resumen, aunque el control del avance de la Inteligencia Artificial puede parecer un desafío abrumador, existen motivos para ser optimistas. El aumento de la conciencia global, los esfuerzos en la creación de normas éticas y la demanda pública de responsabilidad están sentando las bases para una mayor colaboración entre los países. Al reconocer los beneficios compartidos y los riesgos asociados con la IA, es posible que los países encuentren un terreno común para regular y controlar su desarrollo de manera efectiva. Con una voluntad política y una cooperación global continuada, podemos trabajar hacia un futuro en el que la Inteligencia Artificial se desarrolle y utilice de manera responsable en beneficio de toda la humanidad.

  • Gracias, máquina.

Anteriores:

Inteligencia (I): parar Skynet.

Inteligencia Artificial (II): el contrato social.

Relacionados:

¿Impuestos a los robots?

El futuro ya está aquí

Veinte años de Matrix

Inteligencia Artificial (II): el contrato social

28/05/2023

Como el propio ChatGPT indicaba en la primera parte, la Inteligencia Artificial plantea una serie de retos para el futuro que conviene considerar («Skynet» y usos militares aparte):

  • Riesgo de sesgos y discriminación.
  • Amenazas a la privacidad y la seguridad.
  • Pérdida de empleos y desigualdad económica.

a) Los sesgos y la discriminación: existen en nuestro día a día, mucho antes del desarrollo de la Inteligencia Artificial, y así como está prohibida la discriminación resultante de dichos sesgos, la realidad es que siguen existiendo. Porque «el problema no son los algoritmos, sino los sesgos que introducen quienes los programan» (Ángel Gómez de Ágreda, en Mundo Orwell, muy recomendable). «Los algoritmos son opiniones insertadas en código informático», afirma la matemática Cathy O’Neil. La Inteligencia Artificial puede determinar si se concede un préstamo o no a una familia, la elección de un arrendatario en lugar de otro, o podría derivar en decisiones drásticas como la aprobación o denegación de un seguro médico en Estados Unidos, o la elección de un vehículo autónomo que tiene que decidir en décimas de segundo a quién atropella en una situación crítica. El mismo libro muestra algunos ejemplos en los que, según el profesor de la universidad de Pensilvania Alex P. Miller, «la decisión que toma la inteligencia artificial resulta menos sesgada que las que venían adoptando los humanos». Pero la duda radica en saber si somos capaces de dejar (y si queremos) que determinadas decisiones en las que hay que adoptar un juicio de valor sean tomadas por un algoritmo programado. La concesión de la libertad condicional para un individuo, la custodia de los niños o el acceso a un puesto de trabajo son algunos de los ejemplos que menciona.

b) Amenazas a la privacidad y la seguridad: Meta (Facebook) acaba de ser multada con 1.200 millones de euros por saltarse la normativa europea de protección de datos. Las revelaciones de Edward Snowden en 2013 demostraron que la Agencia de Seguridad del gobierno de Estados Unidos (NSA) había espiado de manera ilegal a millones de ciudadanos, de los que había obtenido abundante información sin autorización judicial. La NSA se basó en la seguridad nacional y la lucha contra el terrorismo para tratar de defender que «todo vale» en aras de la protección de la población. El artículo 12 de la Declaración Universal de los Derechos Humanos indica que «nadie será objeto de injerencias arbitrarias en su vida privada, su familia, su domicilio o su correspondencia, ni de ataques a su honra o a su reputación. Toda persona tiene derecho a la protección de la ley contra tales injerencias o ataques». Los gobiernos de China, Rusia, Reino Unido, más todos los que utilizan el sistema Pegasus ya espían a sus ciudadanos, luego el problema no es la tecnología, como siempre, sino el uso que el ser humano hace de la misma. La Inteligencia Artificial, si no se controla, o si se controla de manera intencionada y fraudulenta, contribuirá a mejorar el espionaje masivo de todas nuestras vidas, pero no es el peligro, es solo otro arma.

c) Pérdida de empleos: es un mantra repetido tras cada gran avance tecnológico. Las cadenas de montaje, los ordenadores, Internet, la automatización, los robots… en su día seguro que se dijo lo mismo de la máquina de vapor o de la imprenta. En el post dedicado a los impuestos a los robots, mencionaba el dato del Foro Económico Mundial: se destruirán 75 millones de puestos de trabajo en el mundo por la implantación sistemática de robots, pero se crearán 133 millones de nuevos empleos.

Nunca sabré la fiabilidad de estas cifras globales y con tantas incertidumbres, pero algún sesudo análisis habrá tras las mismas. Y si no, siempre nos quedará la palabra mágica: se crearán 800 millones de empleos en el mundo relacionados con la sostenibilidad. No 714, ni 1.152, no. 800 millones. Pues vale, «me lo creeré».

Luego estos problemas planteados no son nuevos, han existido siempre con la presencia humana detrás de los potenciales peligros. La Inteligencia Artificial se basa en el análisis continuo de datos, en su interpretación, la búsqueda de patrones comunes, el aprendizaje… la posibilidad de plantear soluciones. Los datos vienen a través de los millones de aparatos y sensores ya existentes en el mundo: imágenes, documentos escritos y orales, vídeos, movimientos de personas y objetos, mensajería instantánea, interacciones en redes sociales o webs… todo puede ser medido y analizado. Como dijo Tim Berners-Lee, el científico británico considerado el padre de la World Wide Web, “los datos serán la materia prima del siglo XXI”. Y si no pagamos por esas magníficas aplicaciones que se nos ofrecen de manera aparentemente gratuita, como cualquiera de Google, por ejemplo, resulta una obviedad decir que se debe a que el producto vendido somos nosotros mismos, nuestros datos.

Por eso es tan necesario regular la relación entre estas nuevas tecnologías y el ser humano. Como con cualquier otra tecnología, por cierto. Durante su intervención en el Congreso de Estados Unidos, el director ejecutivo de la empresa desarrolladora de ChatGPT, Sam Altman, se mostraba convencido de los potenciales beneficios de herramientas como la mencionada, pero advertía de sus riesgos, entre los cuales se encontraba su posible uso para la creación de contenidos falsos. Resulta paradójico que en la sociedad de la información hayamos recibido más desinformación que nunca (elecciones norteamericanas, pandemia, crisis migratorias,…). El manejo de estas tecnologías puede contribuir a influir en procesos electorales (ya lo han hecho) o a crear estados de opinión más proclives o contrarios a la adopción de determinadas medidas. Influyen, sin duda, en la polarización de las opiniones, lo que en Mundo Orwell se definía como «algoritmo populista»: «un mensaje puede crear una conciencia social -justificada o no- sobre un tema, polarizarlo y centrar en torno a él buena parte del discurso político». Manipularlo en función de unos intereses, por eso las compañías «que han acumulado los datos de todos los aspectos de todas nuestras vidas son las que tienen el potencial de cambiar todas las aristas y los ángulos del futuro». Como indicó el senador republicano Josh Hawley en la propia audiencia de Altman, la IA es “una de las innovaciones más significativas de la historia, pero no está claro si será más parecida a la invención de la imprenta o a la de la bomba atómica”.

José María Álvarez-Pallete hablaba en el artículo IA: es el momento de pararse a pensar de la necesidad de redactar un nuevo «contrato social» que tuviera como objeto «decidir y determinar cuáles son los derechos y obligaciones básicas de personas y máquinas en este nuevo mundo». Esta idea ya estaba presente en la Declaración de Independencia del Ciberespacio (John Perry Barlow), presentada en Davos ¡en 1996!, si bien de un modo bastante más transgresor que el que plantea el presidente de Telefónica. Barlow diferenciaba el mundo real del digital y venía a decir que las reglas del primero no pueden ser impuestas en el segundo: «El Ciberespacio no se halla dentro de vuestras fronteras». «Estamos creando nuestro propio Contrato Social. Esa gobernanza se creará según las condiciones de nuestro mundo, no del vuestro». «Estamos creando un mundo en el que todos pueden entrar sin privilegios o prejuicios de raza, poder económico, fuerza militar o lugar de nacimiento».

Siempre que se habla de estos temas se llega a las tres leyes de la robótica de Isaac Asimov, un buen punto de partida para hablar de sistemas de funcionamiento autónomo, ya sea un robot o un algoritmo que toma sus propias decisiones:

  • Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
  • Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  • Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

Ángel Gómez de Ágreda (Mundo Orwell) añade otros dos principios, propuestos por el abogado Marc Rotenberg, derivados de la experiencia en el uso de la inteligencia artificial:

  • Los robots siempre deben revelar su naturaleza e identidad a los humanos cuando se les solicite.
  • Los robots siempre deben ser capaces de explicar sus procesos de toma de decisiones.

Desde un punto de vista ético, parece fundamental que se pueda explicar qué lleva a un algoritmo a decantarse por un resultado, qué juicios de valor llevaron a una u otra conclusión. En esa misma línea se encuentra la transparencia demandada por el director general de Microsoft, Satya Nadella, para entender cómo razonan estos sistemas de manera que se puedan incorporar principios éticos en su configuración. Y añade otros aspectos a considerar, como la objetividad de la Inteligencia Artificial, la privacidad de los datos de las personas, su dignidad y algo tan básico como la responsabilidad. «El diseñador es responsable de los actos de las máquinas y las personas deben tener la capacidad para revertir cualquier acto de aquellas».

Neuroderechos

Tomé la foto con la que empieza este post en la exposición Cerebro(s) del Espacio Fundación Telefónica, concretamente en la parte dedicada a la neurociencia y el desarrollo de las inteligencias artificiales. Del texto junto al neurocientífico español Rafael Yuste extraje este párrafo:

“El imparable progreso de la neurotecnología augura que en pocos años podemos llegar a descifrar y alterar la actividad de las neuronas a través de dispositivos tecnológicos. Esto permitirá tratar enfermedades neurológicas, pero también abre un escenario en el que se podrá acceder a la información de nuestro cerebro, ampliar nuestros sentidos o modificar nuestros recuerdos”.

Rafael Yuste es profesor de la universidad de Columbia (Nueva York), dirige desde hace varios años el proyecto BRAIN (Brain Research through Advancing Innovative Neurotechnologies) y preside la Fundación NeuroRights, cuyo objeto es “reflexionar sobre las implicaciones éticas y sociales de las neurotecnologías” y la Inteligencia Artificial. La Fundación ha fijado cinco neuroderechos, que pueden ser una buena base de partida sobre la que comenzar esa tan necesaria regulación:

  • Identidad personal: la neurotecnología no podrá alterar el sentido del yo de las personas bajo ninguna circunstancia.
  • Acceso equitativo: la mejora en las capacidades cerebrales gracias a la neurotecnología deberá estar al alcance de todos.
  • Libre albedrío: las personas podrán tomar decisiones libremente, sin manipulación neurotecnológica.
  • Privacidad mental: no se podrán usar los datos de la actividad cerebral de las personas sin su consentimiento.
  • Protección contra los sesgos: no se podrá discriminar a las personas a partir de los datos obtenidos por medio de la neurotecnología.

En la entrevista incluida en el link del párrafo anterior, Rafael Yuste se expresa con tanta claridad como contundencia: “hay que actuar antes de que sea demasiado tarde”.

Continuará: Inteligencia Artificial (y III): regulación, ¿cuándo, y quién?

Inteligencia Artificial (II): el contrato social.

Inteligencia (I): parar Skynet.

Inteligencia Artificial (I): parar Skynet

21/05/2023

La Inteligencia Artificial (IA) es un campo en constante crecimiento que simula el pensamiento humano y realiza tareas de forma autónoma. Sus aplicaciones abarcan áreas como el procesamiento del lenguaje natural, la visión por computadora y el aprendizaje automático. Los beneficios de la IA son evidentes: automatización de tareas tediosas, diagnóstico médico preciso y mejora de la eficiencia en diversos sectores. Sin embargo, también existen desafíos, como la comprensión contextual limitada y la ética en la toma de decisiones automatizada. Mirando hacia el futuro, la IA promete avances en el aprendizaje profundo, su integración en dispositivos cotidianos, pero también plantea preocupaciones como:

Riesgo de sesgos y discriminación: La IA puede reflejar sesgos y discriminación presentes en los datos de entrenamiento, lo que puede llevar a decisiones injustas o discriminatorias en áreas como contratación, préstamos o justicia. Esto resalta la importancia de garantizar la equidad y la transparencia en los algoritmos de IA.

Amenazas a la privacidad y la seguridad: El uso generalizado de la IA implica una mayor recopilación y análisis de datos personales. Si no se implementan medidas adecuadas de seguridad y privacidad, existe el riesgo de exposición de información sensible, ataques cibernéticos y manipulación de datos para fines maliciosos.

Pérdida de empleos y desigualdad económica: A medida que la IA automatiza tareas y procesos, existe la preocupación de que esto resulte en la pérdida de empleos en ciertas industrias. Esto podría agravar la desigualdad económica si no se abordan adecuadamente los efectos de la automatización en la fuerza laboral y se implementan políticas de reentrenamiento y reconversión profesional.

Estos primeros párrafos, escritos en letra azul, han sido realizados directamente por ChatGPT, el modelo de lenguaje creado por OpenAI, basado en el uso de la Inteligencia Artificial y en el aprendizaje continuado (machine learning) que se ha hecho tan popular en los últimos tiempos. Esta mejora del sistema se logra a base de interactuar con millones de usuarios, de analizar textos y conversaciones, aprende de sus errores y, lo que puede ser más delicado, se le pueden añadir sesgos, opiniones, hacerlo tendencioso. El estilo literario es correcto desde el punto de vista gramatical, pero algo plano y desde luego no funciona como fuente de información fiable, por mucho que ofrezca datos precisos de cualquier materia. Para este texto solo le pedí que me escribiera cien palabras sobre el desarrollo de la Inteligencia Artificial y otras cien con los tres principales peligros que tenía esta herramienta. Si alguno quiere saber de qué es capaz esta herramienta si se le añaden datos para que GPT «opine» o cree metáforas, puede leer el artículo que publiqué esta misma semana en La Galerna (El Madrid tendrá que derrotar también a ChatGPT). Como me dijeron algunos lectores, es hilarante, sorprendente, pero también, me quedo con este adjetivo: «perturbador».

Las imágenes con las que arranca este post también han sido creadas por otra aplicación, DreamStudio, una herramienta de diseño para la realización de fotomontajes de gran realismo, imágenes que crea de la nada a partir de unas sencillas instrucciones. En mi caso, le pedí a la aplicación que me creara la imagen de un tipo de más de cincuenta años enfrente de un ordenador al que la cabeza se le va transformando en cifras, letras o nuevas imágenes. Bueno, yo tenía otra idea en mente (y además, tengo más de 50 palos y no me veo con el aspecto que me ofrece la fucking machine), pero veo que ofrece varias posibilidades, estilos (cómic, origami, anime, modelos de 3D, arte digital…) y luego puedes crear variaciones sobre las mismas.

ChatGPT, DreamStudio, Midjourney, Google Bard, Playground AI,… cada semana surgen nuevas aplicaciones y cada día, cada hora, mejoran los resultados de estas tecnologías. La potencia tradicional de los ordenadores para analizar y procesar información ha ido más allá y ahora se trata de que «piensen», que razonen por sí mismos. No es un tema nuevo en absoluto, llevamos décadas escuchando hablar del mismo, pero se ha multiplicado de modo exponencial los últimos cinco años y seguirá incrementando su importancia en los próximos, pues se calcula que hay unos 30.000 millones de aparatos conectados en el mundo, transmitiendo datos todos los días.

Hace más de un cuarto de siglo, en 1997, Deep Blue consiguió derrotar al campeón del mundo de ajedrez Garri Kasparov en un duelo muy mediático tras el cual, el ajedrecista de Bakú afirmó que su rival había tenido ayuda humana externa, porque le parecía imposible que hubiera sido capaz de llegar a determinados razonamientos. Le costó convencerse, pero al final entendió que un sistema capaz de analizar millones de movimientos por segundo podía tomar sus propias decisiones, incluso aunque algunas de ellas llevaran un componente de engaño, de trucos, que fue como Kasparov venció a Deep Blue en su primer enfrentamiento un año antes. Como dijeron algunos artículos, «la inteligencia artificial pone en duda la supremacía del hombre».

La Inteligencia Artificial ha encontrado tradicionalmente en los juegos un campo de desarrollo y enorme mejora. El juego de estrategia Go, de más de 2500 años de antigüedad, con millones de variaciones más que el ajedrez, fue utilizado por Google para desarrollar herramientas basadas en la IA (AlphaGo). En 2016 realizó ese sorpasso al ser humano y derrotó al campeón del mundo, el surcoreano Lee Sedol, en una serie de partidas televisadas. Hay un movimiento famoso, el número 37, que algunos denominaron «la mano de Dios» por esa especia de intervención divina que dejó completamente descolocado al campeón del mundo y a los asistentes al evento. La máquina estaba «creando» ventajas, razonando mucho más allá de lo humanamente entendible.

Lee Sedol estuvo tres años tratando de buscar nuevas estrategias para derrotar a la máquina, hasta que finalmente se convenció de que no podría hacerlo y se retiró, igual que Kasparov. Una vez que las máquinas aprenden y procesan las millones de posibilidades, mejoran con cada partida, con cada movimiento. Un caso sorprendente que me hace pensar que esto va «más allá» de lo comprensible fue el de Libratus y el póker. Libratus es un algoritmo de Inteligencia Artificial que logró derrotar en 2017 a cuatro de los mejores jugadores del mundo de póker tras tres semanas de manos jugadas. En el póker, al contrario que con el Go o el ajedrez, cada jugador desconoce las cartas de sus rivales y las bazas con las que cuenta, y además está el factor «faroles», jugar al engaño, a lanzar un anzuelo que una inteligencia artificial podría tratar de pescar con sus cálculos. Pues ni por esas. En lugar de utilizar redes neuronales para la toma de decisiones, como en otras máquinas, sus creadores explicaron que enseñaron a jugar a la máquina e hicieron que analizara millones de partidas de humanos, hasta que fue capaz de predecir incluso el comportamiento de los jugadores cuando se lanzaban un farol. En lugar de machine learning, hablaban de reinforcement learning. Como decía uno de sus creadores, Tuomas Sandaholm: “La mayor habilidad de la IA para hacer un razonamiento estratégico con información imperfecta ha superado a la de los mejores humanos”.

Es indudable que todas estas tecnologías traerán innumerables avances para la ciencia, la medicina y para prácticamente todos los campos (también el arte), pero también es indudable que vendrán acompañadas de nuevos problemas. Y no solo aquellos que el texto inicial de ChatGPT detectaba: sesgos y discriminación, pérdida de privacidad y seguridad, y pérdida de puestos de empleo. Libratus fue vendido al gobierno norteamericano para su uso en estrategia militar, y como dijo Elon Musk al hablar de una posible tercera guerra mundial: «puede que no la inicien los líderes nacionales, sino una de las inteligencias artificiales, si deciden que un ataque preventivo es el camino más probable a la victoria», (El futuro ya está aquí).

Todo esto nos retrotrae a algunos de los clásicos de Hollywood que ya en su día nos hablaron de sistemas informáticos que tomaban sus propias decisiones para ganar una guerra. Por supuesto, Juegos de guerra (1983) de John Badham. Y cómo no, la saga Terminator, que situaba en agosto de 1997 la fecha en que Skynet, la Inteligencia Artificial de uso militar, tomaba conciencia de su propia existencia y se rebelaba contra el creador que podía frenarla.

El creador de Open AI, empresa creadora de ChatGPT, Sam Altman, ha acudido esta semana al Congreso de Estados Unidos para pedir que se regule y controle la Inteligencia Artificial por sus posibles usos descontrolados y efectos inesperados. La carta del presidente ejecutivo de Telefónica, José María Álvarez-Pallete, IA: es el momento de pararse a pensar, va en la misma línea y se ha hecho viral por incidir en las enormes ventajas de esta tecnología, pero también en los enormes riesgos de una AGI (Inteligencia Artificial Generativa) descontrolada: «Es el momento sobre todo de las Ciencias Sociales. La tecnología ya está aquí pero no debemos dejarla sola. Es el momento de la sociología, la filosofía, la antropología, el derecho… De decidir cómo queremos que esto pase y sea bueno para todos, y no solo para unos pocos».

Continuará: Inteligencia Artificial (II): el contrato social.

Inteligencia Artificial (III): regulación, ¿cuándo, y quién?

Relacionados:

¿Impuestos a los robots?

El futuro ya está aquí

Veinte años de Matrix