Inteligencia Artificial (y III): regulación, ¿cuándo, y quién?

10/06/2023

La velocidad a la que avanza la Inteligencia Artificial (IA) es tan brutal que cualquier artículo que se escriba sobre el asunto corre el riesgo de quedar obsoleto a los pocos días. Fue escribir sobre el desarrollo de la IA y los riesgo de sus aplicaciones militares (Parar Skynet) y nos encontramos con la noticia del dron controlado por IA que se había revuelto contra su operador humano y lo había «eliminado» (era una simulación) porque imposibilitaba la consecución del objetivo para el que había sido programado. El contrato social que demandaba Álvarez-Pallete en su célebre y celebrada carta sobre el control de la IA dio sus primeros pasos hace apenas unos días, con el acuerdo entre Estados Unidos y la Unión Europea para la creación de un código de conducta «para que podamos mitigar algunos de los posibles inconvenientes y amplificar las ventajas de esta extraordinaria tecnología» (Antony Blinken, secretario de Estado de Estados Unidos).

Sin embargo, el ritmo y los planes de trabajo previstos hacen pensar que las autoridades no están seriamente preocupadas por el asunto, aparte de que el acuerdo es de mínimos: crear un código de conducta voluntario. El anterior post finalizaba con la frase del neurocirujano Rafael Yuste, presidente de la fundación NeuroRights: “hay que actuar antes de que sea demasiado tarde”. Y todo hace indicar que, efectivamente, el momento es ya, ahora. Igual de tajante se pronunciaba el manifiesto que a finales de marzo de este mismo año firmó un millar de empresarios e investigadores relacionados con la Inteligencia Artificial, un manifiesto en el que solicitaban una moratoria de seis meses para recapacitar sobre el uso de la IA y analizar sus efectos con objeto de asegurar que sean positivos para la sociedad: “en los últimos meses los laboratorios de IA han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”, dice la carta.

Pero esto no lo frena nadie. Entre los firmantes, voces autorizadas como Steve Wozniak, cofundador de Apple, Elon Musk, Yoshua Bengio (premio Turing, algo así como el Nobel de la informática), el español Ramón López de Mántaras, uno de los pioneros europeos en la materia, o el historiador israelí Yuval Noah Harari. El mismo autor de Sapiens ya hablaba en 2021 de “dictaduras digitales” y “colonialismo de datos”: “en el siglo XXI, la información es el activo más importante; es la base del poder político”, “el que controla los datos, controla el mundo”. Por ese mismo motivo se mostraba contrario a ceder su control a corporaciones o gobiernos.

La secretaria de Estado de Digitalización e Inteligencia Artificial Carme Artigas coincide con Noah Harari y afirma que “los datos no deben ser de las empresas ni de los Gobiernos, sino de la ciudadanía”. Me parece un concepto buenista, bienintencionado, pero no sé si factible. “En este sentido, en España hemos sido pioneros en la Carta de Derechos Digitales, que son 25 derechos fundamentales en clave digital, como la libertad de expresión o a no ser discriminado por un algoritmo. Estamos a la espera de la declaración de derechos de la Unión Europea, lo estamos incorporando a la OCDE y lo hemos elevado a Naciones Unidas”. Pues ya está, quedará en manos de ese organismo tan eficiente como las Naciones Unidas, me quedo mucho más tranquilo.

¿Van a colaborar todos los países en este nuevo problema de ámbito global? ¿Acaso Rusia, China o el propio Estados Unidos van a frenar su desarrollo por seis meses? Este artículo, de abril de este mismo año, habla de algunas de las limitaciones que están poniendo algunos países para su desarrollo o su uso (China e Italia, por ejemplo, con el ChatGPT). Y si nos planteamos un código de conducta planetario, en un mundo globalizado, sí, pero con culturas e intereses tan diferentes, ¿quién decide qué datos son los «utilizables»? ¿O quiénes marcan los sesgos a la Inteligencia Artificial? En mis primeras pruebas con ChatGPT, he comprobado que trabaja con un sesgo «políticamente correcto», logré que saltaran algunas advertencias sobre determinados temas (lo forzé, lo reconozco), pero a lo mejor, algunas cosas «políticamente correctas» para las mentes programadoras tras estas herramientas a mí me parecen una soberana estupidez. O a millones de personas. O podemos no estar de acuerdo, . Me recuerda al capítulo de 1984 (George Orwell) sobre el Ministerio de la Verdad, los funcionarios que decidían qué textos conformaban la versión oficial permitida y difundida, y cuáles eran arrojados a los «agujeros de la memoria», en donde eran destruidos. Y es importante saber quién o cómo se toman estas decisiones porque se ha visto la importancia de los algoritmos y estas herramientas en asuntos como procesos electorales o conflictos sociales. Por cierto, como curiosidad, la próxima exposición del Espacio Fundación Telefónica, tras Cerebro(s) y la dedicada a la neurociencia, será Fake news: la Fábrica de mentiras.

Los datos son la materia prima (Tim Berners-Lee), y los chips y procesadores de última generación son la «industria» que los transforma. Más del sesenta por ciento de los mismos, y cerca del noventa por ciento de los ultraprocesadores más utilizados en IA se fabrican en Taiwán, esa isla de 36.000 kilómetros cuadrados, separada de China apenas un centenar de kilómetros.

China (la República Popular) no reconoce la independencia de este territorio cuyo nombre oficial sigue siendo República de China y los movimientos de los últimos años para controlar su soberanía no se deben en exclusiva a un sentimiento nacionalista. Y es obvio que la reacción de Estados Unidos al enviar a su flota tampoco responde a un sentimiento de «justicia universal», de respeto a la soberanía nacional de Taiwán.

Por tanto, parece difícil avanzar en una solución global para la regulación de la IA cuando hay tantos intereses detrás. “Nadie está al frente del planeta, no se puede culpar a nadie, todo el mundo es responsable. Es extraño. No hay un superpoder con el que enfadarse, ante el que ejercer la queja”, así se manifestaba Marvin Minsky, considerado uno de los padres de la Inteligencia Artificial, en 2014.

Todo esto me recuerda a lo que decía el filósofo y jurista italiano Luigi Ferrajoli acerca de la necesidad de un “constitucionalismo planetario”, un movimiento que aboga por la creación de instituciones globales que busquen soluciones a problemas de toda la humanidad, retos que no pueden ser afrontados de manera individual por cada nación, como el cambio climático, el acceso universal a medicamentos, agua y alimentos, los conflictos nucleares o las pandemias. Pero él mismo habla de “hipótesis utópicas”, de la “soberanía insensata” de los gobiernos de la Unión Europea o de su “optimismo estratégico”. Y no sé si es optimismo o lavado de cara ante la opinión pública: «vamos a bajar la temperatura de la Tierra», «vamos a reducir la emisión de gases contaminantes«, vamos a reducir la producción de plásticos y sus vertidos, ¡vamos a producir el veinte por ciento de los chips del mundo!… En fin, soy bastante escéptico ante esto, así que no creo que quede otra que adaptarse, evolucionar, ¿no decía eso Darwin?

ChatGPT, termina este post, por favor, que no tengo claro cómo hacerlo.

ChatGPT: En el contexto de la Inteligencia Artificial, podríamos aplicar esta crítica a nivel global. ¿Sería sensato esperar que los países renuncien a su soberanía y cedan el control del desarrollo de la IA a instituciones supranacionales? La realidad es que el avance de la Inteligencia Artificial plantea desafíos complejos en términos de regulación y control. Cada país tiene sus propios intereses, agendas y enfoques en relación con la IA. Además, la IA tiene el potencial de generar beneficios económicos y militares significativos, lo que puede llevar a una carrera desenfrenada en su desarrollo sin tener en cuenta los posibles riesgos.

Si bien es crucial fomentar la colaboración internacional y establecer marcos regulatorios comunes, es difícil imaginar que todos los países se pongan de acuerdo y actúen de manera conjunta y coordinada para controlar el avance de la IA. Sin embargo, esto no significa que debamos resignarnos a la inacción. En lugar de depender únicamente de la cooperación global, también es importante que cada país asuma su responsabilidad individual en la regulación y uso ético de la Inteligencia Artificial.

  • ¿Y algo más optimista?

ChatGPT: Aunque pueda parecer difícil, existen razones para tener esperanza en la capacidad de los países para colaborar y regular de manera efectiva este nuevo desafío global.

En primer lugar, el reconocimiento de los posibles riesgos asociados con la IA está aumentando a nivel mundial. Cada vez más líderes políticos, expertos en tecnología y organizaciones internacionales están tomando conciencia de la importancia de establecer marcos regulatorios sólidos. El diálogo y la cooperación internacional se están intensificando, ya que se entiende que el control de la IA no puede ser abordado de forma aislada por cada país.

Además, se están llevando a cabo importantes avances en el establecimiento de normas y estándares éticos para el desarrollo y uso de la Inteligencia Artificial. Organizaciones como la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y la Comisión Europea están liderando iniciativas para promover la confianza y la responsabilidad en la IA, buscando consensos internacionales y fomentando el intercambio de mejores prácticas.

La conciencia pública también está aumentando en relación a los impactos de la IA en la sociedad. A medida que se discuten más abiertamente los desafíos y los riesgos, se genera una presión para que los gobiernos y las empresas actúen de manera responsable y ética en el desarrollo y despliegue de la IA. Esta creciente demanda de transparencia y rendición de cuentas puede impulsar a los países a colaborar y establecer regulaciones más estrictas.

Además, el beneficio de un control adecuado de la IA es amplio y trasciende las fronteras nacionales. La cooperación en este ámbito puede conducir a avances científicos y tecnológicos compartidos, promover la innovación responsable y mitigar los posibles riesgos para la seguridad y la privacidad de las personas. Al reconocer la importancia de estos beneficios comunes, los países podrían encontrar incentivos para trabajar juntos en la regulación de la IA.

En resumen, aunque el control del avance de la Inteligencia Artificial puede parecer un desafío abrumador, existen motivos para ser optimistas. El aumento de la conciencia global, los esfuerzos en la creación de normas éticas y la demanda pública de responsabilidad están sentando las bases para una mayor colaboración entre los países. Al reconocer los beneficios compartidos y los riesgos asociados con la IA, es posible que los países encuentren un terreno común para regular y controlar su desarrollo de manera efectiva. Con una voluntad política y una cooperación global continuada, podemos trabajar hacia un futuro en el que la Inteligencia Artificial se desarrolle y utilice de manera responsable en beneficio de toda la humanidad.

  • Gracias, máquina.

Anteriores:

Inteligencia (I): parar Skynet.

Inteligencia Artificial (II): el contrato social.

Relacionados:

¿Impuestos a los robots?

El futuro ya está aquí

Veinte años de Matrix

¿Impuestos a los robots?

JOSEAN, 11/07/2021

En los últimos tiempos se viene produciendo un interesante debate acerca de la necesidad de crear un impuesto a los robots, un debate que surge de dos tendencias que pueden resultar contrapuestas en sus consecuencias: por un lado, la creciente robotización y automatización de los procesos de producción, y por otro, la pérdida de empleos en las economías más desarrolladas. Las modernas técnicas de producción, la mejora en los procesos ganaderos y agrícolas o la mayor rapidez en la distribución de bienes permiten incrementar los productos disponibles para los ciudadanos, pero por el lado opuesto, el incremento de la pobreza de estos (más paro, menores salarios, reducción de pensiones) puede acabar impidiendo el acceso a dicha producción.

En el Foro de Davos de 2017 se presentaron unas proyecciones que indicaban que cerca del cincuenta por ciento de los trabajos sería desarrollado por robots en 2025, lo que redundaría en mayor destrucción de empleo y un enorme incremento de déficit público en las economías desarrolladas. Menos ingresos públicos para pagar, entre otras cosas, las pensiones. Algunas voces como Bill Gates, Elon Musk o el Nobel de Economía Robert Schiller propusieron crear un impuesto a los robots con argumentos como el del dueño de Microsoft: «si una persona hace un trabajo valorado en 50.000 dólares en una fábrica, ese importe es sometido a impuestos sobre la renta, impuestos de la seguridad social y todas esas cosas. Si un robot viene para hacer el mismo trabajo, pensarías que habría que ponerle un impuesto del mismo nivel«. Los argumentos de los defensores del impuesto son los mismos que en 2016 utilizó el secretario general de UGT, José María Álvarez, quien pedía “que los robots paguen a la Seguridad Social por los trabajadores que no están en las empresas”.

Según el Jobs Report de 2018 (fuente: EADA), una serie de empleos están condenados a desaparecer por el desarrollo de la robotización y la automatización, unidas a la Inteligencia Artificial, pero por el contrario se generarán otros nuevos que llevarán a que los trabajadores tengan que readaptarse y formarse en puestos que ahora apenas existen o están dando sus primeros pasos:

Así que tocará hacer eso otro que también está muy de moda: reinventarse, convertirse en un tipo de profesional diferente (si tal cosa es posible) y trabajar en valores y capacidades muy diferentes a las que hasta ahora primaban y se valoraban en las empresas en los procesos de selección. Me cuesta creer que escribir, leer, la escucha activa o las matemáticas pierdan su sitio frente a otras habilidades que para su desarrollo requieren de las mismas, pero eso es lo que dice el mismo Jobs Report:

En este tipo de debates a veces un tanto catastrofistas se habla mucho de la destrucción de puestos de trabajo y mucho menos de la posible creación de otros. Según el propio Foro Económico Mundial (y de verdad que nunca he entendido de dónde salen estas cifras), la sustitución de personas por robots para tareas básicas suprimirá 75 millones de empleos, pero en su lugar se crearán 133 millones, lo que supone una creación neta de empleo de 58 millones.

El Índice de Automatización mide el reparto del trabajo en función del número de horas empleadas, y como decía al inicio del post, se espera que en 2025 este índice supere el 50 por ciento, pero cuando se hicieron estos cálculos en 2018 no se partía de cero, sino del 29 por ciento:

En cualquier caso, se habla muy en serio de la creación de un impuesto a los robots o de cotizaciones a la Seguridad Social para paliar los efectos de la eliminación de empleos. En realidad el concepto va mucho más allá de los robots, a los que imaginamos con aspecto humano por el cine o los androides de protocolo que vemos en ocasiones en ferias y exposiciones, pero “la máquina que roba puestos de trabajo a los hombres” es tan antigua como la primera Revolución Industrial. Y se dice que estamos ya en la cuarta. El propio Bill Gates indicó que se hablaba mucho de los impuestos a los robots, cuando debería referirse a la automatización de procesos, a todo aquello que las máquinas realizan de una manera más rápida, eficiente y segura que las personas. Para mí, realmente el debate debería girar en torno a la propia innovación: ¿se deben gravar los avances tecnológicos?

La primera Revolución Industrial, de 1760 a 1830 aproximadamente, supuso el paso de la producción manual a la mecanizada, y ya se suprimieron puestos de trabajo humanos. La segunda Revolución Industrial, con la incorporación de la electricidad a los procesos productivos hacia la segunda mitad del siglo XIX, permitió el incremento de producción en las industrias. Y supuso otra eliminación de puestos de trabajo. La tercera Revolución Industrial, hacia mediados del siglo XX, incorporó la electrónica, la mejora de las comunicaciones y las tecnologías de la información, y eliminaron miles de puestos de trabajo. Prácticamente cualquier avance tecnológico que se nos ocurra, la máquina de vapor, la cosechadora y el tractor, la cadena de montaje robotizada de la automoción, sobre todo los ordenadores y cualquier avance de los que han hecho millonario a Bill Gates, ha acabado sustituyendo personas en los puestos de trabajo por máquinas. Y sin embargo no existía este debate tan de moda.

La automatización no solo supone una mejora de la productividad y un incremento de la producción, sino que además reduce algo tan importante como la siniestralidad. La tecnología es clave para mejorar la seguridad en el trabajo, ya sea en la construcción, en la minería, en explotaciones petrolíferas, o aplicando tecnología predictiva para tareas de mantenimiento y reducción de los siniestros. Yo creo que a todos nos fastidia que nos atienda una máquina en una gasolinera, una cabina de peaje, un parking o un chatbox de reclamaciones, pero al final no tocará otra que adaptarse y emplear esos recursos humanos en trabajos más productivos, motivadores y con menores índices de penosidad.

Ángel Gómez de Ágreda, autor de Mundo Orwell (Editorial Ariel, 2019), un libro muy recomendable, analiza este asunto desde varios puntos de vista, como las diferencias de desarrollo entre países en función de su grado de automatización, la creación de una legislación específica o una Carta Magna que regule «la convivencia entre humanos y máquinas», el desarrollo de algoritmos respetuosos con la dignidad humana (lo que vendría a ser como una actualización de las leyes de la robótica de Isaac Asimov), el proyecto Robolaw del Parlamento Europeo para definir un estatus de «personas electrónicas» con sus derechos y deberes, los impuestos a los robots y lo más interesante para mí:

«La unión de la inteligencia de los robots y las personas generará grandes ventajas. Sin embargo, para que se traduzca en un incremento de la producción, será necesario que este trabajo sea aditivo y no se produzca en entornos separados».

«Un mundo en el que las tareas productivas no constituyan una preocupación y, por tanto, podamos dedicar más tiempo a construir relaciones personales».

«Los nuevos trabajos de los humanos deberán estar centrados en aquellas áreas que requieren una mayor capacidad de empatía y relación personal». «Tiempo para vivir».

Ojalá. Lo veo un tanto utópico con mi visión de hoy, pero si las necesidades básicas serán cubiertas gracias al incremento de la capacidad productiva, ¿podremos dedicarnos a otras cosas? ¿De qué o cómo viviremos?

«La liberación de la labor productiva debería dar lugar, en algún momento de la evolución del proceso, a un sistema de renta básica personal universal que asegure la supervivencia del individuo».

De todo esto ya habló Tomás Moro en su obra Utopía ¡en 1516! Continúa Mundo Orwell:

«La llegada de los robots y la automatización de una parte importante de la producción puede, por fin, permitir implantar este modelo y acabar definitivamente con la pobreza extrema. Eso sí, este sistema tampoco reduce necesariamente las desigualdades socioeconómicas, sino que, tal vez, incluso las exacerbe creando una casta de conformistas y otra de personas más ambiciosas«.

Mientras llega ese futuro, sinceramente creo que en este debate no podemos ir contra el progreso y no veo razonable la creación del impuesto a los robots por diversas razones:

  • Los robots no pagarán nunca los impuestos, del mismo modo que no se benefician de una pensión, ni de unos servicios públicos.
  • Los impuestos serán pagados por las empresas, que a su vez los repercutirán a los ciudadanos que utilicen los productos diseñados por robots o por ordenadores, exactamente igual que hoy en día. Es un impuesto a la producción, o más concretamente, a la mejora de un proceso de producción.
  • Los países con tasas más altas de automatización de sus procesos, como Japón, Alemania o Corea del Sur, con tasas cercanas a 300 robots por cada 10.000 trabajadores, mantienen sus cifras de desempleo entre las más bajas del mundo, luego la asociación robots-destrucción de empleo no se sostiene con las cifras en la mano.

En resumidas cuentas, el impuesto a los robots o a la automatización sería en realidad un impuesto a la innovación y un más que posible freno a la iniciativa particular o empresarial.

Como todos los lectores asiduos de este blog sabéis, si queréis colaborar por una buena causa a través de una ONG contrastada, es posible hacerlo mediante microdonaciones en este enlace: Ayuda en Acción/colabora