Desde la irrupción del Chat GPT hacia fines de 2022, la Inteligencia Artificial (IA) no dejó de estar en agenda ni un solo día, con todas las potencialidades y los temores que los avances en este campo implican. Sin embargo, los Estados y otros actores importantes de la sociedad aún intentan despabilarse y buscan regular una revolución tecnológica cuyas dimensiones resulta difícil de mensurar. En este marco, ocho empresas mundiales del rubro, entre las que se destacan Microsoft y Telefónica, se comprometieron junto a la Unesco a construir una IA “más ética”. Lo hicieron en Foro Mundial organizado por el organismo en la ciudad de Kranj, Eslovenia, que en esta segunda edición lleva el eslogan “Cambiando el panorama de la gobernanza de la IA”.
Audrey Azoulay, directora general de la Unesco, señaló: “Hoy estamos dando otro gran paso adelante al obtener el mismo compromiso concreto de las principales empresas tecnológicas mundiales, y hago un llamamiento a todas las partes interesadas del sector para que sigan su ejemplo. Una alianza entre las esferas pública y privada es esencial si queremos desarrollar la IA para el bien común”.
La fórmula del “bien común” expresada por Azoulay es concreta; sin embargo, los interrogantes se multiplican cuando de IA se trata. Ante tamaña revolución: ¿quién se hace responsable si una IA reproduce el mal? ¿Qué tipo de multas deben cobrarse si los sistemas afectan derechos fundamentales como la privacidad? ¿Qué rol deben desempeñar los Estados y qué aportes pueden realizar los privados?
Con estos interrogantes en superficie, ocho compañías suscribieron un documento por el cual están obligadas a adecuar sus desarrollos en el área a los principios estipulados por Naciones Unidas en 2021, adoptados en aquel momento por más de 190 Estados miembro.
En específico, el objetivo es que todos los avances en el rubro de aquí en más puedan seguir la recomendación ética del organismo basada en la «protección y promoción de los derechos humanos, la dignidad humana y garantizar la diversidad y la inclusión».
Así es como, al momento de diseñar e implantar sistemas de Inteligencia Artificial, las organizaciones desarrolladoras respondan a parámetros que protejan a las poblaciones.
Además de Microsoft y Telefónica, otras seis compañías participaron del acuerdo: GSMA, el grupo Lenovo, INNIT, LG AI Research, Salesforce y Mastercard. En esta línea, el pacto firmado las obliga a “garantizar los derechos humanos en el diseño, desarrollo, compra, venta y uso de la IA». Asimismo, también deben «cumplir las normas de seguridad e identificar los efectos adversos de la IA».
Según difunde el sitio oficial de la Unesco, las firmas deberán establecer “procedimientos de verificación para garantizar que se cumplen las normas de seguridad” y adoptar “medidas para prevenir, limitar o corregir los riesgos, de conformidad con las legislaciones nacionales”.
Desde aquí, el acuerdo destaca la relevancia de las pruebas ex ante, es decir, antes de que una IA se comercialice; así como también solicita el desarrollo de prácticas de evaluación ex post, esto es, luego de que se efectivice su uso.
Intentos con sabor a poco
Este acuerdo al que adhirieron las compañías se suma a otros intentos por regular los avances en Inteligencia Artificial. En octubre de 2022, el gobierno de Joe Biden difundió una Carta de Derechos de Inteligencia Artificial. Se trata de un plan que, si bien no fijó acciones específicas de ejecución, se presentó como uno de los primeros llamados a la acción con el propósito de proteger, ante el avance de la IA, los derechos digitales y civiles.
En marzo de 2023, más de cien especialistas de diversas disciplinas realizaron un llamamiento para “una inteligencia artificial latinoamericana al servicio de las personas”. Fue en el marco del Encuentro Latinoamericano de Inteligencia Artificial 2023, realizado en Montevideo, y constituyó la primera vez que la comunidad científica y tecnológica de la región reflexionó desde una perspectiva de los derechos humanos sobre este fenómeno.
Este encuentro casi coincidió temporalmente con otro punto de inflexión. A principios de abril, figuras como el CEO de Twitter, Tesla y Space X, Elon Musk, y el cofundador de Apple, Steve Wozniak, firmaron una carta (publicada en el sitio Future of Life Institute) en la que instaron a “pausar inmediatamente” el entrenamiento de los sistemas de IA, al menos por seis meses.
A mediados de 2023, los discursos desperdigados se materializaron en acciones concretas, cuando el Parlamento Europeo aprobó una ley para controlar el empleo de la IA en el continente. Lo que buscaron a partir de la sanción de la norma fue comenzar a monitorear de cerca los riesgos que podía ocasionar.
A fines de octubre de ese año, las naciones más poderosas del mundo nucleadas en el G7 también hicieron lo propio y acordaron el primer código de conducta para limitar las acciones de las empresas desarrolladoras de IA. El objetivo, según informaron, se vincula con restringir las prácticas de desinformación y la vulneración de derechos fundamentales como la privacidad y la intimidad. El documento, bautizado como “Proceso de IA de Hiroshima”, constituye una de las primeras iniciativas que buscan regular el fenómeno.
A pesar de los intentos y las buenas intenciones, por el momento, los algoritmos creados por grupos poderosos tienen luz verde para actuar sin preocuparse. Entrenan máquinas que sacan músculos y que más temprano que tarde podrían volverse incontrolables.
Por Pablo Esteban, en Página/12