El control de la inteligencia artificial, un tema crucial sobre la mesa del G7
Los prodigios y riesgos de la inteligencia artificial (IA) volverán este año a la cumbre de líderes del G7, las siete democracias más ricas del mundo, cuyos líderes se reúnen desde el jueves en la región italiana de Apulia para analizar su futura regulación, entre otras cuestiones geopolíticas.
La primera ministra italiana, Giorgia Meloni, presidenta de turno, anunció que el encuentro de jefes de Estado o de Gobierno del Grupo -Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido- dedicaría una sesión a esta tecnología, el próximo viernes.
La cumbre dará así continuidad al “Proceso de Hiroshima” iniciado el año pasado en la ciudad nipona y con el que el G7 aprobó un código de conducta “voluntario” para instituciones y empresas que empleen este tipo de herramientas, en un intento de mitigar riesgos como la desinformación o la vulneración de la privacidad.
Este año la cuestión de la IA contará con el punto de vista de personalidades como el papa Francisco, que sigue con atención el advenimiento de esta herramienta, llegando incluso a dedicarle su mensaje por la Jornada Mundial de la Paz de este año.
De hecho, el Vaticano instauró en 2020 la iniciativa “Rome call for IA ethics” para promover la aplicación de la “algorética“, es decir, de una dimensión ética a estos prodigiosos algoritmos.
La idea es acordar ciertos estándares entre potencias democráticas sobre la IA y fuentes italianas del G7 expresan su “confianza” en que “algo sensato” será finalmente plasmado en la declaración final.
Los líderes, señalan, debatirán sobre cómo dar a esta tecnología una visión y uso “antropocéntrico”, su eventual futuro en el mercado laboral y las posibilidades de llevarla a países en desarrollo.
Pero lo que más preocupa a los jefes de las siete democracias más poderosas del mundo, que se reunirán en un aislado complejo hotelero cerca de la ciudad de Bari, es la desinformación que la IA puede generar.
Esto, la difusión de imágenes o sonidos alterados o falsos, podría confundir al electorado y socavar los pilares de los países democráticos, un tema especialmente sentido en un 2024 “superelectoral”, en el que casi la mitad de la población mundial está llamada a las urnas.
Por esta razón, el subsecretario italiano para la Información, Alberto Barachini, explica a EFE que la intención es poner esta cuestión en el centro del debate geopolítico por primera vez.
Meloni aspira así a que los grandes líderes del G7 “unan fuerzas” para avanzar en una regularización de la IA y, de este modo, negociar su extensión con otras potencias como China, por ejemplo.
Barachini, un periodista que saltó a la conservadora Forza Italia reclutado por su histórico fundador Silvio Berlusconi, recuerda una ocasión en la que, hablando con un ingeniero indio en Naciones Unidas sobre IA, este le dijo que “las reglas actuales están bien”. El político italiano respondió: “Claro, le entiendo, porque no hay”.
“La normativa europea está muy bien, protegen nuestro mundo, pero debemos razonar también con China, Japón, con Corea o Estados Unidos, con todos los países extraeuropeos, porque uno de los principales riesgos hoy es la desinformación rusa”, apuntó.
Por eso, alegó, “si nosotros no ponemos sobre la mesa de los grandes una unidad de visión, cualquier reglamento acabará colisionando con la no reglamentación de otros países”.
“Si conseguimos unir fuerzas también en el seno del G7 sería a buen seguro un instrumento de presión importante”, sostuvo.
Barachini cree que un uso impropio de la IA puede desequilibrar -más si cabe- el concierto internacional, pero también tener graves consecuencias en el mercado laboral o en la confianza de las democracias, minadas por la sospecha.
En el plano nacional, el Parlamento italiano tramita desde abril un proyecto de ley sobre la IA basado en tres principios: la defensa del derecho de autor, la identificación de los contenidos generados por esa tecnología y un endurecimiento de las sanciones al ‘Deepfake’, imágenes muy realistas creadas por ordenador.