NOTICIAS

Metaverso e inteligencia artificial: también las religiones piden una algorética

(iStock.com/Ilya Lukichev)

El 10 de enero de 2023, tres representantes de las tres religiones abrahámicas firmaron, en la Casina Pío IV en el Vaticano, la Rome Call for AI Ethics. Se trata de un documento nacido por iniciativa de la Pontificia Academia para la Vida (PAV) para promover una «algorética», es decir, un desarrollo ético de la inteligencia artificial.

Los participantes del evento fueron recibidos en audiencia por el Papa Francisco, quien – recordando la encíclica Fratelli tutti – señaló que la fraternidad debía ser la «condición para que el desarrollo tecnológico esté al servicio de la justicia y de la paz en todo el mundo». El Pontífice ha destacado, con un ejemplo relacionado a las demandas de asilo, la urgencia de la reflexión y de la atención política que requiere este tema: «No es aceptable que las decisiones sobre la vida y el destino de un ser humano sean confiadas a un algoritmo».

Junto con el Gran Rabino Eliezer Simha Weisz (miembro del Consejo del Gran Rabinato de Israel) y el Jeque Al Mahfoudh Bin Bayyah (Secretario General del Foro de la Paz de Abu Dhabi), el documento fue firmado también por el Presidente de la PAV, Monseñor Vincenzo Paglia, quien, en una entrevista concedida a Vatican News, anticipó que el Rome Call será firmado también el próximo verano, en Japón, por las demás grandes religiones mundiales.

¿Qué es la «Rome Call for AI Ethics»?

La Rome Call for AI Ethics es un documento firmado por primera vez en Roma el 28 de febrero de 2020 por la Pontificia Academia para la Vida, Microsoft, IBM, la FAO y el Ministerio de Innovación, en representación del Gobierno italiano. El texto no es ni una declaración conjunta, ni un acuerdo, ni un tratado. La idea subyacente es promover un sentido de responsabilidad compartida entre organizaciones internacionales, gobiernos, instituciones y el sector privado en un intento de crear un futuro en el que la innovación digital y el progreso tecnológico garanticen a la humanidad su centralidad.

Como explicó el P. Carlo Casalone en aquella ocasión, el documento se desarrolla siguiendo tres líneas principales. La primera es la ética, que recuerda el marco de valores fundamentales subyacente a la Declaración Universal de los Derechos Humanos. La segunda directriz destaca la importancia de la educación de las nuevas generaciones, que estará profundamente marcada por la disponibilidad de nuevos recursos tecnológicos, a los que debe garantizarse un acceso sin desigualdades. La última directriz es la del derecho, en la que emerge la necesidad de traducir los principios enunciados en normativas eficaces y precisas, mediante un enfoque ético que acompañe cada etapa del ciclo de producción de las tecnologías, desde el principio.

El contexto: las inversiones de las «big tech» y las cuestiones de responsabilidad y desigualdad

Desde hace algún tiempo, los términos «metaverso», «algoritmo» y «blockchain» aparecen en las ocasiones y los contextos más diversos. El metaverso, en particular, ha sido objeto en los últimos años de enormes inversiones por las mayores empresas del sector digital – 70.000 millones de dólares (Microsoft); 10.000 millones (Facebook-Meta); 1.600 millones (Unity Software); 39,5 millones (Google-Alphabet) – para desarrollar la tecnología que lo haría posible. Lo que está en juego es enorme.

En lo que respecta a la inteligencia artificial, dos temas de gran preocupación, y que por tanto constituyen también dos retos prioritarios para los firmantes del Rome Call, son el de la responsabilidad y el de la desigualdad. La afirmación de Virginia Eubanks, citada en un artículo del P. Antonio Spadaro y Paul Twomey, lo sintetiza con claridad: «La inteligencia artificial tiene la capacidad de modelar las decisiones de los individuos sin que estos ni siquiera lo sepan, dando a quienes tienen el control de los algoritmos una posición abusiva de poder».

El quid de la cuestión es el papel del ser humano dentro del algoritmo: este debe ser necesariamente responsable del producto al que conduce la toma de decisiones algorítmica. En efecto, aparte de las cuestiones pertinentes de accesibilidad, no basta con centrarse únicamente en la responsabilidad y la educación del usuario final para el uso correcto de los sistemas digitales. Del mismo modo que no basta con confiar en la sensibilidad moral de quienes investigan y diseñan algoritmos.

Porque, concretamente, lo que está ocurriendo es que algunas aplicaciones de aprendizaje profundo están empezando a socavar los límites de la responsabilidad humana. Desde los coches autoconducidos a las aplicaciones de social scoring, pasando por las que predicen la reincidencia de delitos o los programas capaces de gestionar sistemas de armamento y aparatos militares enteros, la gran pregunta es: ¿podemos realmente dejar en manos de una inteligencia artificial decisiones de las que puede depender la vida de una persona o de pueblos enteros? Y entonces, en cualquier caso, ¿de quién será la responsabilidad de esa decisión «inteligente»?

Por eso, en los últimos años, ha crecido la exigencia a los gobiernos por parte de técnicos y científicos autorizados, por sindicatos, por la sociedad civil y por las propias empresas tecnológicas, de que intervengan para que los valores humanos estén controlados y presentes en el desarrollo de la IA.

Existe, y parece estar en fase avanzada de aprobación, un proyecto de reglamento de la UE sobre inteligencia artificial de abril de 2021. El entonces Presidente del Parlamento Europeo, David Sassoli, fallecido hace un año, dio un importante impulso al proyecto. Con ocasión de la firma del Rome Call Sassoli había afirmado claramente que «necesitamos normas capaces de combinar el progreso tecnológico, el desarrollo empresarial, la protección de los trabajadores y las personas y la democracia».

El caso ChatGPT

Mucho se ha hablado en las últimas semanas de la primera gran aplicación de inteligencia artificial al alcance de todos en internet, ChatGpt, un nuevo modelo de chatbot – una máquina que sabe responder a preguntas planteadas por humanos – creado por OpenAi, una fundación nacida en 2015 por inversores de Silicon Valley, entre ellos Elon Musk. ChatGpt es capaz de entender el lenguaje humano y mantener conversaciones incluso muy complejas. Se basa en muestras de texto tomadas de Internet.

Nosotros también quisimos probar ChatGPT sobre el tema del discernimiento y los Ejercicios Espirituales de San Ignacio. En nuestra «conversación», en un momento dado le preguntamos si discernía lo que era mejor escribir antes de responder a una pregunta. Explicó que «como modelo de inteligencia artificial, no tengo la capacidad de “decidir” o “discernir” lo que es mejor escribir. Funciono siguiendo un algoritmo de aprendizaje automático que me permite generar respuestas a preguntas basadas en los datos con los que he sido entrenado… Pero no tengo “conciencia” y no tengo la capacidad de evaluar el bien y el mal, no tengo intencionalidad real en mis outputs, sólo una salida procesada a través de un algoritmo». Todo el desafío ético está aquí.

Comments are closed.