SOCIOLOGÍA

Inteligencia artificial y justicia social

COMO ESTÁ CAMBIANDO LA EXPERIENCIA HUMANA

© iStock

Los pobres en un mundo dominado por el «big data»

La experiencia humana está cambiando profundamente en la era de la inteligencia artificial (IA), mucho más de lo que la gran mayoría de la población mundial logra anticipar o comprender. La verdadera explosión de la IA tiene un impacto fuerte en nuestros derechos en la actualidad y en nuestras oportunidades futuras, y determina procesos de tomas de decisión que, en una sociedad moderna, conciernen a todos. Se trata de un cambio tecnológico enorme que presenta grandes beneficios e insidiosos riesgos. La proporción de riesgos y beneficios dependerá de los pioneros y creadores de esta tecnología, y en especial de la claridad de su visión del bien común y de cuan acertada sea su comprensión de la naturaleza de la experiencia humana[1].

Debemos darnos cuenta de que la inteligencia artificial también representa un desafío y una oportunidad para la Iglesia: es una cuestión de justicia social. De hecho, la investigación apremiante, ávida y no transparente del big data, es decir, de los datos necesarios para alimentar los motores de aprendizaje automático (machine learning)[2], puede llevar a la manipulación y explotación de los pobres: «Los pobres del siglo XXI son, junto a los que no tienen dinero, los que, en un mundo basado en datos e información, son ignorantes, ingenuos y explotados»[3]. Además, los fines para los cuales se preparan los sistemas de IA pueden llevarlos a interactuar de manera impredecible, de modo que garanticen que los pobres sean controlados, vigilados y manipulados.

En la actualidad, los creadores de los sistemas de IA se han convertido cada vez más en los árbitros de la verdad para el consumidor. Pero, al mismo tiempo, los desafíos filosóficos esenciales – la comprensión de la verdad, el conocimiento y la ética – se vuelven incandescentes a medida que las posibilidades de la IA alcanzan y sobrepasan los límites cognitivos humanos[4]. En el contexto de los progresos del siglo XXI, la experiencia y la formación de la Iglesia deberían ser un don esencial destinado a los pueblos para ayudarlos a formarse un criterio que los vuelva capaces de controlar la IA, en lugar de ser ellos los controlados.

La Iglesia también está llamada a la reflexión y el compromiso. En medio de la arena política y económica desde la que se promueve la IA, las consideraciones de orden espiritual y ético deben encontrar su espacio. Sobre todo, en el siglo XXI, la IA es una disciplina y una comunidad sedienta de evangelización. La Iglesia debe esforzarse por informar e inspirar los corazones de muchos miles de personas involucrados en la creación y la elaboración de los sistemas de inteligencia artificial. A fin de cuentas, son las decisiones éticas las que determinan y enmarcan los problemas que enfrentará la IA, las que dicten cómo se programa y cómo deben ser captados los datos para alimentar el aprendizaje automático. El código que se escriba hoy será la base de los futuros sistemas de IA por muchos años.

Podemos leer el desafío de lo que podríamos llamar la «evangelización de la IA» como una combinación entre las recomendaciones del papa Francisco a mirar el mundo desde la periferia, y la experiencia de los jesuitas del siglo XVI, cuyo método práctico para influir en quienes son influyentes hoy se podría reformular como el acto de compartir el discernimiento con los científicos de los datos.

¿Qué es la inteligencia artificial?

La definición y el sueño de la IA llevan juntos más de sesenta años. Esta se define como la capacidad de una computadora, o de un robot controlado por una computadora, de ejecutar acciones que asociamos normalmente con seres inteligentes, como razonar, descubrir significados, generalizar o aprender de la experiencia pasada.

El largo desarrollo de la IA siguió la evolución de la reflexión sobre cómo las máquinas pueden aprender, y estuvo acompañada por la mejora reciente y radical de la capacidad de cálculo. La primera idea fue la IA, y a esta la que siguieron el machine learning y, más recientemente, las redes neuronales y el aprendizaje profundo.

Inscríbete a la newsletter

Cada viernes recibirás nuestros artículos gratuitamente en tu correo electrónico.

El Aprendizaje Automático Básico (Basic Machine Learning) es el primer nivel de la IA. Supone el ingreso de manera tradicional de datos en un software escrito a mano y dotado de un conjunto específico de instrucciones para realizar una tarea concreta. En otras palabras, emplea algoritmos para clasificar grandes cantidades de datos; construye un modelo matemático a partir de estos; y así ejecuta resoluciones o predicciones sobre ciertas actividades sin instrucciones específicas previas. El resultado sigue siendo una tarea determinada – por eso se le llama Narrow AI –, pero la operación es generalmente ejecutada con mejores resultados que los que obtendrían los seres humanos. Entre los ejemplos de la Narrow AI podemos mencionar la clasificación de imágenes o el reconocimiento de los rostros.

Las redes neuronales artificiales son una serie de algoritmos, modelados esencialmente a imitación del cerebro humano, que procesan los datos valiéndose de varias capas y de conexiones para reconocer patrones y suministrar un análisis predictivo. El aprendizaje profundo tiene lugar cuando muchas redes neuronales se conectan entre sí y se entrenan con enormes cantidades de datos, de manera de poder aprender y formular automáticamente representaciones a través de elementos no ingresados por el hombre.

Beneficios

Silenciosa, pero rápidamente, la IA está reconfigurando por entero la economía y la sociedad: el modo en que votamos, cómo se ejerce el gobierno, la vigilancia policial, la manera en que los jueces emiten sentencias, la forma en que accedemos a los servicios financieros y nuestra solvencia crediticia, los productos y servicios que compramos, los apartamentos en que vivimos, los medios de comunicación que usamos, las noticias que leemos, la traducción automática oral y escrita. La IA diseña nuestros autos, nos ayuda a conducirlos y orientarlos en el territorio, establece cómo obtener un crédito para comprarlo, decide qué calles deben repararse, verifica si hemos violado alguna ley del tránsito y nos dice incluso si, en caso de haberlo hecho, terminaremos en la cárcel[5]. Estos son solo algunos de los numerosos aportes de la IA que ya están operando.

La inteligencia artificial puede conectar y evaluar muchos más datos y elementos que los seres humanos, y por tanto reducir los resultados parciales o poco claros en base a los cuales solemos tomar nuestras decisiones. Entre los ejemplos posibles, destaca la prevención de los errores médicos, que aumentan la productividad y reducen los riesgos en los lugares de trabajo. El aprendizaje automático puede mejorar las descripciones de los puestos laborales, y así proponer mejores procesos de selección. Si están bien programados, los algoritmos pueden ser más imparciales y captar patrones que escaparían al juicio humano.

Los investigadores Mark Purdy y Paul Daugherty afirman: «Prevemos que el impacto de las tecnologías de IA en las empresas motivará un aumento de la productividad del trabajo de hasta 40%, permitiendo a las personas hacer un uso más eficiente de su tiempo»[6]. El Banco Mundial está explorando los beneficios que la IA puede aportar al desarrollo. Otros observadores ven en la agricultura, en el abastecimiento de recursos y en la asistencia sanitaria, los sectores de las economías en desarrollo que extraerán un gran beneficio de la aplicación de la IA. Además, la inteligencia artificial contribuirá notablemente a la reducción de la contaminación y el despilfarro de recursos.

La inteligencia artificial para la justicia social

No cabe duda de que la IA puede traer beneficios a la sociedad, pero también plantea cuestiones importantes de justicia social. En esta área, la Iglesia tiene la oportunidad y la obligación de comprometer su enseñanza, su voz y su autoridad en algunas cuestiones que se perfilan como fundamentales para el futuro. Entre ellas se incluye, sin duda, el enorme impacto social en la caída del empleo de millones de personas que motivará la evolución tecnológica en las próximas décadas, lo que creará conflictos y una mayor marginación de los más pobres y vulnerables.

Impacto en el empleo. Se ha hecho mucho para medir el impacto de la IA y la robótica en el empleo, sobre todo tras la publicación en 2013 del importante artículo de Osborne y Frey, en el que estimaban que el 47% de los puestos laborales en Estados Unidos corrían el riesgo de ser automatizados en los próximos veinte años[7]. Los estudios y el debate científico han aclarado la naturaleza y los contornos del fenómeno: el fin total o parcial de las actuales actividades laborales, su propagación en todos los sectores y en las economías desarrolladas, emergentes o en vías de desarrollo.

Por supuesto, hacer pronósticos exactos es difícil; pero un reciente informe de McKinsey Global Institute entrega un análisis de mediano plazo. El 60% del empleo tiene al menos un 30% de actividades laborales que pueden automatizarse. Por otra parte, esto abrirá las puertas a nuevos empleos que hoy no existen, tal como ha ocurrido en el pasado como consecuencia de la irrupción de nuevas tecnologías. Las predicciones indican que para 2030, entre 75 y 375 millones de trabajadores (es decir, entre el 3 y el 14% de la fuerza laboral global) tendrá que cambiar de categoría profesional. Además, todos los trabajadores tendrán que adaptarse, pues sus tareas evolucionarán junto con las de las máquinas, cada vez más hábiles[8]. Pero si la adopción de las nuevas tecnologías sigue el ritmo que ha tenido hasta hoy, superando las predicciones anteriores, es claro también que el nivel de dislocación social corre el riesgo de ser mayor[9].

Códigos y prejuicios. El código de programación está escrito por seres humanos. Por ello, su complejidad puede acentuar los defectos que inevitablemente acompañan cualquiera tarea que realizamos. Los prejuicios y los sesgos en la escritura de los algoritmos son inevitables. Y pueden tener efectos muy negativos en los derechos individuales, las decisiones, los empleos de los trabajadores y la protección de los consumidores.

En efecto, los investigadores han encontrado prejuicios de varios tipos presentes en los algoritmos, en software adoptados para la admisión universitaria y en recursos humanos, en los ratings del crédito, los bancos, los sistemas de apoyo a la infancia, los dispositivos de seguridad social, etc. Los algoritmos no son neutros: incorporan valores a su funcionamiento y obedecen a métodos operativos que, aunque no intencionalmente, pueden conducir a exclusiones, discriminación o daños económicos[10].

La creciente dependencia en el plano socio-económico de la IA confiere un enorme poder a quienes programan los algoritmos: un poder del que podrían incluso no tener consciencia, así como podrían no tenerla respecto del daño potencial que puede generar un algoritmo elaborado en base a un código incorrecto. Y como el complejo mercado de la IA interactiva sigue evolucionando, es también probable que los algoritmos que existen hoy, hasta ayer inocuos, puedan mañana tener consecuencias relevantes.

La IA puede ser distorsionada por intereses comerciales y políticos que influyen en el marco que se da al problema; prejuicios de selección o distorsión/corrupción en la captación de datos; sesgo en los atributos de selección para la preparación de los datos; prejuicios en la codificación. De esto pueden resultar datos significativamente condicionados, pero etiquetados como si fueran parte de un proceso de toma de decisiones «independiente» automatizado.

Riesgo de una marginalización mayor de los vulnerables. El análisis del impacto del big data y de la IA a nivel social demuestra que su tendencia a tomar decisiones en base a perfiles insuficientemente descritos y una retroalimentación limitada conlleva una marginalización adicional de los pobres, los indigentes y las personas vulnerables[11].

La politóloga Virginia Eubanks explica con claridad cómo los sistemas interconectados refuerzan la discriminación y conceden menos oportunidades a los marginados: «Los pobres y la clase obrera están bajo la mira de nuevos instrumentos de gestión de la pobreza digital, lo que tiene consecuencias peligrosas para su existencia. Los sistemas automáticos de admisibilidad los desaniman cuando deben reclamar los recursos públicos que necesitan para sobrevivir y estar bien. Complejas bases de datos integradas captan su información más personal, prestando poca atención a su privacidad o a la seguridad de los datos, sin ofrecer casi nada a cambio. Modelos y algoritmos predictivos los señalan como inversiones riesgosas y padres problemáticos. Complejos sistemas de asistencia social, de aplicación de la ley y de vigilancia de sus barrios hacen visibles cada uno de sus gestos y someten su comportamiento al control gubernamental, comercial y público»[12].

La lucha por la verdad

La inteligencia artificial representa también un desafío filosófico, tanto en atención a sus manifestaciones actuales como en la forma que asumirá en las próximas décadas y siglos. La omnipresencia de la IA, asociada a la cada vez más universal digitalización de la experiencia humana cotidiana, inducen a que los objetivos de los motores de la IA estén cada vez más orientados a definir lo que es importante y aceptado por la sociedad.

La inteligencia artificial cambia nuestro modo de pensar y nuestros juicios fundamentales sobre el mundo. Elegir qué preguntas contestar y controlar estrictamente la comprensión de lo que realmente representan los datos, permite a quienes poseen la IA ser árbitros de la verdad para los «consumidores».

Los algoritmos se enfocarán en la utilidad y la ganancia. Para la gente será demasiado cómodo seguir el consejo del algoritmo (o demasiado difícil descartarlo y rechazarlo), al punto que estos algoritmos se transformarán en profecías autocumplidas, y los usuarios en zombies que consumen exclusivamente lo que se les ofrece en la pantalla.

Los motores de IA, protegidos por leyes de propiedad intelectual y por información codificada poco transparente, son verdaderas cajas negras que proveen inferencias y predicciones no verificables. «La inteligencia artificial tiene la capacidad de modelar las decisiones de los individuos sin que estos ni siquiera lo sepan, dando a quienes tienen el control de los algoritmos una posición abusiva de poder»[13].

Dona

APOYA A LACIVILTACATTOLICA.ES

Queremos garantizar información de calidad incluso online. Con tu contribución podremos mantener el sitio de La Civiltà Cattolica libre y accesible para todos.

La complejidad y la opacidad del proceso de toma de decisiones instaló, en algunos, la tendencia a ver la IA como una cosa independiente de la intervención humana en lo referente a la construcción, la codificación, el ingreso de datos y su interpretación. Esto es un grave error porque malinterpreta el verdadero rol del ser humano al interior del algoritmo. El hombre debe necesariamente ser responsable del producto al que conduce el proceso de toma de decisiones algorítmico[14]. Y sin embargo, algunas aplicaciones del aprendizaje profundo están empezando a desafiar los límites de la responsabilidad humana[15].

Las diversas manifestaciones de una inteligencia que no es humana, y ni siquiera biológica, plantean preguntas esenciales a la metafísica, la epistemología, la ética y a la teoría política. La experiencia y la competencia de la Iglesia en todos estos ámbitos debería llevarla a ayudar a la sociedad en la adaptación de la IA, o en la adaptación a ella.

Si no comprendemos adecuadamente los desafíos filosóficos y antropológicos ligados a la IA, podemos correr el riesgo de que el siervo se convierta en el amo. Al respecto, adquiere sentido la advertencia que nos dejó el físico Stephen Hawking: «Si no aprendemos y nos preparamos frente a sus potenciales riesgos, y los evitamos cuando corresponda, la IA podría convertirse en el peor acontecimiento en la historia de nuestra civilización. Conlleva peligros como el de poderosas armas autónomas o el de proveer nuevas formas para que algunos pocos puedan oprimir a muchos… o podría replegarse sobre sí misma y reconfigurarse a ritmos cada vez más rápidos. Los seres humanos, limitados en su lenta evolución biológica, no podrían competir con ella y serían arrollados»[16].

Involucramiento de las sociedades y de los gobiernos

En los últimos años hemos asistido a una creciente demanda exigida a los gobiernos de parte de autoridades técnicas y científicas, de sindicatos[17], de la sociedad civil y de las mismas empresas de tecnología[18], para que intervengan con el fin de garantizar un control y la presencia de valores humanos en el desarrollo de la IA. Un progreso significativo tuvo lugar en mayo 2019, cuando los 35 países miembros de la Organización para la Cooperación y el Desarrollo Económico (OCDE), elaboraron un documento que contiene los «Principios OCDE sobre inteligencia artificial»[19]. Estos integran las «Directrices Éticas para una IA Fiable», adoptadas en abril del mismo año por el grupo de expertos sobre IA creado por la Comisión Europea[20].

El objetivo del documento de la OCDE consiste en promover una IA innovadora y confiable, respetuosa de los derechos humanos y de los valores democráticos. Para ello, identifica cinco principios complementarios entre sí, y cinco recomendaciones relacionadas con las políticas nacionales y la cooperación internacional. Los principios son: promover el crecimiento inclusivo, el desarrollo sostenible y el bienestar; respetar los derechos humanos, el estado de derecho y los principios democráticos; asegurar sistemas transparentes y comprensibles; garantizar la seguridad, protección y evaluación de los riesgos; reconocer la responsabilidad de quien la desarrolla, la distribuye y la administra. Las recomendaciones son: invertir en la investigación y el desarrollo de la IA; promover ecosistemas digitales de la IA; crear un ambiente político favorable a la IA; dar a las personas las competencias oportunas a la luz de las transformaciones del mercado del trabajo; desarrollar la cooperación internacional para lograr una IA responsable y confiable.

En junio 2019, el G20 retomó los «Principios OCDE» al adoptar los propios «Principios del G20 sobre IA», no vinculantes[21]. El desafío para los próximos años es doble: extender la difusión de estos principios o análogos a toda la comunidad internacional, y desarrollar iniciativas concretas para poner en práctica esos principios al interior del G20 por medio del «Observatorio de políticas IA» de la OCDE, creado recientemente.

Ahora se abre la oportunidad para la Iglesia de reflexionar sobre estos objetivos políticos y de intervenir en los foros locales, nacionales e internacionales para promover una perspectiva coherente con su doctrina social.

¿«Evangelizar la IA»?

Por importantes que sean las recomendaciones que acabamos de mencionar a nivel político y de compromiso social, la IA sigue estando esencialmente compuesta por sistemas individuales de diseño, programación, captación y elaboración de datos. Se trata de procesos fuertemente condicionados por individuos. Será su mentalidad y las decisiones que ellos tomen lo que determinará en qué medida la IA adoptará criterios éticos adecuados y centrados en el hombre. En la actualidad, estos individuos constituyen una élite técnica de programadores y de expertos de datos, probablemente conformada por un número de personas que se acerca más a los cientos de miles que a los millones.

A los cristianos y a la Iglesia se les abre ahora una nueva posibilidad para la cultura del encuentro, mediante la cual se pueda vivir y ofrecer una auténtica realización personal a esta comunidad particular. Llevar a los expertos de datos y a los ingenieros de los software los valores del Evangelio y de la profunda experiencia de la Iglesia en la ética y en la justicia social es una bendición para todos, y es, además, el modo más plausible para cambiar positivamente la cultura y la práctica de la IA[22].

La evolución de la IA contribuirá en gran medida a plasmar el siglo XXI. La Iglesia está llamada a escuchar, a reflexionar y a comprometerse, proponiendo un marco ético y espiritual a la comunidad de la IA, y de esa forma servir a la comunidad universal. Siguiendo la tradición de la Rerum Novarum, puede decirse que existe aquí una llamada a la justicia social. Hay una exigencia de discernimiento. La voz de la Iglesia es necesaria en los debates políticos en curso, destinados a definir y a poner en práctica los principios éticos de la IA.

  1. Cfr G. Cucci, «Per un umanesimo digitale», en Civ. Catt. 2020 I 27-40.

  2. El big data es una colección de datos tan extensa que requiere tecnologías y métodos analíticos específicos para extraer valor o conocimiento y descubrir los vínculos entre distintos fenómenos y predecir su valor futuro.

  3. M. Kelly – P. Twomey, «I “big data” e le sfide etiche», en Civ. Catt. 2018 II 446.

  4. Cfr A. Spadaro – T. Banchoff, «Intelligenza artificiale e persona umana. Prospettive cinesi e occidentali», en Civ. Catt. 2019 II 432-443.

  5. Cfr J. Angwin – J. Larson – S. Mattu – L. Kirchner, «Machine Bias», en ProPublica, 23 de mayo de 2016 (www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing).

  6. M. Purdy – P. Daugherty, Why Artificial Intelligence is the Future of Growth (www.accenture.com/us-en/insight-artificial-intelligence-future-growth).

  7. Cfr C. B. Frey – M. A. Osborne, «The Future of Employment: How Susceptible Are Jobs to Computerisation?», en Technological Forecasting and Social Change 114 (2017) 254-280.

  8. Cfr McKinsey Global Institute, «Jobs Lost, Jobs Gained: Workforce Transitions in a Time of Automation» (in www.mckinsey.com).

  9. Cfr los argumentos en S. Lohr, «A.I. Will Transform the Economy. But How Much, and How Soon?», en The New York Times, 30 de noviembre de 2017.

  10. Por ejemplo, los medios de comunicación destacaron el claro prejuicio racial que encontraron en el uso judicial de algoritmos de condena por parte de muchos tribunales estadounidenses. Cfr R. Wexler, «When a Computer Program Keeps You in Jail», ibid, 13 de junio de 2017.

  11. Cfr J. Obar – B. McPhail, «Preventing Big Data Discrimination in Canada: Addressing Design, Consent and Sovereignty Challenges», Wellington, Centre for International Governance Innovation, 2018 (www.cigionline.org/articles/preventing-big-data-discrimination-canada-addressing-design-consent-and-sovereignty).

  12. V. Eubanks, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, New York, St Martin’s Press, 2018, 11.

  13. Ibid.

  14. Cfr L. Jaume-Palasí – M. Spielkamp, «Ethics and algorithmic processes for decision making and decision support», en AlgorithmWatch Working Paper, n. 2, 6-7 (algorithmwatch.org/en/publication/ethics-and-algorithmic-processes-for-decision-making-and-decision-support).

  15. Cfr M. Tegmark, Vita 3.0. Essere umani nell’era dell’intelligenza artificiale, Milano, Raffaello Cortina, 2017.

  16. R. Cellan-Jones, «Stephen Hawking Warns Artificial Intelligence Could End Mankind», en BBC News (www.bbc.com/news/technology-30290540), 2 dicembre 2014.

  17. Cfr Top 10 Principles for Workers’ Data Privacy and Protection, UNI Global Union, Nyon, Switzerland, 2018.

  18. Cfr Microsoft, The Future Computed, Redmond, 2017 (news.microsoft. com/cloudforgood/_media/downloads/the-future-computed-english.pdf).

  19. Oecd Principles on AI (www.oecd.org/going-digital/ai/principles), junio 2019.

  20. Cfr European Commission, Ethics guidelines for trustworthy AI (ec.europa. eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai), 8 de abril de 2019.

  21. Cfr G20 Ministerial Statement on Trade and Digital Economy (www.mofa. go.jp/files/000486596.pdf), junio 2019.

  22. Una investigación llevada a cabo por Pew Charitable Trusts demostró que los algoritmos de la IA son configurados en primer lugar para optimizar la eficiencia y la rentabilidad, y considera a los seres humanos como meros input del proceso, antes que como seres reales, sensibles y cambiantes. De ello resulta una sociedad alterada, condicionada por la lógica de los algoritmos. Para contrarrestar esta percepción y los consecuentes riesgos de los sesgos de la IA, resulta fundamental trabajar en la definición de los fines, la captación y el uso de los datos. Como afirma el experto en ética Thilo Hagendorff: «Las casillas de verificación no deberían ser las únicas herramientas de la ética de la IA. Es necesario una transición […] hacia un criterio ético sensible a la situación sobre la base de las virtudes y disposiciones personales, la expansión del conocimiento, la autonomía responsable y la libertad de acción» (T. Hagendorff, «The Ethics of AI Ethics – An Evaluation of Guidelines» [arxiv.org/abs/1903.03425], 28 de febrero de 2019).

Antonio Spadaro y Paul Twomey
Antonio Spadaro Es el director de la revista La Civiltà Cattolica desde 2011. Obtuvo su licenciatura en Filosofía en la Universidad de Mesina en 1988 y el Doctorado en Teología en la Pontificia Universidad Gregoriana en 2000, en la que ha enseñado a través de su Facultad de Teología y su Centro Interdisciplinario de Comunicación Social. Paul Twomey es un empresario australiano y ejecutivo de políticas públicas. Twomey es cofundador de STASH, la empresa de almacenamiento digital seguro e intercambio de contenidos. Es una de las figuras fundadoras de la Corporación de Asignación de Nombres y Números de Internet (ICANN), la organización internacional sin ánimo de lucro que coordina muchas de las funciones clave de la Internet.

    Comments are closed.