Aunque en algunos ámbitos las expectativas respecto de la revolución de la inteligencia artificial (IA) siguen siendo elevadas, por ahora permanecen en gran medida en el terreno de la especulación, ya que muchas de sus consecuencias concretas no podrán observarse hasta que dicha revolución se haya realizado efectivamente. ¿En qué medida la IA cambiará el mundo? ¿Introducirá nuevos modelos de poder político, social y económico, o reforzará los ya existentes? ¿De qué modo las autoridades políticas gestionarán y gobernarán estos cambios, en caso de que lo hagan?
Nadie conoce las respuestas a estas preguntas, y la sociedad humana se encuentra en un momento de profunda incertidumbre. Con todo, independientemente de las consecuencias futuras efectivas de la IA, la mera perspectiva de tales transformaciones pone de relieve una cuestión fundamentalmente antropológica: «¿[La IA] será programada para acompañar, apoyar y potenciar al ser humano, o para sustituirlo?»[1].
En este sentido, lo que está en juego es alto no solo en relación con los desafíos éticos, sociales, políticos y económicos planteados por la IA, sino también en relación con el modo en que dichos desafíos se integran en una perspectiva que tenga seriamente en cuenta las cuestiones fundamentales de la antropología teológica. Los factores sociales, económicos y políticos en juego no solo están profundamente interconectados, sino que poseen en sí mismos una dimensión intrínsecamente ética[2].
La revolución de la IA y las narrativas políticas
En muchas partes del mundo crece el temor de que la IA esté alimentando una burbuja económica destinada, tarde o temprano, a estallar. Esta preocupación surge en un contexto ya complejo, en el que la inflación y la debilidad de los mercados laborales se entrelazan con la incertidumbre en torno a la política arancelaria de Estados Unidos y con las delicadas negociaciones de paz entre Ucrania y Rusia. Según esta interpretación, el crecimiento especulativo del sector de la IA estaría sosteniendo, y al mismo tiempo ocultando, la realidad de una economía en dificultades.
El debate sobre la existencia de una burbuja de este tipo pone de relieve muchas de las dinámicas comunes a numerosas discusiones sobre la IA: una división entre los «optimistas de la IA», que ofrecen descripciones idílicas de un futuro paradisíaco que esta hará posible, y los «catastrofistas de la IA», que en ese futuro ven, en lo esencial, una distopía. Entre estas dos posiciones, cada una de las cuales ostenta una gran seguridad, se sitúa la incertidumbre.
Los principales elementos en apoyo de la tesis catastrofista que teme una burbuja económica son, básicamente, los siguientes: el vertiginoso aumento de los precios de las acciones de las empresas de IA; los cuantiosos capitales recaudados por nuevas empresas de IA a través del venture capital («capital de riesgo»)[3] y otras fuentes; el creciente recurso a complejos instrumentos financieros titulizados para financiar las inversiones en IA; los niveles de inversión en empresas de IA por parte de otras empresas de IA; y las dudas sobre la capacidad de estas compañías para generar beneficios. Para quienes albergan estas preocupaciones, el auge de la IA es un auténtico «castillo de naipes»[4].
Para los optimistas que rechazan tales temores, entre los datos relevantes que deben considerarse figuran los flujos de ingresos que las empresas de IA ya han generado; las inversiones que están impulsando la capacidad de cálculo y la producción de chips; y la integración de la IA en una amplia gama de sectores industriales, algunos de los cuales ya han registrado aumentos significativos de productividad.
Sin embargo, si la IA llegara efectivamente a producir los amplios cambios socioeconómicos que muchos prevén, sus efectos no serían predominantemente positivos o negativos, sino que darían lugar más bien a un abanico heterogéneo de resultados favorables y desfavorables. Así, el economista y blogger Tyler Cowen sostiene que la realidad económica se sitúa a medio camino entre estos dos extremos. Afirma que la noción de «burbuja» no resulta útil para describir la situación económica actual, pero que sin duda no faltarán obstáculos a lo largo del camino[5]. Dado que la IA es una tecnología relativamente nueva, no sorprendería que muchas de las empresas asociadas a ella fracasaran, o al menos registraran pérdidas, algunas de ellas muy significativas. Incluso si se produjera algún tipo de corrección del mercado, ello no significaría que la IA desapareciera de la economía[6]. En consecuencia, la incertidumbre sobre su futuro poder de transformación seguirá siendo relevante para comprender el sector tecnológico, la geopolítica que condiciona su ascenso —y que a su vez es condicionada por este— y las dinámicas políticas internas que tratan de hacer frente a su impacto imprevisible sobre la política nacional y la opinión pública.
Los monopolios y el mercado de la inteligencia artificial
La interrelación entre política, economía y ética, en el contexto de las incertidumbres ligadas a la innovación tecnológica y a sus efectos, se manifiesta con particular claridad en cualquier análisis relativo a la estructura de este mercado.
Según la mayoría de los indicadores, la industria de la IA está concentrada en un número reducido de empresas. En los ámbitos del hardware, la capacidad de cálculo, los modelos de IA, los datos y las patentes, el sector está dominado por un número relativamente limitado de compañías, lo que plantea interrogantes tanto sobre la competitividad del mercado como sobre la vulnerabilidad de una industria concentrada en tan pocas manos. De hecho, siete de las principales empresas del sector, comúnmente denominadas las Magnificent Seven, ya eran grandes e influyentes antes de que el mercado de la IA comenzara a cobrar impulso: Amazon, Alphabet (Google), Apple, Meta (Facebook), Microsoft, Nvidia y Tesla. Hoy figuran entre las diez primeras empresas del mundo por capitalización bursátil.
Inscríbete a la newsletter
Nvidia, por ejemplo, que posee la mayor capitalización de mercado entre todas las empresas globales, ejerce un control abrumador sobre el mercado de las GPU (Graphics Processing Unit, «unidades de procesamiento gráfico»), estimado por algunos análisis en hasta un 94 %[7]. La GPU es un tipo especializado de chip semiconductor que resulta esencial para muchas de las funciones desempeñadas por la IA. El predominio de Nvidia se ve reforzado por el uso generalizado de su plataforma CUDA, que facilita la utilización de sus chips[8].
Cinco empresas dominan el mercado de las infraestructuras cloud[9] y, según un informe del sector, «AWS [Amazon Web Services], Microsoft Azure y Google Cloud representan conjuntamente el 65 % del gasto global»[10]. Este servicio constituye la columna vertebral de la IA. Alojado en centros de datos, permite a las empresas utilizar la red comúnmente denominada cloud sin necesidad de gestionar directamente su propio centro de datos. Sin embargo, cuando uno de los principales proveedores cloud sufre una interrupción de los servicios, empresas e individuos de todo el mundo se ven afectados de manera inmediata y significativa, como ocurrió, por ejemplo, con el apagón del 20 de octubre de 2025 que afectó a AWS de Amazon[11].
También el mercado de la IA generativa, que incluye grandes modelos lingüísticos como ChatGPT y Gemini, está dominado por un número limitado de empresas y, según datos del sector, «Nvidia, Microsoft, Google, OpenAI y AWS concentran conjuntamente en torno al 45-50 % de la cuota de mercado de la IA generativa»[12]. Estos datos ilustran un rasgo industrial que favorece a las grandes empresas tecnológicas ya ampliamente consolidadas, dado que el entrenamiento de los sistemas de IA requiere cantidades enormes de información[13]. La configuración futura de la protección de los datos y de la privacidad en este contexto aún no ha sido plenamente definida[14].
Además, el estadio de desarrollo del sector de la IA sigue siendo objeto de controversia. Si se la entiende principalmente como una nueva evolución de las tecnologías electrónicas de la información que han impulsado gran parte del desarrollo económico desde el final de la Segunda Guerra Mundial hasta hoy, es probable que las grandes empresas históricas continúen dominando el mercado. Si, por el contrario, la IA llegara a provocar un auténtico cambio de paradigma en las capacidades tecnológicas, no solo trastocaría a muchas empresas consolidadas, sino que también podría favorecer el surgimiento de nuevas empresas. Como afirmaba un estudio académico de 2025, cabría esperar «una creciente omnipresencia y difusión de la innovación en IA y la emergencia de un “régimen emprendedor” en la innovación de la IA»[15].
La relevancia de estos monopolios va más allá del ámbito económico. Si la IA está en manos de un número reducido de empresas, estas adquieren un poder que pocos Estados serían capaces de gobernar o regular. Además, en cuanto tecnología general y transversal, la IA vuelve a plantear una cuestión ya suscitada por Internet: ¿conducirá a una información cada vez más distorsionada, o incluso a formas deliberadas de manipulación? En muchos casos, los incentivos serán de naturaleza económica: homogeneizar los formatos de los contenidos, adaptarse a los mecanismos de filtrado, mantener relaciones favorables con gobiernos deseosos de controlar la información y, en última instancia, capitalizar algunos de los instintos humanos más bajos, como la violencia y el sexo.
En muchos casos, las tergiversaciones no se limitarían a las más evidentes vinculadas a la nación, la ideología o la cultura, sino que afectarían también a los presupuestos antropológicos específicos incorporados en los algoritmos de la IA. El control de los contenidos por parte de unas pocas empresas agrava el problema de la reducción del «conocimiento» a aquello que puede ser comprendido únicamente mediante la razón científica y puesto a disposición de los ordenadores a través del código, así como la limitada capacidad de la IA para reconocer desviaciones patológicas incluso con respecto a ese racionalismo reductivo, como las teorías de la conspiración, las ideologías violentas y las fake news. Obviamente, incluso en un mercado más competitivo, el auge de la IA suscitaría interrogantes sobre qué debe considerarse conocimiento, pensamiento y, en última instancia, verdad, así como sobre el propio concepto de la persona humana. Del mismo modo que los seres humanos moldean las herramientas, inevitablemente las herramientas «moldean» a los seres humanos.
Las condiciones de tipo monopolístico agravan la cuestión de quién debe decidir cómo debe utilizarse la IA, por quién y en beneficio de quién. El documento de la Santa Sede sobre la inteligencia artificial Antiqua et Nova señala que la IA tiene el potencial de remodelar la sociedad humana en una amplia gama de ámbitos: desde la política hasta la vida social, desde la economía hasta la salud, desde los conflictos armados hasta la relación del ser humano con Dios. En otras palabras, las empresas que operan en el ámbito de la IA no solo deben resistir la tentación humana de «jugar a ser Dios», sino que deben ejercer esa resistencia en el contexto de una feroz competencia económica y de imperativos políticos que las empujarán a utilizar todos los medios disponibles para prevalecer en dichas competiciones[16].
La geopolítica de la inteligencia artificial
El desarrollo de estos mercados no tiene lugar en el vacío: factores políticos condicionan, de manera más o menos deliberada, el ascenso y el declive de estas empresas. En este contexto se inscriben dinámicas de rivalidad geopolítica, que a su vez se entrelazan con la creciente necesidad de cooperación internacional en materia de regulación.
Intentemos ahora enumerar las principales preocupaciones regulatorias relativas a la IA: la competencia leal y las políticas antimonopolio; el uso de los datos y la protección de la privacidad; la seguridad, incluida la protección de los consumidores de IA frente a sesgos algorítmicos, abusos o incidentes; los mecanismos de responsabilidad y de recurso para los consumidores que sufran daños derivados del uso de la IA; la regulación energética y medioambiental vinculada a las ingentes exigencias de infraestructura de las tecnologías de IA; y la manera en que los legisladores gestionarán las diferencias entre tecnologías de IA open source[17] y closed source, incluidas las soluciones híbridas.
Ya han surgido divergencias sobre cómo afrontar estos desafíos regulatorios, en particular entre la Unión Europea y los Estados Unidos. A este respecto, conviene señalar que la UE ha quedado algo rezagada en el desarrollo de la IA, pero ha adoptado un enfoque especialmente contundente en su regulación. Estados Unidos, por el contrario, ha asumido en gran medida una postura «aceleracionista» frente a la IA, desregulando el mercado. Esto resulta evidente, por ejemplo, en los diferentes enfoques delineados por el EU AI Act y el America’s AI Action Plan[18]. Como consecuencia, los mercados europeos han registrado un crecimiento más lento en el sector de la IA. En 2024, por ejemplo, las empresas estadounidenses crearon 40 modelos de IA, mientras que las de la Unión Europea solo tres[19]. No obstante, las inversiones de venture capital en IA en Europa están aumentando, y algunos analistas consideran que, a largo plazo, el mundo se beneficiará de los esfuerzos regulatorios pioneros de Bruselas en este ámbito, especialmente cuando las plataformas de IA con éxito comercial —generalmente desarrolladas en otros lugares— se vean cada vez más obligadas a ajustarse a las exigencias europeas en materia de seguridad, privacidad y transparencia[20].
Además de los conflictos regulatorios, la rivalidad geopolítica más amplia entre China y Estados Unidos también ha incidido de manera significativa en el mercado de la IA. En Estados Unidos, el sector de la IA ha sido financiado principalmente por capital privado de venture capital, mientras que en China gran parte del crecimiento ha sido subvencionado y gestionado directamente por el gobierno. En este contexto, para contrarrestar la influencia china, Estados Unidos ha implicado a socios estratégicos de Asia oriental, como Japón, Corea del Sur y Taiwán (este último en el centro de las relaciones sino-estadounidenses y de la producción mundial de semiconductores). Sin embargo, Estados Unidos y China parecen perseguir en ocasiones objetivos distintos. Estados Unidos ha privilegiado un modelo de IA de sistema cerrado, en el que las empresas privadas desarrollan tecnologías con sistemas operativos en gran medida propietarios y, por tanto, reservados. El sector de la IA en China, por el contrario, se ha centrado en gran medida en modelos de sistema abierto, que permiten a los usuarios leer, copiar y modificar el código subyacente a las plataformas.
Si China y Estados Unidos están persiguiendo objetivos distintos a través de la IA, entonces, como escribe Michael Froman, presidente del Council on Foreign Relations, «la cuestión estratégica es si, con el tiempo, una inteligencia difundida a través de la economía física resulta más transformadora que la inteligencia de un futuro “ChatGPT-15”». Es posible que los diferentes enfoques de las grandes potencias respecto de la IA resulten más complementarios que conflictivos, aunque a muchos observadores esta hipótesis pueda parecer ingenua. Por ejemplo, el plan del presidente Trump de autorizar la venta de chips de Nvidia a China ha suscitado críticas bipartidistas[21]. En última instancia, ambas potencias están tan estrechamente entrelazadas en el plano económico que resulta altamente probable algún tipo de cooperación política, al menos en determinados niveles[22].
Una rivalidad geopolítica adicional en el ámbito de la IA enfrenta a China y a la India, dado que esta última vuelve a ocupar una posición destacada entre las «naciones no alineadas». La India se ha convertido en un mercado relevante para las tecnologías de IA y ha puesto en marcha programas de formación ciudadana orientados a empleos basados en la IA[23]. Este crecimiento incluye financiación y directrices gubernamentales. Al mismo tiempo, actores gubernamentales y del sector privado en la India han intentado utilizar la IA para contrarrestar la influencia china en el país y ofrecer servicios alternativos a los desarrollados por Pekín. Además, la India ha buscado emplear la IA para reforzar sus capacidades militares frente a otros Estados, incluida China. Lo que está en juego no es solo la relación de la India con su vecino del noreste, sino también su papel global. Queda por ver si esta estrategia permitirá al país asumir el liderazgo entre las economías emergentes y perfilar una «tercera vía» posible[24].
APOYA A LACIVILTACATTOLICA.ES
La IA y la política interna
La geopolítica y las cuestiones regulatorias internacionales pueden parecer desconectadas de la política interna de los países implicados. Sin embargo, a medida que la IA se convierte en una realidad cada vez más cotidiana para las personas de todo el mundo, esos debates geopolíticos y regulatorios de alto nivel adquieren relevancia también para los electores de cada nación.
La opinión pública, a escala global, es ambivalente. Por ejemplo, en una encuesta del Pew Research Center realizada en 25 países, «las personas están más preocupadas que entusiasmadas por la creciente presencia de la IA en la vida cotidiana»[25]. Así lo piensa el 50 % de los encuestados en Estados Unidos y en Italia, el 49 % en Australia y el 48 % en Brasil. Para muchos, sin embargo, predomina la ambigüedad: se declaran «igual de entusiasmados que preocupados por el creciente uso de la IA». Es el caso del 61 % de los encuestados en Corea, del 55 % en Japón, del 53 % en Alemania y del 49 % tanto en Francia como en Indonesia.
Dentro de la Unión Europea, la cuestión de la IA pone de relieve la tensión entre el impulso hacia la integración de los mercados y las exigencias de la soberanía nacional. Aunque, a nivel global, más personas tienden a confiar en la UE para la regulación de la IA que en Estados Unidos o en China, esta confianza varía considerablemente entre los países de la Unión, oscilando entre el 38 % en Grecia y el 71 % en Alemania[26]. Una de las principales preocupaciones es que la regulación europea de la IA pueda limitar el crecimiento económico de la Unión. Como ha afirmado la presidenta del Banco Central Europeo, Christine Lagarde: «Con Estados Unidos y China a la cabeza, Europa ya ha perdido la oportunidad de ser un precursor en el ámbito de la IA»[27].
Otra fuente potencial de movilización política en torno a la IA se refiere al trabajo. Una de las grandes cuestiones aún sin resolver concierne, en efecto, al impacto de la IA sobre el empleo. Sus efectos repercutirán en los salarios, en la formación profesional y en el poder de negociación relativo de los trabajadores manuales y administrativos, y producirán cambios no solo a nivel nacional, sino también global, ya que las transformaciones inducidas por la IA favorecerán a los trabajadores en algunos mercados y no en otros, modificando las condiciones que regulan la externalización del trabajo.
Las próximas elecciones en Estados Unidos a nivel local, estatal y nacional podrían ofrecer pronto un anticipo de las crecientes dinámicas políticas vinculadas a la IA. Entre las principales preocupaciones políticas en Estados Unidos en relación con la IA figura el consumo de energía y de agua de los centros de datos que se están construyendo en todo el país[28]. Su desarrollo ha aumentado de manera notable: un informe de 2024 señalaba un incremento del 70 % en los centros en construcción respecto del año anterior[29]. Los centros de datos constituyen la principal infraestructura física de la IA, al albergar los servidores que procesan y almacenan la tecnología, así como las instalaciones necesarias para mantenerlos seguros y refrigerados. Por ello requieren grandes extensiones de terreno, cantidades considerables de energía y volúmenes ingentes de agua destinados a la refrigeración.
En Estados Unidos, en un contexto de inflación —en el que también aumentan los precios de la energía— y de progresivo agotamiento de los recursos hídricos, algunos electores están volviéndose más sensibles al impacto de este tipo de infraestructuras en sus comunidades y se muestran más inclinados a aceptar las afirmaciones de los políticos según los cuales los centros de datos estarían empeorando la calidad de vida, en lugar de mejorarla, como titulaba de forma provocadora un medio de comunicación: «Ha llegado la resistencia a los centros de datos»[30].
El presidente Joseph Biden promulgó en 2022 la CHIPS and Science Act, que autorizaba la financiación de inversiones en la industria nacional de semiconductores y en otros sectores tecnológicos. Esa ley subrayó la importancia estratégica de la producción interna de semiconductores para la seguridad nacional y la necesidad de ampliar la fuerza laboral y las infraestructuras tecnológicas de Estados Unidos. No obstante, la cadena de suministro de los semiconductores sigue siendo compleja, y algunos han puesto en duda los beneficios reales aportados por la ley. Aun así, sigue siendo una de las políticas estadounidenses más importantes en materia de IA y ha contado también con el respaldo de la administración Trump[31].
Más allá de estas cuestiones políticas específicas, se plantea una pregunta más amplia: ¿cómo puede educarse a los ciudadanos para comprender estos fenómenos y responder a ellos? ¿Cuáles son los espacios de la sociedad civil en los que esto puede tener lugar? La IA se afirma en un tiempo en el que el significado de lo humano está en cuestión, en un tiempo en el que los ciudadanos oscilan entre el repliegue en burbujas ideológicas y el abandono de la participación política, y en un tiempo en el que gran parte de la educación formal se ha transformado en formación técnica. De ello se derivan muy pocos elementos favorables para las personas de buena voluntad que desean afrontar los desafíos planteados por la IA. Y, sin embargo, esta tarea es urgente. Como ha afirmado el papa León XIV, la formación en y a través de la familia debe ser apoyada de manera especial, sobre todo para salvaguardar la dignidad de los menores[32].
Conclusiones
Las metáforas utilizadas para hablar de la IA tienden a los extremos, ya sea en clave de apocalipsis o de utopía. Este lenguaje es importante, porque forma parte de un problema más general. Yuval Levin, director de Estudios Sociales, Culturales y Constitucionales del American Enterprise Institute, ha identificado este problema del lenguaje como uno perjudicial para la gobernanza: la tendencia a presentar cualquier cuestión política como un «peligro inmediato y absolutamente apocalíptico»[33].
Según Levin, no se trata simplemente de que la IA se haya convertido en un fenómeno más de dimensiones tales que no puede ser afrontado por una sola persona, ni siquiera por un solo país. Se trata también de que muchos académicos, responsables políticos, líderes económicos, periodistas y ciudadanos se han acostumbrado hasta tal punto a encuadrar los problemas que les preocupan como amenazas existenciales sin salida, que casi de manera instintiva perciben la IA en esos términos. El apocalipticismo que de ello se deriva no logra encontrar un terreno común con quienes, movidos por incentivos políticos y económicos, apuestan por acelerar la potencial revolución de la IA, y choca directamente con el fervor casi religioso de quienes ven en la tecnología la única realidad salvadora de la humanidad.
Dada la inevitable incertidumbre acerca de cómo la IA se desarrollará y remodelará el mundo, ese apocalipticismo pretende poseer un conocimiento que nadie tiene y corre el riesgo de desviar la atención de pensadores reflexivos y prudentes de la tarea concreta que tienen ante sí. La industria de la IA y las tecnologías asociadas a ella, como cualquier otro paradigma de la vida moderna, requieren la recuperación de una política sobria y de sus instrumentos ordinarios de «negociación, compromiso y gradualidad»[34].
Esto debería tranquilizar a los ciudadanos que se sienten impotentes frente a la IA. En este artículo hemos señalado varias razones por las cuales no deberían sentirse así: las elecciones ya han tenido un impacto significativo en las políticas relativas a la IA; China y Estados Unidos no están destinados a entrar en guerra por la IA; la distinción entre optimistas y catastrofistas debería abandonarse; y es posible —además de deseable— una política sobria y moderada en relación con la IA.
Existe un motivo adicional para no caer en el desaliento. Un análisis en profundidad de la economía política de la IA muestra no solo que estos factores económicos y políticos se superponen necesariamente de formas complejas, lo que dificulta tanto su regulación como su comprensión y la formación de los ciudadanos al respecto, sino que subraya también que la cuestión decisiva sigue siendo la persona humana y su destino. Por ello resulta especialmente oportuna la conclusión a la que llega Levin en su reflexión sobre la necesidad de una reeducación contra el apocalipticismo: «Y si, en este proceso, llegáramos a pensar que la política no es el alfa y el omega de la vida en una sociedad libre, tanto mejor»[35].
-
F. Patsch, «“Antiqua et nova”. La inteligencia artificial al servicio de la dignidad humana y del bien común», en La Civiltà Cattolica, 6 de junio de 2025, https://www.laciviltacattolica.es/2025/06/06/antiqua-et-nova/ ↑
-
Cf. C. Freiberg – J. Bishop, «The specter of principlism: from bioethics to AI ethics to autonomous weapon systems», en AI and Ethics 6 (2026), en www.philpapers.org/rec/FRETSO-38 ↑
-
El venture capital es la actividad de inversión institucional, a medio-largo plazo, en capital de riesgo de empresas no cotizadas en fase de arranque, caracterizadas por un alto potencial de desarrollo, con el objetivo de obtener una ganancia sustancial en cuenta de capital por la venta de la participación adquirida o por la cotización en bolsa. ↑
-
Cf. N. Ferguson, «OpenAI’s House of Cards», en The Free Press (www.thefp.com/p/niall-ferguson-the-ai-boom-is-a-house-of-cards), 17 de noviembre de 2025. ↑
-
Cf. T. Cowen, «Is AI a Bubble? Not So Fast», en The Free Press (www.thefp.com/p/is-ai-a-bubble-not-so-fast), 18 de noviembre de 2025. ↑
-
Cowen ha enfrentado mucho de esas cuestiones en un episodio del podcast «Odd Lots» disponible en Bloomberg (https://tinyurl.com/yjdc63f3), 20 de noviembre de 2025. ↑
-
Cf. P. Jayaraj, «Nvidia Dominates GPU Market Share, Reaching 94% in Q2 2025», en NDTV Profit (https://tinyurl.com/38eehujt), 5 de septiembre de 2025. ↑
-
Cf. E. Sayegh, «The AI Chip Race: Who Can Compete With Nvidia?», en Forbes (https://tinyurl.com/vu32u5ps), 11 de diciembre de 2024. ↑
-
El cloud o la nube es una red global de servidores remotos que permite almacenar, gestionar y procesar datos a través de servidores. ↑
-
F. Okeke, «Cloud Spending Jumps 22% as AI Fuels Hyperscaler Growth», en Channel Insider (https://tinyurl.com/tte23d95), 11 de septiembre de 2025. ↑
-
Cf. Z. Kleinman, «What caused the AWS outage – and why did it make the internet fall apart?», en BBC News (www.bbc.com/news/articles/cev1en9077ro), 21 de octubre de 2025. ↑
-
«Top Companies in Generative AI Market – Microsoft (US), Google (US), IBM (US), NVIDIA (US) and OpenAI (US)», Markets and Markets (https://tinyurl.com/bdw3772t). ↑
-
Cf. «The Risks of AI Concentration in a Few Tech Giants», en Rice AI Blog (www.riceai.net/blog-post-tech-giants), 23 de junio de 2025. ↑
-
Cf. «Toxic Competition: Regulating Big Tech’s Data Advantage», en AI Now Institute (www.ainowinstitute.org/publications/toxic-competition), 11 de abril de 2023. ↑
-
G. Damioli – V. Van Roy – D. Vertesy – M. Vivarelli, «Is artificial intelligence leading to a new technological paradigm?», en Structural Change and Economic Dynamics 72 (2025) 347-359. ↑
-
Cf. Dicasterio para la Doctrina de la Fe – Dicasterio para la Cultura y la Educación, «Antiqua et Nova. Nota sobre la relación entre la inteligencia artificial y la inteligencia humana», 14 de enero de 2025 (https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_sp.html) ↑
-
Se trata de un software no protegido por derechos de autor, cuyo código fuente está a disposición de los usuarios y, por lo tanto, puede modificarse libremente. ↑
-
Cf. Comisión europea – Parlamento europeo – Consejo de la Unión europea, AI Act (www.digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai), 13 de junio de 2024; Winning the Race. America’s AI Action Plan (www.whitehouse.gov/wp-content/uploads/2025/07/Americas-AI-Action-Plan.pdf), julio 2025. ↑
-
Cf. Stanford University, Artificial Intelligence Index Report 2025 (www.hai.stanford.edu/assets/files/hai_ai_index_report_2025.pdf), 46. ↑
-
Cf. «Il Codice di buone pratiche dell’UE e il futuro dell’IA in Europa», en Open AI (www.openai.com/it-IT/global-affairs/eu-code-of-practice), 11 de julio de 2025. ↑
-
Cf. T. Mickle – A. Swanson, «Trump Clears Sale of More Powerful Nvidia A.I. Chips to China», en The New York Times (www.nytimes.com/2025/12/08/business/trump-nvidia-chips-china.html), 8 de diciembre de 2025. ↑
-
Cf. G. Allison, «The Thucydides Trap», en Foreign Policy (www.foreignpolicy.com/2017/06/09/the-thucydides-trap), 9 de junio de 2017. ↑
-
Cf. P. Gupta, «Why AI is being trained in rural India», en BBC News (www.bbc.com/news/articles/cqjevxvxw9xo), 16 de octubre de 2025. ↑
-
Cf. IndiaAI Portal (www.indiaai.gov.in/indiaaiportal). ↑
-
J. Poushter – M. Fagan – M. Corichi, «How People Around the World View AI», en Pew Research Center (https://tinyurl.com/y6hdwkch), 15 de octubre de 2025. ↑
-
Cf. Idd., «Trust in the EU, U.S. and China to Regulate use of AI», en Pew Research Center (https://tinyurl.com/5n6wanyr), 15 de octubre de 2025. ↑
-
«EU missing the boat on AI, jeopardising its future, Lagarde warns», en Reuters (www.reuters.com/business/eu-missing-boat-ai-jeopardising-its-future-lagarde-warns-2025-11-24), 24 de noviembre de 2025. ↑
-
Cf. F. de la Iglesia Viguiristi – T. Vinciguerra, «El agua. Una urgencia mundial», en La Civiltà Cattolica, 9 de febrero de 2024, https://www.laciviltacattolica.es/2024/02/09/el-agua-una-urgencia-mundial/ ↑
-
Cf. L. Kearney, «North America sees 70% jump in data center supply in construction, CBRE report says», en Reuters (https://tinyurl.com/mrzt9shk), 20 de agosto de 2024. ↑
-
«The Data Center Resistance Has Arrived», en Wired (https://tinyurl.com/4wa483ez), 14 de noviembre de 2025. ↑
-
Cf. D. Butts, «Chipmakers Get larger tax credits in Trump’s latest “big beautiful bill”», en CNBC (https://tinyurl.com/5fr7an28), 2 de julio de 2025. ↑
-
Cf. León XIV, Discurso a los participantes del congreso «The dignity of children and adolescents in the age of artificial intelligence» (https://www.vatican.va/content/leo-xiv/es/speeches/2025/november/documents/20251113-fondazione-infanzia-adolescenza.html), 13 de noviembre de 2025. ↑
-
Y. Levin, «Don’t Panic. Just Worry», en The Dispatch (www.thedispatch.com/article/dont-panic-just-worry), 9 de enero de 2020. ↑
-
Ibid. ↑
-
El autor agradece al profesor J. P. Bishop, B. Gottschall S.I. y C. Trujillo S.I. por el aporte ofrecido para la redacción del artículo. ↑
Copyright © La Civiltà Cattolica 2026
Reproducción reservada

