Qué llevó al Vaticano a debatir sobre inteligencia artificial
Los desafíos de la inteligencia artificial tuvieron un escenario bastante inusual a comienzos de marzo. El Vaticano organizó un seminario llamado Potencial y Desafíos de la Inteligencia Artificial, reuniendo a especialistas en ética, tecnología y gobernanza para discutir el rumbo de esta revolución que está cambiando prácticamente todo lo que nos rodea. No es todos los días que una de las instituciones más tradicionales del mundo decide poner algoritmos y redes neuronales en la agenda, pero el momento pedía exactamente eso.
El evento tuvo lugar el lunes 2 de marzo, en el Salone San Pio X, en la Via della Conciliazione 5, en Roma, y fue organizado por la Secretaría para la Economía y la Oficina de Trabajo de la Sede Apostólica, conocida por la sigla ULSA. La apertura estuvo a cargo del profesor Pasquale Passalacqua, director de la ULSA, quien reveló que el papa León XIV, al ser informado de la iniciativa por su presidente, el monseñor Marco Sprizzi, hizo cuestión de demostrar aprecio y aliento, expresando el deseo de una conciencia más profunda en este campo tan relevante y complejo. La moderación del debate estuvo a cargo de Alessandro Gisotti, vicedirector editorial del Dicasterio para la Comunicación.
Para abrir la discusión, los organizadores retomaron una frase atribuida a Albert Einstein que resume bien el momento actual: una abundancia de medios y una confusión de fines. Esta provocación marcó el tono de toda la conversación, planteando cuestiones sobre cómo algoritmos, sesgos e intereses comerciales están moldeando el futuro de la tecnología, y por qué la ética necesita estar en el centro de esta conversación desde el primer día. 🤔
La presencia simbólica del pontífice reforzó el mensaje de que la ética no puede tratarse como un complemento opcional cuando hablamos de tecnologías que afectan a miles de millones de personas en el planeta. El gesto también señala que incluso instituciones milenarias perciben la urgencia de participar activamente en este debate, en lugar de limitarse a observarlo desde lejos. Como se destacó durante el seminario, la Santa Sede, que no tiene objetivos militares ni comerciales, puede desempeñar un papel clave en la promoción de una gobernanza global capaz de desarrollar sistemas que sean éticos desde la fase de concepción.
Los especialistas que le dieron voz al debate
El seminario contó con un panel de peso. Entre los ponentes estuvieron el obispo Paul Tighe, secretario del Dicasterio para la Cultura y la Educación, el fraile franciscano Paolo Benanti, profesor de la Pontificia Universidad Gregoriana y de la Universidad Luiss Guido Carli, y el profesor Corrado Giustozzi, docente en el programa de Maestría en Ingeniería de Sistemas Inteligentes de la Universidad Campus Bio-Medico de Roma. Cada uno aportó una perspectiva diferente, pero todos coincidieron en un punto central: la tecnología no se desarrolla en espacios neutros.
El obispo Tighe eligió el acrónimo VUCA, Volatilidad, Incertidumbre, Complejidad y Ambigüedad, para resumir las consecuencias de la adopción masiva de ChatGPT a partir de 2022. Para ilustrar cómo los intereses geopolíticos se entrelazan con el avance tecnológico, mencionó el caso de Anthropic, empresa estadounidense fundada con el objetivo de promover una IA más ética y que, según relatos, habría sido objeto de presión gubernamental para relajar sus compromisos éticos en relación con usos militares y de vigilancia. Tighe fue directo al afirmar que el desarrollo de nuevas tecnologías está entrelazado con rivalidades geopolíticas, presiones comerciales y ambiciones personales.
Ante tantas complejidades, el obispo hizo referencia al documento Antiqua et nova, que señala la sabiduría del corazón, capaz de integrar el todo y las partes, como aquello que la humanidad más necesita en los días de hoy. Tighe también destacó que la Iglesia posee autoridad moral y la capacidad de reunir interlocutores cualificados, convirtiéndose así en una socia significativa en la orientación del desarrollo de la inteligencia artificial. Gisotti, al conectar los temas de la intervención, subrayó que el seminario también representaba un compromiso por parte de la comunidad eclesial con este debate.
La política incrustada en los algoritmos
La presentación del padre Benanti aportó una capa extra de profundidad al debate. Propuso una nueva ética de la tecnología que cuestiona la política incrustada en los modelos de inteligencia artificial. Su afirmación central fue clara y provocadora: todo artefacto tecnológico, cuando impacta en un contexto social, funciona como una configuración de poder y una forma de orden. En otras palabras, ninguna tecnología es neutra. Cada sistema lleva en sí decisiones de diseño que favorecen a determinados grupos, perspectivas o intereses en detrimento de otros.
Benanti destacó que esta es una cuestión urgente, discutida en diversas mesas de negociación, desde la Santa Sede hasta las Naciones Unidas; él es el único miembro italiano del Comité de la ONU sobre Inteligencia Artificial. En esos espacios se observa que las configuraciones de poder están cada vez más influidas por acuerdos comerciales. Y esto se refleja de manera muy concreta en el campo de la información. La visibilidad de un artículo, por ejemplo, no depende necesariamente de su calidad, sino de la posición que un algoritmo le concede en las páginas web. Benanti concluyó llamando a esto una mediación de poder, algo que debería preocupar a cualquiera que consume contenido digital en el día a día.
Este punto es especialmente relevante para quien sigue el universo de la tecnología y la inteligencia artificial. Cuando un modelo de lenguaje decide qué información priorizar, qué perspectivas amplificar y qué voces silenciar, está ejerciendo un tipo de poder que rara vez se reconoce como tal. Y lo más preocupante es que estas decisiones ocurren a escala masiva, afectando a millones de personas simultáneamente, sin que exista una supervisión proporcional a ese impacto.
Sesgos, datos y el problema del entrenamiento
La intervención del profesor Corrado Giustozzi se centró en la naturaleza de uno de los componentes esenciales de la IA: el algoritmo, y en las cuestiones críticas asociadas a los procesos de toma de decisiones basados en él. Uno de los puntos centrales fue el problema del sesgo. Los algoritmos pueden incorporar prejuicios, ya sean no intencionales o deliberados, que distorsionan los resultados o los vuelven inequitativos.
Giustozzi explicó que el entrenamiento, la fase en la que se desarrolla un algoritmo mediante la entrada de datos, adquiere una importancia decisiva en este contexto. Si los datos son incompletos o están distorsionados, los resultados serán inevitablemente erróneos o discriminatorios. Este es un problema que la industria tecnológica conoce bien, pero que aún no ha resuelto de manera satisfactoria. Casos que involucran reconocimiento facial con tasas de error desproporcionadas entre diferentes grupos étnicos y sistemas de reclutamiento que penalizan determinados perfiles siguen siendo alertas reales y están documentados en diversas investigaciones académicas y reportes de organizaciones internacionales.
La discusión dejó claro que no basta con desarrollar tecnología eficiente. Es necesario que sea justa, transparente y auditables. Y este es uno de los mayores desafíos a los que se enfrenta hoy la industria. Los participantes del seminario reforzaron que la responsabilidad sobre estos sistemas no puede recaer solo en los ingenieros que los desarrollan, sino que debe compartirse entre empresas, reguladores y la sociedad en su conjunto.
El papel del Vaticano en la gobernanza global de la IA
Otro aspecto planteado en el debate fue el papel de las grandes corporaciones tecnológicas en la definición de las reglas del juego. Cuando empresas privadas tienen el control de los modelos de lenguaje más avanzados y de los conjuntos de datos utilizados para entrenarlos, la sociedad queda a merced de decisiones corporativas que no siempre priorizan el bien colectivo. Los participantes del seminario defendieron que la gobernanza de la inteligencia artificial debe involucrar a múltiples actores, incluidos gobiernos, academia, sociedad civil y, sí, instituciones como el Vaticano, que pueden aportar perspectivas humanísticas fundamentales para equilibrar la carrera por la innovación con la protección de derechos básicos.
La posición de la Santa Sede en este escenario es, como mínimo, estratégica. Al no tener intereses militares ni comerciales en juego, el Vaticano se presenta como un interlocutor que puede facilitar el diálogo entre partes con intereses divergentes. Esta neutralidad relativa permite que la institución actúe como una especie de mediadora global, algo que ya viene ocurriendo en otros temas sensibles a lo largo de los siglos. Aplicar esta experiencia al campo de la inteligencia artificial parece un paso natural, especialmente si se considera que los impactos de esta tecnología trascienden las fronteras nacionales y afectan a comunidades enteras de maneras profundas y muchas veces irreversibles.
Desafíos que van más allá de la tecnología
Si por un lado la inteligencia artificial ofrece un enorme potencial transformador, acelerando diagnósticos médicos, optimizando cadenas de producción y ampliando el acceso a la información, por otro lado conlleva desafíos que van más allá del ámbito puramente técnico. El seminario en el Vaticano dedicó buena parte del tiempo a discutir el impacto de la automatización en el mercado laboral, la concentración de poder tecnológico en pocas empresas y el riesgo de erosión de la autonomía individual en un mundo cada vez más mediado por algoritmos. Los especialistas fueron enfáticos al decir que estos no son problemas del futuro, sino situaciones que ya están ocurriendo ahora y exigen respuestas urgentes y coordinadas entre distintos sectores de la sociedad.
La cuestión de la regulación apareció como un tema inevitable. La Unión Europea ya ha avanzado con la AI Act, considerada la norma regulatoria más amplia del mundo para la inteligencia artificial, y varios otros países trabajan en sus propias legislaciones. Los participantes del evento en Roma destacaron que la regulación no debe frenar la innovación, sino garantizar que ocurra dentro de límites éticos claros. Este equilibrio entre progreso tecnológico y protección de derechos fundamentales fue descrito como uno de los desafíos más complejos de la actualidad, precisamente porque implica intereses económicos gigantescos y dinámicas geopolíticas bastante sensibles.
Ética desde la primera línea de código
El cierre del seminario trajo un consenso importante entre los participantes: la ética no puede ser una reflexión posterior al desarrollo de nuevas tecnologías. Debe incorporarse desde la concepción de cualquier sistema de inteligencia artificial, pasando por el diseño de los algoritmos, la elección de los datos de entrenamiento y la definición de métricas de éxito que vayan más allá del lucro o la eficiencia. La idea de sistemas que sean éticos desde la fase de proyecto se repitió como un mantra a lo largo de todo el evento, reforzando que la responsabilidad comienza mucho antes de que un producto llegue al mercado.
El Vaticano, al promover este tipo de encuentro, mostró que el debate sobre el futuro de la IA no pertenece solo a ingenieros e inversores. Pertenece a toda la sociedad. Y cuanto más diversas sean las voces que participen en esa conversación, mayores serán las posibilidades de construir sistemas que realmente sirvan a las personas, y no al revés. El seminario de Roma no fue solo un evento puntual, sino una señal de que la discusión sobre inteligencia artificial y ética está ganando amplitud, llegando a espacios que hasta hace poco tiempo parecían improbables. Y eso, aceptémoslo, es una buena noticia para todo el mundo. 🚀
