Criterios de Evaluación de Proyectos de CDCF
| Versión | v0.2 (borrador para revisión de la comunidad) |
| Alcance | Todos los proyectos tecnológicos presentados para incubación y graduación de CDCF |
| Nota | Las extensiones específicas de dominio (comenzando con IA) están integradas en línea. Se pueden agregar dominios adicionales a medida que la Fundación evoluciona. |
Tabla de Contenidos
- Propósito y Justificación
- Puerta 1: Aceptación de Incubación
- Criterio 1: Alineación con la Misión y Alcance Canónico
- Criterio 2: Arquitectura de Responsabilidad Humana
- Criterio 3: Transparencia del Alcance y la Operación
- Criterio 4: Validación Independiente de Capacidades Afirmadas
- Criterio 5: Impacto en Poblaciones Vulnerables
- Criterio 6: Especificación de Gobernanza de Despliegue
- Puerta 2: Graduación a Estado Activo de Proyecto CDCF
- Fundamentación en la Enseñanza Católica y la Tradición Canónica
- Relación con la Investigación de Gobernanza Más Amplia
- Una Invitación a Iterar
- Bibliografía
Propósito y Justificación
La Catholic Digital Commons Foundation (CDCF) sirve a la Iglesia fomentando un estándar canónico compartido para proyectos tecnológicos que respeten la dignidad humana y el bien común. Sin estándares compartidos, las instituciones católicas corren el riesgo de fragmentación técnica y canónica, desplegando herramientas que pueden no alinearse con nuestra misión o que operan sin líneas claras de responsabilidad.
Las instituciones católicas sirven a decenas de millones de personas en el ámbito de la salud, la educación, los servicios sociales y la vida parroquial. Están evaluando y desplegando tecnología activamente para realizar este trabajo de manera más efectiva, y en muchos dominios —la IA es el más destacado entre ellos— lo están haciendo sin un estándar canónico compartido sobre cómo debe ser un despliegue católico responsable. La consecuencia es la fragmentación: diócesis, sistemas escolares y agencias de Caridades Católicas operando bajo criterios de evaluación incompatibles para casos de uso estructuralmente idénticos, con herramientas que tocan poblaciones sensibles ingresando a producción sin un proceso de discernimiento documentado.
Este documento establece los requisitos para cualquier proyecto que busque el respaldo de CDCF. Su premisa fundamental es práctica y específica: los humanos dentro de un sistema determinan si la gobernanza se sostiene. Las políticas, principios y marcos tienen peso solo cuando son rastreables a individuos nombrados con autoridad real y responsabilidad real. En la vida institucional católica, esa premisa tiene profundas raíces. La Iglesia enseña que la inteligencia humana es un aspecto esencial de ser creado a imagen de Dios, y que la innovación tecnológica representa una participación en el acto divino de creación.1 Dado que cada elección de diseño “expresa una visión de la humanidad”, los desarrolladores tienen la obligación de construir sistemas que “reflejen justicia, solidaridad y un genuino respeto por la vida.”2 Estos criterios traducen esa obligación en un estándar operativo que los desarrolladores, diócesis y asesores eclesiales pueden aplicar de manera consistente.
Los criterios están organizados en torno a dos puertas de evaluación. Puerta 1 rige la aceptación en la incubación. Puerta 2 rige la graduación al estado activo del proyecto CDCF. Un proyecto avanza a través de la Puerta 2 solo después de satisfacer completamente la Puerta 1.
| Puerta | Etapa | Criterios | Requisito |
|---|---|---|---|
| Puerta 1 | Aceptación en la Incubación | C1 Alineación Misionera · C2 Responsabilidad Humana · C3 Transparencia · C4 Validación Independiente · C5 Impacto en Poblaciones Vulnerables · C6 Gobernanza de Despliegue | Seis requeridos |
| Puerta 2 | Graduación a Estado Activo | C7 Documentación y Administración de Datos · C8 Gobernanza y Subsidiariedad | Ambos requeridos; la Puerta 1 debe seguir satisfecha |
Puerta 1: Aceptación en la Incubación
Se requieren los seis criterios para la aceptación en la incubación. Un proyecto que satisfaga cinco de los seis criterios permanece en diálogo previo a la presentación hasta que se resuelva el sexto.
Criterio 1: Alineación Misionera y Alcance Canónico
El proyecto debe servir a un propósito coherente con la misión evangelizadora de la Iglesia y con la enseñanza social católica sobre la dignidad humana, el bien común y la subsidiariedad. Los proyectos con el potencial de servir a cualquier parroquia, diócesis, escuela o ministerio que enfrente una necesidad estructuralmente similar tienen prioridad sobre los proyectos diseñados para los requisitos personalizados de una sola institución.
Límites canónicos. Los proyectos tecnológicos no deben intentar simular funciones sacramentales ni presentarse como poseedores de una autoridad eclesial que no poseen.
Extensión del dominio de la IA. Ciertas aplicaciones de IA caen fuera del alcance de la aprobación del CDCF independientemente de la calidad técnica. La base doctrinal para estos límites es precisa. La Iglesia distingue la inteligencia humana (entendida como una síntesis de intellectus (la comprensión intuitiva de la verdad) y ratio (razonamiento discursivo) que pertenece a una persona compuesta de cuerpo y alma) de la inferencia estadística artificial, que procesa datos sin la capacidad de pensar en ningún sentido teológicamente significativo.3 Dado que los seres humanos están ordenados por su naturaleza a la comunión interpersonal, y dado que los sacramentos son realidades encarnacionales arraigadas en la unidad del cuerpo y el alma, los sistemas de IA son constitutivamente incapaces de mediar la gracia sacramental o la dirección espiritual.
Las siguientes aplicaciones de IA son descalificadoras:
- Herramientas que simulan funciones sacramentales, incluyendo confesión, absolución o dirección espiritual
- Herramientas que presentan contenido generado por IA como enseñanza autoritativa de la Iglesia sin revisión teológica humana explícita
- Herramientas que asignan una identidad clerical, título o presentación visual que sugiera un estatus ordenado a un sistema de IA
Estos límites derivan de fracasos documentados en el despliegue de IA católica. En abril de 2024, Catholic Answers lanzó “Padre Justin”, un chatbot de IA presentado como una figura sacerdotal. El sistema requirió una rápida retirada dentro de los primeros días de lanzamiento después de que se presentó como un sacerdote y afirmó que podía administrar sacramentos.4 Una condición límite compartida definida de antemano habría identificado esta aplicación como fuera de alcance antes de que se enviara una sola línea de código.
Pregunta de evaluación: ¿Podría este proyecto servir a la Iglesia universal, o su propuesta de valor depende de la especificidad institucional que limita su aplicabilidad más amplia?
Criterio 2: Arquitectura de Responsabilidad Humana
Cada acción o decisión significativa informada por el proyecto debe ser atribuible a un ser humano nombrado y responsable, una persona específica identificada por su rol y posición institucional, que lleva la responsabilidad por ese resultado y que puede ser llamada a rendir cuentas por las personas afectadas. La responsabilidad distribuida a través de un comité sin un propietario de decisión nombrado no cumple con este criterio.
El fundamento doctrinal es inequívoco. La toma de decisiones sobre las vidas de las personas “siempre debe dejarse a la persona humana.”5 Como afirmó el Papa Francisco directamente: “Condenaríamos a la humanidad a un futuro sin esperanza si le quitáramos a las personas la capacidad de tomar decisiones sobre sí mismas y sus vidas, condenándolas a depender de las elecciones de las máquinas.” Mantener un control humano adecuado sobre las decisiones mediadas por la tecnología es un requisito moral vinculante; “la dignidad humana misma depende de ello.”6
Este requisito también operacionaliza el Canon 627 del Código de Derecho Canónico, que establece que los superiores deben utilizar consejos con obligaciones de consentimiento y asesoramiento definidas, y que la autoridad consecuente siempre está vinculada a individuos específicos que operan dentro de sistemas de consulta definidos.7 En la gobernanza católica, la autoridad nunca es un mecanismo autónomo o inubicable.
El fracaso estructural documentado en el esquema Robodebt australiano (2016–2019) ilustra lo que la eliminación de la responsabilidad humana nombrada produce a gran escala: cientos de miles de avisos de deuda ilegales y múltiples muertes entre beneficiarios vulnerables de asistencia social, atribuidos por la Comisión Real directamente a la ausencia de revisión humana en decisiones consecuentes sobre individuos.8
Preguntas de evaluación:
- ¿Puede una persona afectada por los resultados de este proyecto identificar quién tomó la decisión y a través de qué proceso?
- ¿El diseño del proyecto hace que la anulación humana sea clara, documentada y reversible?
Criterio 3: Transparencia del Alcance y la Operación
El presentador debe proporcionar documentación técnicamente precisa sobre lo que hace el proyecto, qué datos ingiere, quiénes son afectados por sus resultados, qué decisiones informa o toma, y dónde están sus límites operativos. Esta documentación debe ser suficiente para que un revisor técnico independiente evalúe el comportamiento real del proyecto sin depender de materiales de marketing del proveedor.
El Magisterio es explícito en que la “dignidad inherente de cada ser humano y la fraternidad que nos une” deben servir como los “criterios indiscutibles para evaluar nuevas tecnologías antes de que sean empleadas.”9 La evaluación requiere información. Un proyecto cuya operación no puede ser descrita independientemente no puede ser evaluado contra esos criterios.
Extensión del dominio de IA. Para herramientas de IA que involucren toma de decisiones automatizadas o asistidas algorítmicamente sobre personas, incluyendo contratación, asignación de recursos, triaje, recomendación de contenido y evaluación de riesgos, este criterio requiere adicionalmente:
- Divulgación de fuentes de datos de entrenamiento y limitaciones de distribución conocidas
- Documentación de cualquier auditoría o evaluación independiente realizada
- Descripción clara de qué decisiones toma la herramienta de manera autónoma y cuáles requieren revisión humana
La ausencia de esta documentación indica que el presentador tiene trabajo pendiente antes de que sea posible una decisión de implementación informada. La aprobación de CDCF de una herramienta no documentada expondría a las instituciones católicas a los mismos riesgos de opacidad que produjeron sesgos sistémicos en el algoritmo de sentencia penal COMPAS, donde se encontró que los puntajes de riesgo eran casi el doble de probables de marcar erróneamente a los acusados negros como de alto riesgo en comparación con los acusados blancos, antes de que se activaran los mecanismos de responsabilidad institucional.10
Criterio 4: Validación Independiente de las Capacidades Afirmadas
El presentador debe proporcionar evidencia de que las capacidades afirmadas del proyecto han sido evaluadas contra fuentes independientes del proveedor o desarrollador. La documentación del proveedor, los materiales de marketing y los informes de pruebas internas son insumos para esta revisión; la validación independiente se distingue de ellos.
Las formas aceptables de validación independiente incluyen:
| Tipo de Validación | Descripción |
|---|---|
| Auditoría técnica de terceros | Evaluación externa del comportamiento del sistema y de las afirmaciones |
| Evaluación revisada por pares | Revisión académica o profesional publicada |
| Benchmarking publicado | Resultados de marcos de evaluación reconocidos |
| Evaluación de equipo rojo documentada | Pruebas adversariales estructuradas con hallazgos registrados |
Donde dicha validación esté pendiente, el presentador debe divulgarlo explícitamente y proporcionar un plan concreto y un cronograma para obtenerla. Un proyecto que busque activamente la validación independiente puede ser aceptado en incubación con este criterio marcado como una condición de graduación en lugar de una barrera de entrada.
El estándar aplicado aquí es proporcional a los riesgos. Un proyecto que asiste con la programación interna tiene diferentes requisitos de validación que uno que informa decisiones de contratación, colocación de estudiantes o acceso a servicios sociales. El proceso de revisión de la CDCF aplica juicio en consecuencia.
Criterio 5: Impacto en Poblaciones Vulnerables
El proyecto debe demostrar que su impacto ha sido examinado con especial atención a la “opción preferencial por los pobres” y aquellos más vulnerables a la exclusión o daño tecnológico.
Las instituciones católicas sirven desproporcionadamente a poblaciones que los pipelines de desarrollo tecnológico comercial han subrepresentado históricamente:
- Los ancianos y personas con discapacidades
- Inmigrantes recientes y comunidades que no hablan inglés
- Comunidades en pobreza y poblaciones en áreas rurales o desatendidas
Desplegar herramientas sin examinar su impacto en estas poblaciones es inconsistente con la opción preferencial de la Iglesia por los pobres y vulnerables, y es un fracaso de gobernanza independientemente de las métricas de rendimiento agregadas.
El Papa León XIV identifica el riesgo con precisión: el desarrollo tecnológico se convierte en un fracaso moral cuando produce sistemas que permiten a los seres humanos convertirse en “meramente consumidores pasivos de contenido generado por tecnología artificial,” erosionando la capacidad de “reflexionar, elegir libremente, amar incondicionalmente y entrar en relaciones auténticas.”11 Herramientas que degradan sistemáticamente los resultados para poblaciones vulnerables aceleran precisamente esa erosión para las personas con menos capacidad para resistirlo.
Extensión del dominio de IA. Para herramientas de IA, este criterio requiere un análisis documentado del rendimiento de subgrupos: evidencia de que la precisión, tasas de error y resultados de la herramienta han sido examinados en las poblaciones específicas que afectará, con especial atención a grupos subrepresentados en conjuntos de datos de entrenamiento típicos o que presentan una vulnerabilidad aumentada al daño algorítmico. El Magisterio define el sesgo algorítmico como “errores sistemáticos y consistentes en sistemas informáticos que pueden perjudicar desproporcionadamente a ciertos grupos de maneras no intencionadas.”12
Este criterio requiere un análisis documentado del rendimiento de subgrupos o un reconocimiento explícito de su ausencia acompañado de un plan concreto para obtenerlo. Un presentador que haya abordado estas cuestiones con rigor y documentado tanto la evidencia como las lagunas satisface este criterio.
Criterio 6: Especificación de Gobernanza de Despliegue
El presentador debe especificar las condiciones de gobernanza bajo las cuales operará el proyecto. Este criterio aborda la brecha consecuente entre un proyecto que es técnicamente sólido en aislamiento y uno que se despliega de manera responsable en un contexto institucional.
Elementos requeridos:
| Elemento | Descripción |
|---|---|
| Nivel de autoridad de decisión | Parroquia, diócesis, institución o junta; claramente mapeado |
| Condiciones de escalamiento | Disparadores definidos que requieren la participación de una autoridad superior |
| Disparadores de revisión humana | Umbrales en los que los resultados requieren examen humano antes de la acción |
| Proceso de apelación | Proceso por el cual las personas afectadas pueden impugnar una decisión influenciada por el proyecto |
El fundamento canónico para estos requisitos es específico. El Canon 1609 dicta que los jueces en un tribunal colegiado deben presentar conclusiones escritas con razones en derecho y en hecho, seguidas de una discusión estructurada. Los jueces conservan el derecho a retirarse de una conclusión original y a exigir que la disidencia sea transmitida a un tribunal superior.13 Este estándar canónico establece que la toma de decisiones católica requiere razonamiento consciente, la capacidad de revisar juicios y mecanismos transparentes para apelaciones; una especificación de gobernanza de despliegue debe preservar estas capacidades en manos humanas.
Este criterio se basa en el patrón de diseño de gobernanza como código, en el que las políticas de despliegue se expresan como especificaciones legibles por máquina y auditables, en lugar de documentos de política que existen separadamente de los sistemas que gobiernan. Una implementación madura trata la decisión de acceso en sí misma como el artefacto principal: un registro estructurado que reúne evidencia, niveles de confianza, propiedad nombrada, brechas identificadas y una justificación explícita antes de que se realice cualquier compromiso posterior. Los estados de decisión son específicos y limitados: ir, ir condicional, no ir y diferir, cada uno con requisitos de documentación distintos y obligaciones de escalación. La implementación técnica completa a este nivel de rigor es aspiracional más que requerida en la etapa de incubación. Lo que se requiere es que la especificación de gobernanza exista como un documento escrito y revisable, y que la arquitectura del proyecto sea compatible con su aplicación a medida que se desarrolla la capacidad institucional.
Puerta 2: Graduación a Estado Activo de Proyecto CDCF
La graduación requiere que los criterios de la Puerta 1 se mantengan satisfechos en su totalidad y que se cumplan los siguientes dos requisitos adicionales. Estos requisitos abordan la preparación operativa: la diferencia entre un proyecto que funciona bien en un contexto controlado y uno que las instituciones católicas pueden adoptar, mantener y confiar a gran escala.
Criterio 7: Documentación para Despliegue Independiente y Custodia de Datos
El proyecto debe contar con documentación suficiente para que una institución católica evalúe, configure, despliegue y apoye el proyecto sin la participación directa del presentador original. Esto incluye documentación técnica, orientación para el usuario y documentación explícita de la especificación de gobernanza requerida bajo el Criterio 6.
La prueba de despliegue: ¿Podría el director de tecnología de una oficina de escuelas diocesanas, trabajando con su equipo y sin acceso a los autores del proyecto, desplegar este proyecto de manera responsable dentro de 90 días?
Los requisitos de custodia de datos son proporcionales al perfil de riesgo del proyecto. Los proyectos que manejan datos personales deben cumplir con los siguientes requisitos:
| Tipo de Datos | Requisito de Cumplimiento |
|---|---|
| Información de salud | Cumplimiento de HIPAA; enfoque de minimización de datos documentado |
| Registros de estudiantes | Cumplimiento de FERPA; procedimientos de retención y eliminación especificados |
| Datos sacramentales | Políticas de gobernanza de datos diocesanas; controles de acceso documentados |
| Datos relacionados con menores | Protecciones mejoradas; procedimientos de consentimiento explícito y respuesta a violaciones |
| Información financiera | Leyes estatales y federales aplicables; requisitos de auditoría |
Extensión del dominio de IA. Para herramientas de IA, este criterio se extiende a la gobernanza de datos de entrenamiento. Una herramienta entrenada con datos de instituciones católicas tiene una obligación con esas instituciones y con las poblaciones que sirven. Los términos bajo los cuales se utilizaron esos datos, y los términos bajo los cuales pueden ser utilizados en futuras actualizaciones del modelo, deben ser divulgados y evaluados como parte de la revisión de graduación.
Criterio 8: Gobernanza, Mantenimiento y Compatibilidad de Subsidiariedad
El proyecto debe tener un proceso definido y documentado para el mantenimiento continuo, control de versiones, respuesta a vulnerabilidades y gobernanza comunitaria. Un mantenedor nombrado o un equipo de mantenedores debe aceptar la responsabilidad pública por el proyecto en el futuro.
El proyecto debe ser desplegable al nivel apropiado de autoridad eclesial, ya sea parroquial, diocesano o institucional, sin requerir un control centralizado que comprometa la subsidiariedad. La comprensión de la subsidiariedad por parte de la Iglesia es precisa en este punto: es una garantía de que cada nivel de autoridad retiene sus deberes y derechos adecuados respecto al bien común, en lugar de ser una simple delegación de decisiones al nivel más bajo disponible, y asegura que ninguna entidad más grande absorba la iniciativa y responsabilidad legítimas de las más pequeñas.14 Las comunidades locales deben poder configurar el proyecto para su contexto, y esa capacidad de configuración debe ser arquitectónicamente genuina, sin requerir anular la responsabilidad central, la seguridad o el diseño de gobernanza del proyecto para funcionar.
Antiqua et Nova (§42) es explícito en que la responsabilidad de gestionar la tecnología sabiamente “pertenece a cada nivel de la sociedad, guiado por el principio de subsidiariedad.”15 Un proyecto que funcione solo bajo condiciones de administración centralizada concentra la autoridad de maneras que violan este principio y socavan la estructura eclesial que el CDCF existe para servir.
Fundamentación en la Enseñanza Católica y la Tradición Canónica
Estos ocho criterios están fundamentados en tres cuerpos de enseñanza que se sostienen en común dentro de la comunidad del CDCF.
Dignidad humana y control humano genuino. Antiqua et Nova (Dicasterio para la Doctrina de la Fe, enero de 2025) insiste en que la IA debe permanecer bajo la responsabilidad moral humana genuina, distingue la inteligencia humana de la inferencia estadística artificial sobre bases antropológicas y teológicas, y establece que “la dignidad humana misma depende de” mantener un control humano real sobre las decisiones mediadas por la tecnología.16 Los criterios 2 y 6 operacionalizan este requisito al nivel del despliegue institucional.
Subsidiariedad y autoridad responsable. El canon 627 del Código de Derecho Canónico requiere que las decisiones se tomen en el nivel apropiado de autoridad con propiedad humana identificable.17 El canon 1609 establece el patrón de deliberación colegiada, conclusiones escritas, discusión ordenada y decisión documentada que fundamenta el requisito de especificación de gobernanza del Criterio 6.18 El Criterio 8 extiende la subsidiariedad desde la gobernanza eclesial hacia la arquitectura de despliegue de los propios proyectos.
El bien común sobre la eficiencia. El Papa León XIV, en su mensaje al Builders AI Forum (noviembre de 2025), instó a los constructores de tecnología a cultivar el discernimiento moral como un esfuerzo profundamente eclesial y a desarrollar sistemas que reflejen la justicia, la solidaridad y el respeto genuino por la vida.19 Este principio anima todos los ocho criterios: las instituciones católicas son administradores, y la administración requiere que los proyectos sean evaluados en función de su efecto sobre la persona humana completa y las comunidades que sirven, considerando los ahorros de costos y el rendimiento operativo como consideraciones secundarias.
Relación con la Investigación de Gobernanza Más Amplia
Estos criterios representan la capa de incubación y graduación de una arquitectura de gobernanza más amplia que actualmente se discute dentro de U.S.A. C-DART 1 (Catholic Deep AI Research Team), que está comprometido activamente en un proceso de planificación estructurada para evaluar y priorizar las principales tendencias de IA que enfrentan las instituciones católicas. Tres memorandos de investigación que emergen de ese proceso informan el diseño de estos criterios y se presentan junto a este documento.
Gobernanza Digital Católica Fragmentada a Gran Escala documenta por qué las instituciones católicas a través de diócesis, sistemas de salud y redes educativas están produciendo docenas de estándares de gobernanza incompatibles y representaciones digitales para casos de uso estructuralmente idénticos, y por qué son urgentes las líneas base canónicas compartidas. Esta investigación proporciona la base empírica para el diseño de los criterios.
Gobernanza como Código para el Despliegue de Tecnología Católica sostiene que las políticas de despliegue deben convertirse en especificaciones legibles por máquina y auditables que operen como puertas de acceso estrictas en lugar de documentos consultivos. Esta investigación informa el requisito de especificación de gobernanza del Criterio 6 y describe la implementación más rigurosa desde el punto de vista técnico a la que este marco está diseñado para evolucionar.
Infraestructura de Datos Confiables para el Ministerio Católico aborda la infraestructura de datos —tanto datos institucionales sintéticos como datos eclesiales estandarizados— que permitiría un desarrollo tecnológico responsable en la salud, educación, servicios sociales y vida parroquial católicos. Esta investigación fundamenta los requisitos ampliados de administración de datos del Criterio 7 y anticipa las obligaciones de gobernanza de datos que acompañan el desarrollo de tecnología católica más sofisticada.
Una Invitación a Iterar
Este es un borrador de trabajo. Cada criterio es una propuesta sujeta a revisión a través de la participación de la comunidad, la experiencia piloto y el diálogo con asesores eclesiales. El objetivo es un estándar vivo que se vuelve más preciso y útil a medida que las instituciones católicas comienzan a aplicarlo a proyectos reales.
Las contribuciones, desafíos y propuestas de revisión son bienvenidas a través de una solicitud de extracción o un problema en el GitHub de CatholicOS.
Redactado en diálogo con C-DART 1 (Catholic Deep AI Research Team) de EE. UU. Febrero–marzo de 2026.
Bibliografía
-
Dicasterio para la Doctrina de la Fe y Dicasterio para la Cultura y la Educación, Antiqua et Nova: Nota sobre la Relación entre la Inteligencia Artificial y la Inteligencia Humana (Ciudad del Vaticano: Dicasterio para la Doctrina de la Fe, 28 de enero de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Papa León XIV, “Mensaje a los Participantes en el Foro de Constructores de IA 2025,” Ciudad del Vaticano, 3 de noviembre de 2025, https://www.vatican.va/content/leo-xiv/en/messages/pont-messages/2025/documents/20251103-messaggio-builders-aiforum.html.↩︎
-
Dicasterio para la Doctrina de la Fe y Dicasterio para la Cultura y la Educación, Antiqua et Nova: Nota sobre la Relación entre la Inteligencia Artificial y la Inteligencia Humana (Ciudad del Vaticano: Dicasterio para la Doctrina de la Fe, 28 de enero de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
“La Verdadera Lección Detrás del Debacle del Sacerdote AI ‘Padre Justin’,” America, 26 de abril de 2024, https://www.americamagazine.org/faith/2024/04/26/father-justin-catholic-answers-ai-247808.↩︎
-
Dicasterio para la Doctrina de la Fe y Dicasterio para la Cultura y la Educación, Antiqua et Nova: Nota sobre la Relación entre la Inteligencia Artificial y la Inteligencia Humana (Ciudad del Vaticano: Dicasterio para la Doctrina de la Fe, 28 de enero de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Dicasterio para la Doctrina de la Fe y Dicasterio para la Cultura y la Educación, Antiqua et Nova: Nota sobre la Relación entre la Inteligencia Artificial y la Inteligencia Humana (Ciudad del Vaticano: Dicasterio para la Doctrina de la Fe, 28 de enero de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Código de Derecho Canónico, Canon 627 (Ciudad del Vaticano: Librería Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib2-cann460-572_en.html.↩︎
-
Commonwealth de Australia, Comisión Real sobre el Esquema Robodebt: Informe Final (Canberra: Commonwealth de Australia, 2023), https://robodebt.royalcommission.gov.au/.↩︎
-
Dicasterio para la Doctrina de la Fe y Dicasterio para la Cultura y la Educación, Antiqua et Nova: Nota sobre la Relación entre la Inteligencia Artificial y la Inteligencia Humana (Ciudad del Vaticano: Dicasterio para la Doctrina de la Fe, 28 de enero de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Julia Angwin, Jeff Larson, Surya Mattu y Lauren Kirchner, “Sesgo de Máquina,” ProPublica, 23 de mayo de 2016, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.↩︎
-
Papa León XIV, “Discurso a los Participantes en la Conferencia ‘Inteligencia Artificial y Cuidado de Nuestro Hogar Común,’” Ciudad del Vaticano, 5 de diciembre de 2025, https://www.vatican.va/content/leo-xiv/en/speeches/2025/december/documents/20251205-conferenza.html.↩︎
-
Dicasterio para la Doctrina de la Fe y Dicasterio para la Cultura y la Educación, Antiqua et Nova: Nota sobre la Relación entre la Inteligencia Artificial y la Inteligencia Humana (Ciudad del Vaticano: Dicasterio para la Doctrina de la Fe, 28 de enero de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Código de Derecho Canónico, Canon 1609 (Ciudad del Vaticano: Librería Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib7-cann1501-1670_en.html.↩︎
-
Catecismo de la Iglesia Católica, 2ª ed., §1894 (Ciudad del Vaticano: Librería Editrice Vaticana, 1997), https://www.vatican.va/archive/ENG0015/_INDEX.HTM.↩︎
-
Dicasterio para la Doctrina de la Fe y Dicasterio para la Cultura y la Educación, Antiqua et Nova: Nota sobre la Relación entre la Inteligencia Artificial y la Inteligencia Humana (Ciudad del Vaticano: Dicasterio para la Doctrina de la Fe, 28 de enero de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Dicasterio para la Doctrina de la Fe y Dicasterio para la Cultura y la Educación, Antiqua et Nova: Nota sobre la Relación entre la Inteligencia Artificial y la Inteligencia Humana (Ciudad del Vaticano: Dicasterio para la Doctrina de la Fe, 28 de enero de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Código de Derecho Canónico, Canon 627 (Ciudad del Vaticano: Librería Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib2-cann460-572_en.html.↩︎
-
Código de Derecho Canónico, Canon 1609 (Ciudad del Vaticano: Librería Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib7-cann1501-1670_en.html.↩︎
-
Papa León XIV, “Mensaje a los Participantes en el Foro de Constructores de IA 2025,” Ciudad del Vaticano, 3 de noviembre de 2025, https://www.vatican.va/content/leo-xiv/en/messages/pont-messages/2025/documents/20251103-messaggio-builders-aiforum.html.↩︎