Critères de Vérification des Projets CDCF
| Version | v0.2 (brouillon pour révision communautaire) |
| Portée | Tous les projets technologiques soumis pour incubation et graduation par le CDCF |
| Note | Des extensions spécifiques au domaine (commençant par l’IA) sont intégrées en ligne. D’autres domaines peuvent être ajoutés à mesure que la Fondation évolue. |
Table des Matières
- Objectif et Justification
- Porte 1 : Acceptation en Incubation
- Critère 1 : Alignement de la Mission et Portée Canonique
- Critère 2 : Architecture de Responsabilité Humaine
- Critère 3 : Transparence de la Portée et de l’Opération
- Critère 4 : Validation Indépendante des Capacités Réclamées
- Critère 5 : Impact sur les Populations Vulnérables
- Critère 6 : Spécification de la Gouvernance de Déploiement
- Porte 2 : Graduation au Statut de Projet Actif CDCF
- Ancrage dans l’Enseignement Catholique et la Tradition Canonique
- Relation avec la Recherche en Gouvernance Plus Large
- Une Invitation à Itérer
- Bibliographie
Objectif et Justification
La Catholic Digital Commons Foundation (CDCF) sert l’Église en favorisant une norme canonique partagée pour les projets technologiques qui respectent la dignité humaine et le bien commun. Sans normes partagées, les institutions catholiques risquent une fragmentation technique et canonique, déployant des outils qui peuvent ne pas s’aligner avec notre mission ou qui fonctionnent sans lignes claires de responsabilité.
Les institutions catholiques servent des dizaines de millions de personnes dans les domaines de la santé, de l’éducation, des services sociaux et de la vie paroissiale. Elles évaluent et déploient activement des technologies pour effectuer ce travail plus efficacement, et dans de nombreux domaines — l’IA étant le plus en vue — elles le font sans norme canonique partagée sur ce à quoi ressemble un déploiement catholique responsable. La conséquence est la fragmentation : des diocèses, des systèmes scolaires et des agences de Charités Catholiques fonctionnant sous des critères d’évaluation incompatibles pour des cas d’utilisation structurellement identiques, avec des outils touchant des populations sensibles entrant en production sans un processus de discernement documenté.
Ce document établit les exigences pour tout projet cherchant l’approbation du CDCF. Son principe fondamental est pratique et spécifique : les humains à l’intérieur d’un système déterminent si la gouvernance tient. Les politiques, principes et cadres n’ont de poids que lorsqu’ils sont traçables à des individus nommés ayant une réelle autorité et une réelle responsabilité. Dans la vie institutionnelle catholique, ce principe a des racines profondes. L’Église enseigne que l’intelligence humaine est un aspect essentiel d’être créé à l’image de Dieu, et que l’innovation technologique représente une participation à l’acte divin de création.1 Parce que chaque choix de conception “exprime une vision de l’humanité”, les développeurs ont l’obligation de construire des systèmes qui “réflètent la justice, la solidarité et un véritable respect de la vie.”2 Ces critères traduisent cette obligation en une norme opérationnelle que les développeurs, les diocèses et les conseillers ecclésiaux peuvent appliquer de manière cohérente.
Les critères sont organisés autour de deux portes d’évaluation. Porte 1 régit l’acceptation dans l’incubation. Porte 2 régit la graduation au statut de projet actif CDCF. Un projet avance à travers la Porte 2 uniquement après avoir satisfait pleinement à la Porte 1.
| Porte | Étape | Critères | Exigence |
|---|---|---|---|
| Porte 1 | Acceptation en Incubation | C1 Alignement de Mission · C2 Responsabilité Humaine · C3 Transparence · C4 Validation Indépendante · C5 Impact sur les Populations Vulnérables · C6 Gouvernance de Déploiement | Les six sont requis |
| Porte 2 | Graduation au Statut Actif | C7 Documentation et Gestion des Données · C8 Gouvernance et Subsidiarité | Les deux sont requis ; la Porte 1 doit rester satisfaite |
Porte 1 : Acceptation en Incubation
Tous les six critères sont requis pour l’acceptation en incubation. Un projet satisfaisant cinq des six critères reste en dialogue pré-soumission jusqu’à ce que le sixième soit résolu.
Critère 1 : Alignement de Mission et Champ Canonique
Le projet doit servir un but cohérent avec la mission évangélisatrice de l’Église et avec l’enseignement social catholique sur la dignité humaine, le bien commun et la subsidiarité. Les projets ayant le potentiel de servir toute paroisse, diocèse, école ou ministère faisant face à un besoin structurellement similaire sont prioritaires par rapport aux projets conçus pour les exigences sur mesure d’une seule institution.
Limites canoniques. Les projets technologiques ne doivent pas tenter de simuler des fonctions sacramentelles ou se présenter comme ayant une autorité ecclésiale qu’ils ne possèdent pas.
Extension du domaine de l’IA. Certaines applications d’IA tombent en dehors du champ d’approbation de la CDCF, quelle que soit leur qualité technique. La base doctrinale de ces limites est précise. L’Église distingue l’intelligence humaine (comprise comme une synthèse de intellectus (la compréhension intuitive de la vérité) et ratio (le raisonnement discursif) appartenant à une personne composée de corps et d’âme) de l’inférence statistique artificielle, qui traite des données sans la capacité de penser dans un sens théologiquement significatif.3 Parce que les êtres humains sont ordonnés par leur nature à la communion interpersonnelle, et parce que les sacrements sont des réalités incarnées enracinées dans l’unité du corps et de l’âme, les systèmes d’IA sont constitutivement incapables de médiatiser la grâce sacramentelle ou la direction spirituelle.
Les applications d’IA suivantes sont disqualifiantes :
- Outils qui simulent des fonctions sacramentelles, y compris la confession, l’absolution ou la direction spirituelle
- Outils qui présentent un contenu généré par l’IA comme un enseignement autoritaire de l’Église sans examen théologique humain explicite
- Outils qui attribuent une identité cléricale, un titre ou une présentation visuelle suggérant un statut ordonné à un système d’IA
Ces limites dérivent d’échecs documentés dans le déploiement de l’IA catholique. En avril 2024, Catholic Answers a lancé “Père Justin”, un chatbot IA présenté comme une figure sacerdotale. Le système a nécessité un retrait rapide dans les premiers jours de son lancement après s’être présenté comme un prêtre et avoir prétendu pouvoir administrer des sacrements.4 Une condition limite partagée définie à l’avance aurait identifié cette application comme hors de portée avant qu’une seule ligne de code ne soit expédiée.
Question d’évaluation : Ce projet pourrait-il servir l’Église universelle, ou sa proposition de valeur dépend-elle d’une spécificité institutionnelle qui limite son applicabilité plus large ?
Critère 2 : Architecture de Responsabilité Humaine
Chaque action ou décision conséquente informée par le projet doit être attribuable à une personne humaine nommée et responsable, une personne spécifique identifiée par son rôle et sa position institutionnelle, qui porte la responsabilité de ce résultat et qui peut être tenue responsable par les personnes affectées. Une responsabilité répartie à travers un comité sans un propriétaire de décision nommé ne satisfait pas à ce critère.
Le fondement doctrinal est sans ambiguïté. La prise de décision concernant la vie des personnes « doit toujours être laissée à la personne humaine. »5 Comme l’a déclaré directement le Pape François : « Nous condamnerions l’humanité à un avenir sans espoir si nous retirions aux gens la capacité de prendre des décisions concernant eux-mêmes et leur vie, en les condamnant à dépendre des choix des machines. » Maintenir un contrôle humain approprié sur les décisions médiées par la technologie est une exigence morale contraignante ; « la dignité humaine elle-même en dépend. »6
Cette exigence opérationnalise également le Canon 627 du Code de Droit Canon, qui établit que les supérieurs doivent utiliser des conseils avec des obligations de consentement et de conseil définies, et que l’autorité conséquente est toujours liée à des individus spécifiques opérant au sein de systèmes de consultation définis.7 Dans la gouvernance catholique, l’autorité n’est jamais un mécanisme autonome ou introuvable.
La défaillance structurelle documentée dans le système Robodebt australien (2016–2019) illustre ce que la suppression de la responsabilité humaine nommée produit à grande échelle : des centaines de milliers d’avis de dette illégaux et plusieurs décès parmi des bénéficiaires de l’aide sociale vulnérables, attribués par la Commission Royale directement à l’absence de révision humaine des décisions conséquentes concernant des individus.8
Questions d’évaluation :
- Une personne affectée par les résultats de ce projet peut-elle identifier qui a pris la décision et par quel processus ?
- La conception du projet rend-elle l’annulation humaine claire, documentée et réversible ?
Critère 3 : Transparence de la portée et du fonctionnement
Le soumissionnaire doit fournir une documentation techniquement précise de ce que fait le projet, quelles données il ingère, qui est affecté par ses résultats, quelles décisions il informe ou prend, et où se situent ses limites opérationnelles. Cette documentation doit être suffisante pour qu’un examinateur technique indépendant puisse évaluer le comportement réel du projet sans se fier aux matériaux marketing du fournisseur.
Le Magistère est explicite que la « dignité inhérente de chaque être humain et la fraternité qui nous unit » doivent servir de « critères indiscutables pour évaluer les nouvelles technologies avant qu’elles ne soient employées. »9 L’évaluation nécessite des informations. Un projet dont le fonctionnement ne peut pas être décrit de manière indépendante ne peut pas être évalué selon ces critères.
Extension du domaine de l’IA. Pour les outils d’IA qui impliquent une prise de décision automatisée ou assistée par algorithme concernant des personnes, y compris le recrutement, l’allocation de ressources, le triage, la recommandation de contenu et l’évaluation des risques, ce critère exige également :
- La divulgation des sources de données d’entraînement et des limitations de distribution connues
- La documentation de tout audit ou évaluation indépendante réalisée
- Une description claire des décisions que l’outil prend de manière autonome et celles qui nécessitent une révision humaine
L’absence de cette documentation indique que le soumissionnaire a encore du travail avant qu’une décision de déploiement éclairée soit possible. L’approbation par le CDCF d’un outil non documenté exposerait les institutions catholiques aux mêmes risques d’opacité qui ont produit un biais systémique dans l’algorithme de condamnation criminelle COMPAS, où il a été constaté que les scores de risque étaient presque deux fois plus susceptibles de signaler faussement des défendeurs noirs comme à haut risque par rapport aux défendeurs blancs, avant que les mécanismes de responsabilité institutionnelle ne soient engagés.10
Critère 4 : Validation indépendante des capacités revendiquées
Le soumissionnaire doit fournir des preuves que les capacités revendiquées du projet ont été évaluées par rapport à des sources indépendantes du fournisseur ou du développeur. La documentation du fournisseur, les matériaux marketing et les rapports de tests internes sont des éléments de cette révision ; la validation indépendante se distingue de ceux-ci.
Les formes acceptables de validation indépendante incluent :
| Type de validation | Description |
|---|---|
| Audit technique par un tiers | Évaluation externe du comportement et des revendications du système |
| Évaluation par les pairs | Revue académique ou professionnelle publiée |
| Évaluation de référence publiée | Résultats provenant de cadres d’évaluation reconnus |
| Évaluation de l’équipe rouge documentée | Tests adversariaux structurés avec constatations enregistrées |
Lorsque cette validation est en attente, le soumissionnaire doit le divulguer explicitement et fournir un plan concret et un calendrier pour l’obtenir. Un projet en quête active de validation indépendante peut être accepté en incubation avec ce critère marqué comme condition de graduation plutôt que comme barrière à l’entrée.
La norme appliquée ici est proportionnelle aux enjeux. Un projet qui aide à la planification interne a des exigences de validation différentes de celui qui informe les décisions d’embauche, le placement des étudiants ou l’accès aux services sociaux. Le processus d’examen du CDCF applique son jugement en conséquence.
Critère 5 : Impact sur les populations vulnérables
Le projet doit démontrer que son impact a été examiné avec une attention particulière à l’« option préférentielle pour les pauvres » et à ceux qui sont les plus vulnérables à l’exclusion ou au préjudice technologique.
Les institutions catholiques servent de manière disproportionnée des populations que les pipelines de développement technologique commercial ont historiquement sous-représentées :
- Les personnes âgées et les personnes en situation de handicap
- Les immigrants récents et les communautés non anglophones
- Les communautés en situation de pauvreté et les populations dans des zones rurales ou mal desservies
Déployer des outils sans examiner leur impact sur ces populations est incompatible avec l’option préférentielle de l’Église pour les pauvres et les vulnérables, et constitue un échec de gouvernance indépendamment des indicateurs de performance agrégés.
Le Pape Léon XIV identifie précisément le risque : le développement technologique devient un échec moral lorsqu’il produit des systèmes qui permettent aux êtres humains de devenir « de simples consommateurs passifs de contenu généré par la technologie artificielle », érodant la capacité de « réfléchir, choisir librement, aimer inconditionnellement et entrer dans des relations authentiques. »11 Les outils qui dégradent systématiquement les résultats pour les populations vulnérables accélèrent exactement cette érosion pour les personnes ayant le moins de capacité à y résister.
Extension de domaine de l’IA. Pour les outils d’IA, ce critère nécessite une analyse de performance de sous-groupe documentée : des preuves que l’exactitude, les taux d’erreur et les résultats de l’outil ont été examinés à travers les populations spécifiques qu’il affectera, avec une attention particulière aux groupes sous-représentés dans les ensembles de données d’entraînement typiques ou présentant une vulnérabilité accrue aux préjudices algorithmiques. Le Magistère définit le biais algorithmique comme « des erreurs systématiques et cohérentes dans les systèmes informatiques qui peuvent préjuger de manière disproportionnée certains groupes de manière non intentionnelle. »12
Ce critère nécessite soit une analyse de performance de sous-groupe documentée, soit une reconnaissance explicite de son absence accompagnée d’un plan concret pour l’obtenir. Un soumissionnaire qui a abordé ces questions avec rigueur et documenté à la fois les preuves et les lacunes satisfait à ce critère.
Critère 6 : Spécification de la gouvernance de déploiement
Le soumissionnaire doit spécifier les conditions de gouvernance sous lesquelles le projet fonctionnera. Ce critère aborde l’écart conséquent entre un projet qui est techniquement solide isolément et un projet qui est déployé de manière responsable dans un contexte institutionnel.
Éléments requis :
| Élément | Description |
|---|---|
| Niveau d’autorité décisionnelle | Paroisse, diocèse, institution ou conseil ; clairement défini |
| Conditions d’escalade | Déclencheurs définis nécessitant l’implication d’une autorité supérieure |
| Déclencheurs de révision humaine | Seuils à partir desquels les résultats nécessitent un examen humain avant action |
| Processus d’appel | Processus par lequel les personnes concernées peuvent contester une décision influencée par le projet |
Le fondement canonique de ces exigences est spécifique. Le canon 1609 dicte que les juges dans un tribunal collégial doivent soumettre des conclusions écrites avec des raisons en droit et en fait, suivies d’une discussion structurée. Les juges conservent le droit de se retirer d’une conclusion originale et d’exiger que le dissentiment soit transmis à un tribunal supérieur.13 Cette norme canonique établit que la prise de décision catholique nécessite un raisonnement conscient, la capacité de réviser des jugements et des mécanismes transparents d’appel ; une spécification de gouvernance de déploiement doit préserver ces capacités entre des mains humaines.
Ce critère s’appuie sur le modèle de conception gouvernance-comme-code, dans lequel les politiques de déploiement sont exprimées sous forme de spécifications lisibles par machine et auditées plutôt que de documents politiques qui existent séparément des systèmes qu’elles gouvernent. Une mise en œuvre mature considère la décision de porte elle-même comme l’artéfact principal : un enregistrement structuré rassemblant des preuves, des niveaux de confiance, une propriété nommée, des lacunes identifiées et une justification explicite avant qu’un engagement en aval ne soit pris. Les états de décision sont spécifiques et délimités : aller, aller conditionnel, ne pas aller et différer, chacun portant des exigences de documentation distinctes et des obligations d’escalade. Une mise en œuvre technique complète à ce niveau de rigueur est aspiratoire plutôt que requise à l’étape d’incubation. Ce qui est requis, c’est que la spécification de gouvernance existe en tant que document écrit et révisable, et que l’architecture du projet soit compatible avec son application à mesure que la capacité institutionnelle se développe.
Porte 2 : Graduation au statut de projet actif CDCF
La graduation nécessite que les critères de la Porte 1 restent pleinement satisfaits et que les deux exigences supplémentaires suivantes soient remplies. Ces exigences concernent la préparation opérationnelle : la différence entre un projet qui fonctionne bien dans un contexte contrôlé et un projet que les institutions catholiques peuvent adopter, maintenir et faire confiance à grande échelle.
Critère 7 : Documentation pour le déploiement indépendant et la gestion des données
Le projet doit comporter une documentation suffisante pour qu’une institution catholique puisse évaluer, configurer, déployer et soutenir le projet sans l’implication directe de l’auteur original. Cela inclut la documentation technique, les conseils destinés aux utilisateurs et la documentation explicite de la spécification de gouvernance requise selon le Critère 6.
Le test de déploiement : Le directeur de la technologie d’un bureau des écoles diocésaines, travaillant avec son équipe et sans accès aux auteurs du projet, pourrait-il déployer ce projet de manière responsable dans les 90 jours ?
Les exigences de gestion des données sont proportionnelles au profil de risque du projet. Les projets qui traitent des données personnelles doivent répondre aux exigences suivantes :
| Type de données | Exigence de conformité |
|---|---|
| Informations sur la santé | Conformité HIPAA ; approche de minimisation des données documentée |
| Dossiers d’étudiants | Conformité FERPA ; procédures de conservation et de suppression spécifiées |
| Données sacramentelles | Politiques de gouvernance des données diocésaines ; contrôles d’accès documentés |
| Données concernant des mineurs | Protections renforcées ; consentement explicite et procédures de réponse aux violations |
| Informations financières | Droit applicable des États et fédéral ; exigences de traçabilité |
Extension du domaine de l’IA. Pour les outils d’IA, ce critère s’étend à la gouvernance des données d’entraînement. Un outil formé sur des données provenant d’institutions catholiques a une obligation envers ces institutions et envers les populations qu’elles servent. Les conditions selon lesquelles ces données ont été utilisées, et les conditions selon lesquelles elles peuvent être utilisées dans de futures mises à jour de modèles, doivent être divulguées et évaluées dans le cadre de l’examen de graduation.
Critère 8 : Gouvernance, maintenance et compatibilité de subsidiarité
Le projet doit avoir un processus défini et documenté pour la maintenance continue, le contrôle des versions, la réponse aux vulnérabilités et la gouvernance communautaire. Un mainteneur nommé ou une équipe de mainteneurs doit accepter la responsabilité publique du projet à l’avenir.
Le projet doit être déployable au niveau approprié de l’autorité ecclésiale, que ce soit la paroisse, le diocèse ou l’institution, sans nécessiter un contrôle centralisé qui compromettrait la subsidiarité. La compréhension de la subsidiarité par l’Église est précise à ce sujet : elle garantit que chaque niveau d’autorité conserve ses devoirs et droits propres concernant le bien commun, plutôt qu’une simple délégation de décisions au niveau le plus bas disponible, et elle veille à ce qu’aucune entité plus grande n’absorbe l’initiative et la responsabilité légitimes des plus petites.14 Les communautés locales doivent être en mesure de configurer le projet pour leur contexte, et cette capacité de configuration doit être architecturale authentique, ne nécessitant aucune modification de la responsabilité fondamentale, de la sécurité ou de la conception de gouvernance du projet pour fonctionner.
Antiqua et Nova (§42) est explicite sur le fait que la responsabilité de gérer la technologie de manière judicieuse “appartient à chaque niveau de la société, guidé par le principe de subsidiarité.”15 Un projet qui fonctionne uniquement dans des conditions d’administration centralisée concentre l’autorité de manière à violer ce principe et à saper la structure ecclésiale que le CDCF existe pour servir.
Ancrage dans l’Enseignement Catholique et la Tradition Canonique
Ces huit critères sont fondés sur trois corpus d’enseignement communs au sein de la communauté du CDCF.
Dignité humaine et contrôle humain authentique. Antiqua et Nova (Dicastère pour la Doctrine de la Foi, janvier 2025) insiste sur le fait que l’IA doit rester sous la responsabilité morale humaine authentique, distingue l’intelligence humaine de l’inférence statistique artificielle sur des bases anthropologiques et théologiques, et établit que “la dignité humaine elle-même dépend de” le maintien d’un véritable contrôle humain sur les décisions médiées par la technologie.16 Les critères 2 et 6 opérationnalisent cette exigence au niveau du déploiement institutionnel.
Subsidiarité et autorité responsable. Le canon 627 du Code de Droit Canon exige que les décisions soient prises au niveau approprié de l’autorité avec une propriété humaine identifiable.17 Le canon 1609 établit le modèle de délibération collégiale, de conclusions écrites, de discussion ordonnée et de décision documentée qui fonde l’exigence de spécification de gouvernance du Critère 6.18 Le Critère 8 étend la subsidiarité de la gouvernance ecclésiale à l’architecture de déploiement des projets eux-mêmes.
Le bien commun plutôt que l’efficacité. Le Pape Léon XIV, dans son message au Forum des Constructeurs d’IA (novembre 2025), a appelé les bâtisseurs de technologies à cultiver le discernement moral comme une entreprise profondément ecclésiale et à développer des systèmes qui reflètent la justice, la solidarité et un véritable respect de la vie.19 Ce principe anime tous les huit critères : les institutions catholiques sont des intendants, et la gestion exige que les projets soient évalués en fonction de leur effet sur la personne humaine dans son intégralité et sur les communautés qu’ils servent, les économies de coûts et le rendement opérationnel étant considérés comme des considérations secondaires.
Relation avec la Recherche en Gouvernance Plus Large
Ces critères représentent la couche d’incubation et de graduation d’une architecture de gouvernance plus large actuellement en discussion au sein de U.S.A. C-DART 1 (Catholic Deep AI Research Team), qui est activement engagée dans un processus de planification structuré pour évaluer et prioriser les principales tendances de l’IA auxquelles sont confrontées les institutions catholiques. Trois mémos de recherche émergeant de ce processus informent la conception de ces critères et sont soumis avec ce document.
Gouvernance Numérique Catholique Fragmentée à Grande Échelle documente pourquoi les institutions catholiques à travers les diocèses, les systèmes de santé et les réseaux éducatifs produisent des dizaines de normes de gouvernance incompatibles et de représentations numériques pour des cas d’utilisation structurellement identiques, et pourquoi des bases canonique partagées sont urgentes. Cette recherche fournit la base empirique pour la conception des critères.
Gouvernance-en-Code pour le Déploiement de la Technologie Catholique soutient que les politiques de déploiement devraient devenir des spécifications lisibles par machine et auditées, fonctionnant comme des barrières strictes plutôt que comme des documents consultatifs. Cette recherche informe l’exigence de spécification de gouvernance du Critère 6 et décrit l’implémentation techniquement plus rigoureuse vers laquelle ce cadre est conçu pour évoluer.
Infrastructure de Données de Confiance pour le Ministère Catholique aborde l’infrastructure de données — à la fois des données institutionnelles synthétiques et des données ecclésiales standardisées — qui permettraient un développement technologique responsable dans les domaines de la santé, de l’éducation, des services sociaux et de la vie paroissiale catholiques. Cette recherche fonde les exigences élargies de gestion des données du Critère 7 et anticipe les obligations de gouvernance des données accompagnant un développement technologique catholique plus sophistiqué.
Une Invitation à Itérer
Ceci est un projet de travail. Chaque critère est une proposition sujette à révision par le biais des contributions de la communauté, de l’expérience des projets pilotes et du dialogue avec les conseillers ecclésiaux. L’objectif est une norme vivante qui devient plus précise et plus utile à mesure que les institutions catholiques commencent à l’appliquer à des projets réels.
Les contributions, défis et propositions de révisions sont les bienvenus via une demande de tirage ou un problème sur le CatholicOS GitHub.
Rédigé en dialogue avec U.S.A. C-DART 1 (Catholic Deep AI Research Team). Février–Mars 2026.
Bibliographie
-
Dicastère pour la Doctrine de la Foi et Dicastère pour la Culture et l’Éducation, Antiqua et Nova : Note sur la Relation entre l’Intelligence Artificielle et l’Intelligence Humaine (Vatican : Dicastère pour la Doctrine de la Foi, 28 janvier 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Pape Léon XIV, “Message aux Participants du Forum Builders AI 2025,” Vatican, 3 novembre 2025, https://www.vatican.va/content/leo-xiv/en/messages/pont-messages/2025/documents/20251103-messaggio-builders-aiforum.html.↩︎
-
Dicastère pour la Doctrine de la Foi et Dicastère pour la Culture et l’Éducation, Antiqua et Nova : Note sur la Relation entre l’Intelligence Artificielle et l’Intelligence Humaine (Vatican : Dicastère pour la Doctrine de la Foi, 28 janvier 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
“La Vraie Leçon Derrière le Débat sur le Prêtre IA ‘Père Justin’,” America, 26 avril 2024, https://www.americamagazine.org/faith/2024/04/26/father-justin-catholic-answers-ai-247808.↩︎
-
Dicastère pour la Doctrine de la Foi et Dicastère pour la Culture et l’Éducation, Antiqua et Nova : Note sur la Relation entre l’Intelligence Artificielle et l’Intelligence Humaine (Vatican : Dicastère pour la Doctrine de la Foi, 28 janvier 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Dicastère pour la Doctrine de la Foi et Dicastère pour la Culture et l’Éducation, Antiqua et Nova : Note sur la Relation entre l’Intelligence Artificielle et l’Intelligence Humaine (Vatican : Dicastère pour la Doctrine de la Foi, 28 janvier 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Code de Droit Canon, Canon 627 (Vatican : Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib2-cann460-572_en.html.↩︎
-
Commonwealth d’Australie, Commission Royale sur le Schéma Robodebt : Rapport Final (Canberra : Commonwealth d’Australie, 2023), https://robodebt.royalcommission.gov.au/.↩︎
-
Dicastère pour la Doctrine de la Foi et Dicastère pour la Culture et l’Éducation, Antiqua et Nova : Note sur la Relation entre l’Intelligence Artificielle et l’Intelligence Humaine (Cité du Vatican : Dicastère pour la Doctrine de la Foi, 28 janvier 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Julia Angwin, Jeff Larson, Surya Mattu, et Lauren Kirchner, “Biais des Machines,” ProPublica, 23 mai 2016, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.↩︎
-
Pape Léon XIV, “Adresse aux Participants de la Conférence ‘Intelligence Artificielle et Prendre Soin de Notre Maison Commune,’” Cité du Vatican, 5 décembre 2025, https://www.vatican.va/content/leo-xiv/en/speeches/2025/december/documents/20251205-conferenza.html.↩︎
-
Dicastère pour la Doctrine de la Foi et Dicastère pour la Culture et l’Éducation, Antiqua et Nova : Note sur la Relation entre l’Intelligence Artificielle et l’Intelligence Humaine (Cité du Vatican : Dicastère pour la Doctrine de la Foi, 28 janvier 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Code de Droit Canonique, Canon 1609 (Cité du Vatican : Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib7-cann1501-1670_en.html.↩︎
-
Catéchisme de l’Église Catholique, 2e éd., §1894 (Cité du Vatican : Libreria Editrice Vaticana, 1997), https://www.vatican.va/archive/ENG0015/_INDEX.HTM.↩︎
-
Dicastère pour la Doctrine de la Foi et Dicastère pour la Culture et l’Éducation, Antiqua et Nova : Note sur la Relation entre l’Intelligence Artificielle et l’Intelligence Humaine (Cité du Vatican : Dicastère pour la Doctrine de la Foi, 28 janvier 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Dicastère pour la Doctrine de la Foi et Dicastère pour la Culture et l’Éducation, Antiqua et Nova : Note sur la Relation entre l’Intelligence Artificielle et l’Intelligence Humaine (Cité du Vatican : Dicastère pour la Doctrine de la Foi, 28 janvier 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Code de Droit Canonique, Canon 627 (Cité du Vatican : Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib2-cann460-572_en.html.↩︎
-
Code de Droit Canonique, Canon 1609 (Cité du Vatican : Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib7-cann1501-1670_en.html.↩︎
-
Pape Léon XIV, “Message aux Participants du Forum Builders AI 2025,” Cité du Vatican, 3 novembre 2025, https://www.vatican.va/content/leo-xiv/en/messages/pont-messages/2025/documents/20251103-messaggio-builders-aiforum.html.↩︎