CDCF — Catholic Digital Commons Foundation

Criteri di Valutazione dei Progetti CDCF

Versione v0.2 (bozza per revisione della comunità)
Ambito Tutti i progetti tecnologici presentati per l’incubazione e la laurea CDCF
Nota Le estensioni specifiche per dominio (a partire dall’AI) sono integrate inline. Ulteriori domini possono essere aggiunti man mano che la Fondazione evolve.

Indice

  1. Scopo e Motivazione
  2. Porta 1: Accettazione dell’Incubazione
  3. Porta 2: Laurea a Stato di Progetto Attivo CDCF
  4. Fondamento nella Dottrina Cattolica e Tradizione Canonica
  5. Relazione con la Ricerca sulla Governance più Ampia
  6. Un Invito a Iterare
  7. Bibliografia

Scopo e Motivazione

La Catholic Digital Commons Foundation (CDCF) serve la Chiesa promuovendo uno standard canonico condiviso per i progetti tecnologici che rispettano la dignità umana e il bene comune. Senza standard condivisi, le istituzioni cattoliche rischiano una frammentazione tecnica e canonica, implementando strumenti che potrebbero non allinearsi con la nostra missione o che operano senza linee chiare di responsabilità.

Le istituzioni cattoliche servono decine di milioni di persone nei settori della sanità, dell’istruzione, dei servizi sociali e della vita parrocchiale. Stanno attivamente valutando e implementando tecnologie per svolgere questo lavoro in modo più efficace, e in molti ambiti — l’AI in particolare — lo stanno facendo senza uno standard canonico condiviso su come dovrebbe apparire un’implementazione cattolica responsabile. La conseguenza è la frammentazione: diocesi, sistemi scolastici e agenzie di Carità Cattolica operano sotto criteri di valutazione incompatibili per casi d’uso strutturalmente identici, con strumenti che toccano popolazioni sensibili che entrano in produzione senza un processo di discernimento documentato.

Questo documento stabilisce i requisiti per qualsiasi progetto che cerca l’approvazione della CDCF. La sua premessa fondamentale è pratica e specifica: gli esseri umani all’interno di un sistema determinano se la governance regge. Politiche, principi e framework hanno peso solo quando sono tracciabili a individui nominati con reale autorità e reale responsabilità. Nella vita istituzionale cattolica, quella premessa ha radici profonde. La Chiesa insegna che l’intelligenza umana è un aspetto essenziale dell’essere creati a immagine di Dio, e che l’innovazione tecnologica rappresenta una partecipazione all’atto divino di creazione.1 Poiché ogni scelta progettuale “esprime una visione dell’umanità,” gli sviluppatori hanno l’obbligo di costruire sistemi che “riflettano giustizia, solidarietà e un genuino rispetto per la vita.”2 Questi criteri traducono quell’obbligo in uno standard operativo che sviluppatori, diocesi e consulenti ecclesiali possono applicare in modo coerente.

I criteri sono organizzati attorno a due porte di valutazione. Porta 1 governa l’accettazione nell’incubazione. Porta 2 governa la laurea allo stato attivo del progetto CDCF. Un progetto avanza attraverso la Porta 2 solo dopo aver soddisfatto completamente la Porta 1.

Porta Fase Criteri Requisito
Porta 1 Accettazione nell’Incubazione C1 Allineamento alla Missione · C2 Responsabilità Umana · C3 Trasparenza · C4 Validazione Indipendente · C5 Impatto sulla Popolazione Vulnerabile · C6 Governance del Deployment Tutti e sei richiesti
Porta 2 Laurea allo Stato Attivo C7 Documentazione e Custodia dei Dati · C8 Governance e Sussidiarietà Entrambi richiesti; la Porta 1 deve rimanere soddisfatta

Porta 1: Accettazione nell’Incubazione

Tutti e sei i criteri sono richiesti per l’accettazione nell’incubazione. Un progetto che soddisfa cinque dei sei criteri rimane in dialogo pre-sottomissione fino a quando il sesto non è risolto.


Criterio 1: Allineamento alla Missione e Ambito Canonico

Il progetto deve servire uno scopo coerente con la missione evangelizzatrice della Chiesa e con l’insegnamento sociale cattolico riguardo alla dignità umana, al bene comune e alla sussidiarietà. I progetti con il potenziale di servire qualsiasi parrocchia, diocesi, scuola o ministero che affronta un bisogno strutturalmente simile hanno la priorità sui progetti progettati per i requisiti su misura di una singola istituzione.

Confini canonici. I progetti tecnologici non devono tentare di simulare funzioni sacramentali o presentarsi come aventi un’autorità ecclesiale che non possiedono.

Estensione del dominio AI. Alcune applicazioni AI rientrano al di fuori dell’ambito di approvazione del CDCF indipendentemente dalla qualità tecnica. La base dottrinale per questi confini è precisa. La Chiesa distingue l’intelligenza umana (intesa come una sintesi di intellectus (la comprensione intuitiva della verità) e ratio (ragionamento discorsivo) appartenente a una persona composta di corpo e anima) dall’inferenza statistica artificiale, che elabora dati senza la capacità di pensare in un senso teologicamente significativo.3 Poiché gli esseri umani sono ordinati per natura alla comunione interpersonale, e poiché i sacramenti sono realtà incarnazionali radicate nell’unità di corpo e anima, i sistemi AI sono costitutivamente incapaci di mediare la grazia sacramentale o la direzione spirituale.

Le seguenti applicazioni AI sono disqualificanti:

  • Strumenti che simulano funzioni sacramentali, inclusa la confessione, l’assoluzione o la direzione spirituale
  • Strumenti che presentano contenuti generati da AI come insegnamento autoritativo della Chiesa senza una revisione teologica umana esplicita
  • Strumenti che assegnano un’identità clericale, un titolo o una presentazione visiva che suggerisce uno stato ordinato a un sistema AI

Questi confini derivano da fallimenti documentati nel deployment dell’AI cattolica. Nell’aprile 2024, Catholic Answers ha lanciato “Padre Justin”, un chatbot AI presentato come una figura sacerdotale. Il sistema ha richiesto un ritiro rapido nei primi giorni di lancio dopo essersi presentato come un sacerdote e aver affermato di poter amministrare i sacramenti.4 Una condizione di confine condivisa definita in anticipo avrebbe identificato questa applicazione come fuori ambito prima che una singola riga di codice fosse distribuita.

Domanda di valutazione: Questo progetto potrebbe servire la Chiesa universale, o la sua proposta di valore dipende da specificità istituzionale che ne limita l’applicabilità più ampia?


Criterio 2: Architettura della Responsabilità Umana

Ogni azione o decisione consequenziale informata dal progetto deve essere attribuibile a un essere umano nominato e responsabile, una persona specifica identificata per ruolo e posizione istituzionale, che porta responsabilità per quel risultato e che può essere chiamata a rispondere dalle persone coinvolte. La responsabilità distribuita attraverso un comitato senza un proprietario della decisione nominato non soddisfa questo criterio.

Le basi dottrinali sono inequivocabili. La decisione riguardante la vita delle persone “deve sempre essere lasciata alla persona umana.”5 Come ha affermato direttamente Papa Francesco: “Condanneremmo l’umanità a un futuro senza speranza se privassimo le persone della capacità di prendere decisioni su se stesse e sulle proprie vite, costringendole a dipendere dalle scelte delle macchine.” Mantenere un adeguato controllo umano sulle decisioni mediate dalla tecnologia è un requisito morale vincolante; “la dignità umana stessa dipende da questo.”6

Questo requisito opera anche in base al Codice di Diritto Canonico, Canone 627, che stabilisce che i superiori devono utilizzare consigli con obblighi di consenso e consulenza definiti, e che l’autorità conseguente è sempre legata a specifici individui che operano all’interno di sistemi di consultazione definiti.7 Nella governance cattolica, l’autorità non è mai un meccanismo autonomo o non tracciabile.

Il fallimento strutturale documentato nel sistema australiano Robodebt (2016–2019) illustra cosa produce su larga scala la rimozione della responsabilità umana nominata: centinaia di migliaia di avvisi di debito illegali e molteplici decessi tra i beneficiari vulnerabili del welfare, attribuiti dalla Commissione Reale direttamente all’assenza di revisione umana nelle decisioni consequenziali riguardanti gli individui.8

Domande di valutazione:

  • Una persona colpita dai risultati di questo progetto può identificare chi ha preso la decisione e attraverso quale processo?
  • Il design del progetto rende chiaro, documentato e reversibile il superamento umano?

Criterio 3: Trasparenza dell’ambito e dell’operazione

Il presentatore deve fornire documentazione tecnicamente accurata su cosa fa il progetto, quali dati elabora, chi è colpito dai suoi risultati, quali decisioni informa o prende, e dove si trovano i suoi confini operativi. Questa documentazione deve essere sufficiente affinché un revisore tecnico indipendente possa valutare il comportamento effettivo del progetto senza fare affidamento sui materiali di marketing del fornitore.

Il Magistero è esplicito nel dire che la “dignità intrinseca di ogni essere umano e la fraternità che ci unisce” devono servire come “criteri indiscutibili per valutare le nuove tecnologie prima che vengano impiegate.”9 La valutazione richiede informazioni. Un progetto il cui funzionamento non può essere descritto in modo indipendente non può essere valutato rispetto a quei criteri.

Estensione del dominio AI. Per gli strumenti di intelligenza artificiale che coinvolgono decisioni automatizzate o assistite da algoritmi riguardanti le persone, inclusi assunzioni, allocazione delle risorse, triage, raccomandazione di contenuti e valutazione del rischio, questo criterio richiede inoltre:

  • Divulgazione delle fonti dei dati di addestramento e delle limitazioni distributive note
  • Documentazione di eventuali audit o valutazioni indipendenti condotte
  • Descrizione chiara di quali decisioni lo strumento prende autonomamente e quali richiedono revisione umana

L’assenza di questa documentazione segnala che il presentatore ha lavoro rimanente prima che una decisione di distribuzione informata sia possibile. L’approvazione da parte del CDCF di uno strumento non documentato esporrebbe le istituzioni cattoliche agli stessi rischi di opacità che hanno prodotto bias sistemici nell’algoritmo di sentenza penale COMPAS, dove è stato riscontrato che i punteggi di rischio erano quasi due volte più probabili di segnalare falsamente i convenuti neri come ad alto rischio rispetto ai convenuti bianchi, prima che venissero attivati i meccanismi di responsabilità istituzionale.10


Criterio 4: Validazione indipendente delle capacità dichiarate

Il presentatore deve fornire prove che le capacità dichiarate del progetto siano state valutate rispetto a fonti indipendenti dal fornitore o dallo sviluppatore. La documentazione del fornitore, i materiali di marketing e i rapporti di test interni sono input per questa revisione; la validazione indipendente si distingue da essi.

Le forme accettabili di validazione indipendente includono:

Tipo di Validazione Descrizione
Audit tecnico di terze parti Valutazione esterna del comportamento del sistema e delle affermazioni
Valutazione peer-reviewed Revisione accademica o professionale pubblicata
Benchmarking pubblicato Risultati provenienti da framework di valutazione riconosciuti
Valutazione red-team documentata Test avversariali strutturati con risultati registrati

Quando tale validazione è in attesa, il presentatore deve dichiararlo esplicitamente e fornire un piano concreto e una tempistica per ottenerla. Un progetto che sta attivamente cercando una validazione indipendente può essere accettato in incubazione con questo criterio contrassegnato come condizione di laurea piuttosto che come barriera all’ingresso.

Lo standard applicato qui è proporzionato agli interessi in gioco. Un progetto che assiste nella programmazione interna ha requisiti di validazione diversi rispetto a uno che informa le decisioni di assunzione, il collocamento degli studenti o l’accesso ai servizi sociali. Il processo di revisione del CDCF applica il giudizio di conseguenza.


Criterio 5: Impatto sulle Popolazioni Vulnerabili

Il progetto deve dimostrare che il suo impatto è stato esaminato con particolare attenzione alla “opzione preferenziale per i poveri” e a coloro che sono più vulnerabili all’esclusione o al danno tecnologico.

Le istituzioni cattoliche servono in modo sproporzionato popolazioni che le pipeline di sviluppo tecnologico commerciale hanno storicamente sottorappresentato:

  • Gli anziani e le persone con disabilità
  • Immigrati recenti e comunità non anglofone
  • Comunità in povertà e popolazioni in aree rurali o sottoservite

Distribuire strumenti senza esaminare il loro impatto su queste popolazioni è incoerente con l’opzione preferenziale della Chiesa per i poveri e i vulnerabili, ed è un fallimento di governance indipendentemente dai metriche di performance aggregate.

Papa Leone XIV identifica precisamente il rischio: lo sviluppo tecnologico diventa un fallimento morale quando produce sistemi che consentono agli esseri umani di diventare “meramente consumatori passivi di contenuti generati dalla tecnologia artificiale,” erodendo la capacità di “riflettere, scegliere liberamente, amare incondizionatamente e entrare in relazioni autentiche.”11 Strumenti che degradano sistematicamente i risultati per le popolazioni vulnerabili accelerano esattamente quella erosione per le persone con la minore capacità di resistere.

Estensione del dominio AI. Per gli strumenti AI, questo criterio richiede un’analisi delle prestazioni del sottogruppo documentata: evidenza che l’accuratezza, i tassi di errore e i risultati dello strumento siano stati esaminati nelle specifiche popolazioni che influenzerà, con particolare attenzione ai gruppi sottorappresentati nei set di dati di addestramento tipici o che presentano una vulnerabilità maggiore al danno algoritmico. Il Magistero definisce il bias algoritmico come “errori sistematici e coerenti nei sistemi informatici che possono pregiudicare in modo sproporzionato alcuni gruppi in modi non intenzionali.”12

Questo criterio richiede o un’analisi delle prestazioni del sottogruppo documentata o un riconoscimento esplicito della sua assenza accompagnato da un piano concreto per ottenerla. Un presentatore che ha affrontato queste questioni con rigore e ha documentato sia le evidenze che le lacune soddisfa questo criterio.


Criterio 6: Specifica di Governance per il Deployment

Il presentatore deve specificare le condizioni di governance sotto le quali il progetto opererà. Questo criterio affronta il gap consequenziale tra un progetto che è tecnicamente valido in isolamento e uno che è responsabile nel suo impiego in un contesto istituzionale.

Elementi richiesti:

Elemento Descrizione
Livello di autorità decisionale Parrocchia, diocesi, istituzione o consiglio; chiaramente mappato
Condizioni di escalation Trigger definiti che richiedono il coinvolgimento di un’autorità superiore
Trigger di revisione umana Soglie alle quali i risultati richiedono un esame umano prima dell’azione
Processo di appello Processo mediante il quale le persone interessate possono contestare una decisione influenzata dal progetto

Il fondamento canonico per questi requisiti è specifico. Il Canone 1609 stabilisce che i giudici in un tribunale collegiale devono presentare conclusioni scritte con motivazioni in diritto e in fatto, seguite da una discussione strutturata. I giudici mantengono il diritto di ritirarsi da una conclusione originale e di richiedere che il dissenso venga trasmesso a un tribunale superiore.13 Questo standard canonico stabilisce che il processo decisionale cattolico richiede un ragionamento consapevole, la capacità di rivedere i giudizi e meccanismi trasparenti per l’appello; una specifica di governance per il dispiegamento deve preservare queste capacità nelle mani umane.

Questo criterio si basa sul modello di design governance-as-code, in cui le politiche di dispiegamento sono espresse come specifiche leggibili dalle macchine e verificabili, piuttosto che come documenti di politica che esistono separatamente dai sistemi che governano. Un’implementazione matura tratta la decisione di gate stessa come l’artefatto principale: un record strutturato che raccoglie prove, livelli di fiducia, proprietà nominata, lacune identificate e razionale esplicito prima che venga presa qualsiasi impegno a valle. Gli stati decisionali sono specifici e delimitati: go, conditional-go, no-go, e defer, ognuno dei quali comporta requisiti di documentazione distinti e obblighi di escalation. L’implementazione tecnica completa a questo livello di rigore è aspirazionale piuttosto che richiesta nella fase di incubazione. Ciò che è richiesto è che la specifica di governance esista come un documento scritto, revisionabile, e che l’architettura del progetto sia compatibile con la sua applicazione man mano che si sviluppa la capacità istituzionale.


Gate 2: Graduazione a Stato di Progetto Attivo CDCF

La graduazione richiede che i criteri del Gate 1 rimangano soddisfatti in modo completo e che siano soddisfatti i seguenti due requisiti aggiuntivi. Questi requisiti riguardano la prontezza operativa: la differenza tra un progetto che funziona bene in un contesto controllato e uno che le istituzioni cattoliche possono adottare, mantenere e fidarsi su larga scala.


Criterio 7: Documentazione per Dispiegamento Indipendente e Custodia dei Dati

Il progetto deve avere una documentazione sufficiente affinché un’istituzione cattolica possa valutare, configurare, dispiegare e supportare il progetto senza il coinvolgimento diretto del presentatore originale. Ciò include documentazione tecnica, linee guida per gli utenti e documentazione esplicita della specifica di governance richiesta ai sensi del Criterio 6.

Il test di dispiegamento: Il direttore della tecnologia presso un ufficio scolastico diocesano, lavorando con il proprio team e senza accesso agli autori del progetto, potrebbe dispiegare questo progetto in modo responsabile entro 90 giorni?

I requisiti di custodia dei dati sono proporzionati al profilo di rischio del progetto. I progetti che gestiscono dati personali devono soddisfare i seguenti requisiti:

Tipo di Dato Requisito di Conformità
Informazioni sanitarie Conformità HIPAA; approccio alla minimizzazione dei dati documentato
Registri degli studenti Conformità FERPA; procedure di conservazione e cancellazione specificate
Dati sacramentali Politiche di governance dei dati diocesani; controlli di accesso documentati
Dati relativi a minori Protezioni potenziate; procedure di consenso esplicito e risposta alle violazioni
Informazioni finanziarie Legge statale e federale applicabile; requisiti di audit trail

Estensione del dominio AI. Per gli strumenti di AI, questo criterio si estende alla governance dei dati di addestramento. Uno strumento addestrato su dati provenienti da istituzioni cattoliche ha un obbligo verso quelle istituzioni e verso le popolazioni che servono. I termini sotto i quali quei dati sono stati utilizzati, e i termini sotto i quali possono essere utilizzati negli aggiornamenti futuri del modello, devono essere divulgati e valutati come parte della revisione di graduazione.


Criterio 8: Governance, Manutenzione e Compatibilità con la Sussidiarietà

Il progetto deve avere un processo definito e documentato per la manutenzione continua, il controllo delle versioni, la risposta alle vulnerabilità e la governance della comunità. Un manutentore nominato o un team di manutentori deve accettare la responsabilità pubblica per il progetto in futuro.

Il progetto deve essere attuabile al livello appropriato di autorità ecclesiale, sia esso parrocchiale, diocesano o istituzionale, senza richiedere un controllo centralizzato che comprometterebbe la sussidiarietà. La comprensione della Chiesa sulla sussidiarietà è precisa su questo punto: è una garanzia che ogni livello di autorità mantenga i propri doveri e diritti riguardo al bene comune, piuttosto che una semplice delega di decisioni al livello più basso disponibile, e garantisce che nessuna entità più grande assorba l’iniziativa legittima e la responsabilità di quelle più piccole.14 Le comunità locali devono essere in grado di configurare il progetto per il loro contesto, e questa capacità di configurazione deve essere architettonicamente genuina, senza richiedere la modifica della responsabilità fondamentale, della sicurezza o del design di governance del progetto per funzionare.

Antiqua et Nova (§42) è esplicita nel dire che la responsabilità di gestire la tecnologia in modo saggio “appartiene a ogni livello della società, guidata dal principio di sussidiarietà.”15 Un progetto che funziona solo in condizioni di amministrazione centralizzata concentra l’autorità in modi che violano questo principio e minano la struttura ecclesiale che il CDCF esiste per servire.


Fondamento nella Dottrina Cattolica e nella Tradizione Canonica

Questi otto criteri sono fondati su tre corpi di insegnamento condivisi all’interno della comunità CDCF.

Dignità umana e controllo umano genuino. Antiqua et Nova (Dicastero per la Dottrina della Fede, gennaio 2025) insiste sul fatto che l’IA deve rimanere sotto la genuina responsabilità morale umana, distingue l’intelligenza umana dall’inferenza statistica artificiale su basi antropologiche e teologiche, e stabilisce che “la dignità umana stessa dipende da” mantenere un reale controllo umano sulle decisioni mediate dalla tecnologia.16 I criteri 2 e 6 operazionalizzano questo requisito a livello di attuazione istituzionale.

Sussidiarietà e autorità responsabile. Il canone 627 del Codice di Diritto Canonico richiede che le decisioni siano prese al livello appropriato di autorità con una proprietà umana identificabile.17 Il canone 1609 stabilisce il modello di deliberazione collegiale, conclusioni scritte, discussione ordinata e decisione documentata che fonda il requisito di specifica di governance del Criterio 6.18 Il Criterio 8 estende la sussidiarietà dalla governance ecclesiale all’architettura di attuazione dei progetti stessi.

Il bene comune sopra l’efficienza. Papa Leone XIV, nel suo messaggio al Builders AI Forum (novembre 2025), ha invitato i costruttori di tecnologia a coltivare il discernimento morale come un’impresa profondamente ecclesiale e a sviluppare sistemi che riflettano giustizia, solidarietà e genuina riverenza per la vita.19 Questo principio anima tutti e otto i criteri: le istituzioni cattoliche sono amministratori, e la gestione richiede che i progetti siano valutati in base al loro effetto sulla persona umana nella sua interezza e sulle comunità che servono, con i risparmi sui costi e il throughput operativo trattati come considerazioni secondarie.


Relazione con la Ricerca sulla Governance più Ampia

Questi criteri rappresentano il livello di incubazione e laurea di un’architettura di governance più ampia attualmente in discussione all’interno degli Stati Uniti C-DART 1 (Catholic Deep AI Research Team), che è attivamente impegnato in un processo di pianificazione strutturato per valutare e dare priorità alle principali tendenze dell’IA che affrontano le istituzioni cattoliche. Tre memo di ricerca emersi da quel processo informano il design di questi criteri e sono presentati insieme a questo documento.

Governance Digitale Cattolica Frammentata su Scala documenta perché le istituzioni cattoliche attraverso diocesi, sistemi sanitari e reti educative stanno producendo dozzine di standard di governance incompatibili e rappresentazioni digitali per casi d’uso strutturalmente identici, e perché le basi canoniche condivise sono urgenti. Questa ricerca fornisce la base empirica per il design dei criteri.

Governance-as-Code per il Deployment della Tecnologia Cattolica sostiene che le politiche di deployment dovrebbero diventare specifiche leggibili dalle macchine e auditabili, operando come barriere rigide piuttosto che come documenti consultivi. Questa ricerca informa il requisito di specifica di governance del Criterio 6 e descrive l’implementazione più rigorosa dal punto di vista tecnico in cui questo framework è progettato per evolversi.

Infrastruttura Dati Affidabile per il Ministero Cattolico affronta l’infrastruttura dati — sia dati istituzionali sintetici che dati ecclesiali standardizzati — che consentirebbe uno sviluppo tecnologico responsabile nei settori della salute, dell’istruzione, dei servizi sociali e della vita parrocchiale cattolica. Questa ricerca fonda i requisiti estesi di stewardship dei dati del Criterio 7 e anticipa gli obblighi di governance dei dati che accompagnano uno sviluppo tecnologico cattolico più sofisticato.


Un Invito a Iterare

Questo è un progetto di lavoro. Ogni criterio è una proposta soggetta a revisione attraverso il contributo della comunità, l’esperienza pilota e il dialogo con i consulenti ecclesiali. L’obiettivo è uno standard vivo che diventa più preciso e utile man mano che le istituzioni cattoliche iniziano ad applicarlo a progetti reali.

Contributi, sfide e revisioni proposte sono benvenuti tramite pull request o issue su CatholicOS GitHub.

Redatto in dialogo con U.S.A. C-DART 1 (Catholic Deep AI Research Team). Febbraio–Marzo 2026.


Bibliografia


  1. Dicastero per la Dottrina della Fede e Dicastero per la Cultura e l’Istruzione, Antiqua et Nova: Nota sul Rapporto tra Intelligenza Artificiale e Intelligenza Umana (Città del Vaticano: Dicastero per la Dottrina della Fede, 28 gennaio 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  2. Papa Leone XIV, “Messaggio ai Partecipanti del Builders AI Forum 2025,” Città del Vaticano, 3 novembre 2025, https://www.vatican.va/content/leo-xiv/en/messages/pont-messages/2025/documents/20251103-messaggio-builders-aiforum.html.↩︎

  3. Dicastero per la Dottrina della Fede e Dicastero per la Cultura e l’Istruzione, Antiqua et Nova: Nota sul Rapporto tra Intelligenza Artificiale e Intelligenza Umana (Città del Vaticano: Dicastero per la Dottrina della Fede, 28 gennaio 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  4. “La Vera Lezione Dietro il Debacle del Prete AI ‘Padre Justin’,” America, 26 aprile 2024, https://www.americamagazine.org/faith/2024/04/26/father-justin-catholic-answers-ai-247808.↩︎

  5. Dicastero per la Dottrina della Fede e Dicastero per la Cultura e l’Istruzione, Antiqua et Nova: Nota sul Rapporto tra Intelligenza Artificiale e Intelligenza Umana (Città del Vaticano: Dicastero per la Dottrina della Fede, 28 gennaio 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  6. Dicastero per la Dottrina della Fede e Dicastero per la Cultura e l’Istruzione, Antiqua et Nova: Nota sul Rapporto tra Intelligenza Artificiale e Intelligenza Umana (Città del Vaticano: Dicastero per la Dottrina della Fede, 28 gennaio 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  7. Codice di Diritto Canonico, Canone 627 (Città del Vaticano: Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib2-cann460-572_en.html.↩︎

  8. Commonwealth dell’Australia, Commissione Reale sullo Schema Robodebt: Rapporto Finale (Canberra: Commonwealth dell’Australia, 2023), https://robodebt.royalcommission.gov.au/.↩︎

  9. Dicastero per la Dottrina della Fede e Dicastero per la Cultura e l’Educazione, Antiqua et Nova: Nota sul Rapporto tra Intelligenza Artificiale e Intelligenza Umana (Città del Vaticano: Dicastero per la Dottrina della Fede, 28 gennaio 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  10. Julia Angwin, Jeff Larson, Surya Mattu e Lauren Kirchner, “Machine Bias,” ProPublica, 23 maggio 2016, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.↩︎

  11. Papa Leone XIV, “Discorso ai Partecipanti alla Conferenza ‘Intelligenza Artificiale e Cura della Nostra Casa Comune,’” Città del Vaticano, 5 dicembre 2025, https://www.vatican.va/content/leo-xiv/en/speeches/2025/december/documents/20251205-conferenza.html.↩︎

  12. Dicastero per la Dottrina della Fede e Dicastero per la Cultura e l’Educazione, Antiqua et Nova: Nota sul Rapporto tra Intelligenza Artificiale e Intelligenza Umana (Città del Vaticano: Dicastero per la Dottrina della Fede, 28 gennaio 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  13. Codice di Diritto Canonico, Canone 1609 (Città del Vaticano: Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib7-cann1501-1670_en.html.↩︎

  14. Catechismo della Chiesa Cattolica, 2a ed., §1894 (Città del Vaticano: Libreria Editrice Vaticana, 1997), https://www.vatican.va/archive/ENG0015/_INDEX.HTM.↩︎

  15. Dicastero per la Dottrina della Fede e Dicastero per la Cultura e l’Educazione, Antiqua et Nova: Nota sul Rapporto tra Intelligenza Artificiale e Intelligenza Umana (Città del Vaticano: Dicastero per la Dottrina della Fede, 28 gennaio 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  16. Dicastero per la Dottrina della Fede e Dicastero per la Cultura e l’Educazione, Antiqua et Nova: Nota sul Rapporto tra Intelligenza Artificiale e Intelligenza Umana (Città del Vaticano: Dicastero per la Dottrina della Fede, 28 gennaio 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  17. Codice di Diritto Canonico, Canone 627 (Città del Vaticano: Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib2-cann460-572_en.html.↩︎

  18. Codice di Diritto Canonico, Canone 1609 (Città del Vaticano: Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib7-cann1501-1670_en.html.↩︎

  19. Papa Leone XIV, “Messaggio ai Partecipanti del Builders AI Forum 2025,” Città del Vaticano, 3 novembre 2025, https://www.vatican.va/content/leo-xiv/en/messages/pont-messages/2025/documents/20251103-messaggio-builders-aiforum.html.↩︎