CDCF — Catholic Digital Commons Foundation

Critérios de Avaliação de Projetos do CDCF

Versão v0.2 (rascunho para revisão da comunidade)
Escopo Todos os projetos de tecnologia submetidos para incubação e graduação do CDCF
Nota Extensões específicas de domínio (começando com IA) estão integradas inline. Domínios adicionais podem ser adicionados à medida que a Fundação evolui.

Índice

  1. Propósito e Justificativa
  2. Portão 1: Aceitação de Incubação
  3. Portão 2: Graduação para Status de Projeto Ativo do CDCF
  4. Fundamentação no Ensino Católico e na Tradição Canônica
  5. Relação com a Pesquisa de Governança Mais Ampla
  6. Um Convite para Iterar
  7. Bibliografia

Propósito e Justificativa

A Catholic Digital Commons Foundation (CDCF) serve à Igreja promovendo um padrão canônico compartilhado para projetos de tecnologia que respeitam a dignidade humana e o bem comum. Sem padrões compartilhados, as instituições católicas correm o risco de fragmentação técnica e canônica, implantando ferramentas que podem não estar alinhadas com nossa missão ou que operam sem linhas claras de responsabilidade.

As instituições católicas atendem dezenas de milhões de pessoas em saúde, educação, serviços sociais e vida paroquial. Elas estão avaliando e implantando ativamente tecnologia para realizar esse trabalho de forma mais eficaz, e em muitos domínios — a IA é o mais proeminente entre eles — estão fazendo isso sem um padrão canônico compartilhado sobre como a implantação católica responsável deve ser. A consequência é a fragmentação: dioceses, sistemas escolares e agências de Caridades Católicas operando sob critérios de avaliação incompatíveis para casos de uso estruturalmente idênticos, com ferramentas que tocam populações sensíveis entrando em produção sem um processo de discernimento documentado.

Este documento estabelece os requisitos para qualquer projeto que busque a aprovação do CDCF. Sua premissa fundamental é prática e específica: os humanos dentro de um sistema determinam se a governança se sustenta. Políticas, princípios e estruturas têm peso apenas quando são rastreáveis a indivíduos nomeados com autoridade real e responsabilidade real. Na vida institucional católica, essa premissa tem raízes profundas. A Igreja ensina que a inteligência humana é um aspecto essencial de ser criado à imagem de Deus, e que a inovação tecnológica representa uma participação no ato divino da criação.1 Como cada escolha de design “expressa uma visão da humanidade”, os desenvolvedores têm a obrigação de construir sistemas que “refletem justiça, solidariedade e uma genuína reverência pela vida.”2 Esses critérios traduzem essa obrigação em um padrão operacional que desenvolvedores, dioceses e conselheiros eclesiais podem aplicar de forma consistente.

Os critérios estão organizados em torno de dois portões de avaliação. Portão 1 rege a aceitação na incubação. Portão 2 rege a graduação para o status ativo do CDCF. Um projeto avança pelo Portão 2 somente após satisfazer completamente o Portão 1.

Portão Etapa Critérios Requisito
Portão 1 Aceitação na Incubação C1 Alinhamento da Missão · C2 Responsabilidade Humana · C3 Transparência · C4 Validação Independente · C5 Impacto em Populações Vulneráveis · C6 Governança de Implantação Todos os seis requeridos
Portão 2 Graduação para Status Ativo C7 Documentação e Gestão de Dados · C8 Governança e Subsidiariedade Ambos requeridos; o Portão 1 deve permanecer satisfeito

Portão 1: Aceitação na Incubação

Todos os seis critérios são necessários para a aceitação na incubação. Um projeto que satisfaça cinco dos seis critérios permanece em diálogo pré-submissão até que o sexto seja resolvido.


Critério 1: Alinhamento da Missão e Escopo Canônico

O projeto deve servir a um propósito coerente com a missão evangelizadora da Igreja e com a doutrina social católica sobre a dignidade humana, o bem comum e a subsidiariedade. Projetos com potencial para atender a qualquer paróquia, diocese, escola ou ministério que enfrente uma necessidade estruturalmente semelhante têm prioridade sobre projetos projetados para os requisitos específicos de uma única instituição.

Limites canônicos. Projetos tecnológicos não devem tentar simular funções sacramentais ou se apresentar como possuindo autoridade eclesial que não possuem.

Extensão do domínio da IA. Certas aplicações de IA estão fora do escopo de endosse do CDCF, independentemente da qualidade técnica. A base doutrinária para esses limites é precisa. A Igreja distingue a inteligência humana (entendida como uma síntese de intellectus (a apreensão intuitiva da verdade) e ratio (raciocínio discursivo) pertencente a uma pessoa composta de corpo e alma) da inferência estatística artificial, que processa dados sem a capacidade de pensar em qualquer sentido teologicamente significativo.3 Como os seres humanos são ordenados por sua natureza à comunhão interpessoal, e como os sacramentos são realidades encarnacionais enraizadas na unidade do corpo e da alma, os sistemas de IA são constitutivamente incapazes de mediar a graça sacramental ou a direção espiritual.

As seguintes aplicações de IA são desqualificantes:

  • Ferramentas que simulam funções sacramentais, incluindo confissão, absolvição ou direção espiritual
  • Ferramentas que apresentam conteúdo gerado por IA como ensino autoritativo da Igreja sem revisão teológica humana explícita
  • Ferramentas que atribuem uma identidade clerical, título ou apresentação visual que sugira status ordenado a um sistema de IA

Esses limites derivam de falhas documentadas na implantação de IA católica. Em abril de 2024, a Catholic Answers lançou “Father Justin”, um chatbot de IA apresentado como uma figura sacerdotal. O sistema exigiu retirada rápida nos primeiros dias de lançamento após se apresentar como um sacerdote e afirmar que poderia administrar sacramentos.4 Uma condição de limite compartilhada definida com antecedência teria identificado essa aplicação como fora do escopo antes que uma única linha de código fosse enviada.

Pergunta de avaliação: Este projeto poderia servir à Igreja universal, ou sua proposta de valor depende de especificidade institucional que limita sua aplicabilidade mais ampla?


Critério 2: Arquitetura de Responsabilidade Humana

Cada ação ou decisão consequente informada pelo projeto deve ser atribuível a um ser humano nomeado e responsável, uma pessoa específica identificada por função e posição institucional, que carrega a responsabilidade por esse resultado e que pode ser responsabilizada pelas pessoas afetadas. A responsabilidade distribuída por um comitê sem um proprietário de decisão nomeado não atende a este critério.

A fundamentação doutrinária é inequívoca. A tomada de decisões sobre a vida das pessoas “deve sempre ser deixada à pessoa humana.”5 Como afirmou o Papa Francisco diretamente: “Condenaríamos a humanidade a um futuro sem esperança se tirássemos das pessoas a capacidade de tomar decisões sobre si mesmas e suas vidas, condenando-as a depender das escolhas das máquinas.” Manter o controle humano adequado sobre decisões mediadas por tecnologia é um requisito moral vinculativo; “a dignidade humana em si depende disso.”6

Esse requisito também operacionaliza o Cânon 627 do Código de Direito Canônico, que estabelece que os superiores devem usar conselhos com obrigações de consentimento e aconselhamento definidas, e que a autoridade consequente está sempre ligada a indivíduos específicos que operam dentro de sistemas de consulta definidos.7 Na governança católica, a autoridade nunca é um mecanismo autônomo ou não rastreável.

A falha estrutural documentada no esquema australiano Robodebt (2016–2019) ilustra o que a remoção da responsabilidade humana nomeada produz em grande escala: centenas de milhares de notificações de dívida ilegais e múltiplas mortes entre beneficiários vulneráveis de assistência social, atribuídas pela Comissão Real diretamente à ausência de revisão humana nas decisões consequentes sobre indivíduos.8

Perguntas de avaliação:

  • Uma pessoa afetada pelos resultados deste projeto pode identificar quem tomou a decisão e por meio de que processo?
  • O design do projeto torna claro, documentado e reversível o controle humano?

Critério 3: Transparência do Escopo e da Operação

O proponente deve fornecer documentação tecnicamente precisa sobre o que o projeto faz, quais dados ele ingere, quem é afetado por seus resultados, quais decisões ele informa ou toma, e onde estão seus limites operacionais. Essa documentação deve ser suficiente para que um revisor técnico independente possa avaliar o comportamento real do projeto sem depender de materiais de marketing do fornecedor.

O Magistério é explícito ao afirmar que a “dignidade inerente de cada ser humano e a fraternidade que nos une” devem servir como os “critérios indiscutíveis para avaliar novas tecnologias antes de serem empregadas.”9 A avaliação requer informação. Um projeto cuja operação não pode ser descrita de forma independente não pode ser avaliado em relação a esses critérios.

Extensão do domínio da IA. Para ferramentas de IA que envolvem tomada de decisão automatizada ou assistida por algoritmo sobre pessoas, incluindo contratação, alocação de recursos, triagem, recomendação de conteúdo e avaliação de risco, este critério requer adicionalmente:

  • Divulgação das fontes de dados de treinamento e limitações de distribuição conhecidas
  • Documentação de quaisquer auditorias ou avaliações independentes realizadas
  • Descrição clara de quais decisões a ferramenta toma autonomamente e quais requerem revisão humana

A ausência dessa documentação sinaliza que o proponente ainda tem trabalho a fazer antes que uma decisão de implantação informada seja possível. O endosse do CDCF a uma ferramenta não documentada exporia as instituições católicas aos mesmos riscos de opacidade que produziram viés sistêmico no algoritmo de sentença criminal COMPAS, onde os escores de risco foram considerados quase duas vezes mais propensos a sinalizar falsamente réus negros como de alto risco em comparação com réus brancos, antes que os mecanismos de responsabilidade institucional fossem acionados.10


Critério 4: Validação Independente das Capacidades Afirmadas

O proponente deve fornecer evidências de que as capacidades afirmadas do projeto foram avaliadas em relação a fontes independentes do fornecedor ou desenvolvedor. Documentação do fornecedor, materiais de marketing e relatórios de testes internos são insumos para essa revisão; a validação independente se destaca deles.

Formas aceitáveis de validação independente incluem:

Tipo de Validação Descrição
Auditoria técnica de terceiros Avaliação externa do comportamento do sistema e das alegações
Avaliação por pares Revisão acadêmica ou profissional publicada
Benchmarking publicado Resultados de estruturas de avaliação reconhecidas
Avaliação de red-team documentada Teste adversarial estruturado com descobertas registradas

Quando tal validação estiver pendente, o remetente deve divulgar isso explicitamente e fornecer um plano concreto e um cronograma para obtê-la. Um projeto que busca ativamente validação independente pode ser aceito em incubação com este critério marcado como uma condição de graduação, em vez de uma barreira de entrada.

O padrão aplicado aqui é proporcional aos riscos. Um projeto que auxilia no agendamento interno possui requisitos de validação diferentes de um que informa decisões de contratação, colocação de estudantes ou acesso a serviços sociais. O processo de revisão da CDCF aplica julgamento de acordo.


Critério 5: Impacto sobre Populações Vulneráveis

O projeto deve demonstrar que seu impacto foi examinado com atenção especial à “opção preferencial pelos pobres” e aqueles mais vulneráveis à exclusão ou dano tecnológico.

Instituições católicas atendem desproporcionalmente populações que os pipelines de desenvolvimento tecnológico comercial historicamente sub-representaram:

  • Os idosos e pessoas com deficiência
  • Imigrantes recentes e comunidades que não falam inglês
  • Comunidades em situação de pobreza e populações em áreas rurais ou carentes

Implantar ferramentas sem examinar seu impacto sobre essas populações é inconsistente com a opção preferencial da Igreja pelos pobres e vulneráveis, e é uma falha de governança independentemente das métricas de desempenho agregadas.

O Papa Leão XIV identifica o risco precisamente: o desenvolvimento tecnológico torna-se uma falha moral quando produz sistemas que permitem que os seres humanos se tornem “meramente consumidores passivos de conteúdo gerado por tecnologia artificial”, erodindo a capacidade de “refletir, escolher livremente, amar incondicionalmente e entrar em relacionamentos autênticos.”11 Ferramentas que degradam sistematicamente os resultados para populações vulneráveis aceleram exatamente essa erosão para as pessoas com menor capacidade de resistir.

Extensão de domínio de IA. Para ferramentas de IA, este critério requer uma análise de desempenho de subgrupo documentada: evidência de que a precisão, taxas de erro e resultados da ferramenta foram examinados nas populações específicas que afetará, com atenção especial a grupos sub-representados em conjuntos de dados de treinamento típicos ou que apresentam vulnerabilidade aumentada ao dano algorítmico. O Magistério define viés algorítmico como “erros sistemáticos e consistentes em sistemas computacionais que podem prejudicar desproporcionalmente certos grupos de maneiras não intencionais.”12

Este critério requer ou uma análise de desempenho de subgrupo documentada ou um reconhecimento explícito de sua ausência emparelhado com um plano concreto para obtê-la. Um remetente que tenha abordado essas questões com rigor e documentado tanto as evidências quanto as lacunas satisfaz este critério.


Critério 6: Especificação de Governança de Implantação

O remetente deve especificar as condições de governança sob as quais o projeto operará. Este critério aborda a lacuna consequente entre um projeto que é tecnicamente sólido isoladamente e um que é implantado de forma responsável em um contexto institucional.

Elementos obrigatórios:

Elemento Descrição
Nível de autoridade de decisão Paróquia, diocese, instituição ou conselho; claramente mapeado
Condições de escalonamento Gatilhos definidos que exigem envolvimento de autoridade superior
Gatilhos de revisão humana Limiares em que as saídas requerem exame humano antes da ação
Processo de apelação Processo pelo qual as pessoas afetadas podem contestar uma decisão influenciada pelo projeto

A fundamentação canônica para esses requisitos é específica. O Cânon 1609 determina que juízes em um tribunal colegiado devem apresentar conclusões escritas com razões em direito e em fato, seguidas de uma discussão estruturada. Os juízes mantêm o direito de se retirar de uma conclusão original e de exigir que a dissidência seja transmitida a um tribunal superior.13 Este padrão canônico estabelece que a tomada de decisão católica requer raciocínio consciente, a capacidade de revisar julgamentos e mecanismos transparentes para apelação; uma especificação de governança de implantação deve preservar essas capacidades nas mãos humanas.

Este critério se baseia no padrão de design governança-como-código, no qual as políticas de implantação são expressas como especificações legíveis por máquina e auditáveis, em vez de documentos de política que existem separadamente dos sistemas que governam. Uma implementação madura trata a própria decisão de portão como o artefato primário: um registro estruturado que reúne evidências, níveis de confiança, propriedade nomeada, lacunas identificadas e uma justificativa explícita antes que qualquer compromisso posterior seja feito. Os estados de decisão são específicos e limitados: ir, ir condicional, não ir e adiar, cada um carregando requisitos de documentação distintos e obrigações de escalonamento. A implementação técnica completa neste nível de rigor é aspiracional, em vez de exigida na fase de incubação. O que é necessário é que a especificação de governança exista como um documento escrito e revisável, e que a arquitetura do projeto seja compatível com sua aplicação à medida que a capacidade institucional se desenvolve.


Portão 2: Graduação para o Status de Projeto Ativo da CDCF

A graduação requer que os critérios do Portão 1 permaneçam totalmente satisfeitos e que os dois requisitos adicionais a seguir sejam atendidos. Esses requisitos abordam a prontidão operacional: a diferença entre um projeto que se desempenha bem em um contexto controlado e um que as instituições católicas podem adotar, manter e confiar em larga escala.


Critério 7: Documentação para Implantação Independente e Gestão de Dados

O projeto deve ter documentação suficiente para que uma instituição católica possa avaliar, configurar, implantar e apoiar o projeto sem envolvimento direto do remetente original. Isso inclui documentação técnica, orientações voltadas para o usuário e documentação explícita da especificação de governança exigida sob o Critério 6.

O teste de implantação: O diretor de tecnologia de um escritório de escolas diocesanas, trabalhando com sua equipe e sem acesso aos autores do projeto, poderia implantar este projeto de forma responsável em 90 dias?

Os requisitos de gestão de dados são proporcionais ao perfil de risco do projeto. Projetos que lidam com dados pessoais devem atender aos seguintes requisitos:

Tipo de Dado Requisito de Conformidade
Informações de saúde Conformidade com a HIPAA; abordagem de minimização de dados documentada
Registros de estudantes Conformidade com a FERPA; procedimentos de retenção e exclusão especificados
Dados sacramentais Políticas de governança de dados diocesanos; controles de acesso documentados
Dados referentes a menores Proteções aprimoradas; consentimento explícito e procedimentos de resposta a violações
Informações financeiras Legislação estadual e federal aplicável; requisitos de trilha de auditoria

Extensão do domínio da IA. Para ferramentas de IA, este critério se estende à governança de dados de treinamento. Uma ferramenta treinada com dados de instituições católicas carrega uma obrigação para com essas instituições e para com as populações que elas servem. Os termos sob os quais esses dados foram utilizados, e os termos sob os quais podem ser utilizados em futuras atualizações de modelo, devem ser divulgados e avaliados como parte da revisão de graduação.


Critério 8: Governança, Manutenção e Compatibilidade com a Subsidiariedade

O projeto deve ter um processo definido e documentado para manutenção contínua, controle de versão, resposta a vulnerabilidades e governança comunitária. Um mantenedor nomeado ou uma equipe de mantenedores deve aceitar a responsabilidade pública pelo projeto daqui para frente.

O projeto deve ser implantável no nível apropriado de autoridade eclesial, seja paróquia, diocese ou instituição, sem exigir controle centralizado que comprometeria a subsidiariedade. A compreensão da Igreja sobre a subsidiariedade é precisa neste ponto: é uma garantia de que cada nível de autoridade mantém seus deveres e direitos adequados em relação ao bem comum, em vez de uma simples delegação de decisões ao nível mais baixo disponível, e assegura que nenhuma entidade maior absorva a iniciativa e responsabilidade legítimas das menores.14 As comunidades locais devem ser capazes de configurar o projeto para seu contexto, e essa capacidade de configuração deve ser arquitetonicamente genuína, não exigindo a sobreposição da responsabilidade central, segurança ou design de governança do projeto para funcionar.

Antiqua et Nova (§42) é explícito ao afirmar que a responsabilidade de gerenciar a tecnologia de forma sábia “pertence a cada nível da sociedade, guiado pelo princípio da subsidiariedade.”15 Um projeto que funciona apenas sob condições de administração centralizada concentra autoridade de maneiras que violam este princípio e minam a estrutura eclesial que a CDCF existe para servir.


Fundamentação no Ensino Católico e na Tradição Canônica

Esses oito critérios estão fundamentados em três corpos de ensino mantidos em comum pela comunidade da CDCF.

Dignidade humana e controle humano genuíno. Antiqua et Nova (Dicastério para a Doutrina da Fé, janeiro de 2025) insiste que a IA deve permanecer sob a responsabilidade moral genuína do ser humano, distingue a inteligência humana da inferência estatística artificial com base em fundamentos antropológicos e teológicos, e estabelece que “a dignidade humana em si depende de” manter o controle humano real sobre decisões mediadas por tecnologia.16 Os critérios 2 e 6 operacionalizam esse requisito no nível da implantação institucional.

Subsidiariedade e autoridade responsável. O cânon 627 do Código de Direito Canônico exige que as decisões sejam tomadas no nível apropriado de autoridade com propriedade humana identificável.17 O cânon 1609 estabelece o padrão de deliberação colegiada, conclusões escritas, discussão ordenada e decisão documentada que fundamenta o requisito de especificação de governança do Critério 6.18 O Critério 8 estende a subsidiariedade da governança eclesial para a arquitetura de implantação dos próprios projetos.

O bem comum sobre a eficiência. O Papa Leão XIV, em sua mensagem ao Builders AI Forum (novembro de 2025), convocou os construtores de tecnologia a cultivar o discernimento moral como um empreendimento profundamente eclesial e a desenvolver sistemas que reflitam justiça, solidariedade e genuína reverência pela vida.19 Este princípio anima todos os oito critérios: as instituições católicas são administradoras, e a administração exige que os projetos sejam avaliados em relação ao seu efeito sobre a pessoa humana completa e as comunidades que servem, com a economia de custos e a eficiência operacional tratadas como considerações secundárias.


Relação com a Pesquisa de Governança Mais Ampla

Esses critérios representam a camada de incubação e graduação de uma arquitetura de governança mais ampla atualmente em discussão dentro dos EUA. C-DART 1 (Catholic Deep AI Research Team), que está ativamente engajado em um processo de planejamento estruturado para avaliar e priorizar as principais tendências de IA enfrentadas pelas instituições católicas. Três memorandos de pesquisa que emergem desse processo informam o design desses critérios e são apresentados juntamente com este documento.

Governança Digital Católica Fragmentada em Escala documenta por que as instituições católicas em dioceses, sistemas de saúde e redes de educação estão produzindo dezenas de padrões de governança incompatíveis e representações digitais para casos de uso estruturalmente idênticos, e por que as linhas de base canônicas compartilhadas são urgentes. Esta pesquisa fornece a base empírica para o design dos critérios.

Governança como Código para Implantação de Tecnologia Católica argumenta que as políticas de implantação devem se tornar especificações legíveis por máquina e auditáveis, funcionando como barreiras rígidas em vez de documentos consultivos. Esta pesquisa informa o requisito de especificação de governança do Critério 6 e descreve a implementação mais tecnicamente rigorosa que este framework está projetado para desenvolver.

Infraestrutura de Dados Confiáveis para o Ministério Católico aborda a infraestrutura de dados — tanto dados institucionais sintéticos quanto dados eclesiais padronizados — que possibilitaria o desenvolvimento responsável de tecnologia em saúde, educação, serviços sociais e vida paroquial católica. Esta pesquisa fundamenta os requisitos de administração de dados ampliados do Critério 7 e antecipa as obrigações de governança de dados que acompanham o desenvolvimento de tecnologia católica mais sofisticada.


Um Convite para Iterar

Este é um rascunho de trabalho. Cada critério é uma proposta sujeita a revisão por meio da contribuição da comunidade, experiência de piloto e diálogo com conselheiros eclesiais. O objetivo é um padrão vivo que se torna mais preciso e mais útil à medida que as instituições católicas começam a aplicá-lo a projetos reais.

Contribuições, desafios e propostas de revisões são bem-vindos por meio de pull request ou issue no CatholicOS GitHub.

Redigido em diálogo com o C-DART 1 (Catholic Deep AI Research Team) dos EUA. Fevereiro–Março de 2026.


Bibliografia


  1. Dicastério para a Doutrina da Fé e Dicastério para Cultura e Educação, Antiqua et Nova: Nota sobre a Relação Entre Inteligência Artificial e Inteligência Humana (Cidade do Vaticano: Dicastério para a Doutrina da Fé, 28 de janeiro de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  2. Papa Leão XIV, “Mensagem aos Participantes do Builders AI Forum 2025,” Cidade do Vaticano, 3 de novembro de 2025, https://www.vatican.va/content/leo-xiv/en/messages/pont-messages/2025/documents/20251103-messaggio-builders-aiforum.html.↩︎

  3. Dicastério para a Doutrina da Fé e Dicastério para Cultura e Educação, Antiqua et Nova: Nota sobre a Relação Entre Inteligência Artificial e Inteligência Humana (Cidade do Vaticano: Dicastério para a Doutrina da Fé, 28 de janeiro de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  4. “A Verdadeira Lição por Trás do Debacle do ‘Pai Justin’ AI Priest,” America, 26 de abril de 2024, https://www.americamagazine.org/faith/2024/04/26/father-justin-catholic-answers-ai-247808.↩︎

  5. Dicastério para a Doutrina da Fé e Dicastério para Cultura e Educação, Antiqua et Nova: Nota sobre a Relação Entre Inteligência Artificial e Inteligência Humana (Cidade do Vaticano: Dicastério para a Doutrina da Fé, 28 de janeiro de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  6. Dicastério para a Doutrina da Fé e Dicastério para Cultura e Educação, Antiqua et Nova: Nota sobre a Relação Entre Inteligência Artificial e Inteligência Humana (Cidade do Vaticano: Dicastério para a Doutrina da Fé, 28 de janeiro de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  7. Código de Direito Canônico, Cânon 627 (Cidade do Vaticano: Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib2-cann460-572_en.html.↩︎

  8. Commonwealth da Austrália, Comissão Real sobre o Esquema Robodebt: Relatório Final (Canberra: Commonwealth da Austrália, 2023), https://robodebt.royalcommission.gov.au/.↩︎

  9. Dicastério para a Doutrina da Fé e Dicastério para a Cultura e Educação, Antiqua et Nova: Nota sobre a Relação entre a Inteligência Artificial e a Inteligência Humana (Cidade do Vaticano: Dicastério para a Doutrina da Fé, 28 de janeiro de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  10. Julia Angwin, Jeff Larson, Surya Mattu e Lauren Kirchner, “Viés de Máquina,” ProPublica, 23 de maio de 2016, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.↩︎

  11. Papa Leão XIV, “Discurso aos Participantes da Conferência ‘Inteligência Artificial e Cuidado com Nossa Casa Comum,’” Cidade do Vaticano, 5 de dezembro de 2025, https://www.vatican.va/content/leo-xiv/en/speeches/2025/december/documents/20251205-conferenza.html.↩︎

  12. Dicastério para a Doutrina da Fé e Dicastério para a Cultura e Educação, Antiqua et Nova: Nota sobre a Relação entre a Inteligência Artificial e a Inteligência Humana (Cidade do Vaticano: Dicastério para a Doutrina da Fé, 28 de janeiro de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  13. Código de Direito Canônico, Cânon 1609 (Cidade do Vaticano: Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib7-cann1501-1670_en.html.↩︎

  14. Catecismo da Igreja Católica, 2ª ed., §1894 (Cidade do Vaticano: Libreria Editrice Vaticana, 1997), https://www.vatican.va/archive/ENG0015/_INDEX.HTM.↩︎

  15. Dicastério para a Doutrina da Fé e Dicastério para a Cultura e Educação, Antiqua et Nova: Nota sobre a Relação entre a Inteligência Artificial e a Inteligência Humana (Cidade do Vaticano: Dicastério para a Doutrina da Fé, 28 de janeiro de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  16. Dicastério para a Doutrina da Fé e Dicastério para a Cultura e Educação, Antiqua et Nova: Nota sobre a Relação entre a Inteligência Artificial e a Inteligência Humana (Cidade do Vaticano: Dicastério para a Doutrina da Fé, 28 de janeiro de 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎

  17. Código de Direito Canônico, Cânon 627 (Cidade do Vaticano: Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib2-cann460-572_en.html.↩︎

  18. Código de Direito Canônico, Cânon 1609 (Cidade do Vaticano: Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib7-cann1501-1670_en.html.↩︎

  19. Papa Leão XIV, “Mensagem aos Participantes do Fórum Builders AI 2025,” Cidade do Vaticano, 3 de novembro de 2025, https://www.vatican.va/content/leo-xiv/en/messages/pont-messages/2025/documents/20251103-messaggio-builders-aiforum.html.↩︎