CDCF Projektbewertungskriterien
| Version | v0.2 (Entwurf zur Überprüfung durch die Gemeinschaft) |
| Umfang | Alle Technologieprojekte, die zur Inkubation und Graduierung bei CDCF eingereicht werden |
| Hinweis | Domänenspezifische Erweiterungen (beginnend mit KI) sind inline integriert. Weitere Domänen können hinzugefügt werden, während sich die Stiftung weiterentwickelt. |
Inhaltsverzeichnis
- Zweck und Begründung
- Tor 1: Inkubationsakzeptanz
- Kriterium 1: Ausrichtung an der Mission und kanonischer Umfang
- Kriterium 2: Architektur der menschlichen Verantwortlichkeit
- Kriterium 3: Transparenz des Umfangs und der Operation
- Kriterium 4: Unabhängige Validierung der behaupteten Fähigkeiten
- Kriterium 5: Auswirkungen auf gefährdete Bevölkerungsgruppen
- Kriterium 6: Spezifikation der Bereitstellungsgovernance
- Tor 2: Graduierung zum aktiven CDCF-Projektstatus
- Verankerung in der katholischen Lehre und kanonischen Tradition
- Beziehung zur breiteren Governance-Forschung
- Eine Einladung zur Iteration
- Bibliographie
Zweck und Begründung
Die Catholic Digital Commons Foundation (CDCF) dient der Kirche, indem sie einen gemeinsamen, kanonischen Standard für Technologieprojekte fördert, die die menschliche Würde und das Gemeinwohl respektieren. Ohne gemeinsame Standards riskieren katholische Institutionen technische und kanonische Fragmentierung, indem sie Werkzeuge einsetzen, die möglicherweise nicht mit unserer Mission übereinstimmen oder die ohne klare Verantwortungsstrukturen betrieben werden.
Katholische Institutionen dienen zig Millionen Menschen in den Bereichen Gesundheitswesen, Bildung, soziale Dienste und Gemeindeleben. Sie evaluieren und setzen aktiv Technologie ein, um diese Arbeit effektiver zu gestalten, und in vielen Bereichen — insbesondere in der KI — geschieht dies ohne einen gemeinsamen, kanonischen Standard dafür, wie eine verantwortungsvolle katholische Bereitstellung aussieht. Die Folge ist Fragmentierung: Diözesen, Schulsysteme und katholische Wohlfahrtsverbände arbeiten unter inkompatiblen Bewertungskriterien für strukturell identische Anwendungsfälle, wobei Werkzeuge, die sensible Bevölkerungsgruppen betreffen, ohne einen dokumentierten Entscheidungsprozess in die Produktion gehen.
Dieses Dokument legt die Anforderungen für jedes Projekt fest, das eine Unterstützung durch die CDCF anstrebt. Seine grundlegende Prämisse ist praktisch und spezifisch: die Menschen innerhalb eines Systems bestimmen, ob die Governance Bestand hat. Richtlinien, Prinzipien und Rahmenwerke haben nur dann Gewicht, wenn sie auf benannten Personen mit echter Autorität und echter Verantwortlichkeit zurückverfolgt werden können. In der katholischen Institutionenleben hat diese Prämisse tiefe Wurzeln. Die Kirche lehrt, dass menschliche Intelligenz ein wesentlicher Aspekt des Seins im Bild Gottes ist und dass technologische Innovation eine Teilnahme am göttlichen Akt der Schöpfung darstellt.1 Da jede Designentscheidung „eine Vision der Menschheit ausdrückt“, tragen Entwickler die Verpflichtung, Systeme zu schaffen, die „Gerechtigkeit, Solidarität und eine echte Ehrfurcht vor dem Leben widerspiegeln.“2 Diese Kriterien übersetzen diese Verpflichtung in einen operativen Standard, den Entwickler, Diözesen und kirchliche Berater konsistent anwenden können.
Die Kriterien sind um zwei Bewertungstore organisiert. Tor 1 regelt die Annahme in die Inkubation. Tor 2 regelt den Abschluss zum aktiven CDCF-Projektstatus. Ein Projekt schreitet durch Tor 2 nur voran, nachdem es Tor 1 vollständig erfüllt hat.
| Tor | Phase | Kriterien | Anforderung |
|---|---|---|---|
| Tor 1 | Annahme zur Inkubation | C1 Missionsausrichtung · C2 Menschliche Verantwortlichkeit · C3 Transparenz · C4 Unabhängige Validierung · C5 Einfluss auf verletzliche Bevölkerungsgruppen · C6 Governance bei der Umsetzung | Alle sechs erforderlich |
| Tor 2 | Abschluss zum aktiven Status | C7 Dokumentation und Datenverwaltung · C8 Governance und Subsidiarität | Beide erforderlich; Tor 1 muss weiterhin erfüllt sein |
Tor 1: Annahme zur Inkubation
Alle sechs Kriterien sind für die Annahme zur Inkubation erforderlich. Ein Projekt, das fünf von sechs Kriterien erfüllt, bleibt im Dialog vor der Einreichung, bis das sechste gelöst ist.
Kriterium 1: Missionsausrichtung und kanonischer Rahmen
Das Projekt muss einem Zweck dienen, der mit der evangelisierenden Mission der Kirche und mit der katholischen Soziallehre über die Menschenwürde, das Gemeinwohl und die Subsidiarität übereinstimmt. Projekte, die das Potenzial haben, jeder Pfarrei, Diözese, Schule oder jedem Dienst zu dienen, der einem strukturell ähnlichen Bedürfnis gegenübersteht, haben Vorrang vor Projekten, die für die maßgeschneiderten Anforderungen einer einzelnen Institution konzipiert sind.
Kanonische Grenzen. Technologieprojekte dürfen nicht versuchen, sakramentale Funktionen zu simulieren oder sich als Träger einer kirchlichen Autorität darzustellen, die sie nicht besitzen.
Erweiterung des AI-Bereichs. Bestimmte KI-Anwendungen fallen unabhängig von der technischen Qualität außerhalb des Geltungsbereichs der CDCF-Unterstützung. Die doktrinäre Grundlage für diese Grenzen ist präzise. Die Kirche unterscheidet zwischen menschlicher Intelligenz (verstanden als eine Synthese von intellectus (das intuitive Erfassen der Wahrheit) und ratio (diskursives Denken), die zu einer Person gehört, die aus Körper und Seele besteht) und künstlicher statistischer Inferenz, die Daten verarbeitet, ohne die Fähigkeit zu besitzen, in einem theologisch sinnvollen Sinne zu denken.3 Da Menschen von ihrer Natur her zur zwischenmenschlichen Gemeinschaft geordnet sind und da die Sakramente inkarnationalen Realitäten sind, die in der Einheit von Körper und Seele verwurzelt sind, sind KI-Systeme konstitutiv unfähig, sakramentale Gnade oder geistliche Leitung zu vermitteln.
Die folgenden KI-Anwendungen sind disqualifizierend:
- Werkzeuge, die sakramentale Funktionen simulieren, einschließlich Beichte, Absolution oder geistliche Leitung
- Werkzeuge, die KI-generierte Inhalte als autoritative Lehre der Kirche präsentieren, ohne eine ausdrückliche menschliche theologische Überprüfung
- Werkzeuge, die einer KI ein kirchliches Identität, einen Titel oder eine visuelle Präsentation zuweisen, die einen geweihten Status suggeriert
Diese Grenzen ergeben sich aus dokumentierten Misserfolgen bei der katholischen KI-Einführung. Im April 2024 startete Catholic Answers „Father Justin“, einen KI-Chatbot, der als Priesterfigur präsentiert wurde. Das System musste innerhalb der ersten Tage nach dem Start schnell zurückgezogen werden, nachdem es sich als Priester dargestellt hatte und behauptete, es könne Sakramente spenden.4 Eine im Voraus definierte gemeinsame Grenzbedingung hätte diese Anwendung als außerhalb des Geltungsbereichs identifiziert, bevor auch nur eine Zeile Code veröffentlicht wurde.
Bewertungsfrage: Könnte dieses Projekt der universellen Kirche dienen, oder hängt sein Wertangebot von institutioneller Spezifität ab, die seine breitere Anwendbarkeit einschränkt?
Kriterium 2: Architektur der menschlichen Verantwortlichkeit
Jede wesentliche Handlung oder Entscheidung, die durch das Projekt informiert wird, muss einer benannten, verantwortlichen Person zugeordnet werden, einer spezifischen Person, die durch Rolle und institutionelle Position identifiziert wird, die Verantwortung für dieses Ergebnis trägt und von den betroffenen Personen zur Rechenschaft gezogen werden kann. Verantwortlichkeit, die über ein Komitee verteilt ist, ohne einen benannten Entscheidungsträger, erfüllt dieses Kriterium nicht.
Die doktrinäre Grundlage ist unmissverständlich. Entscheidungen über das Leben von Personen “müssen immer dem Menschen überlassen werden.”5 Wie Papst Franziskus direkt erklärte: “Wir würden die Menschheit in eine Zukunft ohne Hoffnung verurteilen, wenn wir den Menschen die Fähigkeit nehmen, über sich selbst und ihr Leben zu entscheiden, indem wir sie dazu verurteilen, von den Entscheidungen von Maschinen abhängig zu sein.” Die Aufrechterhaltung einer angemessenen menschlichen Kontrolle über technologievermittelte Entscheidungen ist eine bindende moralische Anforderung; “die Menschenwürde selbst hängt davon ab.”6
Diese Anforderung operationalisiert auch das Kirchenrecht, Kanon 627, der festlegt, dass Vorgesetzte Räte mit definierten Zustimmungs- und Beratungsobligationen nutzen müssen, und dass die daraus resultierende Autorität immer an bestimmte Personen gebunden ist, die innerhalb definierter Konsultationssysteme agieren.7 In der katholischen Governance ist Autorität niemals ein autonomer oder nicht nachvollziehbarer Mechanismus.
Das strukturelle Versagen, das im australischen Robodebt-Programm (2016–2019) dokumentiert wurde, veranschaulicht, was die Beseitigung benannter menschlicher Verantwortung in großem Maßstab produziert: Hunderttausende von rechtswidrigen Schuldenbescheiden und mehrere Todesfälle unter verletzlichen Sozialhilfeempfängern, die von der Royal Commission direkt auf das Fehlen menschlicher Überprüfung bei entscheidenden Entscheidungen über Einzelpersonen zurückgeführt werden.8
Bewertungsfragen:
- Kann eine von den Ergebnissen dieses Projekts betroffene Person identifizieren, wer die Entscheidung getroffen hat und durch welchen Prozess?
- Ist das Design des Projekts so gestaltet, dass menschliche Eingriffe klar, dokumentiert und umkehrbar sind?
Kriterium 3: Transparenz des Umfangs und der Operation
Der Einreicher muss technisch genaue Dokumentationen darüber bereitstellen, was das Projekt tut, welche Daten es aufnimmt, wer von seinen Ergebnissen betroffen ist, welche Entscheidungen es informiert oder trifft und wo seine operationellen Grenzen liegen. Diese Dokumentation muss ausreichend sein, damit ein unabhängiger technischer Prüfer das tatsächliche Verhalten des Projekts bewerten kann, ohne sich auf Marketingmaterialien des Anbieters zu verlassen.
Das Magisterium stellt ausdrücklich fest, dass die “inhärente Würde jedes Menschen und die Bruderschaft, die uns verbindet” als die “unbestreitbaren Kriterien zur Bewertung neuer Technologien vor ihrer Anwendung” dienen müssen.9 Bewertung erfordert Informationen. Ein Projekt, dessen Betrieb nicht unabhängig beschrieben werden kann, kann nicht gegen diese Kriterien bewertet werden.
Erweiterung des KI-Bereichs. Für KI-Tools, die automatisierte oder algorithmisch unterstützte Entscheidungen über Personen betreffen, einschließlich Einstellung, Ressourcenverteilung, Triage, Inhaltsempfehlung und Risikobewertung, erfordert dieses Kriterium zusätzlich:
- Offenlegung der Quellen der Trainingsdaten und bekannter Verteilungsbeschränkungen
- Dokumentation aller durchgeführten unabhängigen Prüfungen oder Bewertungen
- Klare Beschreibung, welche Entscheidungen das Tool autonom trifft und welche menschlicher Überprüfung bedürfen
Das Fehlen dieser Dokumentation signalisiert, dass der Einreicher noch Arbeit vor sich hat, bevor eine informierte Bereitstellungsentscheidung möglich ist. Die Unterstützung eines undokumentierten Tools durch die CDCF würde katholische Institutionen denselben Intransparenzrisiken aussetzen, die systematische Vorurteile im COMPAS-Algorithmus zur strafrechtlichen Verurteilung hervorgebracht haben, bei dem festgestellt wurde, dass Risikobewertungen fast doppelt so häufig schwarze Angeklagte fälschlicherweise als hochriskant kennzeichneten wie weiße Angeklagte, bevor institutionelle Verantwortungsmechanismen aktiviert wurden.10
Kriterium 4: Unabhängige Validierung der behaupteten Fähigkeiten
Der Einreicher muss Nachweise erbringen, dass die behaupteten Fähigkeiten des Projekts gegen Quellen unabhängig vom Anbieter oder Entwickler bewertet wurden. Dokumentationen des Anbieters, Marketingmaterialien und interne Testberichte sind Eingaben für diese Überprüfung; unabhängige Validierung steht davon ab.
Akzeptable Formen der unabhängigen Validierung umfassen:
| Validierungstyp | Beschreibung |
|---|---|
| Technisches Audit durch Dritte | Externe Bewertung des Systemverhaltens und der Ansprüche |
| Peer-Review-Bewertung | Veröffentlichte akademische oder professionelle Überprüfung |
| Veröffentlichte Benchmarking | Ergebnisse aus anerkannten Bewertungsrahmen |
| Dokumentierte Red-Teaming-Bewertung | Strukturierte gegnerische Tests mit dokumentierten Ergebnissen |
Wo eine solche Validierung aussteht, muss der Einreicher dies ausdrücklich offenlegen und einen konkreten Plan sowie einen Zeitrahmen für deren Erlangung bereitstellen. Ein Projekt, das aktiv nach unabhängiger Validierung strebt, kann mit diesem Kriterium in die Inkubation aufgenommen werden, wobei dies als Bedingung für den Abschluss und nicht als Eintrittsbarriere markiert wird.
Der hier angewandte Standard ist verhältnismäßig zu den Einsätzen. Ein Projekt, das bei der internen Planung hilft, hat andere Validierungsanforderungen als eines, das Einstellungsentscheidungen, Schülerplatzierungen oder den Zugang zu sozialen Dienstleistungen beeinflusst. Der Überprüfungsprozess der CDCF wendet entsprechend Urteilsvermögen an.
Kriterium 5: Auswirkungen auf gefährdete Bevölkerungsgruppen
Das Projekt muss nachweisen, dass seine Auswirkungen mit besonderem Augenmerk auf die „bevorzugte Option für die Armen“ und die am stärksten gefährdeten Personen hinsichtlich technologischer Ausgrenzung oder Schaden untersucht wurden.
Katholische Institutionen bedienen überproportional Bevölkerungsgruppen, die in den Entwicklungspipelines kommerzieller Technologien historisch unterrepräsentiert sind:
- Ältere Menschen und Menschen mit Behinderungen
- Neuankömmlinge und nicht-englischsprachige Gemeinschaften
- Gemeinschaften in Armut und Bevölkerungsgruppen in ländlichen oder unterversorgten Gebieten
Werkzeuge einzusetzen, ohne ihre Auswirkungen auf diese Bevölkerungsgruppen zu untersuchen, steht im Widerspruch zur bevorzugten Option der Kirche für die Armen und Verwundbaren und stellt ein Versagen in der Governance dar, unabhängig von aggregierten Leistungskennzahlen.
Papst Leo XIV. identifiziert das Risiko präzise: Die Entwicklung von Technologien wird zu einem moralischen Versagen, wenn sie Systeme hervorbringt, die es Menschen ermöglichen, „bloß passive Konsumenten von Inhalten zu werden, die von künstlicher Technologie erzeugt werden“, wodurch die Fähigkeit, „nachzudenken, frei zu wählen, bedingungslos zu lieben und authentische Beziehungen einzugehen“, erodiert wird.11 Werkzeuge, die systematisch die Ergebnisse für gefährdete Bevölkerungsgruppen verschlechtern, beschleunigen genau diese Erosion für die Menschen mit der geringsten Fähigkeit, sich dagegen zu wehren.
Erweiterung des AI-Bereichs. Für KI-Werkzeuge erfordert dieses Kriterium eine dokumentierte Leistungsanalyse der Untergruppen: Nachweise, dass die Genauigkeit, Fehlerquoten und Ergebnisse des Werkzeugs in den spezifischen Bevölkerungsgruppen, die es betreffen wird, untersucht wurden, mit besonderem Augenmerk auf Gruppen, die in typischen Trainingsdatensätzen unterrepräsentiert sind oder ein erhöhtes Risiko für algorithmischen Schaden tragen. Das Lehramt definiert algorithmische Voreingenommenheit als „systematische und konsistente Fehler in Computersystemen, die bestimmte Gruppen unverhältnismäßig benachteiligen können.“12
Dieses Kriterium erfordert entweder eine dokumentierte Leistungsanalyse der Untergruppen oder eine ausdrückliche Anerkennung ihrer Abwesenheit, gepaart mit einem konkreten Plan, um diese zu erhalten. Ein Einreicher, der sich mit diesen Fragen rigoros auseinandergesetzt und sowohl die Beweise als auch die Lücken dokumentiert hat, erfüllt dieses Kriterium.
Kriterium 6: Spezifikation der Governance für den Einsatz
Der Einreicher muss die Governance-Bedingungen angeben, unter denen das Projekt betrieben wird. Dieses Kriterium befasst sich mit der folgenreichen Lücke zwischen einem Projekt, das isoliert technisch einwandfrei ist, und einem, das verantwortungsbewusst in einem institutionellen Kontext eingesetzt wird.
Erforderliche Elemente:
| Element | Beschreibung |
|---|---|
| Entscheidungsbefugnis | Pfarrgemeinde, Diözese, Institution oder Vorstand; klar abgebildet |
| Eskaliationsbedingungen | Definierte Auslöser, die eine höhere Autorität erfordern |
| Auslöser für menschliche Überprüfung | Schwellenwerte, bei denen Ausgaben eine menschliche Prüfung vor der Handlung erfordern |
| Berufungsverfahren | Prozess, durch den betroffene Personen eine durch das Projekt beeinflusste Entscheidung anfechten können |
Die kanonische Grundlage für diese Anforderungen ist spezifisch. Kanon 1609 schreibt vor, dass Richter in einem kollegialen Tribunal schriftliche Schlussfolgerungen mit rechtlichen und sachlichen Gründen vorlegen müssen, gefolgt von einer strukturierten Diskussion. Richter behalten das Recht, von einer ursprünglichen Schlussfolgerung zurückzutreten und zu verlangen, dass abweichende Meinungen an ein höheres Tribunal weitergeleitet werden.13 Dieser kanonische Standard stellt fest, dass katholische Entscheidungsfindung bewusstes Denken, die Fähigkeit zur Überarbeitung von Urteilen und transparente Mechanismen für Berufungen erfordert; eine Spezifikation für die Bereitstellung von Governance muss diese Fähigkeiten in menschlichen Händen bewahren.
Dieses Kriterium basiert auf dem Designmuster Governance-as-Code, bei dem Bereitstellungspolitiken als maschinenlesbare, prüfbare Spezifikationen ausgedrückt werden, anstatt als politische Dokumente, die getrennt von den Systemen existieren, die sie regieren. Eine ausgereifte Implementierung betrachtet die Entscheidung über den Zugang selbst als das primäre Artefakt: ein strukturiertes Protokoll, das Beweise, Vertrauensniveaus, benannte Verantwortlichkeiten, identifizierte Lücken und explizite Begründungen zusammenstellt, bevor eine nachgelagerte Verpflichtung eingegangen wird. Die Entscheidungszustände sind spezifisch und begrenzt: go, conditional-go, no-go und defer, wobei jeder unterschiedliche Dokumentationsanforderungen und Eskalationspflichten mit sich bringt. Eine vollständige technische Implementierung auf diesem Niveau der Strenge ist eher erstrebenswert als in der Inkubationsphase erforderlich. Erforderlich ist, dass die Governance-Spezifikation als schriftliches, überprüfbares Dokument existiert und dass die Architektur des Projekts mit ihrer Durchsetzung kompatibel ist, während sich die institutionelle Kapazität entwickelt.
Tor 2: Abschluss zum aktiven CDCF-Projektstatus
Der Abschluss erfordert, dass die Kriterien von Tor 1 vollständig erfüllt sind und dass die folgenden zwei zusätzlichen Anforderungen erfüllt werden. Diese Anforderungen betreffen die betriebliche Bereitschaft: der Unterschied zwischen einem Projekt, das in einem kontrollierten Kontext gut funktioniert, und einem, das von katholischen Institutionen in großem Maßstab übernommen, gewartet und vertraut werden kann.
Kriterium 7: Dokumentation für unabhängige Bereitstellung und Datenverwaltung
Das Projekt muss über eine Dokumentation verfügen, die ausreicht, damit eine katholische Institution das Projekt bewerten, konfigurieren, bereitstellen und unterstützen kann, ohne direkte Beteiligung des ursprünglichen Einreichers. Dazu gehören technische Dokumentationen, benutzerorientierte Anleitungen und eine explizite Dokumentation der Governance-Spezifikation, die gemäß Kriterium 6 erforderlich ist.
Der Bereitstellungstest: Könnte der Technologiedirektor in einem Diözesan-Schulamt, der mit seinem Team arbeitet und keinen Zugang zu den Autoren des Projekts hat, dieses Projekt verantwortungsvoll innerhalb von 90 Tagen bereitstellen?
Die Anforderungen an die Datenverwaltung sind proportional zum Risikoprofil des Projekts. Projekte, die personenbezogene Daten verarbeiten, müssen die folgenden Anforderungen erfüllen:
| Datenart | Compliance-Anforderung |
|---|---|
| Gesundheitsinformationen | HIPAA-Compliance; dokumentierter Ansatz zur Datenminimierung |
| Schülerakten | FERPA-Compliance; Aufbewahrungs- und Löschverfahren spezifiziert |
| Sakramentale Daten | Diözesane Daten-Governance-Richtlinien; dokumentierte Zugriffskontrollen |
| Daten zu Minderjährigen | Erweiterte Schutzmaßnahmen; ausdrückliche Zustimmung und Verfahren zur Reaktion auf Sicherheitsvorfälle |
| Finanzinformationen | Anwendbares staatliches und bundesstaatliches Recht; Anforderungen an Prüfpfade |
Erweiterung des KI-Bereichs. Für KI-Tools erstreckt sich dieses Kriterium auf die Governance von Trainingsdaten. Ein Tool, das mit Daten von katholischen Institutionen trainiert wurde, hat eine Verpflichtung gegenüber diesen Institutionen und den Bevölkerungsgruppen, die sie bedienen. Die Bedingungen, unter denen diese Daten verwendet wurden, und die Bedingungen, unter denen sie in zukünftigen Modellaktualisierungen verwendet werden dürfen, müssen offengelegt und als Teil der Abschlussprüfung bewertet werden.
Kriterium 8: Governance, Wartung und Subsidiaritätskompatibilität
Das Projekt muss einen definierten und dokumentierten Prozess für die laufende Wartung, Versionskontrolle, Reaktion auf Sicherheitsanfälligkeiten und Gemeinschaftsgovernance haben. Ein benannter Wartungsbeauftragter oder ein Wartungsteam muss die öffentliche Verantwortung für das Projekt in der Zukunft übernehmen.
Das Projekt muss auf der angemessenen Ebene der kirchlichen Autorität, sei es Pfarrei, Diözese oder Institution, umsetzbar sein, ohne dass eine zentrale Kontrolle erforderlich ist, die die Subsidiarität gefährden würde. Das Verständnis der Kirche von Subsidiarität ist an diesem Punkt präzise: Es ist eine Garantie, dass jede Ebene der Autorität ihre eigenen Pflichten und Rechte in Bezug auf das Gemeinwohl behält, anstatt eine einfache Delegation von Entscheidungen an die niedrigste verfügbare Ebene zu sein, und es stellt sicher, dass keine größere Einheit die legitime Initiative und Verantwortung kleinerer Einheiten absorbiert.14 Lokale Gemeinschaften müssen in der Lage sein, das Projekt für ihren Kontext zu konfigurieren, und diese Konfigurationsfähigkeit muss architektonisch echt sein, ohne dass eine Umgehung der grundlegenden Verantwortlichkeit, Sicherheit oder des Governance-Designs des Projekts erforderlich ist, um zu funktionieren.
Antiqua et Nova (§42) stellt ausdrücklich fest, dass die Verantwortung für den weisen Umgang mit Technologie “jeder Ebene der Gesellschaft obliegt, geleitet vom Prinzip der Subsidiarität.”15 Ein Projekt, das nur unter Bedingungen zentraler Verwaltung funktioniert, konzentriert die Autorität auf eine Weise, die dieses Prinzip verletzt und die kirchliche Struktur untergräbt, der die CDCF dient.
Verankerung in der katholischen Lehre und der kanonischen Tradition
Diese acht Kriterien basieren auf drei Lehrkörpern, die in der CDCF-Gemeinschaft gemeinsam gehalten werden.
Menschenwürde und echte menschliche Kontrolle. Antiqua et Nova (Dikasterium für die Glaubenslehre, Januar 2025) besteht darauf, dass KI unter echter menschlicher moralischer Verantwortung bleiben muss, unterscheidet menschliche Intelligenz von künstlicher statistischer Inferenz aus anthropologischen und theologischen Gründen und stellt fest, dass “die Menschenwürde selbst davon abhängt”, die tatsächliche menschliche Kontrolle über technologievermittelte Entscheidungen aufrechtzuerhalten.16 Die Kriterien 2 und 6 operationalisieren diese Anforderung auf der Ebene der institutionellen Umsetzung.
Subsidiarität und rechenschaftspflichtige Autorität. Der Kanon 627 des Codex des kanonischen Rechts verlangt, dass Entscheidungen auf der angemessenen Ebene der Autorität mit identifizierbarem menschlichem Eigentum getroffen werden.17 Der Kanon 1609 legt das Muster der kollegialen Beratung, schriftlichen Schlussfolgerungen, geordneten Diskussion und dokumentierten Entscheidungen fest, das die Anforderung der Governance-Spezifikation des Kriteriums 6 untermauert.18 Kriterium 8 erweitert die Subsidiarität von der kirchlichen Governance in die Umsetzungsarchitektur der Projekte selbst.
Das Gemeinwohl über Effizienz. Papst Leo XIV. rief in seiner Botschaft an das Builders AI Forum (November 2025) die Technologiebauer auf, moralisches Urteilsvermögen als eine zutiefst kirchliche Aufgabe zu kultivieren und Systeme zu entwickeln, die Gerechtigkeit, Solidarität und echte Ehrfurcht vor dem Leben widerspiegeln.19 Dieses Prinzip belebt alle acht Kriterien: Katholische Institutionen sind Verwalter, und Stewardship erfordert, dass Projekte hinsichtlich ihrer Auswirkungen auf die gesamte menschliche Person und die Gemeinschaften, denen sie dienen, bewertet werden, wobei Kosteneinsparungen und betriebliche Durchsatzraten als sekundäre Überlegungen behandelt werden.
Beziehung zur breiteren Governance-Forschung
Diese Kriterien stellen die Inkubations- und Abschlussstufe einer breiteren Governance-Architektur dar, die derzeit innerhalb von U.S.A. C-DART 1 (Catholic Deep AI Research Team) diskutiert wird, das aktiv in einem strukturierten Planungsprozess engagiert ist, um die wichtigsten KI-Trends, mit denen katholische Institutionen konfrontiert sind, zu bewerten und zu priorisieren. Drei Forschungserinnerungen, die aus diesem Prozess hervorgehen, informieren das Design dieser Kriterien und werden zusammen mit diesem Dokument eingereicht.
Fragmentierte katholische digitale Governance im großen Maßstab dokumentiert, warum katholische Institutionen in Diözesen, Gesundheitssystemen und Bildungsnetzwerken Dutzende inkompatibler Governance-Standards und digitaler Darstellungen für strukturell identische Anwendungsfälle produzieren und warum gemeinsame kanonische Baselines dringend erforderlich sind. Diese Forschung liefert die empirische Grundlage für das Design der Kriterien.
Governance-as-Code für den Einsatz katholischer Technologie argumentiert, dass Einsatzrichtlinien maschinenlesbare, prüfbare Spezifikationen werden sollten, die als harte Tore und nicht als beratende Dokumente fungieren. Diese Forschung informiert über die Anforderungen an die Governance-Spezifikation von Kriterium 6 und beschreibt die technisch rigorosere Umsetzung, in die dieses Framework wachsen soll.
Vertrauenswürdige Dateninfrastruktur für den katholischen Dienst befasst sich mit der Dateninfrastruktur — sowohl synthetischen institutionellen Daten als auch standardisierten kirchlichen Daten — die eine verantwortungsvolle Technologieentwicklung im Bereich der katholischen Gesundheit, Bildung, sozialen Dienste und des Gemeindelebens ermöglichen würde. Diese Forschung bildet die Grundlage für die erweiterten Anforderungen an die Datenverantwortung von Kriterium 7 und antizipiert die Daten-Governance-Verpflichtungen, die mit einer anspruchsvolleren Entwicklung katholischer Technologien einhergehen.
Eine Einladung zur Iteration
Dies ist ein Arbeitsentwurf. Jedes Kriterium ist ein Vorschlag, der durch Rückmeldungen der Gemeinschaft, Pilot-Erfahrungen und den Dialog mit kirchlichen Beratern überarbeitet werden kann. Das Ziel ist ein lebendiger Standard, der präziser und nützlicher wird, während katholische Institutionen beginnen, ihn auf reale Projekte anzuwenden.
Beiträge, Herausforderungen und vorgeschlagene Überarbeitungen sind über Pull-Request oder Issue auf dem CatholicOS GitHub willkommen.
Entworfen im Dialog mit U.S.A. C-DART 1 (Catholic Deep AI Research Team). Februar–März 2026.
Bibliographie
-
Dicasterium für die Glaubenslehre und Dicasterium für Kultur und Bildung, Antiqua et Nova: Hinweis auf die Beziehung zwischen künstlicher Intelligenz und menschlicher Intelligenz (Vatikanstadt: Dicasterium für die Glaubenslehre, 28. Januar 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Papst Leo XIV, „Botschaft an die Teilnehmer des Builders AI Forum 2025“, Vatikanstadt, 3. November 2025, https://www.vatican.va/content/leo-xiv/en/messages/pont-messages/2025/documents/20251103-messaggio-builders-aiforum.html.↩︎
-
Dicasterium für die Glaubenslehre und Dicasterium für Kultur und Bildung, Antiqua et Nova: Hinweis auf die Beziehung zwischen künstlicher Intelligenz und menschlicher Intelligenz (Vatikanstadt: Dicasterium für die Glaubenslehre, 28. Januar 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
„Die wahre Lehre hinter dem ‚Vater Justin‘ AI-Priester-Debakel“, America, 26. April 2024, https://www.americamagazine.org/faith/2024/04/26/father-justin-catholic-answers-ai-247808.↩︎
-
Dicasterium für die Glaubenslehre und Dicasterium für Kultur und Bildung, Antiqua et Nova: Hinweis auf die Beziehung zwischen künstlicher Intelligenz und menschlicher Intelligenz (Vatikanstadt: Dicasterium für die Glaubenslehre, 28. Januar 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Dicasterium für die Glaubenslehre und Dicasterium für Kultur und Bildung, Antiqua et Nova: Hinweis auf die Beziehung zwischen künstlicher Intelligenz und menschlicher Intelligenz (Vatikanstadt: Dicasterium für die Glaubenslehre, 28. Januar 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Codex des Kirchenrechts, Kanon 627 (Vatikanstadt: Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib2-cann460-572_en.html.↩︎
-
Commonwealth von Australien, Königliche Kommission zum Robodebt-Programm: Abschlussbericht (Canberra: Commonwealth von Australien, 2023), https://robodebt.royalcommission.gov.au/.↩︎
-
Dicasterium für die Glaubenslehre und Dicasterium für Kultur und Bildung, Antiqua et Nova: Hinweis zur Beziehung zwischen Künstlicher Intelligenz und menschlicher Intelligenz (Vatikanstadt: Dicasterium für die Glaubenslehre, 28. Januar 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Julia Angwin, Jeff Larson, Surya Mattu und Lauren Kirchner, “Maschinenbias,” ProPublica, 23. Mai 2016, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.↩︎
-
Papst Leo XIV, “Ansprache an die Teilnehmer der Konferenz ‘Künstliche Intelligenz und Sorge für unser gemeinsames Zuhause,’” Vatikanstadt, 5. Dezember 2025, https://www.vatican.va/content/leo-xiv/en/speeches/2025/december/documents/20251205-conferenza.html.↩︎
-
Dicasterium für die Glaubenslehre und Dicasterium für Kultur und Bildung, Antiqua et Nova: Hinweis zur Beziehung zwischen Künstlicher Intelligenz und menschlicher Intelligenz (Vatikanstadt: Dicasterium für die Glaubenslehre, 28. Januar 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Codex des Kanonischen Rechts, Canon 1609 (Vatikanstadt: Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib7-cann1501-1670_en.html.↩︎
-
Katechismus der Katholischen Kirche, 2. Aufl., §1894 (Vatikanstadt: Libreria Editrice Vaticana, 1997), https://www.vatican.va/archive/ENG0015/_INDEX.HTM.↩︎
-
Dicasterium für die Glaubenslehre und Dicasterium für Kultur und Bildung, Antiqua et Nova: Hinweis zur Beziehung zwischen Künstlicher Intelligenz und menschlicher Intelligenz (Vatikanstadt: Dicasterium für die Glaubenslehre, 28. Januar 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Dicasterium für die Glaubenslehre und Dicasterium für Kultur und Bildung, Antiqua et Nova: Hinweis zur Beziehung zwischen Künstlicher Intelligenz und menschlicher Intelligenz (Vatikanstadt: Dicasterium für die Glaubenslehre, 28. Januar 2025), https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html.↩︎
-
Codex des Kanonischen Rechts, Canon 627 (Vatikanstadt: Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib2-cann460-572_en.html.↩︎
-
Codex des Kanonischen Rechts, Canon 1609 (Vatikanstadt: Libreria Editrice Vaticana, 1983), https://www.vatican.va/archive/cod-iuris-canonici/eng/documents/cic_lib7-cann1501-1670_en.html.↩︎
-
Papst Leo XIV, “Botschaft an die Teilnehmer des Builders AI Forum 2025,” Vatikanstadt, 3. November 2025, https://www.vatican.va/content/leo-xiv/en/messages/pont-messages/2025/documents/20251103-messaggio-builders-aiforum.html.↩︎