Die Diakonie Schweiz hat eine Online-Weiterbildung gestartet, die die praktische Arbeit von Sozialdiakoninnen und Sozialdiakonen, Pfarrpersonen sowie Mitarbeitenden in kirchlichen Werken in den Blick nimmt. Das Auftaktmodul wurde von Peter Zängl (FHNW) gestaltet. Er führt an gängigen Anwendungen entlang ein, zeigt, was Künstliche Intelligenz leisten kann, und ordnet Folgen für Alltag, Beruf und Gesellschaft ein. Damit setzt die Reihe bewusst dort an, wo diakonische Praxis beginnt – bei konkreten Aufgaben, die heute schon durch KI berührt werden.
Zängl eröffnet seinen Vortrag mit einer persönlichen Standortbestimmung. Er erlebe sich «zwischen Utopie und Dystopie», fasziniert von der neuen Produktivität, zugleich alarmiert von offenen Fragen.
Ein Tag mit KI – vom Aufwachen bis zur Teamsitzung
Zängl nimmt die Teilnehmenden mit durch einen «fiktiven Alltag»: Der Wecker passt sich dem Schlafrhythmus an, Spotify schlägt Musik vor, Navigations-Apps berechnen Staus, und im Beruf unterstützen Textgeneratoren beim Strukturieren, Übersetzen oder Verdichten von Material. Die Botschaft: «Jedes Mal, wenn Sie bei Google irgendwas suchen und auch das Richtige finden … da sind Sie schon mitten in den KI Anwendungen, ohne dass Sie das selber merken.» KI sei längst da – oftmals unsichtbar, aber wirkmächtig.
Anwendungsnah beschreibt Zängl drei Stärken, die für die Sozialdiakonie relevant sind: Mustererkennung (der «Röntgenblick» in Daten), Geschwindigkeit (Zusammenfassungen oder Transkriptionen in Sekunden) und ideenreiche Kombination («Ideensprudel»), wenn Modelle gezielt ausserhalb gewohnter Denkmuster angeregt werden. In seinem Material betont er zugleich die didaktische Grundannahme der Reihe: «KI ist ein Werkzeugkasten» – nützlich, wenn man ihn beherrscht.
Was KI kann – und was sie nicht kann
Zängl erklärt die Arbeitsweise grosser Sprachmodelle mit einer nüchternen Formel: «KI = hochkomplexer Wahrscheinlichkeitsrechner.» Modelle erkennen statistische Muster, aber sie «verstehen» nicht in menschlichem Sinn. Deshalb bleiben Beziehungsgestaltung, Deutung von Zwischentönen, Vertrauen und ethisch verantwortetes Entscheiden genuin menschlich. «Die KI ersetzt nicht ihre fachliche Kompetenz, ihre Empathie oder ihr Gespür für Menschen», hält Zängl fest und rückt damit die professionsethische Perspektive der Sozialdiakonie ins Zentrum.
Wie rasant die Technologie in die Breite gewachsen ist, veranschaulicht Zängl mit einem Blick auf ChatGPT: Der Dienst erreichte binnen zwei Monaten rund 100 Millionen monatlich aktive Nutzende und wurde damit zum wohl am schnellsten wachsenden Consumer-Produkt.
Praxisbezug: Wo KI in der Sozialdiakonie hilft
Im Vortrag werden Felder benannt, in denen KI bereits heute spürbar entlastet: administrative Routinen wie Berichte, Protokolle oder Terminorganisation; Übersetzungen und Übertragungen in leichte Sprache; Recherchen und Strukturierungshilfen in der Beratung; Textbausteine für Gemeindekommunikation. Ein Beispiel aus Zängls Arbeit ist ein «Klartextgenerator», der Behördenbriefe in verschiedene Verständlichkeitsstufen überträgt – ein unmittelbar anschlussfähiges Hilfsmittel in der Sozialdiakonie.
Zugleich demonstriert er live, wie Prompts zu besseren Ergebnissen führen und warum die erste Fassung aus einem System nie die letzte sein sollte. Der Rat lautet: Entwürfe kritisch prüfen, fachlich überarbeiten, Stil und Aussage verantworten – und niemals Vertrauliches in offene Tools eingeben.
Risiken ernst nehmen: Halluzinationen, Bias, Missbrauch
Auf der Risikoseite verweist Zängl auf «Halluzinationen», also plausibel klingende, aber falsche Antworten, auf algorithmische Voreingenommenheiten und auf das «Black-Box»-Problem: Entscheidungen sind oft nicht transparent herleitbar. Ein prominentes Praxisbeispiel für diskriminierende Effekte stammt aus der Personalrekrutierung: Amazons experimentelles Tool benachteiligte Frauen, weil es anhand männlich dominierter Trainingsdaten lernte. Solche Fälle sind Lehre und Warnung zugleich.
Das Missbrauchspotenzial wird deutlich an Deepfakes, gezielter Desinformation und Betrugsmaschen, die auch Beratungs- und Seelsorgekontexte treffen können. Zängl plädiert für Medien- und Datenkompetenz auf allen Ebenen – und für eine nüchterne Einschätzung dessen, was Tools können und was nicht.
Datenschutz und Governance: «Niemals personenbezogene Daten in kostenlose Tools»
Besonders deutlich wird Zängl beim Schutz sensibler Informationen: «Die Grundregel: Niemals, wirklich niemals, personenbezogene oder vertrauliche Daten direkt in kostenlose KI-Tools wie ChatGPT eingeben.» Serverstandorte, Trainingsnutzung und Logfiles entziehen sich der Kontrolle. Darum gilt: konsequente Anonymisierung, klare Rollen und Prozesse, Schulungen und dokumentierte Qualitätssicherung. «KI braucht Governance», bringt Zängl das Organisationsprinzip auf den Punkt.
Für den Rechtsrahmen in der Schweiz ist seit dem 1. September 2023 das revidierte Datenschutzgesetz (nDSG) massgebend. Der Bundesrat verabschiedete bereits 2020 Leitlinien zum Umgang mit KI in der Bundesverwaltung – «den Menschen in den Mittelpunkt stellen» ist die erste von sieben Maximen.
Der europäische Ordnungsrahmen konkretisiert sich zügig. Der EU‑AI‑Act ist am 1. August 2024 in Kraft getreten; Verbote und Pflichten zur «AI Literacy» gelten seit 2. Februar 2025, Governance-Regeln und Vorgaben für «General Purpose»-Modelle seit 2. August 2025; der Grossteil der Hochrisiko-Regeln wird bis 2026/27 anwendbar. Trotz Forderungen einzelner Unternehmen nach Aufschub hält die EU an der Timeline fest und begleitet den Übergang mit einem freiwilligen Code of Practice. Für Träger in der Schweiz, die in EU-Räumen tätig sind oder Dienste dort nutzen, ist der Blick auf die Übergangsfristen ratsam.
Frankreich flankiert den EU‑Rahmen mit Orientierungen der Datenschutzaufsicht CNIL zur Einführung generativer Systeme und mit Sicherheitsempfehlungen der Cybersicherheitsbehörde ANSSI für Betrieb und Architektur generativer KI. Diese Dokumente sind für kirchliche und diakonische Organisationen mit grenzüberschreitenden Aktivitäten unmittelbar hilfreich – und sie lassen sich gut in hausinterne Governance übersetzen.
Ökologie: Der Fussabdruck der Rechenzentren
Zängl stellt die «ethische Frage» explizit: «Rechtfertigt der Nutzen von KI ihren ökologischen Preis?» Aktuelle Auswertungen der Internationalen Energieagentur beziffern die Dynamik: Der weltweite Stromverbrauch von Rechenzentren könnte sich bis 2030 auf rund 945 TWh verdoppeln, knapp drei Prozent des globalen Verbrauchs; KI-getriebene Lasten wachsen deutlich schneller als andere Sektoren. Für kirchliche Organisationen folgt daraus die doppelte Verantwortung, Nutzen und Ressourcenverbrauch mitzudenken – etwa durch energieeffiziente Dienste, Datensparsamkeit und, wo möglich, erneuerbare Energien.
Der Ländervergleich: Schweiz, Deutschland, Österreich
Schweiz. Neben Bundesleitlinien ist der Schweizer Diskurs von Verantwortungsprinzipien geprägt. Für die Arbeit der Sozialdiakonie bedeutet dies: transparente Kennzeichnung des KI‑Einsatzes, klare Zuständigkeiten, angemessene Einwilligungen und zurückhaltende Datenverarbeitung. In der Nutzung zeigen aktuelle Zahlen einen Sprung: Der IGEM‑Digimonitor 2025 meldet, dass 60 Prozent der Bevölkerung KI‑Tools nutzen – nach 40 Prozent im Vorjahr. Der Trend verschiebt sich vom «Ausprobieren» zur systematischen Anwendung, auch im Ehrenamt und in der Bildung.
Deutschland. Diakonie Deutschland – genauer: das Evangelische Werk für Diakonie und Entwicklung (EWDE) – hat 2024 Leitlinien zur Nutzung von KI veröffentlicht; sie bieten eine tragfähige Grundlage für kirchliche Träger, von Bias‑Prävention bis zu Dokumentationspflichten. Parallel konkretisiert die Datenschutzkonferenz (DSK) den rechtlichen Rahmen mit einer Orientierungshilfe «Künstliche Intelligenz und Datenschutz». Die öffentliche Stimmung ist offen, aber ambivalent: Erhebungen zeigen breite Nutzung durch Bürgerinnen und Bürger, zugleich Sorgen um Abhängigkeiten von US‑ und China‑Anbietern.
Österreich. Die «Artificial Intelligence Mission Austria 2030» (AIM AT 2030) definiert den nationalen Rahmen; hinzu kamen praxisnahe Leitfäden für die Verwaltung, die ausdrücklich generative KI adressieren (z. B. «Digitale Verwaltung: KI, Ethik und Recht 2.0» und der «KI‑Kompass» der Stadt Wien). Zugleich steigt die unternehmerische Nutzung: 2024 setzten 20 Prozent der Unternehmen ab zehn Mitarbeitenden KI ein – nach 11 Prozent 2023. Für diakonische Werke sind insbesondere die Leitfäden mit ihren Prüffragen, Protokollen und Rollenbeschreibungen anschlussfähig.
Europaweit. Die Nutzung in Unternehmen steigt; Eurostat weist für 2024 einen EU‑weit durchschnittlichen KI‑Einsatz von 13,5 Prozent der Unternehmen aus, bei Grossunternehmen 41 Prozent. Eurobarometer meldet zugleich stabile bis wachsende Zustimmung zu KI am Arbeitsplatz, fordert aber Aufklärung, Qualifizierung und klare Regeln. Für die Diakonie in allen Ländern gilt: Der institutionelle Reifegrad entscheidet darüber, ob KI als Entlastung oder als Risiko erlebt wird.
Zahlen im Verlauf 2023–2025: Vom Hype zur Einbettung
Die Einführungskurve verläuft steil. ChatGPTs Rekordwachstum wurde zum Katalysator, der Nutzungsschwellen senkte. 2024–2025 zeigen repräsentative Befragungen ein schnelles Aufholen in der Breite, aber auch erste Konsolidierungseffekte: Während in Europa die Unternehmensnutzung steigt, melden einzelne Erhebungen in den USA zuletzt leichte Dellen bei grossen Firmen – ein Hinweis darauf, dass vom Experiment zum tragfähigen Roll‑out Governance, Kompetenzen und klare Business‑Cases nötig sind. Für kirchliche Träger ist das eine gute Nachricht: Nicht Tempo, sondern Qualität entscheidet.
Die Sozialdiakonie – als professionell ausgeübte Diakonie der Kirche an der Schnittstelle von Kirche und Gesellschaft – begleitet Menschen in Übergängen, stärkt Nachbarschaften, qualifiziert Freiwillige und arbeitet mit Schulen, Gemeinden und sozialen Institutionen zusammen. Berufsbild und Mindestanforderungen sind schweizweit geregelt; die Diakonie Schweiz dokumentiert das Feld regelmässig. In diese Arbeitswirklichkeit können KI‑Werkzeuge punktuell und sinnvoll integriert werden: als Übersetzungshilfe, als «Klartext»-Brücke zu Behörden, als Recherche‑Assistent für Beratende – immer mit Transparenz, Zustimmung und Qualitätskontrolle.
Zängl schliesst mit einer Bildungsbotschaft: «AI Literacy als Schlüssel». Gemeint ist nicht nur Tool‑Bedienung, sondern das Verstehen von Trainingsdaten, Fehlerbildern und Bias, das Prüfen von Fakten, das Offenlegen der Nutzung, das Dokumentieren von Entscheidungen – kurz: die Fähigkeit, Technik in professionelle Verantwortung zu übersetzen. Für diakonische Organisationen wird AI‑Literacy zur Sicherheitsmassnahme: Sie schützt Klientinnen und Klienten, stärkt Teams und macht aus KI das, was Zängl verspricht: einen Werkzeugkasten, der sich an den Menschen ausrichtet.
Die Botschaft des Auftaktmoduls ist klar: KI bringt echte Entlastungen, wenn sie sorgsam eingebettet wird. Governance heisst in diesem Feld: Ziele definieren, Verantwortungen klären, Daten schützen, Qualität sichern, ökologische Kosten beachten, Kompetenzen entwickeln und offenlegen, wo KI unterstützt. Oder, in Zängls Worten: «KI braucht Governance.»
