Anwendungen der Künstlichen Intelligenz in der Diakonie

Anwendungen der Künstlichen Intelligenz in der Diakonie

Im vierten Modul der Weiterbildungsreihe «Diakonie und KI» der Diakonie Schweiz wurden konkrete Anwendungsbeispiele Künstlicher Intelligenz im diakonischen Feld beleuchtet.

Anwendungen der Künstlichen Intelligenz in der Diakonie

Im vierten Modul der Weiterbildungsreihe «Diakonie und KI» der Diakonie Schweiz wurden konkrete Anwendungsbeispiele Künstlicher Intelligenz im diakonischen Feld beleuchtet. Referent Spiro Mavrias (Reformierte Kirche Kanton Zürich) präsentierte am 14. November 2025 erste Praxistools, die bereits heute in Kirche und Diakonie erprobt werden. Dabei spannte er den Bogen von KI-gestützten Übersetzungshilfen und Inklusionstools über einen Trainingsbot für seelsorgliche Gespräche bis hin zu Chatbots in der Sozialberatung. In seinem interaktiven Workshop konnten die Teilnehmenden verschiedene KI-Werkzeuge live kennenlernen und im Gespräch Chancen wie Grenzen ausloten. Mavrias begegnete dem Thema mit spürbarer Begeisterung, betonte jedoch zugleich die Notwendigkeit eines reflektierten und kritischen Umgangs: «Ich freue mich auch sehr über kritische Nachfragen und auch kritisch sein zur KI, denn das ist ziemlich wichtig.» (Zitatauszug 1) Schon zu Beginn machte er deutlich, dass Fragen etwa zu Datenschutz oder digitaler Nachhaltigkeit immer im Hinterkopf bleiben – auch wenn nicht alle Aspekte in der kurzen Zeit vertieft werden konnten. Die Devise lautete insgesamt, KI als Werkzeugkasten zu verstehen, der diakonische Praxis bereichern kann, ohne den Menschen zu ersetzen. Entsprechend stand das Ausprobieren im Vordergrund: Was können heutige KI-Anwendungen konkret leisten, wo stossen sie an Grenzen, und wie lassen sie sich verantwortungsvoll in kirchliche Arbeitskontexte einbinden?

Brücken bauen: Sprach- und Zugangsbarrieren überwinden

Ein erstes Anwendungsfeld waren KI-Tools als Brückenbauer – insbesondere beim Überwinden von Sprachbarrieren. Mavrias berichtete von Anfragen aus der Gefängnisseelsorge und der Spitalseelsorge, wo Fachpersonen oft mit Klientinnen und Klienten ohne Deutschkenntnisse kommunizieren müssen. Klassische Dolmetscher sind nicht immer verfügbar – hier können KI-Systeme helfen. Konkret demonstrierte Mavrias, wie sich ChatGPT spontan als Konsekutivübersetzer einsetzen lässt. Per Sprachbefehl liess er das System gesprochene Sätze nahtlos vom Deutschen ins Englische und zurück übersetzen. Die Vorführung zeigte eindrücklich, wie reibungslos die Verständigung via KI bereits klappt: Auf eine deutsche Aussage des Referenten folgte sekundenbruchteile später die englische Übersetzung durch das System – und umgekehrt. «Man kann ChatGPT ganz wunderbar als Konsekutivdolmetscher nutzen», so Mavrias’ Erfahrung (Zitatauszug 2). Die Teilnehmenden hörten live mit, wie eine KI-Stimme etwa den Satz „Ich bin so froh, hier zu sein und so viele nette Leute zu haben, um über KI zu lernen“ ins Deutsche übertrug. Mavrias zeigte sich begeistert von dieser Möglichkeit und ermutigte dazu, solche Tools auszuprobieren – mit einer wichtigen Einschränkung: Sobald personenbezogene oder vertrauliche Inhalte im Gespräch eine Rolle spielen (etwa in der Seelsorge, in Spital- oder Beratungssettings), ist Vorsicht geboten. Ein öffentliches KI-Modell wie ChatGPT darf in solchen Fällen nicht ohne Weiteres eingesetzt werden, da die eingegebenen Informationen auf fremden Servern verarbeitet werden und datenschutzrechtlich nicht ausreichend geschützt sind. Diese Problematik wurde im Workshop offen diskutiert. Mavrias wies darauf hin, dass er bereits an einer Lösung tüftelt: einem kleinen tragbaren Gerät, das Übersetzungen lokal – ohne Cloud-Anbindung – durchführen kann. Solange solche datenschutzfreundlichen Alternativen noch in Entwicklung sind, empfahl er als Übergangslösung etwa die iPhone-App „Übersetzen“, die sich in den Einstellungen so konfigurieren lässt, dass sämtliche Sprachdaten nur offline verarbeitet werden. Dieses Beispiel machte deutlich, dass in der diakonischen Praxis Innovationsfreude und Datenschutzbewusstsein Hand in Hand gehen müssen.

KI-gestützte Brücken sind nicht nur bei Sprachhürden nützlich, sondern auch bei anderen Zugangsbarrieren. Ein beeindruckendes Beispiel ist das Tool Google Lookout, das Mavrias unter der Rubrik Inklusion vorstellte. Diese kostenlose App von Google nutzt KI-Bilderkennung, um Menschen mit Sehbeeinträchtigung im Alltag zu assistieren. Gedruckte Texte vorlesen, Geldscheine identifizieren, Strassenschilder erkennen – all das gelingt der App in Echtzeit über die Smartphone-Kamera. Mavrias demonstrierte, wie Lookout funktioniert, und betonte den praktischen Nutzen: „Immer dann, wenn man die eigenen Augen nicht nutzen kann, kann man das damit ganz fantastisch gebrauchen“ – sei es beim Navigieren durch die Stadt oder beim unabhängigen Erledigen von Besorgungen. Die Anwesenden sahen, wie KI hier zur Assistenztechnologie wird, die Teilhabe und Autonomie von Betroffenen fördert. Ähnliche Fortschritte zeigen sich auch bei anderen Behinderungen: So helfen Sprachassistenz-Systeme und Barrierefreiheits-Tools heute Blinden, Gehörlosen oder kognitiv beeinträchtigten Menschen, Informationen zugänglich zu machen, indem sie gesprochene Sprache in Text umwandeln (und umgekehrt) oder komplizierte Texte in Leichte Sprache übersetzen. Solche Accessibility-Technologien, oft KI-basiert, dienen im Alltag als nützliche Helfer. Mavrias ordnete diese Beispiele bewusst in den Kontext der diakonischen Grundhaltung ein: Inklusion und Empowerment – also Menschen zu befähigen, am gesellschaftlichen Leben teilzuhaben – erhalten durch KI neue Werkzeuge. Wichtig sei, diese Werkzeuge sinnvoll einzusetzen: transparent gegenüber den Nutzenden, begleitet durch Einführung und Schulung, und immer als Ergänzung zwischenmenschlicher Unterstützung, nicht als Ersatz dafür.

Neben solchen Fortschritten im Kleinen verlor der Referent nicht den Blick aufs grosse Ganze. Er erinnerte daran, wie rasant sich KI-Anwendungen derzeit verbreiten und unser Kommunikationsverhalten verändern. «Sie sehen auch, wir sind eigentlich mitten in dem schnellsten Wandel in der Menschheitsgeschichte in der schriftlichen Kommunikation», hielt Mavrias fest (Zitatauszug 3). Tatsächlich hat kein digitales Tool die Alltagskommunikation so schnell durchdrungen wie die neuen Sprachmodelle – innerhalb weniger Monate nach Start von ChatGPT nutzten bereits Millionen von Menschen die Technologie. Mavrias illustrierte dies an einem kuriosen Befund aus Grossbritannien: Im Parlament habe sich seit Aufkommen von KI-Schreibhilfen die Rhetorik mancher Abgeordneter merklich verändert; Formulierungen, die früher kaum genutzt wurden, tauchten plötzlich gehäuft in Reden auf, mutmasslich inspiriert durch KI-Textvorschläge. Diese Anekdote unterstrich: KI ist längst in unserem Alltag angekommen, oft unsichtbar, aber wirksam – und die Veränderungen greifen bis in so traditionsreiche Bereiche wie die Politik. Für Kirche und Diakonie bedeute das, so Mavrias, sich bewusst mit der Technologie auseinanderzusetzen, um gestaltend und kompetent mitreden zu können, statt von der Dynamik überrollt zu werden.

Trainingspartner: Seelsorge üben mit dem KI-Bot

Ein zentrales Highlight des Workshops war die Präsentation eines von Mavrias selbst entwickelten Seelsorge-Trainingsbots. Dabei handelt es sich um ein KI-System, das als Gegenüber in simulierten Gesprächsszenarien auftritt, um angehenden oder erfahrenen Seelsorgenden ein Übungsfeld zu bieten. Die Grundidee entstand aus Mavrias’ eigener Erfahrung als junger Vikar: Mit Mitte 20 wurde er im Rahmen seiner Ausbildung in ein Hospiz entsandt und sah sich dort mit sterbenden Menschen und höchst sensiblen Gesprächen konfrontiert. Viele angehende Pfarrpersonen und Diakoniefachleute empfinden solche Situationen als herausfordernd – und äusserten den Wunsch nach mehr Übungsmöglichkeiten ausserhalb realer Ernstfälle. Klassische Rollenspiele mit Kolleginnen und Kollegen gibt es zwar, doch nicht immer lassen sie sich ausreichend oft oder realitätsnah durchführen. Hier setzt der Trainingsbot an: Er generiert auf Knopfdruck lebensechte Szenarien und übernimmt die Rolle des Gegenübers, während die Nutzerin oder der Nutzer in die Rolle der seelsorglichen Begleitung schlüpft.

Mavrias führte ein Beispiel vor, um Funktionsweise und Mehrwert des Tools greifbar zu machen. Das System schlug als Übungsszenario eine 15-jährige Gymnasiastin namens Lisa vor, die bei ihrer alleinerziehenden Mutter lebt und hadert, weil ihr Vater mit neuer Familie offenbar glückliche Urlaubsfotos auf Instagram postet. In dieser fiktiven Lage – so Mavrias’ Instruktion – soll die Übende nun das Gespräch beginnen, während der KI-Chatbot Lisa mimt. Tatsächlich entspann sich direkt ein schriftlicher Dialog: Auf die behutsame Frage „Hallo Lisa, wie geht es dir heute?“ reagierte der Bot mit zögerlichen Antworten, beschrieben mit kleinen Regieanweisungen („Lisa schaut auf den Boden und zupft nervös am Ärmel ihres Pullovers…“). Das System ist darauf ausgelegt, möglichst realistische Gesprächsverläufe zu simulieren. Mavrias erläuterte, wie er dem Sprachmodell beigebracht hat, nicht immer gleich offen und kooperativ zu sein – denn in der Realität sind Hilfesuchende mitunter verschlossen oder abweisend. Der Bot verfügt deshalb über eine programmierte „Öffnungsskala“: Erst wenn die seelsorgende Person ausreichend empathisch und geduldig agiert, offenbart die simulierte Klientin mehr von sich. Gelingt es der Nutzerin nicht, Vertrauen aufzubauen, bleibt auch die KI-Figur einsilbig oder bricht das Gespräch ab. Dieses Element zwingt die Übenden, verschiedene Gesprächstechniken auszuprobieren – aktives Zuhören, behutsames Nachfragen, Pausen aushalten – und fördert so die Reflexion der eigenen Vorgehensweise. Das Training lässt sich jederzeit mit dem Codewort „Ananas“ abbrechen, um das Gespräch zu beenden, was vor allem bei belastenden Inhalten wichtig ist.

Der Mehrwert dieses KI-gestützten Übungstools liegt auf der Hand: Seelsorge- und Beratungsfertigkeiten können gefahrlos und flexibel im geschützten Raum trainiert werden. Anstatt nur theoretisch über schwierige Situationen zu sprechen, können angehende Fachpersonen diese mit dem Bot durchspielen – zu jeder Zeit und beliebig oft. Mavrias betonte, dass das System bewusst offen gestaltet ist: Nutzerinnen können sich vom Bot entweder ein zufälliges Szenario vorschlagen lassen oder selbst eine Ausgangslage definieren, etwa: „Peter, 37, Profifussballer, hat sich das Bein gebrochen und wird nie wieder professionell spielen können.“ Daraufhin übernimmt der KI-Dialogpartner die Rolle der fiktiven Person (hier also Peter) und reagiert entsprechend seiner Lage. Zufälligkeit und Vielfalt sind dabei eingebaute Prinzipien – der Bot variiert Details und Stimmungen, um die Übungssituationen unvorhersehbar zu halten. Technisch war dies eine Herausforderung, wie Mavrias anmerkte: Ein ausführlicher System-Prompt (der unsichtbare „Drehbuchtext“ hinter dem Bot) stellt sicher, dass nicht immer gleiche Wendungen kommen und dass die KI auch mal schwierige Gesprächspartner simuliert. So etwas ist notwendig, da gängige Sprachmodelle von Haus aus eher freundlich und kooperativ antworten; für ein realistisches Training mussten jedoch auch vermeidende oder feindselige Reaktionen integriert werden. Der Referent verriet schmunzelnd, dass der prompt-Technik dahinter etliche Versuche und ein mehrseitiger Text zugrunde liegen – aber das Ergebnis lohne die Mühe.

Trotz aller Faszination für diesen digitalen Gesprächspartner legte Mavrias grossen Wert auf eine Klarstellung: Die KI soll nicht die menschliche Seelsorge ersetzen. Vielmehr versteht er seinen Bot als Lernhilfe, um Fachpersonen zu schulen, nicht als Tool, um reale Ratsuchende von einer Maschine beraten zu lassen. «Ich finde, Seelsorge sollte auch bei besonders schwierigen Themen, auch Suizid und so weiter, in Menschenhand bleiben», stellte er unmissverständlich fest (Zitatauszug 4). Diese Aussage traf auf deutliche Zustimmung der Anwesenden. Mavrias berichtete, die Idee eines „Seelsorge-Bots“ im Sinne eines direkten Chatberaters sei durchaus umhergegeistert – manche Tech-Enthusiasten träumen von 24/7 verfügbaren KI-Seelsorgern für jedermann. Er selbst aber steht solchen Konzepten kritisch gegenüber, aus theologischen wie ethischen Gründen. Empathie, geistliche Deutung und Vertrauensbeziehung liessen sich nicht algorithmisch nachbilden; hier seien die Grenzen der KI klar erreicht. Statt also in Konkurrenz zum seelsorglichen Mensch-Mensch-Kontakt zu treten, solle KI sinnvoll in der Aus- und Weiterbildung positioniert werden. Genau das gelingt mit dem Trainingsbot. Das Projekt stösst auf breites Interesse – noch Ende 2025 soll eine wissenschaftliche Veröffentlichung dazu erscheinen, und Mavrias hat den Bot auf seiner privaten Website für Interessierte zugänglich gemacht. Damit leistet die Reformierte Landeskirche Zürich Pionierarbeit: ein praktisches Instrument, das in der theologischen Ausbildung wie im freiwilligen Engagement genutzt werden kann, um Gesprächskompetenz zu stärken. Die Workshop-Teilnehmenden zeigten sich beeindruckt von diesem Beispiel, wie KI kreativ im Dienst der Diakonie eingesetzt werden kann.

KI-Chatbots in der Beratung: Finanzielle Sorgen und anonyme Hilfe

Im dritten Themenblock widmete sich Mavrias jenen KI-Anwendungen, die Menschen direkt im Alltag unterstützen – insbesondere in sozialen Notlagen. Er präsentierte mehrere Chatbots, die spezifische Beratungsangebote niedrigschwellig zugänglich machen. Ein Beispiel stammt aus Deutschland: Caritas GO, ein experimenteller Chatbot der Caritas, soll Menschen mit finanziellen Schwierigkeiten frühzeitig Hilfestellung bieten. Das System fragt die Nutzenden nach ihrer Situation – etwa Arbeitslosigkeit, Schulden, familiäre Bedingungen – und lotst sie dann zu passenden Unterstützungsangeboten. Mavrias schilderte einen Selbsttest: Er gab ein, er sei 55 Jahre alt, arbeitslos, mit zwei Kindern in Ausbildung. Daraufhin listete Caritas GO mögliche Anspruchsgrundlagen auf, von staatlichen Beihilfen bis zu Beratungsstellen, und bot Links zu weiterführenden Informationen. Noch steckt dieser digitale Assistent in der Entwicklung, doch sein Potenzial ist klar: Ratsuchende erhalten rund um die Uhr eine erste Orientierung, welche Hilfe es gibt – unabhängig von Öffnungszeiten und ohne gleich persönliche Daten preisgeben zu müssen. Natürlich ersetzt so ein Chatbot kein persönliches Sozialberatungsgespräch, aber er kann als Erstanlaufstelle dienen, um Hemmschwellen abzubauen und akut drängende Fragen schnell zu klären.

Ähnlich praxisnah ist der Budget-Chatbot, den der Dachverband Budgetberatung Schweiz entwickelt hat. Über ihn lassen sich online Schritt für Schritt Haushaltsbudgets erstellen. Nutzerinnen können Einnahmen und Ausgaben eingeben und erhalten automatisch einen ausbalancierten Budgetvorschlag sowie Tipps, wo Sparpotenziale liegen. Integriert sind zudem Budgetrechner für typische Lebenssituationen sowie Vorlagen, die man herunterladen kann. Mavrias verwies auf dieses Angebot als hilfreiches Tool, das Fachpersonen der Sozialdiakonie auch gemeinsam mit Klientinnen einsetzen könnten – etwa in der Schuldnerberatung oder der Präventionsarbeit. Anstatt mit Tabellenkalkulationen hantieren zu müssen, führt der Chatbot dialogisch durch das Budget, was insbesondere weniger geübten Personen entgegenkommt. Beeindruckend fand er, dass hinter dieser Entwicklung eine einzelne Sozialarbeiterin aus der Schweiz steht, die aus der Praxis heraus den Bedarf erkannte und das Projekt vorantrieb. Dies zeige, dass Innovation nicht nur von grossen Tech-Konzernen kommt, sondern oft aus dem Engagement von Fachleuten vor Ort erwächst.

Ein drittes Beispiel betraf einen sensiblen Bereich: häusliche Gewalt. Hier stellte Mavrias den Chatbot “Chat to Sophia” vor, der insbesondere Frauen in Gewaltsituationen einen anonymen Ausweg weisen soll. Das Besondere: Die Plattform ist so gestaltet, dass sie aussieht wie ein harmloser Chat – damit Täter im Umfeld keinen Verdacht schöpfen. Betroffene können der KI in Alltagssprache schildern, was sie erleben, und erhalten unmittelbar Informationen zu Hilfsangeboten, rechtlichen Schritten und Notfallkontakten. Sollte der Partner oder eine andere Person den Raum betreten, genügt ein Klick auf “Quick Exit”, und sämtliche Chat-Fenster werden augenblicklich geschlossen – ein potentiell lebensrettendes Feature, das Mavrias ausdrücklich hervorhob. „Chat to Sophia“ wurde von einer Schweizer Entwicklerin initiiert und zeigt, wie KI dazu beitragen kann, Schutzräume zu bieten – hier in digitaler Form. Natürlich ersetzt auch dieses Tool keine professionelle Opferberatung, aber es kann im entscheidenden Moment ein erster Anker sein, der Betroffenen Mut macht und sie rasch mit Hilfssystemen verbindet. Die Workshop-Gruppe diskutierte angeregt über solche Lösungen. Konsens war, dass gerade im Bereich der Diakonie – wo es um menschliche Not und Hilfe geht – digitale Angebote immer mit echter Zuwendung verknüpft bleiben müssen. KI kann Brücken bauen und Entlastung schaffen, aber sie muss eingebettet sein: in verantwortliche Prozesse, mit Notfallplan und menschlicher Nachsorge. Im Beispiel von „Chat to Sophia“ ist dies gegeben, da der Bot vor allem Kontakte vermittelt und die Nutzerinnen ermutigt, real verfügbare Unterstützungsangebote anzunehmen.

Auch intern kann KI den diakonischen Arbeitsalltag erleichtern. Mavrias erwähnte etwa die automatisierte Protokollführung in Sitzungen: Microsoft Teams bietet inzwischen eine KI-Funktion, die Meetings transkribiert, nach Themen gliedert und sogar auf Schweizer Mundart klarkommt. Solche Tools sparen Zeit bei der Dokumentation – ein Vorteil, den viele in der Runde sofort erkannten. Jedoch gilt auch hier: Ohne datenschutzkonforme Vorkehrungen (z. B. Nutzung von Schweizer Servern und Zustimmung aller Beteiligten) sollte man diese Funktionen nicht in sensiblen Gremien einsetzen. Für Präsenzsitzungen zeigte Mavrias ein Gadget namens „Plotto“, ein kleines Aufnahmegerät mit KI-Unterstützung, das mehrsprachige Gesprächsrunden aufzeichnen und den Teilnehmenden zuordnen kann. Ob solche technischen Helferchen den Sprung in die breite kirchliche Anwendung schaffen, wird sich zeigen – sein Team teste derzeit noch deren Zuverlässigkeit und Verträglichkeit mit den strengen Datenschutzauflagen der Landeskirche. Hier wurde deutlich, dass technischer Fortschritt und organisatorische Verantwortung zusammengedacht werden müssen. Spiro Mavrias und seine Mitstreiter sind aktuell dabei, genau dafür Richtlinien zu erarbeiten: In der Reformierten Kirche Zürich entsteht in Zusammenarbeit mit der Evangelisch-reformierten Kirche Schweiz (EKS) ein Set von KI-Leitlinien, das Mitarbeitenden und Gemeinden klare Orientierung geben soll (etwa zu Fragen von Datenfreigabe, Qualitätskontrolle und ethischen Grenzen). Damit reagiert die Landeskirche auf die wachsende Zahl von Anfragen aus der Praxis, wie mit neuen KI-Tools umzugehen sei. Ziel ist es, den Mitarbeitenden Sicherheit im Umgang mit KI zu bieten, ohne ihre Offenheit für Experimente zu bremsen. Dies entspricht dem Ansatz, den auch Diakonie Deutschland verfolgt: Das Evangelische Werk für Diakonie und Entwicklung (EWDE) hat im März 2024 Leitlinien zur Nutzung von KI verabschiedet, die verantwortliche, sichere und ethische KI-Anwendung fördern sollen. Darin wird betont, dass KI immer den Zielen der Organisation dienen und an europäischen Werten ausgerichtet sein muss, dass Fehler- und Missbrauchsgefahren bewusst gegengesteuert werden und vor allem alle Mitarbeitenden durch Ausprobieren und Lernen befähigt werden sollen, kompetent mitzureden. Anders gesagt: Leitlinien sollen keinen „KI-Stopp“ bedeuten, sondern einen Rahmen, der Experimentieren ermöglicht, ohne die Grundsätze aus den Augen zu verlieren. Diese Philosophie – Sicherheit bieten und Erfahrung ermöglichen – scheint zentral, um KI nachhaltig in die diakonische Arbeit zu integrieren.

Ländervergleich: Schweiz, Deutschland, Österreich, Frankreich

Im internationalen Vergleich zeigen sich bezüglich KI-Strategien und Regulierung interessante Unterschiede und Gemeinsamkeiten. Schweiz: Auf nationaler Ebene verfolgt die Schweiz einen Ansatz, der von Prinzipien der Verantwortung geprägt ist. Der Bundesrat hat bereits 2020 Leitlinien zum Umgang mit KI in der Bundesverwaltung verabschiedet – an erster Stelle steht dort die Maxime, stets den Menschen in den Mittelpunkt zu stellen. Seit dem 1. September 2023 gilt zudem das revidierte Datenschutzgesetz (nDSG), das den Umgang mit Personendaten verschärft. Für die Praxis der Sozialdiakonie bedeuten diese Rahmenbedingungen unter anderem: KI-Einsätze müssen transparent gekennzeichnet werden, Zuständigkeiten klar geregelt sein, Einwilligungen der Betroffenen angemessen eingeholt und Daten nur zurückhaltend verarbeitet werden. Sprich: Datenschutz und ethische Reflexion sind integrale Bestandteile jedes KI-Projekts. Interessant ist, dass in der breiten Bevölkerung ein rapider Nutzungsanstieg zu verzeichnen ist. Der IGEM-Digimonitor 2025 meldet, dass mittlerweile rund 60 % der Schweizer Bevölkerung KI-Tools verwenden – nach etwa 40 % im Vorjahr. Dieser Sprung deutet darauf hin, dass KI hierzulande den Schritt vom reinen Ausprobieren zur systematischen Anwendung geschafft hat. Immer häufiger werden KI-Werkzeuge gezielt im Berufsalltag, im Ehrenamt und in der Bildung eingesetzt. Die Herausforderung besteht nun darin, mit diesem Entwicklungstempo Schritt zu halten und gleichzeitig die beschriebenen Verantwortungsprinzipien hochzuhalten. Die EKS (Evangelisch-reformierte Kirche Schweiz) begleitet diesen Prozess aktiv – etwa durch Weiterbildungsreihen wie «Diakonie und KI» oder durch geplante Leitlinien, die sich aktuell in Erarbeitung befinden (s. o.).

Deutschland: Die Diakonie Deutschland – genauer das Evangelische Werk für Diakonie und Entwicklung – hat bereits 2024 eigene KI-Leitlinien veröffentlicht. Diese Empfehlungen bieten kirchlichen Trägern ein robustes Fundament, um KI-Anwendungen verantwortungsvoll einzuführen. Konkret spannen sie den Bogen von Bias-Prävention (also dem Erkennen und Vermeiden von Verzerrungen in Datensätzen) über Dokumentationspflichten für automatisierte Entscheidungen bis zu Schulungsangeboten für Mitarbeitende. Ergänzend arbeitet die staatliche Datenschutzkonferenz (DSK) an Konkretisierungen: Im Mai 2024 veröffentlichte sie eine Orientierungshilfe «Künstliche Intelligenz und Datenschutz», die den Rechtsrahmen für KI-Systeme erläutert. Insgesamt ist die öffentliche Stimmung in Deutschland offen, aber ambivalent. Umfragen zeigen zwar, dass eine breite Mehrheit der Bürgerinnen und Bürger bereits KI-Dienste nutzt; zugleich bestehen Sorgen über Abhängigkeiten von grossen Anbietern aus den USA oder China. In der Diakonie wird das Thema daher intensiv diskutiert – von Grundsatzpapieren der EKD-Synode bis hin zu praxisnahen Projekten auf Einrichtungsebene. Auffallend ist, dass die EKD auf höchster Ebene Weichen stellt: So hat die Synode der Evangelischen Kirche in Deutschland im November 2025 beschlossen, eine ethisch verantwortete KI-Strategie für die kirchliche Arbeit zu entwickeln, inklusive eines Modellprojekts «Liturgie-Tool» zur automatisierten Gottesdienstvorbereitung. Dieser Beschluss unterstreicht, dass KI in Kirche und Diakonie mittlerweile als strategisches Zukunftsthema betrachtet wird.

Österreich: Die österreichische Bundesregierung hat mit der „Artificial Intelligence Mission Austria 2030“ (AIM AT 2030) bereits 2021 eine nationale KI-Strategie formuliert. Darin wird ein breiter KI-Einsatz zum Gemeinwohl angestrebt, basierend auf europäischen Werten und rechtlichen Vorgaben. Parallel dazu entstanden praxisnahe Leitfäden, um insbesondere Verwaltung und öffentliche Einrichtungen beim KI-Einsatz anzuleiten. Zwei Beispiele sind «Digitale Verwaltung: KI, Ethik und Recht 2.0» sowie der «KI-Kompass» der Stadt Wien, die konkrete Prüffragen, Protokolle und Rollenbeschreibungen für KI-Projekte liefern. Diese Dokumente sind auch für kirchliche und diakonische Organisationen hilfreich – vor allem, wenn sie grenzüberschreitend tätig sind oder öffentliche Gelder nutzen. Ein Blick auf die Wirtschaft verdeutlicht das Tempo des Wandels: Laut Statistik Austria setzte 2024 bereits jedes fünfte Unternehmen mit mindestens zehn Beschäftigten KI ein, während es ein Jahr zuvor erst jedes zehnte war. Dieser Anstieg von ca. 10,8 % (2023) auf 20,3 % (2024) bedeutet nahezu eine Verdoppelung binnen Jahresfrist. Die Unternehmensnutzung von KI in Österreich liegt damit über dem EU-Schnitt. Für diakonische Träger, die oft in einer ähnlichen Grössenordnung wie KMU agieren, sind insbesondere die erwähnten Leitfäden relevant, da sie aufzeigen, wie man KI-Projekte ethisch und rechtlich einbettet. Auch in der Aus- und Weiterbildung tut sich etwas: So haben Fachhochschulen und Verbände vermehrt Schulungsangebote zu KI in der Sozialen Arbeit gestartet, um Professionelle auf die kommenden Veränderungen vorzubereiten.

Frankreich: Unsere westlichen Nachbarn flankieren den europäischen Rechtsrahmen mit spezifischen Orientierungshilfen ihrer Behörden. Die Datenschutzaufsicht CNIL veröffentlichte 2024 erste Empfehlungen zur Einführung generativer KI-Systeme, um die Vereinbarkeit mit der DSGVO und den Persönlichkeitsrechten sicherzustellen. Für Organisationen werden darin u. a. Leitlinien gegeben, wie man rechtmässige Zwecke definiert, Datenminimierung umsetzt, eine Rechtsgrundlage für KI-Anwendungen bestimmt und Datenschutz-Folgenabschätzungen durchführt. Parallel hat die französische Cybersicherheitsbehörde ANSSI einen Katalog mit Sicherheitsanforderungen publiziert, der sich speziell auf den Betrieb generativer KI-Systeme richtet. Darin enthalten sind technische Empfehlungen etwa zur Zugangskontrolle, Protokollierung, Robustheit gegen Manipulation und zum Schutz vor Datenlecks. Kirchliche und diakonische Einrichtungen mit grenzüberschreitender Tätigkeit – beispielsweise Hilfswerke oder Missionsorganisationen, die in Frankreich aktiv sind oder dortige Clouddienste nutzen – können diese Unterlagen gut als Basis für die eigene IT-Governance heranziehen. Generell zeichnet sich europaweit ein Trend ab: Die Nutzung von KI in Unternehmen steigt überall an. Eurostat weist für 2024 einen durchschnittlichen KI-Einsatz von 13,5 % der EU-Unternehmen aus; bei Grossunternehmen sind es sogar rund 41 %. Gleichzeitig nimmt die Zustimmung zu KI am Arbeitsplatz zu, wie Eurobarometer-Umfragen zeigen – allerdings verbunden mit klaren Forderungen nach Aufklärung, Qualifizierung und Regeln, um Befürchtungen entgegenzuwirken. Für die Diakonie in allen Ländern gilt daher: Letztlich entscheidet der organisationale Reifegrad, ob KI als Entlastung wahrgenommen wird oder als Risiko. Wer frühzeitig Kompetenzen aufbaut, transparente Richtlinien einführt und partizipativ über den KI-Einsatz entscheidet, wird die Technologie eher als Segen erleben – wer unvorbereitet bleibt, eher als Quelle neuer Unsicherheit.

Abschliessend lohnt ein Blick auf den Begriff Sozialdiakonie, der in der Schweiz eine besondere Rolle spielt. Sozialdiakonie – verstanden als die professionell ausgeübte Diakonie der Kirche an der Schnittstelle von Kirche und Gesellschaft – umfasst eine Vielfalt an Aufgaben: Sozialdiakoninnen und -diakone begleiten Menschen in Übergangssituationen, stärken Nachbarschaften, qualifizieren Freiwillige und kooperieren mit Schulen, Behörden und sozialen Institutionen. Berufsbild und Mindestanforderungen sind hierzulande schweizweit geregelt; die Konferenz Diakonie Schweiz dokumentiert und entwickelt dieses Feld kontinuierlich weiter. Gerade in dieser Alltagswirklichkeit erweisen sich KI-Werkzeuge als punktuell und sinnvoll integrierbar: etwa als Übersetzungshilfe in Gesprächen mit Migrantinnen, als „Klartext“-Brücke, die amtliche Schreiben in einfachere Sprache überträgt, oder als Recherche-Assistent für Beratende. Wichtig bleibt dabei, was schon mehrfach betont wurde – Transparenz, Einwilligung und Qualitätskontrolle. Die Klientinnen und Klienten sollen stets wissen, wenn KI im Spiel ist; sie müssen dem Einsatz zustimmen, und die Fachpersonen müssen die Ergebnisse der KI kritisch prüfen und verantworten. Dann aber kann Künstliche Intelligenz zu dem werden, was Mavrias und andere Expertinnen darin sehen: ein Werkzeugkasten, der sich an den Menschen ausrichtet und nicht umgekehrt.

Chancen nutzen, Risiken im Blick behalten

Das vierte Modul «Diakonie und KI» hat eindrücklich vor Augen geführt, wie vielfältig die Berührungspunkte von Künstlicher Intelligenz und kirchlich-diakonischer Arbeit bereits sind. Von inklusiven Alltagshelfern über lernende Chatbots bis hin zu digitalen Beratungsangeboten – KI hält Einzug in Arbeitsfelder, die genuin dem Zwischenmenschlichen gewidmet sind. Dabei zeigt sich ein wiederkehrendes Muster: Richtig eingesetzt, vermag KI Fachkräften und Hilfesuchenden tatsächlich spürbare Entlastung zu bringen. Routinetätigkeiten werden beschleunigt, Informationen besser zugänglich gemacht, neue Lernformen eröffnet. Gleichzeitig dürfen die Grenzen und Gefahren nicht übersehen werden. Halluzinierende Antworten, diskriminierende Tendenzen in Datensätzen, mangelnde Transparenz der Entscheidungswege oder schlicht technische Pannen – all das kann im sensiblen Kontext von Seelsorge und Sozialarbeit gravierende Folgen haben. Umso wichtiger ist die Botschaft, die sich durch alle Module der Weiterbildungsreihe gezogen hat: KI braucht „Literacy“ und Governance. Will heissen: Es braucht Kompetenzen auf allen Ebenen, um KI-Ergebnisse zu beurteilen, und es braucht Spielregeln, die den Rahmen des Zulässigen und Sinnvollen abstecken. Die diakonischen Werke in der Schweiz, in Deutschland und andernorts haben diesen Auftrag erkannt. Sie investieren in Weiterbildung, entwickeln Leitlinien und suchen den innerkirchlichen Dialog darüber, wie Technologie im Dienst der Nächstenliebe gestaltet werden kann. Spiro Mavrias’ Workshop lieferte hierzu wertvolle Denkanstösse und praktische Beispiele. Die Teilnehmenden – Fachpersonen, Leitende und Freiwillige gleichermassen – gingen mit dem Eindruck auseinander, dass KI in der Diakonie weder Heilsbringer noch Schreckgespenst ist, sondern vor allem eines: eine Gestaltungsaufgabe für die kommenden Jahre.

Nach vier Online-Modulen mündet die Reihe «Diakonie und KI» nun in eine Abschlussveranstaltung: Am 21. Januar 2026 werden sich in Bern verschiedene Referierende und weitere Gäste in einer Podiumsdiskussion den offenen Fragen widmen und die zentralen Erkenntnisse bündeln. Dabei dürfte sich zeigen, dass viele Impulse aus Mavrias’ Praxisbeispielen bereits aufgegriffen wurden. Die Diakonie steht am Anfang eines Lernprozesses, doch die Richtung ist klar: Technik soll dem Menschen dienen – und mit kluger Nutzung kann Künstliche Intelligenz einen Beitrag leisten, die kirchlich-diakonische Praxis zu stärken, ohne deren Kern zu verfälschen. Oder, um es mit einem knappen Leitmotiv zu sagen: KI in der Diakonie entfaltet dort ihren Wert, wo sie den Menschen in den Mittelpunkt stellt und menschliches Handeln unterstützt. Genau dieses Verständnis gilt es weiter zu schärfen.