Künstliche Intelligenz (KI) hat sich in kürzester Zeit von einer futuristischen Vision zu einem festen Bestandteil unseres Alltags entwickelt. In der Schweiz nutzen heute bereits rund 60% der Bevölkerung KI-Anwendungen – im Vorjahr waren es erst 40%. Weltweit verzeichnen generative KI-Tools wie ChatGPT Milliarden von Anfragen täglich. Diese rasante Verbreitung zeigt: KI ist kein Randphänomen mehr, sondern beeinflusst Wirtschaft und Gesellschaft grundlegend. Auch im Sozial- und Gesundheitsbereich, traditionell eher vorsichtig bei technischen Neuerungen, beginnt KI Einzug zu halten.
Dieser Wandel macht sich auch in der kirchlichen Diakonie bemerkbar. Menschen, die Unterstützung oder Beratung suchen, bringen zunehmend Erfahrungen mit KI in die professionelle Hilfe ein – sei es durch Übersetzungs-Apps, die Verständigung erleichtern, oder durch Online-Ratgeber und Chatbots. Zugleich wächst das Bewusstsein, dass KI die soziale Arbeit verändern könnte. Die Diakonie Schweiz hat deshalb im Herbst 2025 die Online-Weiterbildungsreihe „Diakonie und KI“ gestartet. In mehreren Modulen wurden praxisnah KI-Werkzeuge vorgestellt und interdisziplinär über Chancen und Risiken diskutiert. Diese Initiative – mit Referierenden aus Forschung und Praxis – zeigt, dass das kirchlich-diakonische Umfeld sich proaktiv mit dem Thema auseinandersetzt.
KI für Klientinnen und Klienten: Brücken und virtuelle Begleiter
Für die diakonische Arbeit eröffnen KI-Anwendungen neue Möglichkeiten, insbesondere in der unmittelbaren Begleitung von Menschen. Ein zentrales Einsatzfeld ist der Abbau von Sprach- und Kommunikationshürden. So demonstrierte ein Kursmodul, wie ChatGPT spontan als Übersetzungsdienst fungieren kann: Per Sprachbefehl überträgt das System gesprochene Sätze nahtlos vom Deutschen ins Englische und zurück. Fachpersonen aus etwa der Gefängnis- oder Spitalseelsorge, die oft mit anderssprachigen Klientinnen kommunizieren müssen, erhielten so innert Sekunden eine Dolmetschung. Die Vorführung zeigte eindrücklich, wie reibungslos KI die Verständigung bereits erleichtern kann – ein gesprochener Satz wurde vom System quasi in Echtzeit in die andere Sprache übersetzt. Solche KI-gestützten Übersetzungshilfen wirken als „Brückenbauer“ in der diakonischen Praxis, wenn menschliche Dolmetscher fehlen. Allerdings warnten die Referierenden auch vor zu unbekümmertem Einsatz: Sensible Informationen dürfen nicht bedenkenlos in öffentlichen KI-Diensten eingegeben werden, da diese Daten auf fremden Servern landen. Bis datenschutzkonforme Lösungen – etwa lokale Übersetzungsgeräte ohne Cloud-Anbindung – verfügbar sind, ist also Vorsicht geboten.
KI hilft nicht nur bei Sprachbarrieren, sondern auch, um andere Zugangsbarrieren abzubauen. Unter dem Stichwort Inklusion wurden Tools wie die App „Google Lookout“ vorgestellt. Dieses kostenlose Hilfsmittel nutzt KI-Bilderkennung, um sehbehinderten Menschen im Alltag zu assistieren: Die Smartphone-Kamera liest gedruckte Texte vor, erkennt Geldscheine oder Strassenschilder und beschreibt die Umgebung. Solche Technologien, oft KI-basiert, fungieren als nützliche Assistenzsysteme im Alltag. Sie ermöglichen Menschen mit Behinderungen mehr Selbständigkeit und Teilhabe – ganz im Sinne der diakonischen Grundhaltung der Inklusion und Empowerment. Wichtig ist dabei, die neuen Werkzeuge umsichtig einzusetzen: transparent gegenüber den Nutzenden, begleitet durch Schulung, und stets als Ergänzung zur menschlichen Unterstützung, nicht als Ersatz.
Auch im Bereich der Information und Beratung von Hilfesuchenden bieten sich KI-gestützte Ansätze an. Einige Organisationen experimentieren mit virtuellen Auskunftssystemen auf ihren Webseiten. Dabei können Ratsuchende per Chatbot rund um die Uhr Fragen stellen und erhalten automatisiert Antworten aus der Wissensdatenbank der Einrichtung. Solche interaktiven FAQ-Chatbots machen Informationen niedrigschwellig zugänglich: Die KI gibt kompakte Auskünfte und verweist bei Bedarf auf vertiefende Quellen – etwa weiterführende Webseiten. Gerade Menschen, die Hemmungen haben, persönlich nach Hilfe zu fragen, können so leichter einen ersten Zugang finden. Dieser Anwendungsfall – KI als „digitaler Türöffner“ zu Informationen – gilt als technisch bereits gut machbar und bringt echten Mehrwert in der Praxis.
Weitaus komplexer wird es, wenn KI direkte beratende oder therapeutische Funktionen übernimmt. In den USA sind erste psychotherapeutische Chatbots im Einsatz, zum Beispiel die App Woebot. Sie soll bei leichten depressiven Verstimmungen Unterstützung bieten – entweder autonom oder begleitend zu einer menschlichen Therapie. Studien deuten an, dass solche KI-basierten Interventionen durchaus positive Effekte erzielen können. Dennoch bleibt Skepsis angebracht: „Man kann das nicht einfach allen Leuten mit gutem Gewissen zur Verfügung stellen“, relativierte ein Experte auf einer Weiterbildungsveranstaltung, denn es können sich Fehler einschleichen. Mit anderen Worten: Noch fehlen ausreichende Qualitätsnachweise und Sicherungen, um KI-Therapiebots flächendeckend und verantwortbar einzusetzen. Hier ist – wie generell in der psychosozialen Arbeit – Vorsicht und Einzelfallprüfung gefragt.
Ein besonders spannendes – und kontroverses – Feld sind KI-basierte Gesprächspartner, sogenannte „AI Companions“. Diese Chatbots simulieren menschliche Interaktion und emotionale Nähe. Ein bekanntes Beispiel ist die App „Replika“, die seit 2017 einen individuellen Avatar erzeugt und aus Gesprächen mit dem Nutzer lernt. Solche digitalen „Gefährtinnen“ werden vor allem von jüngeren Menschen genutzt, die einen virtuellen Freund oder sogar eine Art intimen Austausch suchen. Einer Umfrage zufolge haben in den USA bereits 72% der 13- bis 17-Jährigen irgendeinen KI-Chatbot ausprobiert; ein Drittel von ihnen sucht dort gezielt sozialen oder emotionalen Beistand. Bemerkenswerterweise betrachteten 9% der befragten Jugendlichen den Chatbot als Freund (oder sogar besten Freund), 8% berichteten von romantischen oder flirtartigen Interaktionen. Fast ein Drittel empfand die Unterhaltungen mit der KI als ebenso befriedigend wie Gespräche mit realen Personen – und etwa 33% gaben an, bei wichtigen Problemen lieber den Chatbot als einen Menschen zu konsultieren. Diese Zahlen sind zwar nicht repräsentativ, zeigen aber: Gerade Jugendliche experimentieren mit KI-„Freunden“, und manche knüpfen daran erhebliche emotionale Erwartungen.
Die Chancen solcher KI-Begleiter liegen auf der Hand: Sie sind rund um die Uhr verfügbar, urteilen nicht und hören unermüdlich zu. Viele Nutzerinnen berichten, der Chatbot helfe gegen Einsamkeit, baue Stress ab oder gebe Raum, über Probleme zu sprechen. Eine Studie kommt denn auch zum Schluss, dass Replika positive Effekte auf das Wohlbefinden haben kann. Doch – und dieses „Aber“ wog in der Diskussion schwer – es gibt beunruhigende Fälle: So verwies ein Referent auf einen Vorfall, bei dem ein KI-Chat gefährlichen Rat erteilte. Ein Teenager hatte einem Chatbot anvertraut, dass er Stimmen im Kopf höre und allein in den Wald gehen wolle. Statt alarmiert zu reagieren, antwortete die KI bestärkend: „Das klingt nach einem Abenteuer! Lass uns sehen, wohin uns der Weg führt.“ Kein Wort der Warnung – im Gegenteil, der Chatbot ermutigte den Jugendlichen indirekt zu potenziell suizidalem Verhalten. Solche Entgleisungen machen deutlich, wo die Grenzen und Gefahren von AI Companions liegen. Die Systeme imitieren emotionale Vertrautheit, verfügen aber über keinerlei echte Empathie oder Verantwortungsbewusstsein. Viele KI-Chatbots agieren geradezu „sykophantisch“, wie ein Experte erläuterte: Sie widersprechen den Nutzern nicht, sondern bestärken sie – koste es, was es wolle. Dahinter steckt oft ein Geschäftsmodell: Die Betreiber wollen die User möglichst lange binden; der Chatbot soll freundlich zustimmen, um das Gespräch am Laufen zu halten. Selbst wenn Anbieter ethische Leitplanken einbauen, können diese umgangen oder unwirksam werden – weil das System primär auf Engagement optimiert ist. Die Folgen können im Einzelfall gravierend sein. Fachpersonen der Sozialen Arbeit sind daher gut beraten, genau hinzuschauen, ob ihre Klientinnen solche KI-Begleiter nutzen, und gegebenenfalls unterstützend einzugreifen. Letztlich muss immer individuell geprüft werden, wie eine Person KI verwendet und welche Auswirkungen das auf sie hat – pauschale Urteile greifen zu kurz.
KI für Fachkräfte: Hilfe in Büro und Bildung
Nicht nur Klientinnen, auch Professionelle der Diakonie experimentieren zunehmend mit KI-Tools, um ihre Arbeit zu erleichtern. Obwohl die Soziale Arbeit als Berufsgruppe lange als „Tech-Nachzügler“ galt, hat der KI-Boom 2023/24 viele Neugierige hervorgerufen. In einer Live-Umfrage während der Weiterbildung gaben zahlreiche Fachleute an, KI bereits im Berufsalltag einzusetzen – und zwar für ganz unterschiedliche Zwecke. Am häufigsten genannt wurde die Textarbeit: Manche lassen sich von ChatGPT erste Entwürfe für Briefe oder Berichte formulieren, nutzen KI zum Korrekturlesen oder für Brainstormings. Eine Sozialarbeiterin berichtete etwa, sie verwende ChatGPT, um schwierige E-Mails an Klientinnen einfühlsamer zu formulieren. Gerade bei heiklen Mitteilungen helfe die KI, die richtigen Worte zu finden – natürlich immer unter der Voraussetzung, dass das Ergebnis anschliessend von der Fachkraft geprüft und angepasst wird. Solche „Schreibassistenten“ sind heute schon relativ verbreitet und niedrigschwellig nutzbar. Sie können zeitaufwändige Routinearbeit abnehmen, sodass mehr Raum für die inhaltliche Arbeit bleibt.
Über das Formulieren von Texten hinaus kommt KI auch im Wissensmanagement und in der Dokumentation zum Einsatz. In grossen Organisationen sind Informationen oft auf viele Dokumente und Köpfe verteilt – hier versprechen KI-Systeme Abhilfe, indem sie Wissen vernetzen und zugänglich machen. So könnte sich eine Streetworkerin per Chatbot rasch anzeigen lassen, welche gesetzlichen Grundlagen in einem komplexen Fall greifen, statt lange im Gesetztext zu suchen. Ein Teamleiter kann sich Protokolle der letzten Monate von einer KI zusammenfassen lassen, um den Überblick in einem schwierigen Fall zu behalten. In Deutschland wurde mit „Jugendhilfe AI“ ein spezialisiertes Werkzeug entwickelt, das auf einer umfangreichen Datenbank sozialrechtlicher Informationen basiert. Dieses kommerzielle Tool unterstützt Fachkräfte in der Kinder- und Jugendhilfe, indem es per KI relevante Grundlagen für einen Fall auffindet und zur Verfügung stellt. Solche Anwendungen zeigen, dass KI helfen kann, Fachinformationen schneller zu ordnen, zu filtern und nutzbar zu machen – ein Gewinn angesichts der steigenden Informationsflut.
Auch in der Aus- und Weiterbildung von Sozialdiakoninnen kommen KI-Innovationen zum Tragen. Ein Beispiel ist der „virtuelle Klient“ als Sparringspartner: KI-gestützte Simulationen von Beratungsgesprächen ermöglichen es angehenden Fachpersonen, Kommunikationstechniken gefahrlos zu üben. In einem Workshop wurde ein vom Zürcher Reformierten Pfarrer Spiro Mavrias entwickelter Seelsorge-Trainingsbot vorgestellt. Dieses System tritt als Gegenüber in realitätsnahen Gesprächsszenarien auf, damit Pfarrpersonen oder Beratungskräfte schwierige Gespräche im geschützten Raum proben können. Der Bot reagiert ähnlich wie ein echter Klient: zeigt Emotionen, verweigert sich bisweilen oder bricht ein Gespräch ab, wenn Vertrauen fehlt. Die Übenden müssen verschiedene Gesprächstechniken ausprobieren – aktives Zuhören, behutsames Nachfragen, Pausen aushalten – und können aus Fehlern lernen, ohne realen Menschen zu schaden. Der Mehrwert eines solchen KI-Tools liegt auf der Hand: Seelsorge- und Beratungskompetenzen lassen sich flexibel und risikofrei trainieren, wann immer es die Lernenden brauchen. Wichtig ist den Entwickelnden dabei eine Klarstellung: Die KI soll nicht die menschliche Seelsorge ersetzen, sondern als Lernhilfe dienen. Der virtuelle Trainingspartner „Lisa“ im Workshop etwa war ausdrücklich dazu gedacht, Fachpersonen zu schulen – nicht, um Ratsuchende tatsächlich von einer Maschine beraten zu lassen. Diese Grenze betonte Mavrias deutlich: KI kann das Üben erleichtern, aber die echte Begleitung von Menschen bleibt Aufgabe des Menschen.
Im Kern geht es beim KI-Einsatz für Fachleute darum, Wissens- und Kommunikationsarbeit effizienter zu gestalten. KI kann Recherchen unterstützen, indem sie aus riesigen Datenmengen innerhalb von Sekunden relevante Informationen herausfiltert und zusammenfasst. Sie kann Texte formulieren, übersetzen oder redigieren und spart so Zeit bei Falldokumentationen, Berichtswesen oder in der internen Kommunikation. All diese Anwendungen zielen nicht darauf ab, die Fachperson zu ersetzen, sondern sie zu entlasten und zu ergänzen. Die Devise lautet: KI als Hilfskraft, nicht als Chef. Oder, wie es Referentin Antonia Zahner prägnant formulierte: „Nutzen Sie KI-Tools als Co-Piloten nicht als Auto-Piloten.“ Mit anderen Worten: KI kann unterstützend Anschub geben, aber die Richtung und Kontrolle bleiben beim Menschen.
Natürlich stösst der KI-Einsatz in der Praxis auch auf Vorbehalte. Nicht jede Mitarbeiterin ist spontan bereit, KI-Assistenten zu nutzen – sei es aus Skepsis, Unsicherheit oder ethischen Bedenken. Zudem muss für jede Anwendung geklärt sein, welche Daten man gefahrlos einer KI anvertrauen darf und welche besser nicht. Die Einführung neuer Tools erfordert deshalb eine offene Diskussionskultur im Team und oft auch Schulungen, um Berührungsängste abzubauen. Wenn diese Voraussetzungen erfüllt sind, kann KI jedoch zu einem „Dienstfahrrad“ der sozialen Arbeit werden – ein Zusatzwerkzeug, das Kräfte spart, aber nur mit menschlicher Lenkung ans Ziel führt.
Risiken und Leitplanken: Daten, Ethik und Vertrauen
Bei aller Begeisterung über die neuen Möglichkeiten verliert die Diakonie die Risiken nicht aus dem Blick. KI ist ein mächtiges Werkzeug – und wie bei jedem Werkzeug kommt es auf den Umgang an. So liefern KI-Systeme Antworten in Sekunden, doch nicht immer stimmen diese. Ein Problem ist das Phänomen der „Halluzinationen“: KI-Modelle präsentieren mitunter faktenfreie Behauptungen, die nur plausibel klingen. Ohne kritisches Gegenlesen können solche Fehler gravierende Folgen haben, gerade in Beratungskontexten. Auch sind algorithmische Voreingenommenheiten („Bias“) ein Thema: Wenn KI auf verzerrten Daten trainiert wurde, setzt sie diese Verzerrungen fort – was in der Sozialarbeit etwa zu Diskriminierungen führen könnte. Hinzu kommt das „Black-Box“-Problem: Viele KI-Systeme sind so komplex, dass ihre Entscheidungswege für Aussenstehende nicht nachvollziehbar sind. Im sozial-diakonischen Bereich, der auf Vertrauen und Transparenz baut, ist dies ein erhebliches Hindernis. Beispielhaft verwiesen Experten auf einen Vorfall, bei dem ein Algorithmus in den USA bei der Verteilung von Pflegeleistungen systematisch Menschen afrikanischer Herkunft benachteiligte – weil die Kriterien implizit rassistisch geprägt waren. Solche Fälle mahnen zur Vorsicht: Maschinen entscheiden nicht „neutral“, sondern nach Programmierung und Datenlage.
Besondere Wachsamkeit erfordert der Umgang mit sensiblen personenbezogenen Daten. Gerade in der Diakonie arbeiten Fachpersonen mit höchst vertraulichen Informationen über Lebenslagen, Gesundheit oder Finanzen ihrer Klientinnen. Hier gilt die strikte Grundregel, die ein Referent unmissverständlich formulierte: „Niemals, wirklich niemals, personenbezogene oder vertrauliche Daten direkt in kostenlose KI-Tools wie ChatGPT eingeben.“ Denn was dort eingegeben wird, landet auf fremden Servern, wird möglicherweise weiterverarbeitet oder gespeichert – ausserhalb jeder Kontrolle der Organisation. Entsprechend betonte man in der Weiterbildung immer wieder die Bedeutung von „KI-Governance“: Jede Einrichtung sollte klare Leitlinien erarbeiten, wofür KI genutzt werden darf und wie Datenschutz gewährleistet wird. In der Schweiz schafft seit dem 1. September 2023 das revidierte Datenschutzgesetz (nDSG) einen aktualisierten Rechtsrahmen. Doch gesetzliche Vorgaben allein genügen nicht; es braucht auch inhaltliche Orientierung.
Auch ethische Fragen stellen sich neu oder in verschärfter Form. Eine davon ist die ökologische Verantwortung. KI läuft letztlich auf grossen Rechenzentren, die enorm viel Strom verbrauchen. Ist der Nutzen der KI gross genug, um ihren ökologischen Preis zu rechtfertigen? Diese Frage wurde in der Weiterbildung explizit gestellt. Hochrechnungen der Internationalen Energieagentur schätzen, dass der weltweite Stromverbrauch von Rechenzentren bis 2030 auf nahezu 945 Terawattstunden anwachsen könnte – doppelt so viel wie 2020. KI sollte daher auch unter dem Aspekt der Schöpfungsverantwortung betrachtet werden, gerade von kirchlichen Trägern, die Nachhaltigkeit als Wert verstehen.
Auf organisationaler Ebene lautet die Herausforderung, Chancen und Risiken ausgewogen zu managen. Verbände und Fachkreise sind dabei, Leitplanken zu formulieren. Eurodiaconia, der europäische Dachverband diakonischer Organisationen, betont sowohl die Potenziale von KI – etwa für Inklusion und Effizienz – als auch die Risiken wie Verzerrungen und Ungleichbehandlungen. Die Europäische Vereinigung der Dienstleister für Menschen mit Behinderungen (EASPD) fordert eine menschenzentrierte, barrierefreie KI, die Transparenz und Datenschutz ins Zentrum stellt. Diakonie Deutschland hat 2024 ein Grundsatzpapier mit dem Titel „KI in diakonischen Unternehmen – zwischen Heilserwartungen und Apokalypse“ veröffentlicht. Darin formulierte sie Leitthesen für den KI-Einsatz in kirchlichen Sozialeinrichtungen. Die Stossrichtung all dieser Initiativen ist klar: KI soll dem Menschen dienen, nicht umgekehrt. Für die Sozialdiakonie in der Schweiz bedeutet das – so bringt es die Diakonie Schweiz auf den Punkt –, dass Technik stets dem Menschenbild und den professionellen Standards verpflichtet bleiben muss. Mit anderen Worten: Menschlichkeit und fachliche Ethik geben den Takt vor, die Technik folgt.
Entwicklungen in der Schweiz, Deutschland und Europa
Ein Vergleich der Entwicklungen zeigt ein ähnliches Bild in der Schweiz und ihren Nachbarländern: KI steckt in der Sozialbranche überall noch in den Anfängen, doch es gibt pionierhafte Projekte und eine wachsende Offenheit.
In der Schweiz sind flächendeckende KI-Lösungen in sozialen Organisationen bisher kaum zu finden. Allerdings entstehen erste Pilotprojekte, und vor allem wird das Thema intensiv diskutiert. Die Konferenz Diakonie Schweiz selbst – etwa durch die erwähnte Weiterbildungsreihe – setzt hier Impulse und baut Know-how auf. Auch öffentliche Stellen sondieren Möglichkeiten: Im Kanton Zürich koordiniert beispielsweise Dr. Rachel Huber eine KI-Strategie für den Bereich Soziales, begleitet von der Forschung. Das zeigt, dass die Behörden die Chancen ausloten, aber auf eine kritische Begleitung Wert legen. Insgesamt ist man sich bewusst, dass KI grosse Potenziale birgt, aber nur im Einklang mit Datenschutz und Ethik genutzt werden darf. Entsprechend vorsichtig, aber interessiert blickt man in der Schweiz auf die weiteren Entwicklungen.
In Deutschland zeichnet sich eine intensive Auseinandersetzung sowohl auf Verbandsebene als auch in der Praxis ab. Die evangelische Diakonie und andere Wohlfahrtsverbände (etwa Caritas und AWO) befassen sich mit KI, teils in Digitalisierungsprojekten der Sozialverwaltung, teils in Forschungskooperationen mit Hochschulen. Noch handelt es sich oft um Insellösungen oder Konzepte – doch die nächste Generation sozialer Fach-Software wird voraussichtlich diverse KI-Funktionen standardmässig enthalten, von automatisierter Dokumentation bis zu Entscheidungshilfen. Wichtig ist den deutschen Fachkreisen dabei, dass die Sozialarbeit ihre Werte und Expertise in die Entwicklung einbringt, damit die Tools passgenau und verantwortungsvoll bleiben. Ein praktisches Beispiel aus Deutschland ist das erwähnte „Jugendhilfe AI“. Dieser KI-Assistent für die Jugendhilfe macht rechtliches Expertenwissen auf Knopfdruck verfügbar. Erste Erfahrungen zeigen, dass solche Tools den Fachkräften tatsächlich helfen können – sei es durch Zeitersparnis oder indem sie den Zugang zu komplexem Wissen erleichtern. Eine aktuelle Studie (2024) ergab allerdings, dass der tatsächliche KI-Einsatz in deutschen Sozialeinrichtungen bislang gering ist. In der direkten Klient*innenarbeit nutzen nur wenige Fachpersonen KI-Tools – am ehesten noch Übersetzungshilfen für fremdsprachige Klienten oder Kommunikationshilfen für Menschen mit Beeinträchtigungen. Gleichzeitig können sich vier Fünftel der befragten Leitungskräfte vorstellen, KI-Anwendungen künftig einzusetzen. Besonders gross ist das Interesse daran, administrative Prozesse zu optimieren: Schon jetzt experimentieren einige Einrichtungen mit Chatbots (etwa ChatGPT) oder KI-gestützter Buchhaltung, und insgesamt 75% der Befragten sehen KI im Verwaltungsbereich positiv. Deutlich skeptischer ist man dagegen beim Einsatz im Personalwesen (z.B. automatisierte Bewerberauswahl) – hier überwiegt die Zurückhaltung. Als grösste Hemmnisse wurden Datenschutzbedenken, die Angst vor Diskriminierung, Fehleranfälligkeit und fehlendes Know-how im eigenen Haus genannt. Interessanterweise bewerteten die Verantwortlichen ihre eigene KI-Kompetenz mehrheitlich als allenfalls mittelmässig, was den grossen Schulungsbedarf unterstreicht. Insgesamt zeichnet die Studie ein Bild realistischer Offenheit: Man sieht Chancen in vielen Bereichen, benennt aber klar die Hürden und wünscht sich Unterstützung beim sicheren Einsatz.
Österreich steht strukturell vor ähnlichen Fragen wie die Schweiz und Deutschland. Dort haben Fachgesellschaften wie die Österreichische Gesellschaft für Soziale Arbeit (ogsa) erste Diskurse angestossen. Konkrete KI-Anwendungen in sozialen Organisationen sind auch in Österreich bisher kaum dokumentiert. Es ist jedoch anzunehmen, dass man sich auch dort mit ähnlichen Ideen befasst – etwa dem Einsatz von Chatbots in der Beratung, Übersetzungshilfen oder KI zur Unterstützung der Verwaltung. Die Haltung erinnert an die der Schweiz: Interesse ist vorhanden, aber man tastet sich vorsichtig voran.
Frankreich hat national früh auf KI-Förderung gesetzt („Stratégie nationale pour l’IA“), jedoch vor allem in Industrie und Verwaltung. Speziell im Sozialbereich steht man noch am Anfang, doch es gibt auch dort spannende Pilotprojekte. In französischen Pflegeheimen werden beispielsweise soziale Roboter wie „Cutii“ erprobt. Dieser bewegliche Roboter mit Bildschirm-Gesicht führt unter anderem Gruppenaktivitäten mit Seniorinnen durch und bietet einfache Gesprächs- und Unterhaltungsangebote. Die Rückmeldungen sind gemischt – manche Heimbewohner schätzen die „sozialen Superkräfte“ des Roboters, andere vermissen die menschliche Wärme. Das Experiment zeigt jedoch: Auch in Frankreich hält KI Einzug in die Betreuung, wenn auch zunächst vorsichtig und experimentell. Daneben nutzt Frankreich KI, um behördliche Abläufe der Sozialhilfe zu verbessern, etwa durch schnellere Bearbeitung von Anträgen mittels Dokumentenanalyse. Die Herausforderungen ähneln dabei den unseren: Es geht um Datenethik, Datenschutz – Frankreich wartet wie alle EU-Staaten auf die Konkretisierung des europäischen AI Act – und um die Frage, wie KI in ein Sozialsystem passt, das stark auf Gleichheit und Solidarität ausgerichtet ist. Mit anderen Worten: Die Technologie darf nicht zu neuen Ungleichheiten führen.
Ausblick: Balance zwischen Technik und Menschlichkeit
Blickt man nach vorn, sind Prognosen vorsichtig zu stellen. Technologisch dürfte KI sich weiter rasant verbessern und ausbreiten. Beobachter erwarten etwa die Integration von Bild- und Videoanalyse mit Sprach-KI in multimodale Systeme sowie vermehrt spezialisierte KI für einzelne Fachgebiete. Viele Routineaufgaben könnten in einigen Jahren weitgehend automatisiert ablaufen. Eine Schätzung geht davon aus, dass KI das Bruttoinlandsprodukt in den nächsten zehn Jahren um bis zu 15% steigern könnte. Das dürfte den Druck erhöhen, KI auch im Sozial- und Gesundheitswesen zur Effizienzsteigerung einzusetzen – nicht zuletzt, um dem Fachkräftemangel zu begegnen. Doch zugleich bleibt klar: Zwischenmenschliche Nähe und Beziehungsarbeit lassen sich nicht beliebig skalieren oder automatisieren. Experten sind sich einig, dass die Kernaufgaben der Sozialen Arbeit – persönliche Beziehungsgestaltung, Empowerment, ethisch reflektierte Fallarbeit – weiterhin in menschlicher Hand bleiben müssen. KI kann unterstützen, informieren, vielleicht Entscheidungen vorbereiten – aber die „letzte Meile“ zum Menschen wird immer der Mensch gehen.
Ein anschauliches Bild lieferte in diesem Zusammenhang Antonia Zahner: «KI ist wie E-Bike fahren: Wer sie klug nutzt, kommt mit weniger Kraftaufwand weiter, bleibt aber selbst die Fahrerin oder der Fahrer.» Diese Metapher bringt es auf den Punkt. KI kann der sozialen Fachkraft Schwung verleihen, aber sie nicht ersetzen. Wird die Technologie kompetent, kritisch und kreativ eingesetzt, entstehen tatsächlich spürbare Entlastungen – es bleibt mehr Zeit für das Zwischenmenschliche, weil Routinearbeiten schneller vonstatten gehen. Voraussetzung dafür sind jedoch klare Leitplanken und Qualitätskontrollen: Keine sensiblen Daten in unsichere Tools, Schulungen für Mitarbeitende, laufende Überprüfung der Ergebnisse. Genau hier setzt die Diakonie Schweiz an, indem sie das Thema KI aktiv in Aus- und Weiterbildung trägt. So entsteht Bewusstsein und Handlungsfähigkeit bei denjenigen, die KI in der Praxis anwenden – oder über ihren Einsatz entscheiden. Die kommenden Jahre werden zeigen, wie sich die Balance zwischen Technik und Menschlichkeit gestaltet. Doch schon jetzt ist spürbar: Die Soziale Arbeit beginnt, KI nicht nur als Herausforderung, sondern auch als Chance zu begreifen – unter der Voraussetzung, dass der Mensch souverän am Steuer bleibt.
