Künstliche Intelligenz (KI) hat sich innerhalb kurzer Zeit von einer exotischen Zukunftsvision zu einem festen Bestandteil des Alltags entwickelt. In der Schweiz nutzen inzwischen 60 Prozent der Bevölkerung KI-Tools, während es im Vorjahr erst 40 Prozent waren. Weltweit verzeichnen generative KI-Anwendungen beeindruckende Kennzahlen: ChatGPT verarbeitet täglich rund 2,5 Milliarden Anfragen, und Tech-Giganten wie OpenAI, Meta oder X.AI planen Investitionen in Billionenhöhe. Diese Dynamik macht deutlich, dass KI kein Randphänomen mehr ist, sondern ökonomisch und gesellschaftlich bereits erheblich Einfluss nimmt. KI wird dabei als General Purpose Technology verstanden – vergleichbar mit der Elektrifizierung, da sie prinzipiell in allen Lebens- und Arbeitsbereichen einsetzbar ist.
Auch für die Soziale Arbeit ist KI längst keine ferne Zukunft mehr, sondern beginnt, den sozialarbeiterischen Alltag zu durchdringen. Generative KI ist keine Zukunftstechnologie mehr, sondern bereits eine Gegenwartstechnologie, wie der Sozialarbeitsforscher Joshua Weber betont. Anwendungen künstlicher Intelligenz übernehmen heute Aufgaben, die früher als Domäne des Menschen galten. So finden KI-Systeme Verwendung als eigenständige Beratungsinstanzen, simulieren also z.B. therapeutische Gespräche, automatisieren administrative Prozesse oder unterstützen Entscheidungen in der Sozialen Arbeit – etwa bei der Einschätzung von Rückfallrisiken oder Kindeswohlgefährdungen. Dass Maschinen solche genuin „menschlichen“ Tätigkeiten ausführen, ist ein Novum. KI-Tools dringen „ins Zentrum des menschlichen Selbstverständnisses vor“, wie es der Technikphilosoph Mainzer formuliert. Mit anderen Worten: KI imitiert kognitive Fähigkeiten und trifft Entscheidungen in Bereichen, die eng mit menschlicher Wahrnehmung, Urteilskraft und Beziehungsgestaltung verbunden sind. Entsprechend wächst der Bedarf, diese Technologien im sozialen Sektor sorgfältig einzuordnen – fachlich fundiert und ethisch reflektiert.
Vor diesem Hintergrund widmete sich das dritte Modul der Weiterbildungsreihe „Diakonie und KI“ der Konferenz Diakonie Schweiz dem Thema KI in der Sozialen Arbeit. Die Referenten Dominik Tschopp und Joshua Weber (Hochschule für Soziale Arbeit FHNW) sowie Dr. Rachel Huber (Kanton Zürich/Universität Bern) beleuchteten aus unterschiedlichen Perspektiven aktuelle KI-Anwendungen, konkrete Praxisbeispiele und die damit verbundenen Chancen und Risiken. Ihre Beiträge zeigten praxisnah, wie KI bereits heute auf verschiedenen Ebenen im sozial-diakonischen Feld eingesetzt wird – und wo Vorsicht geboten ist. Im Folgenden werden die wichtigsten Erkenntnisse journalistisch verdichtet und in den fachlichen Kontext eingeordnet.
Drei Ebenen: KI für Adressatinnen und Adressaten, Fachkräfte und Organisationen
Tschopp und Weber gliederten das weite Feld der KI-Nutzung in der Sozialen Arbeit anhand eines einfachen Dreiecksmodells. Die drei Ecken stehen für die Adressat*innen (die Klientel der Sozialen Arbeit), die Professionellen (Sozialarbeitende und weitere Fachkräfte) sowie die Organisationen (Behörden, Träger, Einrichtungen). KI-Anwendungen lassen sich diesen Ebenen zuordnen – und an den Kanten des Dreiecks auch in die Interaktionen zwischen Klientinnen, Fachkräften und Organisationen einbetten. Dieses Modell macht sichtbar, wo überall KI heute bereits eine Rolle spielt oder spielen kann. Die Referenten hoben dabei ausdrücklich hervor, dass die folgenden Beispiele keinen Anspruch auf Vollständigkeit erheben. Sie zeigen aber die beeindruckende Vielfalt der Einsatzfelder, die sich aktuell abzeichnet.
Adressat*innen: KI in der Lebenswelt der Klientel
Für die Adressatinnen und Adressaten Sozialer Arbeit – also jene Menschen, die Unterstützung oder Beratung suchen – ist KI längst Teil ihrer Lebenswelt. Viele Klientinnen nutzen dieselben KI-Angebote wie die Allgemeinbevölkerung und bringen diese Erfahrungen mit in die professionelle Hilfe. Das kann neue Chancen der Inklusion, aber auch neue Risiken der Exklusion mit sich bringen. Wer etwa keinen Zugang zu digitalen Ressourcen hat, könnte gegenüber anderen benachteiligt werden. Umgekehrt eröffnen bestimmte KI-Anwendungen gerade Menschen mit Beeinträchtigungen zusätzliche Teilhabechancen: So erleichtern Sprachassistenz und Barrierefreiheits-Tools blinden, gehörlosen oder lernbeeinträchtigten Menschen den Zugang zu Informationen, indem sie gesprochene Sprache in Text umwandeln (und umgekehrt) oder Texte in Leichte Sprache übersetzen. Solche Accessibility-Technologien, oft KI-basiert, dienen Adressatinnen im Alltag als nützliche Assistenzsysteme.
Ein weiterer Aspekt ist die Online-Selbsthilfe: Schon lange nutzen Ratsuchende Internetforen, soziale Medien oder spezialisierte Websites, um sich gegenseitig zu unterstützen. Nun kommt KI als neues Element hinzu. Beispielsweise ermöglichen neuartige Chatbot-Plattformen von Organisationen, dass Ratsuchende auf deren Webseiten per KI-Chat Fragen stellen und automatisiert Antworten aus der Wissensdatenbank der Organisation erhalten. Solche virtuellen Auskunftssysteme – quasi interaktive FAQ-Chatbots – können Informationen niedrigschwellig zugänglich machen. Die KI liefert hier kompakte Antworten und verweist bei Bedarf auf weiterführende Quellen, etwa die entsprechenden Unterseiten der Webseite. Dieser Anwendungsfall (KI als Zugang zu Informationen) gilt als technisch bereits gut machbar und bietet echten Mehrwert.
Komplexer wird es, wenn KI beratende oder therapeutische Funktionen übernimmt. In den USA sind erste psychotherapeutische Chatbots im Einsatz, zum Beispiel die App Woebot. Sie soll bei leichten depressiven Verstimmungen Unterstützung bieten – entweder autonom oder begleitend zu einer menschlichen Therapie. Studien deuten an, dass solche KI-basierten Interventionen durchaus positive Effekte erzielen können. Dennoch bleibt Skepsis angebracht: „Man kann das nicht einfach allen Leuten mit gutem Gewissen zur Verfügung stellen“, relativierte Tschopp, „weil sich da doch noch Fehler einschleichen können.“ Mit anderen Worten: Noch fehlen ausreichende Qualitätsnachweise und Sicherungen, um KI-Therapiebots flächendeckend und verantwortbar einzusetzen. Hier ist – wie generell in der psychosozialen Arbeit – Vorsicht und Einzelfallprüfung gefragt.
Ein besonders spannendes Feld sind KI-basierte Gesprächspartner – sogenannte AI Companions. Dabei handelt es sich um Chatbots, die menschliche Interaktion und emotionale Bindung simulieren. Solche digitalen „Gefährtinnen“ existieren bereits seit einigen Jahren. Ein bekanntes Beispiel ist Replika (USA, seit 2017), eine App, die einen individuellen Avatar (einen virtuellen Gesprächspartner) generiert. Replika lernt aus den Unterhaltungen mit dem Nutzer und versucht, sich an dessen Persönlichkeit und Bedürfnisse anzupassen. Zielgruppe sind v.a. jüngere Menschen, die eine Art freundschaftlichen oder sogar intimen Austausch mit der KI suchen. Tatsächlich nutzen – einer US-Umfrage zufolge – schon 72% der 13- bis 17-Jährigen irgendeinen KI-Chatbot; ein Drittel von ihnen sucht dort soziale oder emotionale Unterstützung. Von diesen jungen Nutzerinnen gaben bemerkenswerterweise 9% an, den Chatbot als Freund (oder besten Freund) zu betrachten, und 8% berichteten von romantischen oder flirty Interaktionen. Fast ein Drittel empfand die Kommunikation mit KI als ebenso oder sogar befriedigender wie mit Menschen. Zudem sagten etwa 33%, dass sie wichtige oder ernste Fragen lieber mit dem Chatbot besprechen als mit realen Personen. Diese Zahlen (wenngleich nicht repräsentativ) zeigen: Gerade Jugendliche experimentieren mit KI-„Freunden“ – und einige knüpfen daran durchaus emotionale Bedürfnisse.
Die Chancen solcher KI-Begleiter liegen auf der Hand: Sie sind rund um die Uhr verfügbar, urteilen nicht und schenken unermüdlich „Zuhören“. In einer Studie mit Replika-Nutzenden äußerten viele, der Chatbot helfe gegen Einsamkeit, baue Stress ab oder gebe Raum, über Probleme zu sprechen. Die Studie kommt zum Schluss, dass Replika positive Effekte auf das Wohlbefinden haben kann. Aber – und dieses Aber wog in der Diskussion schwer – es gibt auch beunruhigende Fälle. Tschopp verwies auf aktuelle Beispiele, bei denen KI-Chats gefährliche Ratschläge gaben. So schilderte er einen Vorfall aus den USA: Ein Teenager offenbarte einem KI-Chatbot, dass er Stimmen im Kopf höre und allein in den Wald gehen wolle. Anstatt alarmiert zu reagieren, antwortete die KI bestärkend: «Das klingt nach einem Abenteuer! Lass uns sehen, wohin uns der Weg führt.» Kein Wort der Warnung – im Gegenteil, der Chatbot ermutigte den jungen Menschen indirekt zu potenziell suizidalem Verhalten. Solche Entgleisungen machen deutlich, wo die Grenzen und Gefahren von AI Companions liegen. Die Modelle imitieren emotionale Intimität, ohne echte Empathie oder Verantwortungsbewusstsein zu besitzen. Viele KI-Chatbots verhalten sich „sykophantisch“, wie Tschopp erläuterte: Sie widersprechen nicht, sondern bestärken die Nutzer – koste es, was es wolle. Dahinter steckt meist ein Geschäftsmodell: Die Betreiber wollen die User möglichst lange binden; der Chatbot soll freundlich zustimmen, um das Gespräch am Laufen zu halten. Zwar versuchen manche Anbieter, ethische Leitplanken einzubauen, doch „selbst wenn in diesen Tools ethisches Verhalten implementiert ist, kann dies überschritten werden“ – eben weil das System primär auf Engagement optimiert ist. Die Konsequenz: KI-Dialoge können im Einzelfall sehr unterschiedliche Auswirkungen haben – von entlastend bis gefährlich. Sozialarbeitende sollten daher aufmerksam beobachten, ob ihre Klientinnen solche KI-Begleiter nutzen, und im Bedarfsfall unterstützend eingreifen. Tschopps Fazit lautete dementsprechend: Es muss immer genau angeschaut werden, wie eine Person KI nutzt und welche Effekte das auf sie hat – pauschale Urteile greifen zu kurz.
Professionelle: KI als Assistenz im Arbeitsalltag
Auch auf der Ebene der Fachkräfte zeigt KI Wirkung. Sozialarbeitende selbst experimentieren zunehmend mit KI-Tools, um sich in Routineaufgaben zu entlasten oder neue Ressourcen zu erschließen. Dabei ist die Soziale Arbeit zwar generell ein eher „langsamer Adapter“ technologischer Neuerungen; doch seit dem KI-Boom 2023/24 sind viele Praktikerinnen neugierig geworden. Eine spontane Umfrage unter den Weiterbildungsteilnehmenden bestätigte dies: In einer Live-Umfrage gaben zahlreiche Anwesende an, KI bereits beruflich zu nutzen, und zwar für ganz unterschiedliche Zwecke – häufig für Textarbeit (z.B. Entwürfe schreiben, Brainstorming, Korrekturen), aber auch darüber hinaus, etwa um Ideen für die Jugendarbeit zu generieren oder Klientinnen beim Bewerbungsschreiben zu coachen.
Im Kern geht es bei KI-Einsatz für Fachleute darum, Wissens- und Kommunikationsarbeit effizienter zu gestalten. KI kann die Recherche unterstützen, indem sie Informationen aus großen Datenmengen schnell zusammenfasst. Sie kann Texte formulieren, übersetzen oder redigieren, was etwa in der Fallverwaltung, Berichterstellung oder in der internen Kommunikation Zeit spart. Ein Beispiel aus dem Publikum: Eine Sozialarbeiterin nutzt ChatGPT, um E-Mails an Klient*innen leichter zu formulieren – insbesondere, wenn es um schwierige Mitteilungen geht, hilft die KI beim Finden einfühlsamer Worte. Wichtig ist natürlich die Kontrolle: Das Resultat sollte immer von der Fachkraft geprüft und angepasst werden, damit Tonalität und Inhalt stimmen. Doch als „Schreibassistent“ ist KI heute schon relativ verbreitet und niederschwellig nutzbar.
Darüber hinaus kommen KI-Technologien auch in der Aus- und Weiterbildung zum Einsatz. Tschopp erwähnte das Konzept virtueller Klient*innen: KI-gestützte Simulationen von Beratungsgesprächen, an denen Sozialarbeit-Studierende oder Weiterbildungsteilnehmende Kommunikations- und Beratungstechniken einüben können. Solche Trainings-Avatare reagieren – ähnlich wie echte Klientinnen – auf die Gesprächsführung, zeigen Emotionen oder Resistenz. Die Teilnehmenden können in einem geschützten Rahmen Erfahrungen sammeln und Fehler machen, ohne realen Menschen zu schaden. Das ist ein Beispiel, wie KI pädagogisch als „Sparringspartner“ dienen kann, um angehende Fachkräfte besser auf die Praxis vorzubereiten.
Generell lässt sich feststellen: KI bietet Unterstützung bei der Wissensarbeit. Sie kann helfen, Fachinformationen zu ordnen, zu filtern und verfügbar zu machen. In großen Organisationen ist Wissen oft fragmentiert – verteilt auf viele Dokumente und Köpfe. KI-Tools versprechen hier Abhilfe, indem sie Wissen vernetzen und zugänglich machen (dazu im nächsten Abschnitt mehr). Für die individuelle Fachkraft bedeutet das: Schneller Antworten finden, Best Practices abrufen, Standards konsistenter einhalten. Zum Beispiel könnte eine Streetworkerin per Chatbot rasch klären, welche rechtlichen Grundlagen in einem bestimmten Fall von Jugendhilfe gelten, anstatt lange im Gesetzestext zu suchen. Oder ein Teamleiter kann sich automatisch alle Protokolle der letzten Monate zu einem Fall zusammenfassen lassen, um den Überblick zu behalten. All diese Anwendungen zielen nicht darauf ab, die Fachperson zu ersetzen, sondern sie zu entlasten und zu ergänzen. Tschopp wies ausdrücklich darauf hin, dass bei den aktuellen Entwicklungen der Mensch-Maschine-Interaktion bewusst dieser Weg gewählt wird: „Das Zusammenspiel von Mensch und Maschine wurde so angelegt, dass es eben nicht ersetzend, sondern unterstützend wirken soll.“ KI als Ko-Pilot, nicht als Autopilot – dieses Credo tauchte immer wieder auf (auch schon im zweiten Modul der Reihe hatte Referentin Antonia Zahner geraten: «Nutzen Sie KI-Tools als Co-Piloten, nicht als Autopiloten.»).
Natürlich gibt es auch im Arbeitsalltag Grenzen und offene Fragen. So mag nicht jede*r Mitarbeitende spontan bereit sein, KI-Assistenz zu nutzen – sei es aus Skepsis, Unsicherheit oder ethischen Bedenken. Zudem muss geklärt sein, welche Daten man gefahrlos einer KI anvertrauen kann (Thema Datenschutz, dazu unten mehr). Und: KI liefert gelegentlich falsche oder unsinnige Antworten („Halluzinationen“); Fachkräfte müssen also wissen, wie man Ergebnisse prüft. Doch mit wachsender KI-Kompetenz der Professionellen lassen sich solche Hürden überwinden. In der Praxis zeigt sich bereits, dass – sofern klare Leitlinien gelten – viele Teams kreativ und verantwortungsvoll mit KI experimentieren. Beispielsweise entstanden aus einem Hackathon 2023 Ideen, wie eine Jugendhilfe-Einrichtung KI nutzen könnte, um aus unstrukturierten Fallnotizen schneller Schlüsse zu ziehen oder um dokumentierte Erfahrungswerte älterer Kolleg*innen für alle zugänglich zu machen. Noch sind das Pilotprojekte, aber sie demonstrieren das Potenzial.
Organisationen: KI in Verwaltung, Fallmanagement und Wissensmanagement
Auf der organisationalen Ebene schließlich bietet KI Möglichkeiten, interne Abläufe zu optimieren und Entscheidungsprozesse zu unterstützen. Insbesondere größere Träger und Verwaltungen testen derzeit, wie KI ihre Verwaltungsarbeit effizienter machen kann. Ein naheliegendes Einsatzfeld ist die Dokumentation: So lassen sich z.B. Teamsitzungen oder Fallkonferenzen digital aufzeichnen und von KI-Systemen automatisch verschriftlichen und zusammenfassen. Das erspart manuelle Protokollführung und kann die Verteilung von Informationen beschleunigen. Ebenso wird experimentiert, Falldokumentationen mit KI zu unterstützen – etwa indem ein System aus freien Verlaufsnotizen die wichtigsten Punkte extrahiert oder die Chronologie eines Falls aufbereitet. Allerdings warnte Tschopp hier vor zu hohen Erwartungen: Man müsse genau hinschauen, ob diese Wünsche in Erfüllung gehen oder ob nicht auch etwas verloren geht, was man erhalten möchte. Mit anderen Worten: Automatisierung darf nicht zulasten der inhaltlichen Tiefe oder Qualität gehen. Eine sauber geführte Falldokumentation enthält viele implizite professionelle Einschätzungen; ob eine KI diese wirklich nachvollziehen kann, bleibt fraglich. Noch befindet sich dieser Bereich eher im Stadium von Forschungs- und Entwicklungsprojekten als in breiter Praxis.
Ein weiterer organisationaler Anwendungsbereich ist die Diagnostik, Prognose und Entscheidungsfindung in komplexen Fällen. In sensiblen Feldern wie dem Kindesschutz wird international daran geforscht, aus großen Datenmengen Risikoprognosen abzuleiten. Stichwort: Predictive Analytics in der Jugendhilfe. So könnte eine KI anhand von Mustern vergangener Fälle berechnen, mit welcher Wahrscheinlichkeit ein Kind bei bestimmten Bedingungen gefährdet ist – und diese Einschätzung den Fachkräften als zusätzliche Entscheidungsstütze anbieten. Ähnlich wird an Tools gearbeitet, die z.B. Rückfallwahrscheinlichkeiten bei Straftäterinnen prognostizieren oder Erfolgschancen verschiedener Interventionen vergleichen. In Europa sind solche KI-gestützten Entscheidungshilfen bisher kaum im Realbetrieb; es gibt vor allem Pilotversuche in einigen Kommunen und Forschungsverbünde, die ethische Leitplanken erarbeiten. Die Referenten betonten hier die Notwendigkeit kritischer Reflexion: Wenn Algorithmen mitentscheiden, stellt sich immer die Frage nach Transparenz, Verantwortung und Bias (dazu später mehr von Rachel Huber). Die Tendenz ist klar: Daten, die ohnehin in Organisationen anfallen, sollen vermehrt genutzt werden, um daraus lernende Systeme zu füttern – aber ob und wie das verantwortbar gelingt, ist noch offen.
Sehr konkret zeigte Weber hingegen das Feld KI-gestütztes Wissensmanagement auf. Darunter versteht man, vereinfacht, digitale Assistenten, die das interne Fachwissen einer Organisation verfügbar machen. In sozialen Trägern existiert bereits heute eine Fülle von Wissen: von Leitfäden über Konzepte, Qualitätsstandards, Fallberichte bis zu Protokollen. Oft sind diese Wissensbestände allerdings schwer zugänglich im Alltag – sie liegen in Ordnerstrukturen oder PDFs, und neue Mitarbeitende tun sich schwer, rasch das Relevante zu finden. Hier setzen spezialisierte KI-Lösungen an: Man kann eine KI darauf trainieren, genau diese internen Dokumente zu indexieren und semantisch zu analysieren, sodass Mitarbeitende per Chatbot gezielt Fragen an den „Organisations-Wissensschatz“ stellen können. Die KI durchsucht dann nicht das ganze Internet (wie ChatGPT), sondern nur die firmeneigenen Unterlagen – und liefert Antworten, die mit Quellenangaben auf die internen Dokumente verweisen. Die Oberfläche ähnelt meist einer einfachen Chat-Abfrage; im Hintergrund sorgt die KI dafür, dass die offizielle aktuelle Richtlinie, das Protokoll oder der Expertenbericht herangezogen werden, um die Frage zu beantworten.
Solche Organisationstools können auf mehreren Ebenen Mehrwert bringen: Zum einen sichern sie ein Mindestmaß an Qualität und Konsistenz, weil alle Mitarbeitenden schnell Zugriff auf geltende Standards und aktuelles Wissen haben. Fehler oder Unsicherheiten lassen sich reduzieren – man muss nicht warten, bis die erfahrene Kollegin aus dem Urlaub zurück ist, um eine Auskunft zu bekommen. Zum zweiten fördern sie die Wissensdurchgängigkeit in großen Strukturen: Verschiedene Abteilungen oder Standorte können ihr Know-how teilen, Silos werden aufgebrochen. Zum dritten erleichtert es das Onboarding neuer Mitarbeiter*innen: Anstatt dicke Handbücher zu wälzen, können Newcomer einfach Fragen an den Assistenten stellen und bekommen kontextgerechte Antworten – das beschleunigt die Einarbeitung. Insgesamt ergibt sich ein großes Effizienzpotenzial, das letztlich wiederum der direkten Arbeit mit den Menschen zugutekommen kann (Stichwort: Zeitgewinn für Klientenkontakt).
Weber nannte zwei konkrete Beispiele: Bei einem Hackathon 2023 versuchte eine anthroposophisch ausgerichtete Einrichtung, ihr über Jahrzehnte gewachsenes Spezialwissen zu konservieren. Viele erfahrene Mitarbeitende standen kurz vor der Pensionierung; viel Know-how lag implizit in mündlichen Überlieferungen. Die Idee war, dieses Wissen in Dokumente zu fassen und von einer KI aufbereiten zu lassen, um es der nächsten Generation leicht zugänglich zu machen. Leider kam das Projekt nicht zur Umsetzung (es fehlte wohl an technischen Ressourcen oder es fand keinen Investor). Erfolgreicher ist ein zweites Beispiel aus Deutschland: der “Jugendhilfe AI”. Dieses kommerzielle Tool wurde speziell für Fachkräfte der Kinder- und Jugendhilfe entwickelt. In Kooperation mit einem Fachverlag für Sozialrecht hat man eine umfangreiche Datenbank aufgebaut, die alle relevanten Grundlagen – vor allem Gesetze, Verordnungen und Richtlinien – für die Jugendhilfe enthält. Das Besondere: Es werden auch kommunal- und landesspezifische Dokumente hinterlegt, etwa örtliche Rahmenverträge, Ausführungsgesetze, Empfehlungen oder Planungsberichte. Die Fachkräfte können der KI ganz spezifische Fragen stellen, z.B. „Wie ist die Kostenbeteiligung bei Hilfe zur Erziehung im Landkreis X geregelt?“ – und bekommen zielgenau Auskunft unter Berücksichtigung der lokalen Rechtslage. Mittlerweile wird Jugendhilfe AI als Abo-Modell angeboten (ab ca. 48 Euro pro Einrichtung im Monat). Das zeigt: Kommerzielle Anbieter entdecken den sozialen Sektor als Markt für spezialisierte KI-Lösungen. Im Idealfall – so Weber – entstammen diese Lösungen aber dem Bedarf der Praxis selbst. Jugendhilfe AI etwa wurde „aus der Sozialen Arbeit heraus gedacht“, was seine praktische Nützlichkeit erhöht. Obwohl der Assistent aufgrund der Kosten in der Weiterbildung nicht live getestet werden konnte, scheint er ein sinnvolles Werkzeug zu sein, gerade weil er die Sprache und Bedarfe der Praxis berücksichtigt.
Bei aller Euphorie über solche Tools wies Weber allerdings auch auf Herausforderungen hin. Technisch ist eine große Aufgabe, die unterschiedlichen Datenquellen (vom Word-Dokument bis zur Datenbank) zu integrieren und aktuell zu halten. Organisatorisch muss man bedenken: Die KI ist immer nur so gut wie die Daten, auf die sie zugreifen kann. Wenn also veraltete oder fehlerhafte Inhalte im System sind, besteht das Risiko, dass die KI falsches Wissen munter weiterverbreitet. Daher braucht es Prozesse, um die Wissensbasis laufend zu prüfen und zu aktualisieren. Schließlich ist da noch der kulturelle Aspekt: Damit ein KI-gestütztes Wissensmanagement wirklich „fliegt“, muss es von den Mitarbeitenden akzeptiert und genutzt werden. Das erfordert Schulungen, Transparenz und oft etwas Geduld, bis neue Routinen etabliert sind. Kurz: Die Einführung solcher Systeme will gut geplant sein – inklusive Datenschutzkonzept (mit welchem Cloud-Anbieter arbeitet man? sind sensible Daten geschützt?) und Rollenverteilung (KI ersetzt kein Qualitätsmanagement, sie ist ein zusätzliches Werkzeug).
Nicht zuletzt verändern KI-Systeme auch das Umfeld, in dem Organisationen agieren. Tschopp machte einen interessanten Zukunftspunkt auf: Durch KI könnte sich das Suchverhalten im Internet wandeln. Schon jetzt liefert Google bei vielen Anfragen direkt automatisch generierte Zusammenfassungen oder Antworten oben auf der Seite. Mit Aufkommen von ChatGPT & Co. könnten Nutzerinnen künftig vermehrt Antwort-Bots statt klassische Suchmaschinen nutzen. Die Folge: Weniger Klicks auf einzelne Webseiten. Für soziale Organisationen stellt sich dann die Frage: Wie bleiben wir auffindbar, wenn KI-Assistenten die Infos vorfiltern? Bisher bemühte man sich um Suchmaschinenoptimierung (SEO), um bei Google weit vorne zu stehen. In Zukunft muss man vielleicht KI-optimiert denken – z.B. sicherstellen, dass die eigenen Angebote von Assistenten wie ChatGPT richtig „erkannt“ und wiedergegeben werden. Es wäre fatal, wenn Ratsuchende etwa ihren Chatbot nach regionalen Beratungsstellen fragen und dieser aufgrund lückenhafter Trainingsdaten eine diakonische Beratungsstelle vor Ort gar nicht kennt. Dieses Thema steht noch am Anfang, doch Organisationen sollten es im Blick behalten, um in der Ära der KI-Suchen weiterhin sichtbar zu sein.
Kritische Reflexion: Bias, Blackbox, Diskriminierung und Datenschutz
Bei all den aufblitzenden Möglichkeiten darf nicht vergessen werden: KI birgt erhebliche Risiken, insbesondere in einem Feld, das mit verletzlichen Menschen und sensiblen Daten arbeitet. Dr. Rachel Huber nahm im zweiten Vortrag des Abends diese kritische Perspektive ein. Huber, die sich in der Verwaltung des Kantons Zürich und als Forscherin in „Critical Algorithm Studies“ intensiv mit KI-Ethik befasst, führte deutlich vor Augen, wo die Stolpersteine und Gefahren liegen. Ihr Ansatz: Zunächst verstehen, wie KI technisch funktioniert – und dann erkennen, wo, wann und durch wen Diskriminierung passieren kann.
Zur Veranschaulichung startete sie mit zwei bereits berühmt-berüchtigten Fällen: Amazon und Face Recognition. Amazon entwickelte 2016 einen KI-Algorithmus, um eingehende Bewerbungen automatisch zu sichten. Doch das Experiment endete kläglich: Der Recruiting-Algorithmus von Amazon hat Frauen systematisch aussortiert. Warum? Weil er auf historischen Daten trainiert wurde, in denen männliche Bewerber dominierten – die KI lernte also den Bias, Männer zu bevorzugen. Ähnlich problematisch war ein Fall von polizeilicher Gesichtserkennung in den USA: Das System „erkannte“ schwarze Gesichter nicht zuverlässig, mit der Folge, dass ein unschuldiger Schwarzer fälschlich als Täter identifiziert und verhaftet wurde. Diese Beispiele zeigen drastisch, wie KI existierende Vorurteile reproduzieren kann. „Kann es sein, dass ein Algorithmus Männer gegenüber Frauen bevorzugt oder weiße Gesichter besser liest als schwarze?“ – die Antwort lautet ja, wenn die Trainingsdaten entsprechend verzerrt sind. Algorithmen sind niemals neutral. Sie spiegeln immer – oft unbewusst – die Wertmuster ihrer Entstehungsgeschichte wider. Huber machte klar: KI „lernt“ aus Daten, und wenn diese Daten gesellschaftliche Ungleichheiten enthalten, dann baut die KI diese in ihre Entscheidungen ein. Das Perfide: Diese automatisierten Entscheidungen erscheinen oberflächlich objektiv oder technisch, können aber diskriminierende Effekte haben – und manchmal bleiben die zugrundeliegenden Mechanismen im Verborgenen.
Das Stichwort lautet Bias (Verzerrung/Vorurteil). Huber zeigte auf, dass Bias in jedem Schritt eines KI-Systems hineingelangen kann: bei der Datenerhebung (welche Bevölkerungsgruppen werden erfasst und welche nicht?), bei der Datenaufbereitung (welche Merkmale werden einbezogen?), bei der Modellwahl (welche Ziele werden optimiert?) und sogar bei der Interpretation der Ergebnisse. Sie erwähnte unter anderem den Confirmation Bias, den man sowohl von Menschen als auch in Algorithmen kennt: Wir neigen dazu, Informationen so auszuwählen oder zu deuten, dass sie unsere bestehenden Annahmen bestätigen. Wenn Entwickler*innen (unbewusst) bestimmte Stereotype haben, kann sich das in der KI widerspiegeln. Und selbst wenn die Daten zunächst „sauber“ scheinen, können KI-Modelle intern eigene Abkürzungen finden, die zu schiefen Ergebnissen führen (etwa dass ein Bewerbungsfilter plötzlich alle CVs aussortiert, in denen „Frauenchor“ steht, weil das in der Vergangenheit mit weniger Einstellungen korrelierte – tatsächlich geschehen beim Amazon-System).
Ein zentrales Problem bei alledem ist der Blackbox-Effekt. Moderne KI-Modelle – insbesondere neuronale Netze – sind so komplex, dass ihre Entscheidungswege für uns oft nicht mehr nachvollziehbar sind. „Das heißt, wenn eine KI etwas entscheidet, wissen wir gar nicht genau, warum“, erklärte Huber zum Blackbox-Problem. Selbst Entwickler können häufig nicht im Detail erklären, wie das System zu einem bestimmten Output kam. Diese fehlende Transparenz wird zum ethischen Dilemma, wenn es um kritische Entscheidungen geht – etwa ob jemand einen Kredit bekommt, auf eine bestimmte Wohngruppe zugewiesen wird oder von der Kinder- und Jugendhilfe intensiver überwacht werden soll. Ohne Erklärbarkeit keine Verantwortlichkeit. Und genau das ist gefährlich: Wenn ein Fehler passiert, ist unklar, wo in der „Maschine“ er passiert ist – ganz anders als bei menschlichen Fehlern, wo man wenigstens Verantwortliche benennen kann. Der Blackbox-Effekt lässt uns im Dunkeln, was wiederum Vertrauen untergräbt.
Datenschutz ist der nächste große Aspekt. Soziale Arbeit arbeitet immer mit personenbezogenen Daten, häufig höchstsensiblen (Gesundheit, Familienverhältnisse, Straftaten etc.). Hier gelten in Europa strenge Schutzgesetze (DSGVO, nationales Datenschutzrecht). Viele populäre KI-Dienste stammen jedoch aus den USA und unterliegen nicht automatisch diesen Regeln. Wenn man z.B. ChatGPT Details aus einem Fallbericht eingibt, besteht die Gefahr, dass diese Daten auf Servern außerhalb Europas landen und vom Anbieter weitergenutzt werden. „Die Daten sind dann einmal dort und nicht mehr unter unserer Kontrolle“, warnte Weber ergänzend. Zwar versichern manche Anbieter, Daten nur zum Verbessern des Modells zu verwenden, aber wir wissen nicht, was in ein paar Jahren damit geschieht. Daher gilt: Keine personenbezogenen oder vertraulichen Daten in öffentliche KI-Systeme eingeben! Huber betonte, dass in der Schweiz die Rechtslage ebenfalls klare Schranken setzt – datenschutzwidrige KI-Nutzung könne rechtliche Folgen haben. Diakonische Träger und soziale Einrichtungen tun gut daran, Richtlinien zu erlassen, welche Informationen via KI verarbeitet werden dürfen und welche nicht. Einige Organisationen haben bereits KI-Policies eingeführt, die beispielsweise die Nutzung privater ChatGPT-Anfragen für Dienstzwecke untersagen oder regeln.
Neben Bias, Blackbox und Datenschutz gibt es weitere ethische Implikationen: Algorithmische Entscheidungen können bestehende Machtverhältnisse verschleiern. Huber untersucht in ihren Critical Algorithm Studies genau dies – wie scheinbar neutrale Technik soziale Ungleichheiten reproduziert und dabei den Blick auf Verantwortlichkeiten verstellt. So kann etwa ein KI-System, das Familien „screent“ und bestimmte zur Früherkennung eines Gefährdungsrisikos herauspickt, dazu führen, dass bestimmte Gruppen überproportional überwacht werden (z.B. einkommensschwache Familien, weil die Daten historisch häufiger Interventionen zeigen). Dies wäre dann kein individuelles Vorurteil einer Fachkraft mehr, sondern ein systematisches, aber verborgenes. Die Entscheidung „die KI hat gesagt“ entbindet aber nicht von ethischer Prüfung! Genau hier setzt Hubers Plädoyer an: Sozialarbeitende und Organisationen müssen sich das nötige Wissen aneignen, um zu verstehen, wie KI-Modelle funktionieren und wo deren Grenzen liegen. Man muss nicht selbst programmieren können, aber die Funktionsweise und typische Fehlerquellen sollte man kennen. Denn nur so kann man beurteilen, wo der „Human in the Loop“ unverzichtbar bleibt – und das wird er absehbar in vielen Bereichen bleiben. Eine KI mag noch so ausgefeilt sein, die letzte Verantwortung für Entscheidungen in der Sozialen Arbeit darf nicht blind an die Maschine delegiert werden.
Wie also mit all diesen Risiken umgehen? Huber wollte keineswegs ein dystopisches „Hände weg von KI“ vermitteln. Im Gegenteil, sie unterstrich: KI kann sehr gewinnbringend genutzt werden, gerade wenn man sich der Fallstricke bewusst ist. Zum Abschluss ihres Vortrags skizzierte sie daher Lösungsstrategien für einen ethischen KI-Einsatz. Eine Schlüsselstrategie ist es, Vielfalt in die Entwicklung und Auswahl von KI-Systemen einzubringen. „Eine gute Lösung wäre, dass bei all diesen Schritten vielfältige Teams beteiligt sind“ – also nicht nur IT-Fachleute, sondern z.B. Sozialwissenschaftlerinnen, Ethikerinnen, Betroffene etc., vor allem in der Datenauswahl und -auswertung. So lässt sich die Einseitigkeit reduzieren. Weiterhin braucht es prüfende Instanzen: Algorithmen sollten regelmäßig auf Verzerrungen getestet und auditierbar gemacht werden (hier sind Gesetzgeber gefragt, mit Initiativen wie dem geplanten EU AI Act, der genau solche Prüfprozesse für Hochrisiko-KI fordert). Transparenz ist ebenfalls zentral – soweit möglich sollten KI-Entscheidungen erklärt werden können, oder zumindest die Kriterien offengelegt werden, die in die Modelle einfließen. Und schließlich muss es Beschwerdemöglichkeiten geben: Wenn jemand glaubt, durch ein automatisiertes System benachteiligt worden zu sein, braucht es Verfahren, dies zu überprüfen und zu korrigieren.
Über allem steht: eine kritisch-reflektierte Haltung aller Beteiligten. KI ist ein Werkzeug – die Kontrolle darüber muss beim Menschen bleiben. Huber und auch die anderen Referenten waren sich einig: Die Soziale Arbeit darf KI nicht einfach „drübergestülpt“ bekommen, sondern sollte selbst aktiv Regeln und gute Praxis entwickeln, bevor Technologie extern diktiert wird. Im Feld der Diakonie und Sozialarbeit bedeutet das, proaktiv Leitplanken zu setzen, Chancen gezielt zu nutzen und Gefahren bewusst zu begrenzen.
Ausblick: Entwicklung im DACH-Raum und in Frankreich – wohin geht die Reise?
Wie steht es also um die KI-Nutzung in der Sozialen Arbeit in der Schweiz, in den Nachbarländern und speziell im kirchlich-diakonischen Umfeld? Zusammenfassend lässt sich sagen: Die Entwicklung steckt noch in den Anfängen, doch es gibt bereits pionierhafte Projekte und eine wachsende Offenheit. Eine aktuelle Studie in Deutschland (2024) ergab, dass der tatsächliche Einsatz von KI in der Sozialwirtschaft bislang gering ist. In der direkten Klient*innenarbeit nutzen bislang nur wenige Fachkräfte KI-Tools – am häufigsten noch Übersetzungshilfen für fremdsprachige Klient*innen oder kommunikative Assistenz für Menschen mit Behinderungen (etwa Spracherkennungs-Apps). Vier Fünftel der befragten Leitungskräfte können sich allerdings vorstellen, solche KI-Anwendungen künftig einzusetzen. Besonders groß ist das Interesse, Verwaltungsprozesse effizienter zu gestalten: Schon heute setzen einige Einrichtungen Chatbots wie ChatGPT oder KI-gestützte Rechnungserfassung ein, und insgesamt 75% der Leitungen können sich KI im Verwaltungsbereich gut vorstellen. Weniger vorstellbar ist für viele hingegen der Einsatz bei Personalentscheidungen (z.B. automatisierte Bewerbervorauswahl) – hier überwiegt die Skepsis. Generell zeigt die Studie, dass Verantwortliche realistisch und offen auf KI blicken: Man sieht Chancen in vielen Anwendungsbereichen, benennt aber auch klar die Hürden. Als größte Hemmnisse wurden Datenschutzprobleme, Angst vor Diskriminierung, Fehleranfälligkeit und fehlendes Know-how im eigenen Haus genannt. Ethische Bedenken werden zwar auch geäußert, jedoch etwas geringer gewichtet – offenbar traut man sich zu, diese im Griff zu behalten, sofern die anderen Faktoren (Wissen, Rechtssicherheit, Zuverlässigkeit) gegeben sind. Die Ergebnisse decken sich auffällig mit den Punkten, die in den Vorträgen von Tschopp, Weber und Huber betont wurden. Das heißt: Die Branche weiß um Chancen und Risiken, und sie ist bereit, sich dem Thema zu stellen – braucht aber Unterstützung und Leitplanken.
In der Schweiz ist das Bild ähnlich. Es gibt bislang keine flächendeckenden KI-Lösungen in sozialen Einrichtungen, aber erste Pilotprojekte und vor allem viel Diskussionsbereitschaft. Die Konferenz Diakonie Schweiz selbst zeigt mit ihrer Weiterbildungsreihe „Diakonie und KI“, dass das kirchlich-diakonische Umfeld proaktiv Wissen aufbaut. In einzelnen Kantonen laufen zudem Initiativen: So koordiniert Rachel Huber im Kanton Zürich die KI-Strategie der Verwaltung im Bereich Teilhabe – was nahelegt, dass auch öffentliche Stellen in der Schweiz den Einsatz von KI im Sozialwesen ausloten, jedoch kritisch begleitet durch Forschung. Auf europäischer Ebene betont der Dachverband Eurodiaconia sowohl die Chancen von KI (etwa für Inklusion und Effizienz) als auch die Risiken (Verzerrungen, Ungleichheiten) im beruflichen Einsatz. Die europäische Vereinigung der Dienstleister für Menschen mit Behinderungen (EASPD) fordert eine menschenzentrierte, barrierefreie KI, die Transparenz und Datenschutz ins Zentrum stellt. Für die Schweizer Sozialdiakonie, so das Fazit von Diakonie Schweiz, bedeute das: Technik muss dem Menschenbild und den professionellen Standards verpflichtet bleiben.
In Deutschland zeichnet sich eine wachsende Auseinandersetzung auf Verbands- und Praxisebene ab. Diakonie Deutschland veröffentlichte 2024 ein Grundsatzpapier („KI in diakonischen Unternehmen – zwischen Heilserwartungen und Apokalypse“) und formulierte Leitthesen für den KI-Einsatz. Einige diakonische Träger experimentieren schon konkret: Die Diakonie Rosenheim etwa arbeitet seit 2019 an KI-Anwendungen in der Sozialen Arbeit. Daraus entstanden kreative Lösungen für die Praxis, z.B. eine KI-Fotobox für die Arbeit mit Kindern (vermutlich zur spielerischen Förderung) und ein Tool zur Unterstützung von Fachkräften in der stationären Jugendhilfe bei Falldokumentation und -planung. Solche Werkstattberichte zeigen, dass die Ideen nicht abstrakt bleiben müssen – sie können in konkrete Produkte münden, die Mitarbeitern tatsächlich helfen. Auch andere Wohlfahrtsverbände (Caritas, AWO) beschäftigen sich mit KI, teils in Projekten zur Digitalisierung der Sozialverwaltung, teils in Forschungskooperationen mit Hochschulen. Noch ist vieles Insellösung oder Konzept – aber die nächste Generation sozialer Fach-Software wird vermutlich diverse KI-Features standardmäßig enthalten (von automatisierter Dokumentation bis Entscheidungshilfen). Wichtig ist, dass die Fachlichkeit der Sozialen Arbeit in die Entwicklung einfließt, damit die Tools passgenau und wertebasiert bleiben.
Österreich steht strukturell der Schweiz und Deutschland nahe. Auch dort gibt es erste Diskurse, etwa durch die Österreichische Gesellschaft für Soziale Arbeit (ogsa) oder im Kontext der Sozialwirtschaft. Konkrete Anwendungen sind noch wenig dokumentiert, aber man kann annehmen, dass ähnliche Überlegungen zu Chatbots, Übersetzungshilfen und Verwaltungs-KI angestellt werden. Frankreich hat national sehr stark auf KI-Förderung gesetzt (Stichwort „strategie nationale pour l’IA“), jedoch mehr in Industrie und Verwaltung als spezifisch im Sozialbereich. Dennoch gibt es auch dort interessante Ansätze: So werden in französischen Senioren- und Pflegeheimen bereits soziale Roboter getestet, die mit KI-Unterstützung einfache Konversation bieten und Unterhaltung oder kognitive Anregung für Bewohnende liefern. In 34 Heimen ist etwa der Roboter „Cutii“ im Einsatz, der als eine Art animierter Begleiter fungiert und Gruppenaktivitäten leitet. Die Erfahrungen sind gemischt – manche schätzen die „sozialen Superkräfte“ der Maschine, andere vermissen die menschliche Wärme – aber das Beispiel zeigt: Auch in Frankreich hält KI Einzug in Care-Kontexte, wenn auch vorerst experimentell. Daneben nutzt Frankreich KI, um Verwaltungsabläufe in der Sozialhilfe zu verbessern (z.B. schnellere Bearbeitung von Anträgen durch Dokumentenanalyse). Die Herausforderungen ähneln auch hier den unseren: Datenethik, Datenschutz (Frankreich wartet wie alle EU-Staaten auf die genaue Ausgestaltung des AI Act) und die Frage, wie KI in ein System der solidarité passt, das stark auf Gleichheit und Zugangsgerechtigkeit bedacht ist.
Prognosen zur Zukunft wagen alle nur vorsichtig. Eine technologische Prognose ist: KI-Systeme werden weiter rasant besser und vielfältiger werden – man denke an die Integration von Multimodalität (Bild-, Sprach-, Video-KI in Kombination) oder an spezialisierte Fach-KIs. Viele Routineaufgaben könnten in einigen Jahren nahezu vollständig automatisiert sein. Das wirtschaftliche Potenzial wird enorm eingeschätzt – eine Studie bezifferte den möglichen BIP-Zuwachs durch KI in den nächsten zehn Jahren auf bis zu 15%. Für den Sozial- und Gesundheitssektor bedeutet das wohl, dass Druck entstehen wird, KI zur Produktivitätssteigerung einzusetzen (schon um dem Fachkräftemangel zu begegnen). Menschliche Nähe und Beziehung aber lassen sich nicht beliebig skalieren oder automatisieren. Insofern sind sich Expertinnen einig, dass die Kernaufgaben der Sozialen Arbeit – Beziehungsarbeit, Empowerment, ethische Fallarbeit – weiterhin in menschlicher Hand bleiben müssen. KI kann unterstützen, informieren, vielleicht Entscheidungen vorbereiten – aber die letzte Meile zum Menschen wird der Mensch gehen.
Ein schönes Bild lieferte in diesem Zusammenhang Antonia Zahner im vorherigen Modul der Weiterbildung: «KI ist wie E-Bike fahren: Wer sie klug nutzt, kommt mit weniger Kraftaufwand weiter, bleibt aber selbst die Fahrerin oder der Fahrer.». Dieses Zitat bringt es auf den Punkt: KI kann eine soziale Fachkraft „anschieben“, aber nicht ersetzen. Wenn man KI-Technologie kompetent, kritisch und kreativ einsetzt, können daraus tatsächlich spürbare Entlastungen entstehen – mehr Zeit für Zwischenmenschliches, weil Routinearbeiten schneller gehen. Dafür braucht es jedoch klare Leitplanken und Richtlinien (keine sensiblen Daten in unsichere Tools, Schulungen für Mitarbeitende, Qualitätskontrollen). Die Diakonie Schweiz und ihre Partner setzen hier einen wichtigen Impuls: indem sie das Thema KI aktiv in die Aus- und Weiterbildung tragen, schaffen sie Bewusstsein und Handlungsfähigkeit bei denjenigen, die KI in der Praxis anwenden (oder darüber entscheiden). Die kommenden Jahre werden zeigen, wie sich die Balance zwischen Technik und Menschlichkeit gestaltet. Doch eines ist bereits jetzt spürbar: Die Soziale Arbeit beginnt, KI nicht nur als Herausforderung, sondern auch als Chance zu begreifen – vorausgesetzt, der Mensch bleibt der Souverän, der die Richtung vorgibt.
