Social AI – zwischen Nähe, Nutzen und ethischen Fragen Wissen

Bislang haben wir über Künstliche Intelligenz in erster Linie als technisches Hilfsmittel gesprochen, Prozesse zu optimieren und einzelne Aufgaben schneller oder besser zu erledigen. Mit „Social AI“ rückt die Künstliche Intelligenz jedoch viel näher in den Kernbereich des Sozial- und Gesundheitswesens: die Arbeit mit den Menschen. Daraus ergeben sich andere ethische Fragen, die wir in diesem Artikel skizzieren möchten.

Was ist „Social AI“?

„Social AI“ bezeichnet üblicherweise solche KI-Systeme, die in erster Linie in sozialen Interaktionen eingesetzt werden. So sind etwa sozial assistive Roboter (SAR) daraufhin entwickelt, Menschen emotional zu unterstützen, zu motivieren, zu erinnern oder ihnen einfach „Gesellschaft zu leisten“.

Dabei geht „Social AI“ über rein funktionale Technologien von Alexa, Siri oder – spezifisch für unsere Branche – Livy hinaus, indem sie auch den sozialen Aspekt dieser Tätigkeiten ansprechen. Dazu greifen sie entweder die Idee der Kuscheltiere auf oder nutzen das menschliche Kindchenschema mit großen Augen auf einem eher kleinen Kopf, das wir üblicherweise als „niedlich“ empfinden.

So finden bzw. fanden sich im Markt bereits Robben, Katzen und aktuell ein flauschiges Capybara-Meerschweinchen. Die tierischen Begleiter fühlen sich durch ihr künstliches Fell sehr gut an und reagieren über Sensoren und Motoren z. B. auf Streicheln, Kuscheln oder Sprache. Auf diese Weise helfen sie, unruhige Menschen zu beruhigen oder einfach ein angenehmes Gefühl zu geben. Sie werden beispielsweise in der Betreuung von Demenzkranken eingesetzt oder als interaktiver Lernpartner für Kinder mit Autismus.

Menschenähnliche Roboter wie Pepper oder Navel übernehmen eine andere Funktion: Sie können auf der einen Seite als Ansprechpartner fungieren, die Wege erklären, an die Einnahme von Medikamenten erinnern oder Bewegungsübungen vorschlagen. Sie können aber auch einfach da sein, und von Bewohnenden oder Patient*innen frei angesprochen werden – z. B. in einer Sitzecke. Sie bewegen sich meist aber auch einfach frei in der Einrichtung und sprechen zum Beispiel nachts auf den Gängen wandernde Bewohner*innen an.

Auf diese Weise können sie nach und nach in gewisser Weise als vollwertiges Mitglied der Einrichtung oder des Wohnbereichs akzeptiert werden und damit auch eine soziale Funktion übernehmen. Dabei ist die Akzeptanz dieser Roboter durch die Bewohnenden oft sehr gut.

Nähe, Illusion und Verantwortung: Die ethische Perspektive

Genau an dieser Stelle wird deutlich, warum „Social AI“ neue ethische Fragen aufwirft: Ihr Handeln kann von den Nutzenden als Aufmerksamkeit, als Zuwendung oder als Kommunikation verstanden werden. Von dort ist es nur ein kurzer Weg dazu, dass die Nutzer*innen beginnen, eine einseitige Beziehung zu ihnen aufzubauen.

Welche Konsequenzen ergeben sich daraus, wenn gerade Menschen in vulnerablen Situationen Vertrauen zu Maschinen entwickeln, die jederzeit kaputtgehen, von den Herstellern verändert oder gar abgeschaltet werden können?

Gleichzeitig sind wir als Gesellschaft immer weniger bereit oder in der Lage, alten und kranken Menschen ausreichend echte menschliche Zuwendung zukommen zu lassen – entweder durch eigenes Handeln oder durch die auskömmliche Finanzierung eines menschengerechten Pflegesystems.

„Social AI“ kann sicherlich dabei helfen, die Einsamkeit konkreter Personen in Altenheimen und Krankenhäusern zu reduzieren. Sie bietet hier in unseren Augen jedoch keine „Lösung“, sondern kann erst mal nur ein Symptom bekämpfen. Damit wird sie zu einem hilfreichen Werkzeug, das wir im Alltag reflektiert einsetzen sollten, das uns als Gesellschaft aber auch den Spiegel vorhält und auf zentrale Schwierigkeiten hinweist, für die wir bislang keine strukturellen Lösungen haben.

Ethische Reflexion von Social AI: 5 Fragen

Um „Social AI“ verantwortungsvoll und reflektiert einzusetzen, möchten wir Ihnen einige Fragen an die Hand geben, die Sie für sich selbst beantworten können. Diese Fragen könnten auch für eine offene Reflexionsrunde in einer Einrichtung oder bei einem Träger genutzt werden, wenn die Anschaffung von „Social AI“ im Raum steht:

  • Wie wirkt sich die verschwimmende Grenze zwischen menschlicher und technischer Interaktion auf die menschlichen Beziehungen bei uns aus?
  • Inwieweit ist es ethisch vertretbar, Grundbedürfnisse nach Nähe, Intimität und Zuwendung von vulnerablen Menschen durch Roboter zu befriedigen?
  • Wie frei ist die Entscheidung zwischen analoger und digitaler Beziehung – gerade für vulnerable Gruppen?
  • Wie verhindern wir, dass der Einsatz von Robotik die Menschen langfristig in eine verstärkte Isolation führt?
  • Wie stellen wir als Träger bzw. Einrichtung sicher, dass Social AI als Unterstützung, aber nicht als Ersatz für Begleit-, Pflege- und Beziehungspersonen genutzt wird?

MuTiG in die Zukunft gehen

Auf der Grundlage unserer Antworten auf diese Frage können wir inklusive, fürsorgliche Systeme gestalten, die mehr benötigen als funktionierende Technik. Dazu müssen alle Beteiligten aber auch erkennen, dass der Einsatz „künstlicher Intelligenz“ hinterfragt und bewusst gestaltet werden kann.

Social AI ist hier weder Heilsbringer noch Feindbild. Sie eröffnet neue Chancen, stellt uns aber auch vor die zentrale Frage, wie wir eine Zukunft gestalten, in der Maschinen Nähe ermöglichen, aber nicht ersetzen.

Einen Einstiegspunkt in diese Diskussion bietet unter anderem ein (kostenfreier) Besuch unseres „Trucks der Digitalisierung“ (in Baden-Württemberg, Bayern und NRW), bei dem Sie und Ihre Mitarbeitenden vor Ort verschiedene digitale Technologien – auch aus dem Bereich der „Social AI“ – anfassen, ausprobieren und mit unseren Expert*innen diskutieren können. Denn nur durch aktives Erleben und Ausprobieren können Fachkräfte, Klient*innen und Lernende verstehen, was KI leisten kann – und was nicht.

Alternativ bieten wir in unserem Training „Künstliche Intelligenz“ einen Ein- und Überblick zum Thema an, der Ihnen eine erste Orientierung in diesem doch recht unübersichtlichen Feld ermöglicht – ebenfalls kostenfrei.

Passende Trainings