Archiv

Fallbeispiel: Im seelsorgerischen KI-Gespräch

Debora Weber-Wulff, Constanze Kurz

In kirchlichen Gemeinden fehlt es heutzutage oft an Menschen, die Seelsorge leisten können. Kann eine KI hier die Lösung sein?

Im ländlichen Raum spitzt sich die Lage immer mehr zu: Es gibt kaum Pastorinnen oder Pastoren, die seelsorgerisch tätig sind. Das Start-up KI-Talks will daher eine KI mit einem besonderen Textkorpus trainieren, sodass diese in der Seelsorge eingesetzt werden kann.

Matthias, der Geschäftsführer von KI-Talks, ist bei einem Team-Meeting voller Enthusiasmus. „Wir können die schon vortrainierte KI LLaMA von Meta nehmen und sie mit bestimmten Texten weiter trainieren. Also nicht nur mit Texten aus der Bibel und viel theologischer Literatur – wir könnten auch gleich alle Predigten, die im Internet auf Deutsch zu finden sind, in die Trainingsdaten geben.“ Er denkt außerdem darüber nach, ob es sinnvoll wäre, ältere Bibelübersetzungen hinzuzunehmen.

Oktay, Senior Engineer bei KI-Talks, fragt in die Runde, warum es denn eigentlich nur christliche Texte sein sollen. Sollte nicht auch der Koran hinein? Und die vielen jüdischen Auslegungen der Tora? Er fragt auch: „Sollten wir nicht gleich mehrere verschiedene LLaMAs trainieren? So können die Leute auswählen, welches sie haben wollen. Vielleicht gibt es sogar einen Vergleichsmodus, wo man sehen kann, was der Iman meint, was der Rabbi oder was die Pastorin?“

Emma, Frontend Engineer bei KI-Talks, schnaubt: „Ihr glaubt wohl, es gibt nur eine Auslegung? Was ist mit feministischer Theologie? Und dann müssen wir auch die ganzen Fundamentalisten mit ihren wortgetreuen Bibelauslegungen beachten: Sollen die auch abgebildet werden? Und kann LLaMA die wirklich alle auseinanderhalten? Es gibt auch weitere Religionsunterschiede: Ich glaube, die Katholiken sehen die Welt ein bisschen anders als die Lutheraner.“

Matthias wirft ein, dass man die Varianten sehr wohl unterscheiden könne. Ähnlich wie beim Segensroboter BlessU-2 [1], bei dem man die Art des Segens (Ermutigung, Erneuerung, Begleitung oder traditionell) auswählen kann, sollte man zum Beginn des Gesprächs einfach auf den gewünschten Religionsknopf klicken.

Emma meint, es sei überhaupt nicht klar, ob man verschiedene Religionsvarianten automatisch auseinanderhalten kann. Gerade bei der Unterscheidung von Fundamentalismus und weniger radikalen Auslegungen werde ein Knopfdruck nicht ausreichen, da brauche man eher einen Schieberegler. Auf jeden Fall müsse man erst einmal ausprobieren, ob so etwas überhaupt möglich sei.

Wo sei da eigentlich die Grenze, fragt sie noch, bevor Matthias versucht zu besänftigen. Er wirft ein: „Leute, mal das alles beiseite, habt ihr im Studium etwa nichts über Eliza von Joseph Weizenbaum gelernt? Das ist doch der erste Chatbot gewesen! Eliza hat Psychoanalytik betrieben – im Grunde ist das nur Zuhören und Gesagtes an den Menschen zurückspiegeln. Mehr ist Seelsorge auch nicht, nur ein bisschen zuhören, so tun, als ob man versteht, und damit die Menschen dazu bringen, selber einzusehen, was sie nun tun sollen.“

Emma kann sich zwar erinnern, dass im Studium auch etwas Kritisches zu Eliza gesagt worden war, aber sie weiß nicht mehr genau, was das war. Sie wirft noch ein, dass die Firma bereits so etwas Ähnliches gemacht hat: Es gibt doch deren KI-gestützten persönlichen Coach. Vielleicht könnten sie auch die Tests von damals verwenden. Aber sie besteht darauf, eine sehr breite Basis an theologischen Texten für das Training zu verwenden.

Oktay möchte viel Zeit in das Testen investieren, denn er glaubt, dass es problematische Gespräche geben kann. Man müsse viel Feedback von Menschen sammeln, die mit dem Chatbot sprechen, um zu verhindern, dass sich jemand nach einem Gespräch vielleicht etwas antut. Das ist schon bei anderen Chatbots passiert. [2]

Matthias sieht keinen Sinn in zu vielen Tests. Das kann man in späteren Versionen nachjustieren. „Wir müssen nur zuerst am Markt sein, dann können wir Zeit in Nachbesserungen stecken“, sagt er. Er entwirft nun einen straffen Zeitplan, denn er ist sich sicher: Auf den Chatbot von KI-Talks hat die Welt gewartet. Man müsse sich schon deswegen beeilen, weil die seelsorgerische Not mit jedem Tag wachse. Und ein gutes Geschäft könne man dabei sicher auch machen. Er wird gleich morgen einen Termin mit der Marketingfirma vereinbaren, die sie bei der Markteinführung unterstützen könnte.  

Fragen:

  • Ist es ein ethisches Problem, dass Matthias, ­Oktay und Emma beruflich einen Chatbot für die Seelsorge trainieren und programmieren wollen, obwohl offenbar niemand plant, Fachleute für Seelsorge oder Religion hinzuzuziehen?
  • Ist es ethisch problematisch, wenn man mit einer bot-basierten Technologie Gewinn aus den seelsorgerischen Nöten der Menschen erzielen will?
  • Müssen technische Systeme für Seelsorge mit besonderer Sorgfalt bedacht werden? Warum oder warum nicht?
  • Ist es ethisch vertretbar, überhaupt einen Seelsorge-Chatbot erstellen zu lassen? Macht es einen Unterschied, ob man mit einem Menschen kommuniziert oder einem Bot?
  • Sollten seelsorgerische Anwendungen ­kontrolliert werden, wenn sie potenziell eine Gefahr für Menschen darstellen könnten? Ist das überhaupt möglich?
  • Wie könnte die Qualität von solchen Chatbots getestet und kontrolliert werden?

Quellen:

[1] https://www.youtube.com/watch?v=XfbrdCQiRvE sowie ein Artikel, der leider nur noch im Internet-Archiv verfügbar ist

[2] https://de.euronews.com/next/2023/04/02/chatbot-eliza-ki-selbstmord-belgien

Erschienen in .inf 04. Das Informatik-Magazin, Winter 2023,  https://inf.gi.de/04/gewissensbits-im-seelsorgerischen-ki-gespraech

Leave a Reply

You can use these HTML tags

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>