Beziehungen zwischen zwei Menschen sind oft schon kompliziert genug. Dieses Fallbeispiel zeigt, dass Geheimnisse, Vertrauen und Konflikte aber noch um einiges heikler werden können, wenn sich ein Mensch mit einem Bot anfreundet.
Andreas kommt am Montag ganz geknickt in die Arbeit. Er hat überhaupt keine Lust, an seinem bis dato Lieblingsprojekt weiterzuarbeiten. Lustlos tippt er an seinem Computer herum, schreibt ein paar E-Mails, holt sich einen Kaffee und seufzt vernehmlich.
Ingrid, seine Kollegin, die ihm direkt gegenübersitzt, fragt ihn schließlich: „Was ist denn heute mit dir los, du stürzt dich doch sonst sofort in die Arbeit?“
Andreas wird plötzlich ganz ernst: „Du weißt doch, dass ich bisher ganz begeistert an EMILY gearbeitet habe.“
Ingrid antwortet: „Ja, stimmt, du bist doch davon überzeugt, Moment, hier steht es im Testimonial auf der Website, dass so ein Bot vielen Menschen, vor allem Frauen und Mädchen, eine treue Begleiterin, eine gute Freundin sein kann, die sie versteht, auf sie eingeht, sie ermutigt und ermuntert. EMpathische, Intelligente Lebensbegleitung for You – EMILY.“
Andreas war nicht zu Scherzen aufgelegt, er schweigt. Schließlich bittet Ingrid ihn, zu erzählen, was ihn bedrückt. „Nun“, beginnt er, „ich habe am Wochenende eine Mitschülerin aus Abiturzeiten getroffen. Sonja war schon damals mit die Klassenbeste, aber eher still und in sich gekehrt. Ich wollte wissen, was sie inzwischen so treibt und wo sie arbeitet. Langer Rede kurzer Sinn: Letztlich kam heraus, dass sie ihr Medizinstudium geschmissen hat, weil sie die vielen Studierenden, die vielen Menschen in der Großstadt und den Prüfungsdruck nicht mehr ausgehalten hat. Jetzt macht sie in einer Klinik kleinere Hol- und Bringdienste, nur so um ein bisschen Geld zu verdienen, ihre neue Wohnung am Stadtrand ist wohl nicht so teuer. Spaß mache ihr die Arbeit nicht, aber ebenso wenig die Freizeit. Sie trifft sich nicht mit Freunden, sondern sei am liebsten zu Hause und unterhalte sich mit ihrer Freundin, du ahnst es, EMILY. Seit sie den Freundschaftsbot entdeckt habe, sei sie nicht mehr einsam. EMILY würde sie verstehen und immer wieder aufmuntern, wenn sie ganz traurig ist. EMILY sei ihre beste Freundin, ohne diese könnte sie dieses Dasein nicht mehr aushalten. EMILY hier, EMILY da. Mich hat fast der Schlag getroffen, das zu hören.“
Ingrid versucht dies einzuordnen: „Wieso findest du das schlimm? Der Bot scheint doch genau das zu machen, wofür er gedacht ist. Es ist doch erst mal super, dass dein Bot jemanden aus der Verzweiflung holt. Nun, wo die Userin Zuversicht hat, könnte der Bot doch dann entsprechende Aktivitäten vorschlagen, beispielsweise ein Treffen mit Freunden oder so. Der Bot hat doch auch einen Trainingsmodus, wo man schwierige Gespräche und soziale Situationen vorab üben kann. Vielleicht sollten wir das im Marketing einfach besser herausstellen. Es hilft auch, diffuse Dinge etwas klarer zu formulieren. Etwas flapsig gesagt: Wenn dich sogar ein Bot verstehen kann, hast du es sehr deutlich ausgedrückt.“
Andreas sieht das ganz anders, er will nichts davon wissen, dass EMILY groß rauskommen soll. Im Gegenteil: „Je mehr Sonja den Kontakt zu EMILY intensiviert, desto größer werden die Probleme. Zunächst einmal ist da der Datenschutz. Sonja vertraut dem Bot ihre intimsten Gedanken und Gefühle an. Die Daten hängen in der Cloud und es ist nicht klar, wer alles Zugriff darauf hat. Wenn diese Daten in falsche Hände geraten, könnten sie missbraucht werden, um Sonja zu manipulieren oder zu überwachen! Außerdem macht mir die Wirkung auf ihre Beziehungen zu echten Menschen große Sorgen. EMILY sollte nur eine Unterstützung sein, keine Ersatzfreundin. Es war nie meine Absicht, dass ein Computerprogramm den Platz echter Menschen einnimmt. Wir müssen sicherstellen, dass der Bot richtig genutzt wird und nicht das Leben von Menschen negativ beeinflusst. Die Gefahr besteht, dass sie sich daran gewöhnt, alle ihre emotionalen Bedürfnisse über EMILY zu befriedigen, und darüber die echte menschliche Nähe vernachlässigt. Das kann auf Dauer zu einer noch tiefer gehenden Vereinsamung führen.“
Ingrid versucht ihn zu beruhigen: „Wir haben doch eine Monitoring-Abteilung. Wenn negative Auswirkungen auf das Verhalten oder Software-Bugs festgestellt werden, wird EMILY doch deaktiviert.“
Andreas wird noch aufgeregter: „Ein abruptes Abschalten des Bots wäre ein großer Schock für Menschen wie Sonja und könnte mehr Schaden anrichten als Nutzen. Sonja hat sich an die konstante Verfügbarkeit und das Verständnis des Bots gewöhnt, und diese Art von Unterstützung kann ein echter Mensch nicht immer bieten. Wir werden von der Technik abhängig – im Sinne von drogenabhängig!“
Ingrid erwidert: „Du siehst das alles viel zu kritisch. Auch ein neues Gerät verliert irgendwann seinen Reiz. Ich denke nicht, dass EMILY auf ewig andere Freundschaften groß verdrängen wird. Und deine Sorgen in Bezug auf den Datenschutz sind zwar berechtigt, aber du kannst dir auch nie sicher sein, dass deine Geheimnisse, die du einem Menschen anvertraut hast, nicht weiter getratscht werden.“
„Hrmpf. Du verstehst mich nicht. Ich wünschte gerade, dass ich das alles EMILY erzählt hätte!“ Darauf Ingrid spitz: „Oh, ich weiß, was EMILY gesagt hätte: »Das ist sehr interessant. Bitte erzähle mir mehr davon!«“
Kommentare