|
aus den Ethischen Leitlinien 2004:
Verantwortung
1. Individuell
Ethik befasst sich mit dem vorbedachten Handeln von Menschen, die die Folgen ihres Handelns für andere Menschen, ihre Mitgeschöpfe und die Umwelt reflektieren. Hierbei können die Folgen des Handelns unmittelbar oder über längere Zeiten und größere Räume zu bedenken sein. Was der einzelne Mensch hinsichtlich dieser Handlungsfolgen und der moralischen Bewertung der Handlung selbst bedenken und beeinflussen kann, obliegt seiner individuellen Verantwortung. Eine Definition von Verantwortung beinhaltet mindestens folgende Komponenten:
jemand ist verantwortlich |
-> |
Personen, Korporationen etc. |
für etwas |
-> |
Folgen |
gegenüber einem Adressaten |
-> |
Betroffene |
vor einer Instanz |
-> |
Sanktions- und/oder Urteilsinstanzen |
in Bezug auf Kriterien |
-> |
Normen, Werte |
im Rahmen eines bestimmten Kontextes |
-> |
Verantwortungs- und/oder Handlungsbereiche |
Da Menschen die Folgen ihres Handelns nicht immer abschätzen können, sollten Entscheidungen stets so getroffen werden, dass sie widerrufbar sind und korrigierbar bleiben. Damit wird der Handlungsspielraum aller Beteiligten erweitert und nicht von vornherein alternativlos eingeschränkt.
2. Gemeinschaftlich
Für den einzelnen Menschen sind die Folgen gemeinschaftlichen Handelns in Organisationen, Gruppen, Wirtschaften und Kulturen nicht immer überschaubar. Gemeinschaftliches Handeln bedarf deshalb zusätzlich zur individuellen der gemeinschaftlichen Reflexion. Gemeinschaftliche Verantwortung beruht auf der Möglichkeit, mit Vor-Sicht künftige Handlungen, die sich nicht oder nur teilweise an Erfahrungen und daraus entwickelten Normen orientieren können, gemeinschaftlich zu bedenken. Eine besondere Notwendigkeit solcher Reflexion ergibt sich immer dann, wenn individuelle Ansprüche mit jenen einer Gemeinschaft in Konflikt geraten, die Handlungsmöglichkeiten einzelner Personen nicht ausreichen oder eindeutige Verantwortungszuweisungen nicht möglich sind. Diskurse sind mögliche Verfahren der gemeinschaftlichen Reflexion über Verantwortungsfragen.
Heutzutage gehören moderne Technologien für viele ältere Menschen genauso zum Alltag wie für jüngere. Trotzdem gibt es gerade bei Pflegebedürftigen einige schwierige Fragen zu beantworten.
Thure Dührsen und Gudrun Schiedermeier
Was zunächst vielversprechend klingt, bringt einige Tücken mit sich: Der Einsatz von Robotern in Pflegeeinrichtungen wirft viele Fragen auf, wie dieses Fallbeispiel zeigt.
Clemens hat gerade seinen Bachelorabschluss in Informatik gemacht und sitzt mit ein paar Kommilitoninnen und Kommilitonen in Bierlaune zusammen. Auch Andrea, die Philosophie studiert, ist mit dabei. Gemeinsam überlegen sie, ob sie sich mit dem an der Uni entwickelten Reinigungsroboter selbstständig machen sollen. Andrea merkt an, dass gerade in Pflegeeinrichtungen solche Roboter dringend notwendig seien. „Wenn die Böden verschmutzt sind, müssen sie sofort gereinigt werden. Und nicht immer sind gleich Reinigungskräfte vor Ort. Dann müssen die Pflegekräfte selbst einspringen und haben dadurch weniger Zeit für die Pflegebedürftigen.“ Clemens ist hellauf begeistert. „Das ist die Chance für unseren Reinigungsroboter. Damit fangen wir an.“
Am nächsten Tag gehen die beiden in die örtliche Altenpflegeeinrichtung, die Sonnengarten-Villa. Hier sind sie gut bekannt, denn zu Studienzeiten hatten sie Spielenachmittage mit den Bewohnerinnen und Bewohnern veranstaltet. Aufmerksam gehen sie durch die Räume. In einem Tagesraum beobachten sie eine alte Dame, die hingebungsvoll die Roboter-Robbe Paro streichelt. Sie lächelt glücklich, als Paro leise fiept. Sie schaut auf und sagt zu Andrea, die sie von den Spielenachmittagen kennt: „Wenn sie jetzt noch etwas sprechen könnte: Ach, wäre das schön.“
Ein Herr im Rollstuhl wird von einem Assistenzroboter beim Trinken unterstützt, als ein Saugroboter mit lauten Geräuschen auf ihn zufährt. Er erschrickt und schreit den Roboter an: „Weg, weg!“ Gleich wird er von einer Pflegerin beruhigt, die den Roboter abstellt und in einen anderen Raum bringt. Von ihr erfahren Clemens und Andrea, dass einige alte Pflegebedürftige ängstlich oder gewaltsam, zum Beispiel mit Tritten, auf den Lärm und die Bewegungen des Saugroboters reagieren. Andrea hat spontan einen Lösungsvorschlag. „Dann müsst ihr den Roboter eben nett sprechen lassen, wenn er auf die alten Leute zufährt …“ Clemens findet die Idee gut, kommt aber ins Grübeln und überlegt, wie sie die Geräusche ihres Reinigungsroboters eindämmen können, sodass die Sprachausgabe gut zu verstehen ist.
Am Abend erzählt er seiner Freundin Silke begeistert von den Ideen. Sie ist aber skeptisch: „Ich finde, dass ihr die Alten mit so einem Roboter täuscht. Stell dir mal deine Oma vor, die darauf reinfällt und meint, sich mit einem echten Menschen zu unterhalten.“ Clemens sieht das anders. Er erzählt Silke von Start-ups, die noch viel weiter gehen. „Hast du schon mal was von Deadbots gehört? Das sind Chatbots, durch die du dich mit Verstorbenen unterhalten kannst. Wenn du nur ein paar Audioschnipsel hast, imitieren die perfekt die Toten. (https://www.watson.ch/wissen/digital/446276751-wenn-tote-redenstart-ups-schaffen-digitale-versionen-von-verstorbenen) Stell dir mal das in einem Altenheim vor!“
Silke lässt sich davon nicht beeindrucken: „Ja, in der Tat, lass dir das mal auf der Zunge zergehen! Du willst nun sagen, deine Oma sei angesichts der perfekten Imitation, sagen wir von ihrem geliebten Karli, geradezu verzückt. Ich glaube aber, dass sie das komplett verwirren würde. Sie würde nicht erkennen, ob sie mit einem echten Menschen redet oder ob die Stimme von einer Maschine kommt. Und selbst wenn: dass die Deadbots nur eine arg begrenzte Menge Material gespeichert haben, das wird sie herausfinden und dann sehr enttäuscht sein. Und wenn du sie das nächste Mal besuchst, wird sie dir das vorhalten: ‚Der sagt ja immer nur dasselbe! Das ist langweilig.‘ Und wie wird es erst dir selbst gehen, wenn deine Oma gestorben ist und du auf eine KI-Unterhaltung mit ihr angewiesen bist! Willst du das jahrzehntelang machen? Und angenommen, der Bot kann wirklich überzeugend argumentieren: Ich weiß ja nicht, mit welchen Daten solche Systeme trainiert werden – was, wenn sie auf die falschen zugreifen und dadurch Straftaten in Betracht ziehen? Stell dir mal folgendes Szenario vor: Hans-Jürgen ist ziemlich knapp bei Kasse, damit liegt er seinem Sohn ständig in den Ohren – warum sollte er es nicht auch dem Chatbot erzählen und der schlägt ihm einen nächtlichen Streifzug durch die Räume vor? Ausschließen kannst du das nicht!“
Clemens ist ernstlich bestürzt. Aber Silke kommt jetzt erst richtig in Fahrt: „Die Chatbots werden im Laufe der Zeit jede Menge über das familiäre Umfeld der Menschen im Heim erfahren. Und irgendwann sagt ein Roboter vielleicht zu deiner Oma: ‚Du hast doch schon so lange nichts mehr von deinem Enkel gehört. Ob es ihm gut geht?‘ Und dann ist sie aufgewühlt und kann nicht mehr schlafen. Angenommen, der Bot kennt den Ausdruck ‚sozialverträgliches Frühableben‘. Dann wird er deiner Oma irgendwann nahelegen, dass sie sich die Radieschen von unten angucken soll!“
Obwohl Clemens erkennt, dass hier jede Menge Fragen einer Antwort harren, beschließt er, den Leiter der Sonnengarten-Villa aufzusuchen, der ihn noch in derselben Woche empfängt. „Reinigungs- und Unterhaltungsroboter in einem? Immer her damit! Billig wird das wohl nicht, aber auf lange Sicht: Wenn ich Personalkosten einsparen kann, prima!“
Fragen
- Darf man alte Menschen mit Chatbots in einer Unterhaltung täuschen, indem man ihnen die Stimmen anderer Personen vorgaukelt? Wie sieht es aus, wenn es sich um demente oder psychisch kranke Menschen handelt?
- Ist es ethisch vertretbar, Stimmen Verstorbener in einem Altenheim für einen Unterhaltungsroboter zu verwenden?
- Kann man sicherstellen, dass die Daten, die ein Unterhaltungsroboter in den Gesprächen sammelt, nicht anderweitig verwendet werden, z. B. wenn er sich mit einer anderen pflegebedürftigen Person unterhält?
- Wie verhindert man, dass ein Chatbot Pflegebedürftige zu unklugen oder gefährlichen Handlungen verleitet?
- Wie erklärt man Kindern, dass sie einen Deadbot trainieren? Welche langfristigen seelischen Schäden sind hier zu befürchten?
- Welche Auswirkungen könnte der breite Einsatz von Pflegerobotern auf die Ausbildung von Pflegekräften haben? Auf ihre Motivation?
- Wie geht man mit versagender Hardware um? Wie überwacht man die Pflegeroboter?Unter welchen Bedingungen ist es zwingend nötig, die Pflege durch einen Roboter abzubrechen und stattdessen einen Menschen übernehmen zu lassen? Was passiert, wenn dann nicht genügend Pflegepersonal zur Verfügung steht?
- Wie geht man in solchen Fällen mit einem großflächigen Stromausfall um?
erschienen in .inf 02. Das Informatik-Magazin, Sommer 2023, https://inf.gi.de/02/gewissensbits-die-rentnerin-und-der-roboter
Christina B. Class, Wolfgang Coy, Constanze Kurz, Otto Obert, Rainer Rehak, Carsten Trinitis, Stefan Ullrich, Debora Weber-Wulff
Liebe Leserin, lieber Leser,
seit gut 13 Jahren, seit der 4. Ausgabe 2009 des Informatik Spektrums, haben wir 78 Fallbeispiele mit Fragen geschrieben, um uns alle zum Nachdenken zu bringen und mit Ihnen zu diskutieren – in der Kolumne Gewissensbits. Vorangegangen waren einige Jahre, in denen wir Fallbeispiele entwickelten und ein Buch schrieben.
Die Fachgruppe „Informatik und Ethik“ wurde im Dezember 2003 gegründet. Sie entstand aus dem Arbeitskreis „Informatik und Verantwortung“, der die Ethischen Leitlinien von 1994 überarbeitete. Diese zweite Version der Leitlinien wurde 2004 vom Präsidium der GI verabschiedet. Schnell einigten wir uns darauf, dass wir uns als Fachgruppe insbesondere auch um den Diskurs bemühen wollen. Bereits in den Leitlinien stand, dass die GI Diskussionen über ethische Fragen in der Informationstechnik initiieren und fördern wolle. Ausgehend von unseren Erfahrungen in der Lehre und dem Ansatz des Critical Thinking, der in den USA verbreitet ist, entwickelten wir über mehrere Jahre hinweg das Format der Gewissensbits.
2009 kam unser Buch („Gewissensbisse – Ethische Probleme der Informatik. Biometrie – Datenschutz – geistiges Eigentum“, tanscript Verlag) heraus und parallel dazu veröffentlichten wird im August 2009 die ersten Gewissensbits im Informatik Spektrum, ein Fallbeispiel namens „Biometrie“ [1]. Es behandelte die Nutzung von Fingerabdrücken zur Zahlung in einer Schulmensa und deren Nachnutzung, um den Diebstahl zweier Beamer aufzuklären.
In unserem Blog veröffentlichten wir den Fall und luden zur Diskussion ein. Unter anderem wurde die Frage aufgeworfen, ob ein solches Szenario realistisch sei. „Kaum vorstellbar ist jedoch, daß ein Schuldirektor eine solch heikle Maßnahme (schon das Sammeln der Fingerabdrücke) auf seine Kappe nimmt bzw. dazu die Rückendeckung der Schulpolitiker erhält.“ [1]. Eine Recherche ergab, dass an einigen Schulen in Deutschland bereits zwei Jahre zuvor, 2007, die Bezahlung per Fingerabdruck eingeführt wurde (z. B. [2]). Wir schreiben bewusst „Recherche“! Die Fallbeispiele des Buchs wurden über mehrere Jahre entwickelt, getestet und überarbeitet. Als wir uns den Fall „Biometrie“ überlegten, wussten wir nichts davon, dass Schulen bald Fingerabdrücke von Schüler*innen zum Zahlen in Schulmensen in Deutschland einsetzen würden. Die Realität hatte uns eingeholt.
So erging es uns mehr als einmal. Wir entwickelten Fallbeispiele, um Möglichkeiten und die damit verbundenen moralischen Fragestellungen zu diskutieren und stellten immer wieder fest, wie uns die Realität einholte – und manchmal zu überholen schien. Scherzhaft meinten wir in der Gruppe einmal, wir sollten vielleicht aufhören, Fallbeispiele zu entwickeln und die Zukunft „herbeizureden“.
Selbst im Team entstanden ein um das andere Mal intensive Diskussionen: Alle Fallbeispiele werden, nachdem sie entwickelt wurden, in einem Etherpad der Fachgruppe vorgelegt. Hier können Vorschläge zum Text direkt aufgenommen oder bearbeitet werden, und es entstehen dabei häufig Diskussionen im Chat – um Details wie Namen, Begriffe oder Wortspiele, bis hin zu wesentlichen Aspekten oder erweiterten Handlungssträngen des Falls. In einem Fall wurde innerhalb des Teams der Einwand aufgeworfen, dass der Fall gar sehr konstruiert daher käme und wenig realistisch sei. Umso größer die Überraschung, als klar wurde, dass dieses Fallbeispiel auf einem aktuellen anonymisierten und etwas veränderten Fall basierte.
Ja, die Realität hat uns das eine oder andere Mal überrascht und immer wieder deutlich gemacht, wie wichtig die Diskussion dieser Fragen und auch der Beitrag von Fallbeispielen für die Diskussion ist.
Manche Fälle entstanden auch als Reaktion auf ein konkretes Ereignis. So griffen wir den Gesichtserkennungstest am Bahnhof Südkreuz in Berlin direkt auf. Auf Aussagen des damaligen Bundesinnenministers Seehofer in der Presse, der Fehlversuch sei erfolgreich gewesen [3], antworteten wir mit einem abgewandelten Fall, um deutlich zu machen, was diese Zahlen bedeuten, wenn viele Personen betroffen sind (Fallbeispiel „Statistische Irrungen“ [4]). Persönliche Rückmeldungen in Gesprächen zeigten, dass dies ein Fall ist, der sich auch für Kurse zu Statistik oder Data Literacy eignet. In dem Beitrag „Data Literacy: Kompetenzrahmen für Hochschulen“ [5] wird auf diesen Fall hingewiesen, um Daten im Kontext gesellschaftlicher und kultureller Wechselwirkungen zu betrachten.
Nicht alle Fälle beinhalten informatikspezifische Fragen oder haben einen technischen Kern. So haben wir zum Beispiel die Themen Plagiate, Pseudokonferenzen und Ghostwriting mehrfach aufgegriffen.
Die gemeinsame Entwicklung von Fallbeispielen und unsere Diskussionen änderten auch unseren Blick auf die Welt. Immer wieder stellten wir uns die Frage, ob sich daraus ein Fallbeispiel machen lasse. Die Teilnahme an einem Workshop „Teilhabe in der digitalen Transformation“ der Evangelischen Kirche im Rheinland führte dazu, die Frage, inwiefern die zunehmende Digitalisierung arme Menschen ausschließt, aufzugreifen (Fallbeispiel „Abgehängt?“ [6]).
Wir alle können immer wieder in Dilemma-Situationen kommen, die nicht direkt mit Informatik verknüpft sind, als Privatpersonen, im beruflichen oder universitären Umfeld.
Auf einen Fall möchten wir daher besonders hinweisen: „Karins Dilemma“ [7]. Dieser Fall spricht eine solche Situation an. Das Wort „Informatik“ spielt hier kaum eine Rolle und könnte durch eine beliebige andere Disziplin ersetzt werden. Es geht um sexuelle Belästigung im universitären Umfeld und die Ausnutzung der Machtposition eines Professors. Leider kommen solche Fälle in der Realität immer wieder vor. Und leider ist es bei solch ungleichen Machtverhältnissen auch für Personen, die unterstützen wollen, nicht immer folgenlos. Das Fallbeispiel hat nur einen Autor. Als emeritierter Professor und Mann war es der explizite Wunsch von Wolfgang Coy, dass das Beispiel nur unter seinem Namen veröffentlicht wird und nicht zusammen mit jemandem, der oder die noch etwas zu verlieren hat.
Was verdeutlicht dieser Fall? Unser moralisches Urteil ist nicht nur im Zusammenhang mit Informatik gefragt. Zivilcourage braucht es nicht nur, wenn z. B. auf mangelnden Datenschutz hingewiesen wird. Nein! Wir sind in unterschiedlichsten Situationen herausgefordert und müssen Stellung beziehen. Das moralische Urteil zu schärfen, Dilemmata zu diskutieren, sich Lösungsmöglichkeiten zu überlegen und den Blick für den Anderen, die Betroffene zu schärfen hilft in den unterschiedlichsten Situationen des Lebens. Auch darum sind uns die Diskussionen bereits bei der Entwicklung der Gewissensbits, der Fallbeispiele, im Zusammenspiel mit den aufgeworfenen Fragen, wichtig.
Die Fallbeispiele laden alle dazu ein, sich mit Fragen der Ethik auch ohne Philosophie- oder Informatikstudium zu beschäftigen. So behandelt der Fall „Menschenrechte“ Fra- gen der Kooperation mit einer Universität in einem Land, das für gravierende Menschenrechtsverletzungen bekannt ist [8]. Auch dieser Geschichte liegt ein wahrer Kern zugrunde. Aber auch unsere auf den ersten Blick rein „technischen Fälle“ weisen auf tiefer liegende moralische Probleme hin.
Die Fallbeispiele sind für Diskussionen mit Student*innen, im Kollegen- oder Freundeskreis entwickelt. Einige Fallbeispiele eignen sich auch für die Schule. Allerdings muss man hier darauf achten, dass die Fälle einen Bezug zur Lebenswelt der Schüler*innen darstellen. Auch müssen die Fragen bei jüngeren Schüler*innen gegebenenfalls präzisiert und angepasst werden.
Wir wurden immer wieder darauf angesprochen, ob wir nicht Lösungsvorschläge für unsere Fallbeispiele, d. h. Antworten auf unsere Fragen veröffentlichen könnten. Unsere klare Antwort lautet hier: Nein, das wollten wir nie. Das Ziel der Fallbeispiele besteht ja gerade darin, die verschiedenen Aspekte eines Falls zu erkennen und zu diskutieren und dann gemeinsam zu einer Lösung zu gelangen. Hier handelt es sich um einen demokratischen Aushandlungsprozess, und es gibt oft nicht einfach „die“ eine richtige Lösung. Wesentlich ist aber, dass wir lernen, ins Gespräch zu kommen.
Um die Diskussion zu fördern, richteten wir in unserem Blog auch die Kommentarfunktion ein. Und wir haben darauf geachtet, auf alle Einwände und Kommentare zu reagieren und zu antworten. In ganz seltenen Fällen mussten wir leider auch Kommentare löschen, weil sie vollkommen unpassend oder unangemessen waren. Den ein oder anderen, auch etwas grenzwertigen oder „speziellen“ Kommentar haben wir dagegen zugelassen. An dieser Stelle erwähnen möchten wir einen Kommentar von „Gott“ zu unserem Fallbeispiel „Data Mining für Public Health“ [9]: „Totaler scheiss so was schlechtes habe ich noch nie erlebt. Die fragen kann ja ein drei Jähriger beantworten ohne das er denn Text gelesen haben muss“ (man beachte die Orthographie).
Dies ist unser letzter Text der Reihe „Gewissensbits – wie würden Sie urteilen?“ im Informatik Spektrum. Wir danken dafür, dass Sie uns all die Jahre gelesen haben, für Ihr sehr geschätztes Feedback im Blog, aber insbesondere auch für die Gespräche über die Gewissensbits und Ihre Reaktionen, wenn wir uns persönlich begegnet sind. Eine Auswahl von Fallbeispielen wird im Frühjahr 2023 im transcript Verlag in Buchform mit einer Open-Access-Lizenz herauskommen. Wir werden dies in unserem Blog ankündigen.
Dieser Text ist jedoch kein Abschied. Die Gewissensbits, anregende Bits für unser aller Gewissen, werden fortgeführt im neuen Mitgliedermagazin der GI. Wir werden sie auch weiterhin in unserem Blog (gewissensbits.gi.de) veröffentlichen und freuen uns bereits auf zukünftige Diskussionen mit Ihnen.
Bis bald, in einem anderen Kanal.
Auf WiederLESEN!
Quellen
[1] https://gewissensbits.gi.de/fallbeispiel-biometrie/. Zugegriffen: 4. Oktober 2022
[2] https://taz.de/Biometrische-Kontrolle-im-Alltag/!5180398/. Zugegriffen: 4. Oktober 2022
[3] https://taz.de/Gesichtserkennung-im-oeffentlichen-Raum/!5540406/. Zugegriffen: 4. Oktober 2022
[4] Informatik Spektrum 42(5). https://gewissensbits.gi.de/fallbeispiel-statistische-irrungen/. Zugegriffen: 4. Oktober 2022
[5] Bush A, de Gruisbourne B, Matzner T, Schulz C (2021) Data Literacy: Kompetenzrahmen für Hochschulen. Arbeitspapier. https://www.campus-owl.eu/fileadmin/campus-owl/dalis/documents/Kompetenzrahmen_Workingpaper210921.pdf. Zugegriffen: 4. Oktober 2022
[6] Informatik Spektrum 45(3). https://gewissensbits.gi.de/fallbeispiel-abgehaengt/. Zugegriffen: 4. Oktober 2022
[7] Informatik Spektrum 34(5). https://gewissensbits.gi.de/fallbeispiel-karins-dilemma/. Zugegriffen: 4. Oktober 2022
[8] Informatik Spektrum 38(3). https://gewissensbits.gi.de/fallbeispiel-menschenrechte/. Zugegriffen: 4. Oktober 2022
[9] Informatik Spektrum 37 (1). https://gewissensbits.gi.de/fallbeispiel-data-mining-fuer-public-health/. Zugegriffen: 4. Oktober 2022
Erschienen im Informatik Spektrum 45 (6), 2022, S. 404-406, doi: https://doi.org/10.1007/s00287-022-01501-z
Wenn Kinder sich ein Smartphone wünschen, stehen Eltern vor vielen schwierigen Entscheidungen. Unser Fallbeispiel stellt einige davon vor – und zeigt auch, wie diese bei Jugendlichen ankommen können.
Marcus Schmidt, Stefan Ullrich und Christina B. Class
Monika und Oliver wussten, dass der Tag kommt, an dem sie ihrer Tochter Lea das Smartphone nicht mehr verweigern können. Lea ist elf und die Schule informiert jetzt online über Hausaufgaben und Änderungen im Stundenplan, ihre Freundinnen verabreden sich fast nur noch über den Messenger und überhaupt sind die besten Videos im Netz zu finden. Glücklicherweise gibt es eine Vielzahl von Apps, die sich mit Funktionen zum Schutz von Jugendlichen rühmen und mit denen Eltern Kontrolle über die Bildschirmzeit haben. Monika und Oliver ist es außerdem wichtig, dass sie jederzeit im Blick haben, welche Apps ihre Tochter installiert und wo sie sich aufhält. Monika will auf keinen Fall, dass Lea sich jetzt schon einen Account zulegt, über den sie Fotos postet und dann Likes hinterherjagt. Oliver findet es beruhigend, dass er sehen kann, wo Lea sich befindet, wenn sie mal zur ausgemachten Zeit nicht zu Hause ist.
Für Lea ist das kein Problem. Sie ist einfach glücklich, dass sie endlich ein Smartphone hat und jetzt immer das Neueste erfährt und mitchatten kann. Zweimal lässt sie sogar ihr Smartphone liegen und kann es durch die eingeschaltete Standortfunktion über die Geräte ihrer Eltern leicht wiederfinden. Die installierten Apps beruhigen Monika und Oliver. So ist der Sprung der Tochter ins kalte digitale Wasser doch einfach ein bisschen sicherer. Sie sagen Lea auch von Anfang an, dass sie immer mal schauen würden, ob bei ihr online alles okay sei. Abends sitzen sie manchmal alle zusammen am Esstisch, schauen neue Apps an oder reden über ein paar grundlegende Gefahren: „Poste keine Bilder von dir. Antworte keinen Fremden. Sei lieber kritisch bei dem, was du online so alles siehst oder liest. Wenn was nicht stimmt, sind wir für dich da.“ Solche Sachen eben.
Nach zwei Wochen entdeckt Monika, als sie mit Lea zusammen deren Nachrichten ansieht, eine sehr seltsame Kontaktanfrage im Messenger. Sie bekommt ein ungutes Gefühl und schärft Lea eindringlich ein, solche Anfragen nicht zu beantworten. Auf dem Elternabend zwei Tage später bringt sie das zur Sprache. Ein Vater erzählt, dass seine Tochter Anna wohl eine solche Anfrage erhalten und angenommen habe. Daraufhin seien einige sehr anzügliche Nachrichten gefolgt und Anna sei etwas verstört gewesen. Eine andere Mutter erzählt, dass auch ihr Sohn eine sehr seltsame Kontaktanfrage erhalten habe. Der Klassenlehrer verweist auf Informationsseiten im Netz und versichert, dass er dies im Unterricht thematisieren werde.
Bei Lea überwiegt die Freude über das Smartphone einige Zeit und bald schon denkt sie gar nicht mehr so oft daran, dass ihre Eltern sie online verfolgen können. Erst als sie und ihre beste Freundin Mia sich heimlich mit der Jungsgruppe um Lukas treffen wollen und dafür in Richtung des alten Sportplatzes gehen, fragt sie sich laut, ob das ihre Eltern jetzt mitbekommen. „Ach“, sagt Mia, „schalt das Ding einfach aus und nachher wieder an und erzähl deinen Eltern, du hättest keinen Empfang gehabt. Klappt bei mir ständig.“ Lea schaltet das Gerät ab. Als sie am Abend am Küchentisch sitzt, fühlt sie sich etwas unsicher. Spürt sie, wie ihre Eltern irgendwie ein bisschen besorgt aussehen? Haben sie ihren Standort verfolgt, der sich lange Zeit nicht mehr bewegt hat? Warum muss das blöde Ding überhaupt so was an ihre Eltern senden? Ist doch ihre Sache, wo sie am Nachmittag ihre Zeit verbringt, oder etwa nicht?
Einige Zeit später liegt Lea träumend auf ihrem Bett. Sie hat sich inzwischen in Lukas verliebt und hat ihm heute ihre Nummer gegeben. Hoffentlich meldet er sich bald bei ihr. Gleich mal nachsehen – aber wo ist eigentlich ihr Smartphone? Sie läuft durchs Haus und sieht im Wohnzimmer ihre Mutter, die es in der Hand hält. Sie hat das Gerät über den Elternzugang entsperrt und scrollt … echt jetzt?? … durch die Nachrichten in ihrem Messenger. Lea fährt sie an: „Mama, was macht du an meinem Handy?“ Ihre Mutter gibt sich entspannt: „Ich wollte nur mal schauen, ob alles in Ordnung ist in deiner Welt.“ „Ohne mich zu fragen?“, entgegnet Lea barsch. „Das ist echt mies von dir! Nur ihr seid so misstrauisch, die Eltern meiner Freundinnen machen so was nicht!“ Monika gerät jetzt auch in Zorn: „Das ist nur zu deinem Schutz! Wenn wir keinen Zugang haben, dann hast du eben kein Smartphone.“ Sie rennt wütend aus dem Wohnzimmer und nimmt Leas Gerät gleich mit. „Zwei Tage Handyverbot, das hast du nun davon!“
Lea ist ebenfalls stinksauer. Wie soll sie frei mit ihren Freudinnen oder mit Lukas schreiben, wenn ihre Eltern einfach mitlesen können? Da fällt ihr ein, was Mia am Sportplatz erzählt hat – und als sie ihr Smartphone endlich zurück hat, öffnet sie ein privates Browserfenster und tippt: „Elternapp umgehen“. Sie bekommt große Augen, als sie die Ergebnisse sieht, und murmelt: „Wow, so einfach ist das?“
Fragen
- Dürfen die Eltern regelmäßig die Nachrichten von Lea lesen, ohne dass Anhaltspunkte für eine Bedrohung vorliegen? Sollte Lea in jedem Fall wissen, dass die Eltern Nachrichten lesen oder beim Lesen immer dabei sein?
- Wird durch das Lesen der Nachrichten die Privatsphäre derer verletzt, mit denen Lea kommuniziert?
- Wie wirkt sich die Nutzung einer solchen App potenziell auf das Verhältnis zwischen Lea und ihren Eltern aus?
- Ist es das moralische Recht von Lea, die Eltern-App zu umgehen?
- Dürfen Eltern ohne Hinweise auf eine Bedrohung regelmäßig den Standort ihres Kindes überprüfen?
- Wer ist dafür verantwortlich, die Jugendlichen zu Gefahren im Netz und zum Umgang damit zu informieren – die Eltern oder die Schule?
- Ist es vertretbar, Jugendlichen, zum Beispiel in der fünften Klasse, den Zugang zu Messengern etc. zu verwehren, wenn sie damit die einzigen in der Klasse sind, die keinen Zugang haben?
- Wo hören Blödeleien in Chatgruppen auf und wo sind die moralischen und/oder strafrechtlichen Grenzen?
- Inwiefern setzen Schulen „de facto“ eine Nutzung von Smartphones voraus? Welche Probleme ergeben sich daraus – insbesondere für Jugendliche, die keinen Zugang zu einem Smartphone haben? Müssen Alternativen angeboten werden?
- Abgesehen von (selten eingehaltenen) offiziellen Altersregelungen: Von welchen Apps sollte man Jugendlichen abraten und warum?
Weiterführende Informationen betreffend Mediennutzung für Jugendliche:
erschienen in .inf 01. Das Informatik-Magazin, Frühjahr 2023, https://inf.gi.de/01/schutz-oder-ueberwachung
Rainer Rehak, Debora Weber-Wulff
Zena hat immer schon in der Libera-Position gespielt als Kind auf dem Bolzplatz, später im Fußballverein, im Unisport erst recht und auch jetzt noch. Sie ist richtig gut, also aufmerksam und schnell, kraftvoll und ausdauernd. Dieses körperbetonte Hobby ist ein wunderbarer Ausgleich für die tägliche Arbeit am Bildschirm als wissenschaftliche Mitarbeiterin an der Technischen Uni vor Ort.
Zena hat Informatik studiert und ist fasziniert von künstlichen neuronalen Netzen, insbesondere von Bilderkennung, also dem, was oft „KI“ genannt wird. Dass aus ihrer Teilnahme im Robo-Fußball-Team der TU später ein richtiger Job werden würde, hätte sie niemals gedacht. Inzwischen ist sie PostDoc an der TU geworden und arbeitet immer noch mit den hundeähnlichen Robotern. Bei regelmäßig stattfindenden Turnieren spielen die Roboter in Viererteams eine Art Fußball, technisch gesehen eine große und spannende Herausforderung. Roboter sind immer auch ethisch interessant, doch die TU hat eine Zivilklausel, was Zena und ihrer militärkritischen Grundhaltung sehr entgegenkommt. Schließlich mussten ihre Eltern kriegsbedingt aus deren Heimat nach Deutschland fliehen. Von Kindesbeinen an wurde ihr eingeschärft: Kriege sind furchtbar und Menschen zu töten ist niemals eine Lösung.
Aktuell arbeitet sie an einem Drittmittelprojekt in Kooperation mit dem Hersteller einer der Robo-Hund-Varianten. Diese werden gern als Spielzeug verkauft, aber kommen auch in internationalen Robo-Fußball-Meisterschaften zum Einsatz. Es geht dabei um die technische Implementation von Kooperation, Bilderkennung und motorischer Leistung. Ihr Team hat schon mehrmals internationale Meisterschaften gewonnen und diverse Preise eingeheimst. Mit jedem Sieg wurde sie auch medial als Person bekannter: eine vergleichsweise junge Wissenschaftlerin mit Migrationshintergrund, die fußballspielende Hunde programmiert, das zog immer.
An einem sonnigen Mittwochnachmittag kommen plötzlich drei Uniformierte mit sehr ernsten Mienen in Zenas Büro an der TU. Sie sehen irgendwie nach Polizei aus, aber etwas ist anders. Zena ist verunsichert. Die Gäste bitten um 30Minuten ihrer Zeit, denn sie haben eine besondere Anfrage. Zena willigt ein und hört zu. Dabei wird sie zusehends angespannter: Es geht um eine dramatische Geiselname in einem nahen Einkaufszentrum, die bislang medial geheim gehalten wird, um die Geiseln nicht zu gefährden. Die Anfrage bezieht sich konkret darauf, dass die Robo-Hunde sich als Aufklärungsgeräte im Gebäude bewegen sollen, um die Geiselnehmer im Auge zu behalten. Die Robos sind klein, leise und haben die nötigen Sensoren. Wenn Zena einverstanden ist, würden sie direkt mit fünf Robo-Hunden, drei Laptops und den notwendigen Expert:innen losfahren.
Nach einer Stunde Bedenkzeit, in der sie alle möglichen Szenarien mit ihrer ebenso überraschten Mitarbeiterin durchspricht und ein paar Minuten an der frischen Luft verbringt, stimmt sie zu und alle machen sich auf den Weg.
In dem Einkaufszentrum im Vorort der Stadt hatten drei Personen mehrere Geiseln genommen und verlangten nun die Freilassung eines bekannten Inhaftierten. Keinesfalls wollen die Behörden auf diese Forderung eingehen, und suchen nach Möglichkeiten, dennoch die Geiseln zu befreien. Hier sollen die Robo-Hunde ins Spiel kommen und Echtzeitinformationen zur Beurteilung der Lage bereitstellen. Im Prinzip ist das technisch bekanntes Terrain in einem neuen Einsatzkontext.
Als Zena und die studentische Mitarbeiterin gerade alles aufgebaut haben, kommen ein hochrangiger Beamter des Spezialeinsatzkommandos und zwei Polizeitechniker dazu. Sie wollen die Robo-Hunde nun auch bewaffnen, allerdings nur mit einer kleinen ferngesteuerten Handfeuerwaffe. Alle nötigen Aufbauten, Halterungen und Anschlüsse sind bereits vorhanden, denn schon lange experimentiere man mit den gleichen Robo-Hunden, die auch Zena beforscht. Allerdings haben sie nur einen Roboter und der ist ein etwas älteres Modell. Es wäre sicherlich riskant, aber unter den aktuellen Umständen bislang die erfolgversprechendste Idee.
Zena fühlt sich überfahren und völlig überfordert. Sicherlich ist es ein sinnvolles Ansinnen, eine Geiselnahme zu beenden, aber will sie wirklich ihre Fußball-Robo-Hunde bewaffnen? Sie kann nicht klar denken, doch die Beamten warten ungeduldig. Ginge das vielleicht ausnahmsweise mal – im Einzelfall? Aber steht das nicht eigentlich gegen ihre Überzeugungen? Was würden ihre Eltern dazu sagen, was die Uni und was ihre Studierenden, und wird durch sie so ein Vorgehen dann langsam zum Standard? Und was ist, wenn wirklich ein Mensch stirbt und das alles eskaliert? Ist sie dann die eiskalte „RoboCop“-Forscherin und ihr guter Ruf passé?
So war das alles nicht abgesprochen, aber einfach so nach Hause fahren kann sie auch nicht.
Fragen
- Was ist eine Zivilklausel und ist sie eine sinnvolle Sache für Universitäten?
- Wozu gibt es Forschung an Roboterfußball? Ist das Ziel davon vereinbar mit einer Zivilklausel?
- Ist bei dieser Art von Forschung absehbar, dass sie später von Polizei oder gar Militär verwendet werden wird? Wie ist das zu bewerten?
- Ist es überhaupt eine vertretbare Forderung, derartige bewaffnete Systeme quasi ungetestet in den Einsatz zu bringen? Welche Argumente sollten dabei eine Rolle spielen und wie sollten sie gewichtet werden?
- Ist Robotik eine sogenannte Dual-Use-Technologie und welche Dual-Use-Technologien gibt es noch? Wie sollten Menschen damit ethisch und gesellschaftlich umgehen, insbesondere im universitären Forschungskontext?
- Ist es akzeptabel, „ausnahmsweise“ derartige Zweckentfremdungen von Forschungsarbeit zuzulassen? Kann es so etwas überhaupt „ausnahmsweise“ geben oder werden somit immer Präzedenzfälle geschaffen? Welche Verantwortung trägt Zena in diesem Fall?
- Was ist von derartiger Automatisierung von Polizeiarbeit zu halten? Was ist sinnvoll, was nicht und warum?
- Ist es anders zu bewerten, wenn Leute tatsächlich angeschossen werden, wenn gar Leute sterben? Ist es ein Unterschied, ob einer der Geiselnehmer oder aber die Geiseln verletzt oder getötet werden?
Erschienen im Informatik Spektrum 45 (5), 2022, S. 323–324, doi: https://doi.org/10.1007/s00287-022-01484-x
Gudrun Schiedermeier, Carsten Trinitis, Franziska Gräfe
Ben geht eigentlich ganz gerne in die Schule. Dort trifft er auch die meisten seiner Kumpels, insbesondere Chris, Lisa und Emma. Mit ihnen hängt er auch in der Freizeit oft zusammen, sie machen gemeinsam viel Sport, joggen, schwimmen, fahren Rad oder Ski, je nach Jahreszeit. Seit sie die neue Lehrerin für Wirtschaft und Sport haben, ist der Sportunterricht in der Schule auch ganz ok.
Doch die nächsten zwei Wochen ist erst einmal das Berufspraktikum angesagt. Lisa und Chris haben sich für etwas Soziales entschieden, Kindergarten oder Altenheim, also genau weiß Ben das gar nicht. Emma hat einen Platz in einer Autowerkstatt gefunden, das war ihr Traum sozusagen. Und auch für Ben hat sich sein Wunsch erfüllt: Er kann bei einem Freund seines Vaters in dessen Marketingfirma seine Medienkenntnisse unter Beweis stellen. Er hofft natürlich, dass er sich erst einmal nicht blamiert und – wenn alles gut geht – von den Profis dort einiges dazulernt. Computer haben ihn schon von klein auf fasziniert. Kein Wunder, sein Vater ist davon ja genauso begeistert und hat mit ihm schon viele Computerspiele gespielt, ihm aber auch die ersten Programmierkenntnisse beigebracht und einen Computer für ihn gekauft. In der Schule hat er in diversen Kursen sein Wissen vertieft. Insbesondere das Programmieren der Lego-Roboter fand er cool. Von seinen Freizeitaktivitäten hat er hin und wieder kleine Videoschnipsel produziert, die bei seinen Freunden und in der ganzen Klasse bald recht beliebt waren. Mit der Zeit hat er sich aber auf die Erstellung und Bearbeitung von Video und später auch von Audio spezialisiert.
Das Praktikum läuft gut an. Sie erstellen Werbevideos für verschiedene Produkte, von Kosmetika über Stühle und Fahrräder bis hin zu Mode. Schon nach einigen Tagen ist Ben voll im Geschäft und kann die Profis in der Firma unterstützen. Es macht ihm großen Spaß, und die Belegschaft ist ganz begeistert von seinen Ideen und seinem kompetenten Umgang mit den wichtigsten Video- und Audioschnitt-Programmen. Die zwei Wochen vergehen wie im Flug, und er kann sich vorstellen, später einmal in dieser Branche zu arbeiten. Die Gelegenheit kommt schneller als er denkt: Am Ende des Praktikums fragt ihn der Chef der Firma, ob er sich vorstellen könnte, neben der Schule Werbevideos für Sportklamotten zu erstellen. Die Sportklamotten würde er ihm zur Verfügung stellen, und die könnte er auf jeden Fall behalten. Viel Geld kann er ihm zusätzlich zu den Klamotten erst einmal nicht geben, das käme aber dann schon mit den Followern und dem gesteigerten Verkauf der Klamotten. Die Klamotten könne man nicht in Läden kaufen, der Verkauf sei nur über das Internet möglich, und mit seinen Werbevideos kann er sicher zu einer besseren Vermarktung beitragen. Schließlich entsprächen seine virtuellen Freunde genau der Zielgruppe des Herstellers.
Ben sagt sofort zu, und in den nächsten Wochen beschäftigt er sich hauptsächlich mit Werbevideos für die Sportklamotten. Er hat sich entschieden, die kurzen Clips im Internet zu veröffentlichen. Ideen hat er genug, auch während des Unterrichts denkt er viel darüber nach und skizziert seine Vorstellungen. Emma und Chris sind begeistert von den Clips, und seine Fangemeinde wächst recht schnell. Waren es anfangs nur die Schulkameraden und deren Freunde, so erhält er doch bald Feedback von ihm völlig fremden Menschen. Insgeheim ist er schon ein bisschen stolz auf sich, dass seine Werbeclips so gut ankommen und er als Influencer die Vermarktung der Sportklamotten vorantreibt. Auch dass er damit sein Taschengeld aufbessern kann, findet er toll.
Er steckt immer mehr Zeit in die Erstellung der Videos. Natürlich bleibt das seinen Freunden nicht verborgen, für die er immer weniger Zeit hat. Auch die Leistungen in der Schule gehen stark zurück. Insbesondere Lisa ist das aufgefallen.
An einem Morgen, an dem er wieder einmal im Unterricht eingeschlafen war, weil er die halbe Nacht an einem Video gebastelt hat, spricht sie ihn darauf an. Sie fragt ihn, wie viel Geld er wirklich mit diesem Marketing verdient und redet ihm ins Gewissen. Es sei doch kurzsichtig, die Schule für so viel Arbeit und so wenig Geld derart zu vernachlässigen. Außerdem solle er die Sportklamotten, für die er Werbung macht, doch mal selbst ausprobieren. Vor lauter Arbeit sei er selbst gar nicht mehr zu Sport gekommen. Dann würde er schon sehen, dass die nichts taugen und nach dem ersten Waschen wie Lumpen aussehen. Die seien ihr Geld wirklich nicht wert, bei Sports4You um die Ecke würde man für weniger Geld wesentlich bessere Ware erhalten. Und die könnte man vorher anfassen und auch anprobieren. Sie sei auch schon mal auf andere Influencer reingefallen und habe teure Schminke gekauft, die nichts getaugt hat.
Ben ist erst einmal schockiert und verteidigt seine Arbeit. Lisa würde das ganz falsch sehen, und die Klamotten, für die er Werbung macht, seien echt gut. Emma und Chris bestätigen ihn in seiner Meinung und ermuntern ihn, auf jeden Fall weiterzumachen. Nach einiger Zeit dämmert ihm aber, dass er irgendwie ausgenutzt wird. Nachdem er nun auch mehrmals selbst beim Joggen und Radfahren die Sachen getragen hat, fällt ihm auch auf, dass die nach dem Waschen nach nichts mehr aussehen. Nun drückt ihn das schlechte Gewissen, dass er seinen Freunden Geld für schlechte Ware abgeknöpft hat. Er fragt sich, wie er aus dieser Nummer wieder mit Anstand herauskommt.
Lisa, die sich noch mehr Sorgen um ihn gemacht hat, fragt die Wirtschaftslehrerin um Rat. Die ist sofort für die Idee zu haben, die Fragen von Marketing, schlechter Ware und der Verantwortung von Influencern in ihren Unterricht einzubauen. Schnell entsteht ein Projekt zum Thema „Influencer-Marketing“: Nachdem die Schülerinnen in Kleingruppen ihren Lieblings-Content-Creator in Kurzvorträgen vorgestellt und in diesem Zusammenhang von ihren – begünstigt enttäuschenden – Erfahrungen mit von Influencern beworbenen Produkten berichtet haben, klärt die Lehrerin die Lerngruppe anhand der von den Schülern präsentierten Influencer darüber auf, dass ihre Vorbilder durch Kooperationen mit Online-Firmen durch Produktplatzierungen und Werbelinks unter Bildern und Storys teils utopische Summen verdienen. Das geht nicht zuletzt auf Kosten ihrer Follower, da die Produkte zumeist minderwertig und fast ausnahmslos überteuert sind. Ben findet in den Erläuterungen seiner Lehrerin Parallelen zur Vorgehensweise, die ihm von seiner Praktikumsfirma ans Herz gelegt wurde. Schon im Verlauf der Unterrichtseinheit bleibt der Lehrerin Bens Betroffenheit nicht verborgen. Nach Unterrichtsschluss sucht sie das Gespräch mit ihm und bietet ihre Hilfe bei der Klärung der Angelegenheit an.
Fragen
- Wie wirklich ist die Wirklichkeit? Inwiefern können in sozialen Medien präsentierte Bilder und Kurzclips ein realistisches Abbild der Realität sein?
- Ist es moralisch zu rechtfertigen, ein minderwertiges Produkt zu bewerben, um sein persönliches Einkommen damit zu sichern?
- Ist es moralisch zu vertreten, dass Marketingfirmen insbesondere Jugendliche für einen derartigen Vertrieb anwerben?
- Was ist davon zu halten, dass Firmen gezielt Schülerinnen für ihre Werbezwecke missbrauchen? Und dies auf Kosten der schulischen Leistungen.
- Sollte man den Schülern nicht auch gönnen, ihre digitalen Fähigkeiten in ein kleines Taschengeld umzusetzen?
- Inwiefern wiegt das Geld sowohl für die Marketingfirmen als auch für die Influencer mehr als die Moral?
- Soll die Schule weiterhin Praktika mit dieser Marketingfirma befürworten oder gar fördern?
Christina B. Class, Stefan Ullrich, Carsten Trinitis
Nadia and Heinz have been together since their senior year in high school. Green-with-envy friends sometimes refer to them as “a real-life dream couple.” They have two sons, aged fourteen and nine, and live in a two-bedroom apartment in a fairly big city. Nadia studied art history and completed her PhD in the subject. Unfortunately, though, she couldn’t find a job in her field after an eight-month paid internship at a museum. Now, she’s working part-time for minimum wage at a local supermarket. Heinz studied journalism but couldn’t find a full-time job either and works part-time delivering packages.
Whenever he can, he takes on freelance work writing for the local daily paper. However, the assignments are scarce and poorly paid. The job market in their area doesn’t offer many alternatives, at least not without specific training. They manage to get by—more or less—but it hasn’t gotten any easier. Their two sons share the larger of the two bedrooms, but Nadia and Heinz would prefer that their kids each have a room of his own— after all, the eldest is already a teenager. After an intensive two-year apartment search and facing rent increases even for their current apartment, they finally gave up looking for a new place. Luckily, their apartment at least has a small balcony—a veritable godsend during all the COVID-19 quarantines.
The family shares one computer, which Heinz also needs to write his articles. Fortunately, when the school switched to online instruction during the pandemic, parents were given the option of purchasing tablets on credit. Nadia had a hard time even asking for it, and convincing school administrators that they were eligible for the program was no small task. When she completed her doctorate, she was so proud that she entered her doctor title in her paperwork. Over the years, Heinz has often published articles about school policies at the district and state levels. A “Dr.” and a well-known journalist can’t afford computers for their sons? It was like running the gauntlet. They were lucky enough to get through it, and while payments of fifty euros a month were nothing to sneeze at, at least both sons could participate in their online classes.
Nadia is already dreading the start of the coming school year. New editions have been issued for most of the boys’ textbooks, so they’ll have to buy new books for them both. German public schools supply educational
materials for free, what a joke!
All four have smartphones, but Nadia’s is outdated and no longer supports many applications. But it’s good enough for her. Her younger son inherited his father’s old smartphone—he wasn’t exactly thrilled but eventually came to terms with it. Nadia can’t complain—they’re all healthy, and aside from the financial woes, they are a happy family.
Tonight, though, they don’t want to think about it. They’re attending their twentieth-year class reunion at a restaurant and want to enjoy themselves. It’s been ten years since they’ve seen some of these people. How have they been? Guests begin showing up, one after another. After meeting on the terrace for a round of chit-chat in small groups, they are seated at a table. Since it’s only a group of twenty, they all fit at one large table. After dinner, Andreas boasts about his latest project: He’s started his own software company and created a new app for his local community transportation association. Users of the app are guaranteed the best fares on public transportation.
The plan is to gradually eliminate all ticket vending machines except at a few central stops. In an emergency, passengers can still purchase one-ride tickets from the bus driver or the train conductor. But these days, no one needs the kind of multiple-ride tickets dispensed at vending machines. In a pinch, these can still be purchased at a ticket counter, but why bother when you get a ten percent discount using the app? He’s incredibly proud of collaborations with an organization for senior citizens and people with disabilities. The app is as barrier-free as it gets and employs state-of-the-art technology. When pressed for more details, he gushes about the potential of the newest generation of standard operating systems.
While taking a break, Nadia points out that not everyone can afford the latest smartphones. What about them? Andreas chuckles and says, “Those welfare recipients need to get over themselves! They can use the ticket counter—if there’s one thing they do have, it’s time on their hands. And they rarely have to get on the bus anyway.” Nadia swallowed hard, but Heinz, seated beside her, was so annoyed that he knocked over his beer and went off on Andreas. Who on earth did he think he was? A lot of people with jobs were hit hard by poverty, too. Despite their education and employment, he and his wife, for example, often had no idea how to manage surprise expenses when they came up. And no, there’s no way they’d be able to afford those excellent new smartphones. More and more, they’re being left out and left behind. Every time some shiny new thing comes along, they find it harder and harder to keep up, and it feels like they’re being hung out to dry.
An awkward silence falls over the table. People weren’t used to seeing Heinz fall out like that. Maria chimed in quietly: “Ever since my husband left me with my young daughter three years ago, I’m often at a loss about where the money for even the basics is supposed to come from. For the past two months, I’ve had to pinch every penny just to be able to be here tonight. And, ever since my smartphone crapped out four months ago, I’ve been using my old cell so that I can at least be reached by phone.”
Questions:
- Poverty is a social problem. People living in poverty are excluded from many things and only have limited options for participation, especially when it comes to leisure activities. Is this an ethical issue?
- Financial means determine whether someone can afford the hardware, Internet access, and software licenses. What are the concrete ramifications of this gap between the “haves” and the “have-nones” as it pertains to access? Is this an ethical issue?
- Even in Germany, people in certain regions are cut off from adequate Internet access because neither the mobile nor the fiber optic network has been sufficiently built out. What is the difference between people who are cut off because of where they live and those who are cut off because of limited financial resources? Is there a difference?
- What responsibility does society have to prevent anyone from being barred access to digital services based solely on lack of financial resources? Which services apply?
- Administrative agencies increasingly rely on online services—to place requests for certain documents or to schedule appointments, for example. In your opinion, what alternative access options should be made available from an ethical perspective?
- There have always been differences that affect degrees of accessibility: disabilities, literacy levels, or geography (rural versus urban). Is access to digital participation simply another dimension? Or do these differences carry more weight? Should they be subject to different ethical standards?
- How should these topics be addressed in studying and teaching computer science? What can be done to raise awareness about these issues?
- How can issues of digital participation for people living in poverty be accounted for in software development? For what kinds of projects is this necessary?
- Should software development budgeting include funding for social welfare expenses?
- In your opinion, should poverty be taken up as an index of diversity, equity, and inclusion (DEI)?
- What role do IT systems play in participation in public/social life?
- From a strictly technical standpoint, is it necessary to design the newest versions of apps so that they can only run using the latest hardware and model? Wouldn’t some degree of backward compatibility make sense?
- One final thought: Despite our best-laid plans, life intervened, and we didn’t have enough time to write this column. So we’re back to the same procedure as always—the writing team has composed this first draft, and it’s being sent for feedback to the list of active members in this specialty group. We’d hoped to stick to the original topic and point to the difficulties that arise for people living in poverty when they don’t have adequate access to technology. However, time constraints prevented us from including the perspectives of people who are the subjects of our study. This happens all too often, not just in this case. Is that an ethical problem? Do our good intentions justify the fact that we are speaking here “about” people, not “to/with” them? What can we do to prevent this from happening in the future? How can we better involve people impacted by our work in our thought processes, discussions, and actions?
Erschienen im Informatik Spektrum 45 (3), 2022, S. 194–196.
— Translated from German by Lillian M. Banks
Christina B. Class, Stefan Ullrich, Carsten Trinitis
Nadia und Heinz sind seit der zwölften Klasse zusammen und, wie ihre Freunde manchmal neidvoll sagen, ein echtes Traumpaar. Sie haben zwei Söhne, 14 und 9 Jahre und leben in einer größeren Stadt in einer Dreizimmerwohnung. Nadia hat Kunstgeschichte studiert und in diesem Fach auch promoviert. Leider hatte sie nach einem achtmonatigen Praktikum in einem Museum keine Anstellung in ihrem Bereich gefunden und arbeitet nun zu 80 % in einem lokalen Supermarkt zum Mindestlohn. Heinz hat Journalistik studiert. Auch er hat leider keine Festanstellung gefunden und arbeitet Teilzeit als Paketzusteller. Sofern möglich, arbeitet er noch als freischaffender Journalist für die lokale Tageszeitung. Aber die Aufträge sind eher selten und nicht gut bezahlt. Die Arbeitsmarktlage in ihrer Gegend bietet keine großen Alternativen, zumindest nicht ohne die passende Ausbildung. Sie kommen mehr oder weniger zurecht, aber es ist nicht einfacher geworden. Die beiden Söhne haben zwar das größere der beiden Schlafzimmer bekommen, aber Nadia und Heinz würden ihren Kindern gerne eigene Zimmer geben, immerhin ist der Große ja ein Teenager. Nach zwei Jahren intensiver Wohnungssuche und angesichts der steigenden Mietpreise auch für ihre Wohnung, haben sie es aufgegeben, eine neue Wohnung zu finden. Zum Glück haben sie einen kleinen Balkon, das war während der diversen Quarantänen aufgrund von COVID-19-Kontakten ein richtiger Luxus.
Die Familie nutzt gemeinsam einen Rechner, den Heinz auch für seine Artikel benötigt. Als die Schule während der Pandemie auf Onlineunterricht wechselte, bot die Schule den Eltern zum Glück an, Tablets auf Kredit zu beschaffen. Es fiel Nadia schwer, darum zu bitten, und es war nicht einfach, die Schulleitung von ihrer Bedürftigkeit zu überzeugen. Sie war damals so stolz auf die Promotion gewesen, dass sie den Doktorgrad in ihre Papiere eintragen ließ. Und Heinz hat in den letzten Jahren immer wieder Artikel über die Schulpolitik des Kreises und des Landes geschrieben. Eine „Frau Doktor“ und ein bekannter Journalist können keine Tablets für die Söhne kaufen. Das war ein Spießrutenlauf. Zum Glück waren sie erfolgreich – die Raten von insgesamt 50 € pro Monat sind zwar auch nicht zu vernachlässigen, aber immerhin konnten beide Jungs am Onlineunterricht teilnehmen.
Nadia graut auch schon wieder vor dem nächsten Schuljahr. Die Schulbücher liegen fast alle in neuen Auflagen vor, sodass sie für beide Jungs Bücher kaufen müssen. Von wegen Lernmittelfreiheit!
Alle vier haben Smartphones, wobei das von Nadia schon recht alt ist, und viele Anwendungen nicht mehr laufen. Aber für sie reicht es. Der jüngere Sohn hat das alte Smartphone von seinem Vater bekommen, er war zwar nicht begeistert, aber hat sich damit arrangiert. Aber sie will sich nicht beklagen, sie sind alle gesund und abgesehen von den Finanzen eine glückliche Familie.
Am heutigen Abend wollen sie nicht darüber nachdenken. Heute treffen sie sich zur zwanzigjährigen Abiturfeier in einem Restaurant, und das wollen sie einfach genießen. Manche haben sie seit zehn Jahren nicht gesehen. Wie es ihnen wohl ergangen ist? Nach und nach treffen alle ein. Nachdem sie sich bei einem Plausch auf der Terrasse in kleinen Gruppen begrüßt haben, setzen sie sich zum Essen an den Tisch. Es sind nur 20 Personen gekommen, sodass sie alle an einer großen Tafel Platz nehmen. Nach dem Essen berichtet Andreas stolz von seinem letzten Projekt: Er hat sich mit einem Softwareunternehmen selbstständig gemacht und eine neue App für den lokalen Verkehrsverbund geschrieben. Nutzt man diese, erhält man immer den besten Preis für Fahrten. Nach und nach sollen bis auf an zentralen Haltestellen die Fahrkartenautomaten abgeschafft werden. Für den Notfall gäbe es beim Fahrer dann noch Einzelkarten. Aber die am Automaten erhältliche Mehrfahrtenkarte benötige ja wirklich niemand, die könne man zur Not an der Servicestelle besorgen, zumal man bei der App einen um 10 % besseren Preis erhalten würde. Ganz besonders stolz berichtet er von der Zusammenarbeit mit einem Senioren- und Behindertenverein. Die App sei soweit als möglich barrierefrei und würde hierfür die neueste Technologie verwenden. Auf Nachfrage schwärmt er von den Möglichkeiten der neuesten Generation der gängigen Betriebssysteme.
In einer Pause wendet Nadia ein, dass sich aber nicht jeder die neuesten Smartphones leisten könne. Was ist mit denen? Da lacht Andreas auf und meint: „Ach, die Hartz-4-Empfänger sollen sich nicht so anstellen! Die können ja wohl zur Servicestelle gehen, die haben ja eh Zeit. Außerdem müssen sie ja nicht so oft mit dem Bus fahren.“ Nadia muss schlucken, Heinz neben ihr jedoch wirft vor lauter Ärger sein Bier um und fährt Andreas an. Was er sich denn einbilde, Armut beträfe auch viele Leute, die arbeiten. Sie zum Beispiel wüssten trotz erfolgreichem Studium und Arbeit oft nicht, wie sie unvorhergesehene Kosten stemmen sollten. Und nein, sie könnten sich garantiert keine solch tollen Smartphones leisten. Sie würden immer mehr ausgeschlossen, mit jeder groß angekündigten Neuheit sei es für sie schwerer, mithalten zu können.
Am Tisch herrscht betretenes Schweigen, dass Heinz laut wird, ist man nicht gewöhnt. Leise meldet sich Maria: „Seit mein Mann mich vor drei Jahren mit der Kleinen sitzen gelassen hat, weiß ich oft auch nicht, wo das Geld für das Nötigste herkommen soll. Ich habe seit zwei Monaten jeden Cent zur Seite gelegt, um heute hier dabei sein zu können. Und seit mein Smartphone vor vier Monaten kaputt gegangen ist, nutze ich wieder mein altes Handy, um wenigstens erreichbar zu sein.“
Fragen
- Armut ist ein gesellschaftliches Problem. Armutsbetroffene sind von vielen Bereichen ausgeschlossen und haben nur eingeschränkte Möglichkeiten der Teilhabe, insbesondere auch bei der Freizeitgestaltung. Ist das ein ethisches Problem?
- Finanzielle Möglichkeiten entscheiden, ob sich jemand Hardware, Internetzugang und/oder Softwarelizenzen leisten kann. Welche konkreten Folgen hat diese Trennung zwischen denen mit und denen ohne Zugang? Ist das ein ethisches Problem?
- Je nach Region in Deutschland sind Menschen von einem akzeptablen Internetzugang abgeschnitten, da weder der Ausbau des Mobilfunks noch des Glasfasernetzes ausreichend erfolgt ist. Was ist der Unterschied zwischen Menschen, die aufgrund des Wohnorts und solchen, die aufgrund eingeschränkter finanzieller Möglichkeiten abgeschnitten sind? Gibt es einen Unterschied?
- Welche Verantwortung hat eine Gesellschaft, Menschen aufgrund mangelnder finanzieller Möglichkeiten nicht von digitalen Dienstleistungen abzuschneiden? Welche Dienstleistungen sind relevant?
- Verwaltungen setzen zunehmend auf Onlinedienste, um z. B. bestimmte Dokumente zu beantragen oder Termine auszumachen. Welche alternativen Zugangsmöglichkeiten sind aus Ihrer Sicht ethisch geboten?
- Es gab aus unterschiedlichen Gründen auch bisher schon Unterschiede bei den Möglichkeiten und dem Zugang, z. B. Behinderung oder Alphabetisierungsgrad, sowie unterschiedliche Möglichkeiten zwischen Stadt und Land. Handelt es sich bei den Unterschieden in der digitalen Teilhabe einfach um eine andere Dimension? Wiegen diese Unterschiede stärker? Sind sie aus ethischer Sicht anders zu bewerten?
- Wie sollen diese Themen in der Informatik-Ausbildung und -Lehre angesprochen werden? Wie kann dafür sensibilisiert werden?
- Wie können Fragen der digitalen Teilhabe armutsbetroffener Menschen in der Softwareentwicklung beachtet werden? Für welche Art von Projekten ist das erforderlich?
- Müssten soziale Kosten ebenfalls Bestandteil der Softwareentwicklung sein?
- Gehört das Thema Armut aus Ihrer Sicht zum Bereich Inklusion?
- Welche Rolle spielen informationstechnische Systeme für die Beteiligung am öffentlichen/gesellschaftlichen Leben?
- Ist es aus technischer Sicht unbedingt notwendig, die neueste Version von Apps so zu gestalten, dass sie nur auf der neuesten Hardware mit dem neuesten Modell läuft? Würde hier nicht schon etwas Abwärtskompatibilität helfen?
- Ein Gedanke zum Schluss: Wieder einmal kam vieles anderes dazwischen und es war, trotz anderer Planung, am Schluss doch wenig Zeit, um diese „Gewissensbits“ zu schreiben. So blieben wir bei unserem gewohnten Vorgehen, der Erstellung einer ersten Version durch das Autorenteam und Versand an die Liste der aktiven Fachgruppenmitglieder für Feedback. Wir wollten beim ursprünglichen Thema bleiben, und auf die Schwierigkeiten hinweisen, die Armutsbetroffene haben, wenn sie sich keinen adäquaten Zugang zur Technologie leisten können. Aber aus Zeitgründen haben wir hierbei keine Betroffenen eingebunden. Dies passiert oft, zu oft, nicht nur bei dieser Kolumne. Ist das ein ethisches Problem? Rechtfertigt unsere gute Absicht die Tatsache, dass wir auch hier „über“ statt mit Personen sprechen? Was müssen wir tun, um dies in Zukunft zu vermeiden? Wie können wir Betroffene in unsere Gedanken, Diskussionen und Tun besser einbinden?
Zum Weiterlesen
Ein Positionspapier der Diakonie Deutschland zu „Digitalisierung und Armut“ vom 05.01.2021.
https://www.diakonie.de/fileadmin/user_upload/Diakonie/PDFs/Stellungnahmen_PDF/21-1-5_Digitalisierung_und_Armut_Thesen_Diakonie_CD.pdf
Erschienen im Informatik Spektrum 45 (3), 2022, S. 194–196, doi: https://doi.org/10.1007/s00287-022-01460-5
Constanze Kurz, Debora Weber-Wulff
Chris und Rose arbeiten in einem Roboter-Team bei einem mittelständischen Unternehmen, das Spielwaren herstellt. Dem Trend der Zeit folgend, gibt es schon seit mehreren Jahren eine wachsende eigene Abteilung für vernetztes elektronisches Spielzeug. Chris und Rose gehören zu einer kleinen Gruppe, die kuschlige, bewegliche Roboter konzipiert und baut, die speziell – aber nicht nur – an Kinder vermarktet werden.
Die Tierchen sind meist raupen- oder wurmartig gebaut, weil dadurch die selbständige Bewegungsfähigkeit der Roboter leichter und mit weniger Energieaufwand umzusetzen ist. Gleichzeitig verringert sich dadurch die Verletzungsgefahr auch für kleine Kinder. Sie wurden zum Verkaufserfolg, nicht nur wegen des weichen Fells, sondern weil sie interaktiv sind und sprechen und singen können. Zusätzlich ist eine akustische Überwachungsfunktion eingebaut, die mit einem Smartphone verbunden werden kann, zum Beispiel dem der Eltern. Verlässt man den Raum, können die Kuscheltiere als unauffällige Aufpasser fungieren.
Chris arbeitet gerade an einer neuen Variante einer beweglichen Raupe, deren Software neue Formen der Interaktion beinhalten soll. Immer neue Lernspiele, Quiz und Rätselspiele sollen über die Computer oder Smartphones der Eltern geladen werden können. Speziell auf Kinder zugeschnittene lernfähige Spracherkennung wird die Antworten verarbeiten, zusätzlich sollen große Knöpfe auf dem Körper der Raupe zur Eingabe der Antworten dienen.
Rose ist für das Testen der neuen Roboter-Raupen zuständig. Ihr Fokus ist die Sicherheit in dem Sinne, dass die Kuscheltiere durch ihre Bewegungen keine Gefährdung darstellen dürfen. Sie kriechen nicht allzu schnell und können wahrnehmen, wenn sie angehoben werden, sodass sie ihre Bewegungen in diesem Fall ändern. Die Ergebnisse sind ausgesprochen erfreulich, keinerlei Gefährdung konnte attestiert werden. Die Kinder der Testgruppe können von den bunten Kuscheltieren kaum lassen.
Allerdings hat Rose ein Problem entdeckt, das sie zunächst nicht an Chris und ihre Vorgesetzte weitergibt, sondern nur als kurios notiert. Bei einer Reihe der neuen Rätselspiele gibt die Software nämlich nicht die korrekten Antworten, sondern erzählt Blödsinn. Rose lacht zuerst, als sie hört, dass eines der Kinder sagt, dass ein Pinguin kein Vogel sei, sondern eine Hundeart. Sie spricht das Mädchen darauf an, welches aber beharrt, das hätte doch „Wurmi“ gesagt. Das Kind reagiert verstört, als Rose ihm sagt, dass das nicht stimme.
Als sich falsche Antworten häufen, setzt Rose das Problem in der Teambesprechung auf die Tagesordnung. Sie fragt, wer denn eigentlich die Korrektheit der Antworten der Roboter prüft. Es sei doch hinlänglich erforscht, dass Kinder den elektronischen Freunden sehr viel Vertrauen schenken würden.
Chris entgegnet leicht genervt, dass man für die Kinderspiele extra einen zertifizierten Softwareanbieter ausgesucht hätte. Sie hätten eine besondere künstliche Intelligenz entwickelt, um hunderte von Quizfragen zu entwickeln. Sie werden auch automatisch in viele Sprachen übersetzt, da kann man unmöglich eingreifen. Wie stellt Rose sich das vor, soll man jedes Quiz durchhören? Unmöglich!
Rose erwidert, dass die Fragen ja über die Handys der Eltern nachgeladen werden können, also kann man doch wohl Korrekturen anbringen. Die Spielesoftware ist auch gar nicht unsere Expertise, erwiderte Chris. Wir stellen doch nur die Hardware der Roboter her und sind auch nur für die Locomotion, die Programmierung der Bewegungen des Roboters, zuständig.
Rose ist verblüfft über so viel Ignoranz, denn es geht schließlich um Roboter auch für recht kleine Kinder. Sie interveniert erneut. Den aufkommenden Streit beendet die Chefin Anne, indem sie ankündigt, die Spiele prüfen zu lassen. Rose hat eine Ahnung, was das bedeutet: Das Thema ist zu den Akten gelegt worden.
Rose beginnt, sich mit der für Kinderspiele zertifizierten Softwarefirma zu beschäftigen. Sie will wissen, wie die Fragen zusammengestellt werden. Sie freundet sich mit einem Mitarbeiter der Firma, Henri, bei einem Meetup an. Henri erzählt bereitwillig darüber, dass sie keine richtige KI einsetzen, sondern die Fragen einfach auf der Basis einer öffentlichen Wissensdatenbank gewinnen.
Rose schaut dort nach und stellt erschrocken fest, dass jemand tatsächlich dort eingetragen hat, dass Pinguine Hunde seien. Anscheinend kann jeder beliebigen Unsinn eintragen, niemand prüft die Inhalte. Rose ändert den Eintrag über Pinguine, spontan beschließt sie aber, „Katze“ statt „Hund“ als Oberklasse einzutragen. Sie weiß, dass nächste Woche die Software auf den neuesten Stand gebracht wird. Mal sehen, ob sich etwas ändert.
In der Tat, als sie endlich diese Frage zu hören bekommt, wird „Katze“ als korrekte Antwort angegeben. Was soll Rose nun tun? „Wurmi“ wird schon sehr erfolgreich verkauft, das Team ist bereits mit dem Folgeprojekt beschäftigt.
Fragen
- Ist es ein ethisches Problem, dass Chris beruflich einen Roboter für Kinder baut und programmiert, dessen Spielesoftware jemand Drittes liefert? Muss man zwischen dem Kinder-Roboter an sich und der Software für Spiele unterschieden?
- Macht es einen Unterschied, dass Chris nicht genau weiß, was die tatsächliche Software auf den Robotern sein wird? Muss sich Chris genauer erkundigen?
- Ist es ethisch problematisch, wenn man Unerfahrenheit und Naivität von Kindern nicht ausreichend berücksichtigt?
- Hätte Rose das Problem mit den falschen Antworten sofort weitergeben sollen? Sie notiert es als kurios und geht dem erst später nach. Ist dies problematisch?
- Ist es in Ordnung, dass Rose Druck ausübt und Fragen stellt? Die Software ist ja nicht ihr eigentliches Aufgabengebiet.
- Hätte Rose nicht einfach akzeptieren sollen, was Anne sagt? War es okay, dass sie weiter geforscht hat?
- War es in Ordnung, dass Rose sich bewusst mit Henri angefreundet hat, um Wissen über seine Firma zu gewinnen?
- Hätte Rose nicht wenigstens „Vogel“ statt „Katze“ in den Wissensdatenbank eintragen können? So hat sie den Unsinn weiter bestehen lassen.
- Sollten offene Wissensdatenbanken nicht kontrollieren, was für Inhalte dort gespeichert werden? Ist das überhaupt möglich?
- Müssen Systeme für Kinder mit besonderer Sorgfalt bedacht werden? Könnte es sein, dass falsche Fakten quasi „negativ prägend“ wirken?
- Müsste es nicht – vergleichbar mit anderen Medien für Kinder – eine verantwortliche Redaktion geben? Bei Fernsehsendungen für Kinder und Schulbüchern gibt es auch nicht anonyme verantwortliche Personen für die Inhalte.
- Wie kann die Qualität von Lernspielen kontrolliert werden? Sollte Hardware, wie die Roboter-Raupe, offene Schnittstellen haben, sodass jeder Lernspiele hochladen kann? Zu Plüschtieren und Spielzeug-Robotern werden insbesondere auch von Kindern „emotionale Bindungen“ aufgebaut. Wie groß ist die Gefahr, dass Kinder durch Spiele auch mit z. B. rassistischen Gedanken oder Verschwörungstheorien indoktriniert werden?
- Im Kontext Kinderbetreuung und Gefahrenprävention zuhause mag die zusätzliche akustische Überwachungsfunktion in Verbindung mit einem Smartphone sehr nützlich erscheinen. Jedoch mitgenommen in den Kindergarten oder zu Freunden wird die Kuscheltier-Roboter-Raupe schnell zu einer Abhöreinrichtung, der man im Unterschied zu einem klassischen Babyfon diese Fähigkeit nicht sofort ansehen kann. Wie sollte man mit diesem Konflikt umgehen?
Erschienen im Informatik Spektrum 45 (2), 2022, S. 121–122, doi: https://doi.org/10.1007/s00287-022-01441-8
|
|
Kommentare