Archiv

Fallbeispiel: Aber der Roboter sagte

Constanze Kurz, Debora Weber-Wulff

Chris und Rose arbeiten in einem Roboter-Team bei einem mittelständischen Unternehmen, das Spielwaren herstellt. Dem Trend der Zeit folgend, gibt es schon seit mehreren Jahren eine wachsende eigene Abteilung für vernetztes elektronisches Spielzeug. Chris und Rose gehören zu einer kleinen Gruppe, die kuschlige, bewegliche Roboter konzipiert und baut, die speziell – aber nicht nur – an Kinder vermarktet werden.

Die Tierchen sind meist raupen- oder wurmartig gebaut, weil dadurch die selbständige Bewegungsfähigkeit der Roboter leichter und mit weniger Energieaufwand umzusetzen ist. Gleichzeitig verringert sich dadurch die Verletzungsgefahr auch für kleine Kinder. Sie wurden zum Verkaufserfolg, nicht nur wegen des weichen Fells, sondern weil sie interaktiv sind und sprechen und singen können. Zusätzlich ist eine akustische Überwachungsfunktion eingebaut, die mit einem Smartphone verbunden werden kann, zum Beispiel dem der Eltern. Verlässt man den Raum, können die Kuscheltiere als unauffällige Aufpasser fungieren.

Chris arbeitet gerade an einer neuen Variante einer beweglichen Raupe, deren Software neue Formen der Interaktion beinhalten soll. Immer neue Lernspiele, Quiz und Rätselspiele sollen über die Computer oder Smartphones der Eltern geladen werden können. Speziell auf Kinder zugeschnittene lernfähige Spracherkennung wird die Antworten verarbeiten, zusätzlich sollen große Knöpfe auf dem Körper der Raupe zur Eingabe der Antworten dienen.

Rose ist für das Testen der neuen Roboter-Raupen zuständig. Ihr Fokus ist die Sicherheit in dem Sinne, dass die Kuscheltiere durch ihre Bewegungen keine Gefährdung darstellen dürfen. Sie kriechen nicht allzu schnell und können wahrnehmen, wenn sie angehoben werden, sodass sie ihre Bewegungen in diesem Fall ändern. Die Ergebnisse sind ausgesprochen erfreulich, keinerlei Gefährdung konnte attestiert werden. Die Kinder der Testgruppe können von den bunten Kuscheltieren kaum lassen.

Allerdings hat Rose ein Problem entdeckt, das sie zunächst nicht an Chris und ihre Vorgesetzte weitergibt, sondern nur als kurios notiert. Bei einer Reihe der neuen Rätselspiele gibt die Software nämlich nicht die korrekten Antworten, sondern erzählt Blödsinn. Rose lacht zuerst, als sie hört, dass eines der Kinder sagt, dass ein Pinguin kein Vogel sei, sondern eine Hundeart. Sie spricht das Mädchen darauf an, welches aber beharrt, das hätte doch „Wurmi“ gesagt. Das Kind reagiert verstört, als Rose ihm sagt, dass das nicht stimme.

Als sich falsche Antworten häufen, setzt Rose das Problem in der Teambesprechung auf die Tagesordnung. Sie fragt, wer denn eigentlich die Korrektheit der Antworten der Roboter prüft. Es sei doch hinlänglich erforscht, dass Kinder den elektronischen Freunden sehr viel Vertrauen schenken würden.

Chris entgegnet leicht genervt, dass man für die Kinderspiele extra einen zertifizierten Softwareanbieter ausgesucht hätte. Sie hätten eine besondere künstliche Intelligenz entwickelt, um hunderte von Quizfragen zu entwickeln. Sie werden auch automatisch in viele Sprachen übersetzt, da kann man unmöglich eingreifen. Wie stellt Rose sich das vor, soll man jedes Quiz durchhören? Unmöglich!

Rose erwidert, dass die Fragen ja über die Handys der Eltern nachgeladen werden können, also kann man doch wohl Korrekturen anbringen. Die Spielesoftware ist auch gar nicht unsere Expertise, erwiderte Chris. Wir stellen doch nur die Hardware der Roboter her und sind auch nur für die Locomotion, die Programmierung der Bewegungen des Roboters, zuständig.

Rose ist verblüfft über so viel Ignoranz, denn es geht schließlich um Roboter auch für recht kleine Kinder. Sie interveniert erneut. Den aufkommenden Streit beendet die Chefin Anne, indem sie ankündigt, die Spiele prüfen zu lassen. Rose hat eine Ahnung, was das bedeutet: Das Thema ist zu den Akten gelegt worden.

Rose beginnt, sich mit der für Kinderspiele zertifizierten Softwarefirma zu beschäftigen. Sie will wissen, wie die Fragen zusammengestellt werden. Sie freundet sich mit einem Mitarbeiter der Firma, Henri, bei einem Meetup an. Henri erzählt bereitwillig darüber, dass sie keine richtige KI einsetzen, sondern die Fragen einfach auf der Basis einer öffentlichen Wissensdatenbank gewinnen.

Rose schaut dort nach und stellt erschrocken fest, dass jemand tatsächlich dort eingetragen hat, dass Pinguine Hunde seien. Anscheinend kann jeder beliebigen Unsinn eintragen, niemand prüft die Inhalte. Rose ändert den Eintrag über Pinguine, spontan beschließt sie aber, „Katze“ statt „Hund“ als Oberklasse einzutragen. Sie weiß, dass nächste Woche die Software auf den neuesten Stand gebracht wird. Mal sehen, ob sich etwas ändert.

In der Tat, als sie endlich diese Frage zu hören bekommt, wird „Katze“ als korrekte Antwort angegeben. Was soll Rose nun tun? „Wurmi“ wird schon sehr erfolgreich verkauft, das Team ist bereits mit dem Folgeprojekt beschäftigt.

Fragen

  1. Ist es ein ethisches Problem, dass Chris beruflich einen Roboter für Kinder baut und programmiert, dessen Spielesoftware jemand Drittes liefert? Muss man zwischen dem Kinder-Roboter an sich und der Software für Spiele unterschieden?
  2. Macht es einen Unterschied, dass Chris nicht genau weiß, was die tatsächliche Software auf den Robotern sein wird? Muss sich Chris genauer erkundigen?
  3. Ist es ethisch problematisch, wenn man Unerfahrenheit und Naivität von Kindern nicht ausreichend berücksichtigt?
  4. Hätte Rose das Problem mit den falschen Antworten sofort weitergeben sollen? Sie notiert es als kurios und geht dem erst später nach. Ist dies problematisch?
  5. Ist es in Ordnung, dass Rose Druck ausübt und Fragen stellt? Die Software ist ja nicht ihr eigentliches Aufgabengebiet.
  6. Hätte Rose nicht einfach akzeptieren sollen, was Anne sagt? War es okay, dass sie weiter geforscht hat?
  7. War es in Ordnung, dass Rose sich bewusst mit Henri angefreundet hat, um Wissen über seine Firma zu gewinnen?
  8. Hätte Rose nicht wenigstens „Vogel“ statt „Katze“ in den Wissensdatenbank eintragen können? So hat sie den Unsinn weiter bestehen lassen.
  9. Sollten offene Wissensdatenbanken nicht kontrollieren, was für Inhalte dort gespeichert werden? Ist das überhaupt möglich?
  10. Müssen Systeme für Kinder mit besonderer Sorgfalt bedacht werden? Könnte es sein, dass falsche Fakten quasi „negativ prägend“ wirken?
  11. Müsste es nicht – vergleichbar mit anderen Medien für Kinder – eine verantwortliche Redaktion geben? Bei Fernsehsendungen für Kinder und Schulbüchern gibt es auch nicht anonyme verantwortliche Personen für die Inhalte.
  12. Wie kann die Qualität von Lernspielen kontrolliert werden? Sollte Hardware, wie die Roboter-Raupe, offene Schnittstellen haben, sodass jeder Lernspiele hochladen kann? Zu Plüschtieren und Spielzeug-Robotern werden insbesondere auch von Kindern „emotionale Bindungen“ aufgebaut. Wie groß ist die Gefahr, dass Kinder durch Spiele auch mit z. B. rassistischen Gedanken oder Verschwörungstheorien indoktriniert werden?
  13. Im Kontext Kinderbetreuung und Gefahrenprävention zuhause mag die zusätzliche akustische Überwachungsfunktion in Verbindung mit einem Smartphone sehr nützlich erscheinen. Jedoch mitgenommen in den Kindergarten oder zu Freunden wird die Kuscheltier-Roboter-Raupe schnell zu einer Abhöreinrichtung, der man im Unterschied zu einem klassischen Babyfon diese Fähigkeit nicht sofort ansehen kann. Wie sollte man mit diesem Konflikt umgehen?

Erschienen im Informatik Spektrum 45 (2), 2022, S. 121–122, doi: https://doi.org/10.1007/s00287-022-01441-8

3 comments to Fallbeispiel: Aber der Roboter sagte

Leave a Reply to Leo Cancel reply

You can use these HTML tags

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>