Archiv

Fallbeispiel: Statistische Irrungen

Christina B. Class,  Stefan Ullrich

Alex hat vor etwas mehr als einem Jahr seine Masterarbeit im Bereich Künstliche Intelligenz und Gesichtserkennung abgeschlossen. Sein adaptiertes selbstlernendes Verfahren konnte die bisherigen Ergebnisse der Echtzeit-Gesichtserkennung deutlich verbessern. Als er seine Abschlussarbeit auf einer Tagung vor einem Jahr vorgestellt hat, inklusive Proof-of-Concept auf der Bühne, wurde er vom Leiter der KI Forschungs- und Entwicklungsabteilung der EmbraceTheFuture GmbH angesprochen. Diese wurde vor drei Jahren gegründet, mit Schwerpunkt auf der Entwicklung angepasster Softwaresysteme, insbesondere im Bereich der intelligenten Systeme sowie Sicherheitssysteme. Nach einem kurzen Urlaub nach Ende seines Studiums nimmt Alex eine Stelle bei EmbraceTheFuture GmbH an.

In einem kleinen Team arbeitet er zur Zeit imAuftrag der Bundespolizei an Gesichtserkennungssoftware für ein neues Sicherheitssystem namens ,,QuickPicScan“ an Flughäfen. In Echtzeit werden die Gesichter der Passagiere an der Sicherheitskontrolle mit Fahndungsbildern verglichen, um verdächtige Personen zur Seite zu nehmen und extra zu kontrollieren. Die Behörden erhoffen sich so, gesuchte Personen bei Flügen innerhalb des Schengenraums identifizieren zu können, da dort keine umfassenden Passkontrollen vorgenommen werden.

Zudem soll der Durchsatz der kontrollierten Personen gesteigert werden. Das System wurde mit Millionen von Bildern umfassend trainiert. Bilder von gesuchten Personen, Fahndungsbilder, sind in einer Datenbank gespeichert, auf die bei einem Bildabgleich zugegriffen wird. Dadurch kann das System leicht an aktuell gesuchte Personen angepasst werden. Am Flughafen werden Bilder aller Passagiere in niedriger Qualität aufgenommen, sobald die Sicherheitsschleuse durchschritten wird.

Wenn die Software anschlägt, wird der übliche ,,Metall gefunden“-Alarm ausgelöst. In der darauffolgenden Durchsuchung wird das Gesicht in höherer Auflösung unter besseren Lichtverhältnissen fotografiert und erneut mit den Bilddaten verglichen. Erst wenn dieser zweite Test auch positiv ist, erfolgt eine tiefergehende Kontrolle im Nebenraum mit Abgleich der Personalien. Das Ergebnis des zweiten Tests wird an einem Kontrollterminal angezeigt. Die Fotos der Passagiere werden nicht gespeichert, ein eigenes Team stellt sicher, dass die aufgenommenen Bilder wirklich aus dem Hauptspeicher gelöscht werden und nicht von außen ausgelesen werden können. QuickPicScan wurde in Simulationen sowie in einem eigens dafür gebauten Studio mit einer nachgebauten Sicherheitskontrolle und Schauspielern umfangreich getestet.

Basierend auf den Tests geht das Team von einer False Negative Rate von 1 % aus, d. h. von 100 gesuchten Personen wird eine nicht gefunden. Die False Positive Rate – Personen, die zu Unrecht als verdächtig eingestuft werden – ist kleiner als 0,1 %. Sabine, die Marketingleiterin, ist von dem Ergebnis begeistert. Nur 0,1 % Fehlerrate für unschuldige Personen, das sei ein Riesenerfolg!

Um das System unter realen Bedingungen zu testen, wird es in Abstimmung mit der Bundespolizei während zweier Sommermonate in einem kleineren Flughafen mit einem Passagieraufkommen von ca. 400.000 Passagieren pro Jahr getestet. Das Kontrollterminal wird von einem Angestellten des Auftraggebers überwacht. Von 370 Darstellern wurden ,,Fahndungsbilder“ in unterschiedlich guter Qualität und verschiedenen Positionen aufgenommen und ins System gespeist.

Während der zwei Testmonate gehen die Darsteller zu vorher zufällig festgelegten Zeiten insgesamt 1.500 Mal durch die Sicherheitskontrolle. Sie geben sich nach Durchgang der Person am Kontrollterminal zu erkennen, damit das System getestet werden kann. Aufgrund der Ferienzeit werden in den zwei Testmonaten 163.847 Passagiere kontrolliert. Bei 183 Passagieren leuchtet die Lampe fälschlicherweise auf. Bei 8 der 1.500 Sicherheitskontrollen der Darsteller wurde die Übereinstimmung nicht erkannt.

Der Gesamtprojektleiter Viktor ist begeistert. Zwar war die False Positive Rate mit 0,11% etwas schlechter als ursprünglich erhofft, die False Negative Rate mit 0,53 % aber deutlich besser als angenommen. Mit diesen Zahlen und der Fehlerrate von 0,11 % geht EmbraceTheFuture GmbH an die Presse. Die Bundespolizei kündigt den baldigen Einsatz in einem Terminal eines großen Flughafens an.

Am Abend trifft Alex seine alte Schulfreundin Vera, die zufällig in der Stadt ist. Sie arbeitet als Geschichts- und Mathematiklehrerin. Nachdem sie sich über das neueste aus ihrem Alltag und Liebesleben aufs Laufende gebracht haben, berichtet Alex Vera begeistert von dem Projekt und erzählt von der Pressekonferenz. Vera reagiert ziemlich kritisch, automatische Gesichtserkennung behagt ihr irgendwie gar nicht. Darüber hatten sie schon während Alex’ Master häufiger diskutiert. Alex berichtet begeistert von den geringen Fehlerraten, der erhöhten Sicherheit und der Möglichkeit, untergetauchte Personen zu identifizieren. Vera schaut ihn skeptisch an. Sie findet die Fehlerrate überhaupt nicht gering. 0,11 % – bei einem großen Flughafen sind das doch Dutzende Personen, die für weitere Kontrollen beiseite genommen werden. Das findet sie gar nicht lustig.

Auch fragt sie sich, wie viele Personen, von denen es Fahndungsfotos gibt, tatsächlich mit dem Flugzeug fliegen. Alex will darüber nicht wirklich was hören und beginnt, ihr den Algorithmus, den er im Rahmen der Masterarbeit weiterentwickelt hat, genauer zu erläutern…

Einige Monate später ist das System im Airport City Terminal fertig installiert, Beamte wurden geschult und die Presse meldet den erfolgreichen Start. Wenige Tage später fliegt Alex vom Airport City Terminal ab und freut sich schon darauf, an QuickPicScan vorbeizugehen und sich in dem Gefühl zu sonnen, dass er einen Beitrag zu erhöhter Sicherheit leisten konnte. Doch als er in die Sicherheitsschleuse getreten ist, piepst der Metall-Alarm. Er wird gebeten, die Arme auszustrecken, die Füße abwechselnd auf einen Hocker zu stellen und zu guter Letzt geradeaus zu schauen. Er schielt nach rechts auf denMonitor der Sicherheitsbeamten und sieht, wie die kleine Kontrollleuchte am QuickPicScan-Terminal leuchtet. Hoffentlich geht das schnell, es wird knapp mit seinem Flug. Da er kein Gepäck eingecheckt hat, würden sie nicht auf ihn warten.

Er wird in einen separaten Raum geführt wo man ihn bittet, seine Papiere bereitzuhalten. Ein Beamter steht ihm gegenüber. Alex will ihm seinen Personalausweis reichen, dieser meint jedoch, dass die zuständige Kollegin gleich kommen würde, sie müsse noch jemand anderen überprüfen. Alex wird langsam ungeduldig.

Er bittet darum, dass seine Identität überprüft wird. Nein, das ginge nicht, der postierte Sicherheitsbeamte habe noch keine Einweisung für das neue System bekommen. Erst acht Minuten später taucht die verantwortliche Beamtin auf. Nach der Identitätsfeststellung ist klar, dass es sich bei Alex nicht um eine gesuchte Person handelt.

Sein Gepäck wird dennoch minutiös untersucht. ,,Ist Vorschrift“, sagt die Beamtin knapp. Alex wird unruhig, den Flieger wird er wohl verpassen. Plötzlich kommt ihm das Gespräch mit Vera wieder in den Sinn. ,,Passiert das öfter?“, fragt er mit gespielter Freundlichkeit. ,,Ach, ein paar Dutzend sind es schon am Tag“, sagt die Beamtin, als sie ihn wieder zurück ins Terminal geleitet.

Fragen

  1. Alex wurde fälschlicherweise vom System als ,,Verdächtiger“ identifiziert und hat in Folge seinen Flug verpasst. Dies bezeichnet man als false positive. In welchen Fällen muss hingenommen werden, dass es false positive gibt? Welche Folgen sind für die Betroffenen hinnehmbar? Wie müssten Entschädigungen geregelt werden?
  2. Auch Menschen können Fehleinschätzungen vornehmen. In einer ähnlich gelagerten Situation wie in der geschilderten könnte Alex auch von einem Sicherheitsbeamten zur Seite genommen werden, um genauer kontrolliert zu werden. Gibt es hier einen prinzipiellen Unterschied?
  3. Menschen haben Vorurteile. Es ist bekannt, dass ausländisch aussehende Männer zum Beispiel häufiger kontrolliert werden. Welche Chancen bestehen, solche Diskriminierungen durch Menschen mithilfe von Softwaresystemen zu verringern?
  4. Selbstlernende Algorithmen benötigen Trainingsdaten. Die Ergebnisse der Algorithmen hängen damit stark von den Trainingsdaten ab. Dies kann zu im Algorithmus manifestierter Diskriminierung führen.
  5. Denkbar ist auch, dass z. B. Gesichter einer bestimmten Personengruppe weniger genau erkannt werden, wenn weniger Trainingsdaten zur Verfügung stehen.Dies kann sich auf Hautfarbe, Alter, Geschlecht, Vorhandensein eines Barts etc. beziehen. In einem System wie dem beschriebenen könnte dies dazu führen, dass Personen mit bestimmten äußerlichenMerkmalen schneller beiseite genommen werden, um sie zu kontrollieren.Wie kann man Trainingsdaten sinnvoll wählen, umdiskriminierende Systeme nach Möglichkeit zu verhindern? Wie kann man Systeme mit Blick auf solche Diskriminierungen testen?
  6. Gibt es einen konzeptionellen Unterschied zwischen im System manifestierter Diskriminierung und Diskriminierung durch Menschen? Welche ist einfacher zu identifizieren?
  7. Menschen tendieren dazu, Antworten, die von einer Software gegeben wird, schnell zu vertrauen und Verantwortung abzugeben. Macht dies Diskriminierung durch technische Systeme besonders gefährlich? Welche Möglichkeiten der Sensibilisierung gibt es? Sollte, und wenn ja in welcher Form, eine Sensibilisierung in den Schulen erlernt werden? Ist sie Teil notwendiger digitaler Kompetenzen für die Zukunft?
  8. Zahlen für die false positive und false negative Rate werden oft in Prozent angegeben. Fehlerraten von unter 1 % klingen zuerst mal gar nicht so schlecht. Oftmals fällt es Menschen schwer, sich vorzustellen, wie viele Personen in realen Anwendungen davon betroffen wären, welche Folgen dies haben könnte und was das bedeutet. Oft werden auch beide Zahlen nebeneinander gestellt, ohne das Verhältnis zwischen Positives (in unserem Fall die Personen, die per Fahndungsbild gesucht werden) und Negatives (in unserem Fall alle anderen Passagiere) abzubilden. Oft ist dieses Verhältnis sehr unausgeglichen. Beim beschrieben Testlauf sollten 1.500 Personen (Positives) von 163.847 Passagieren identifiziert werden, also ein Verhältnis von ca. 1:100. Ist ein solcher Vergleich irreführend? Dürfen solche Zahlen in Produktbeschreibungen bzw. Marketingbroschüren genutzt werden? Handeln die Verantwortlichen von EmbraceTheFuture GmbH unethisch, wenn Sie an die Presse gehen? Gibt es andere Fehlermaße? Wie kann man Fehlerraten realistisch darstellen, sodass Systeme realistisch eingeschätzt werden?

Erschienen im Informatik Spektrum 42(5), 2019, S. 367-369, doi : 10.1007/s00287-019-01213-x

 

Fallbeispiel: Unachtsamkeiten

Stefan Ullrich, Debora Weber-Wulff

Nach dem Unfall mit Galene, dem so genannten selbstfahrenden Auto [1], bei dem ein Kind mit seinem Drachen zwischen zwei parkenden Autos auf die Straße gerannt ist und von Galene erfasst wurde, ist viel Aufwand in die Ausbesserung der Gefahrenerkennung gesteckt worden. Das Kind, das damals bewusstlos zu Boden gestürzt ist, ist zum Glück genesen. Die Firma hat ihm sogar für sein Schülerpraktikum einen Platz in der Firma gegeben. Jürgen, der Hauptverantwortlicher für Galene, hat damals die Pressekonferenz mit Vorführung abgesagt und nur ein kurzes Statement abgegeben, in dem mitgeteilt worden ist, dass noch einiges an Feinjustierung notwendig sei.

Es hat dennoch damals ein aufgeregtes Presseecho gegeben. Es wurde vorgeschlagen, hochautomatisierte Autos gleich gänzlich aus der Innenstadt zu verbannen. Manche wollten sogar alle SUVs verbieten, obwohl der Unfall wirklich glimpflich ausgegangen ist. Um ein Autoverbot zu vermeiden, hat damals die Politik angekündigt, dass Innovationen auf dem Gebiet der Verkehrssicherheit gezielt gefördert werden sollen. Außerdem sollen die Fahrer solcher Autos jährlich ein Training absolvieren müssen, in dem sie zeigen, dass sie jederzeit in der Lage sind, in Gefahrensituationen die Kontrolle über denWagen wieder zu erlangen. Das fand die Firma zwar problematisch, weil sie gerne damit wirbt, dass man während der Fahrt mit Galene einen Film anschauen oder Kaffee trinken kann. Wenn man den Verkehr immer im Auge halten muss, kann man eigentlich genau so gut selber fahren!

Jürgen und seine Teams haben dennoch an der Erkennung von Gefahrensituationen weitergearbeitet. Es ging darum, sich bewegende Gegenstände im Umfeld zu erkennen und deren Laufrichtung und Geschwindigkeit einzuschätzen. Es gab etliche trainierte Maschinelles- Lernen-Modelle, die einigermaßen gut die Bewegungsrichtungen erkennen könnten. Aber es gab auch einige Randfälle, die richtig knifflig waren. Große Menschenmassen waren problematisch, und die neu zugelassenen E-Scooter haben alle Modelle über den Haufen geworfen, weil sie so schnell und wendig waren.

Es gab immer wieder Fälle, in denen ein sich bewegendes Objekt nicht erkannt worden ist. Renate, eine Entwicklerin in Jürgens Abteilung und Leiterin der Bewegungserkennungsgruppe, hat sich in der letzten Zeit viel mit der Theorie von Edge Computing auseinandergesetzt. Sie schlägt vor, dass Kameras in die Lichtmasten eingebaut werden könnten, die permanent die Bewegungsrichtungen der Objekte in ihrer Nachbarschaft überwachen. Sie sind aus Datenschutzgründen nicht an einen zentralen Computer angeschlossen, aber versenden permanent Informationen über sich bewegende Objekte. Die autonomen Fahrzeuge können diese Daten in ihren Berechnungen berücksichtigen, müssen es aber nicht. Gerade auf dem Land gibt es nicht so viele Lichtmasten wie in der Stadt.

Die Gruppe schafft es, in Berlin eine Teststrecke auf einem Abschnitt der Straße des 17. Juni (eine lange, gerade Straße mit vielen Lichtmasten) genehmigen zu lassen und aufzubauen. Sie können recht große Recheneinheiten in die Lichtmasten einbauen, daher klappt die Richtungserkennung der bewegten Objekte sehr gut. Renates Teammuss diese gesendeten Daten interpretieren. Sie haben leider sehr große Probleme. Metall und feuchte Blätter beeinflussen die Signale, außerdem können die Sensoren praktisch nur dort in den Autos angebracht werden, wo sich die Kameras befinden. Es müssen daher besondere Geräte entwickelt werden, die die Kamera und unterschiedliche Sensoren kombinieren. Damit werden die Autos noch teurer als sie sowieso sind. Renate erstattet Bericht über die Auswirkungen an Jürgen, aber er wiegelt ab. Ist nicht so schlimm, da hat er eine bessere Idee.

Jürgen ist Techniker und wusste daher sehr gut, dass viele Probleme grundlegender Natur und nicht einfach zu beheben waren. Da kam ihm der Vorschlag eines seiner Teams genau richtig, vielleicht besser das Verhalten der Fußgänger zu regeln als das der Autos. In einigen Städten gab es schon Straßenschilder, die auf dem Boden gemalt wurden, um die zu Boden blickenden Smartphone- Nutzer vor dem Verkehr zu warnen. Außerdem sollte man dem Bezirk vorschlagen, auf der Teststrecke die E-Scooter zu verbieten. Während der Testphase wurden für Fußgänger Hinweisschilder auf Englisch und auf Deutsch angebracht, die über den Testbetrieb informieren. Im Bordstein eingelassene LEDs leuchten rot und blinken, wenn ein Fußgänger außerhalb der Signalanlagen auf die Fahrbahn treten möchte. Während des Testbetriebs wird dann auch ein Signal an die Mobilgeräte der eigens dafür eingesetzten Beamten des Ordnungsamtes gesendet.

Bei der anschließenden Auswertung ergab sich trotz der erheblichen technischen Mängel, dass viele potenzielle Unfälle verhindert wurden. Fachleuten war bewusst, dass dies eher auf den massiven Personaleinsatz, das E-Scooter-Verbot auf der Teststrecke und die Gängelung der Fußgänger zurückzuführen war, das Projekt wurde dennoch als ein technischer Erfolg gefeiert. Auf der anschließenden Pressekonferenz willigt die Kommune des Firmensitzes öffentlichkeitswirksam ein, die komplette Kleinstadt für autonome Fahrzeuge umzurüsten. Und auch das Bundesverkehrsministerium zieht mit: Die Einwohner können ihre alten Fahrzeuge gegen Galene quasi tauschen; zumindest bekommen sie einen beträchtlichen Zuschuss zum Einkaufspreis.

Renates Team ist nach wie vor damit beschäftigt, die gesammelten Daten auszuwerten. Sie und ihr Team kommenzu demSchluss, dass sich die Gefahrenerkennung nicht wesentlich verbessert hat, ein ähnlicher Unfall könnte jederzeit wieder stattfinden. Jürgen beruhigt sie, sie müsse doch das Gesamtsystem betrachten. Und zusammen mit denWarnungen für die Fußgänger hat sich die Situation ja tatsächlich verbessert. Vielleicht sollte die Firma über autonome Poller nachdenken, die sich Leuten in den Weg stellen, scherzt Renate. Zu ihrer Überraschung schweigt Jürgen ein paar Sekunden. Keine schlechte Idee, meint er schließlich.

Galene geht in Produktion, und wird erstaunlicherweise von knapp der Hälfte der Bürger in der Testkommune angeschafft. Die Anzahl von Blechunfällen geht stark zurück, sie passieren eigentlich nur noch im Mischverkehr, wenn ein autonomes mit einem nicht-autonomem Fahrzeug verschiedene Strategien zur Vermeidung von Unfällen anwendet.

An einem feinen Herbsttag sind Kinder auf der Herbstwiese dabei, ihren Drachen steigen zu lassen. Es ist ein sehr windiger Nachmittag, und die Drachen können sehr hoch fliegen. Peter ist mit seiner Mutter auf der Wiese, sie hat ihn überschwänglich gelobt, wie gut er den Drachen hinbekommen hat. Sie fotografiert ihn und ist dabei, das Bild online zu teilen. Sie bekommt nicht mit, dass der Drachen jetzt über die Straße zieht. Peter stemmt sich dagegen, wird mitgezogen, hält an, geht weiter in eine leicht andere Richtung, bleibt stehen, versucht, die Kontrolle über seinen Drachen wieder zu bekommen. Er will ihn nicht loslassen, den Drachen, das Geschenk seines Vaters. Er ist gefährlich nah an der Straße, seine Mutter schaut immer noch auf ihr Handy. Er kann die Straße nicht einsehen, weil ein Transportfahrzeug in der zweiten Reihe parkt. Galene setzt zum Überholen an.

Fragen

  1. Ist es moralisch gesehen in Ordnung, lauffähige Fahrzeuge umzutauschen,
    um einen technischen Test durchzuführen?
  2. Hätte man sich nicht schon denken können, dass die Probleme prinzipieller Natur sind?
  3. Haben die Entwickler eine Verantwortung dafür, darauf hinzuweisen, dass sie nicht grundsätzlich Gefahren erkennen können?
  4. Ist es problematisch, wenn Lichtmasten solche Daten erfassen und aussenden? Besteht auch noch Diebstahlgefahr für die Rechenelemente?
  5. Wer trägt die Verantwortung, wenn es einen Unfall mit Peter und Galene gibt? Peter, seineMutter, der Fahrer des Lieferwagens, die Hersteller von Galene, Renates Team?
  6. Autos und Fußgänger stehen in starker Konkurrenz zueinander. Ist es problematisch, das Verhalten der Fußgänger beeinflussen zu wollen, damit die Autos es leichter haben? Siehe hierzu auch [2].
  7. Reicht es aus, Warnungen in der Landessprache und auf Englisch anzubringen – in einer Gegend, in der sich viele Touristen aufhalten?
  8. Müssen Eltern besser auf ihre Kinder aufpassen und sich nicht immer mit dem Handy beschäftigen?

Literatur
1. Informatik Spektrum (2015) 38(6):575–577, online unter https://gewissensbits.gi.de/fallbeispiel-das-selbstfahrende-auto/

2. Novak M (2013) The Invention of Jaywalking Was a Massive Shaming Campaign, 22 July 2013, https://paleofuture.gizmodo.com/the-invention-of-jaywalking-was-a-massive-shaming-campa-858926923

Erschienen im Informatik Spektrum 42(6), 2019, S. 448-450, doi : 10.1007/s00287-019-01218-6

Fallbeispiel: Eignungsfeststellungsverfahren

Jennifer Schmautzer, Carsten Trinitis

Emily ist mit ihrem Informatik-Bachelor an der TU fast fertig. Im vergangenen Semester hat sie ein Praktikum im Ausland gemacht, um ihre Fremdsprachenkenntnisse sowie ihre Schlüsselqualifikationen zu verbessern. Dabei hat sie sich für eine Firma aus den USA entschieden, die sich vor allem auf die Entwicklung autonomer Autos spezialisiert hat. Denn Emily war schon als Kind von Autos und deren Technik sowie Funktionsweise fasziniert. Seitdem sie außerdem selbst eine begeisterte Autofahrerin ist, hat sie angefangen, sich näher mit der fortschreitenden Technologie im Bereich der Automobilindustrie auseinanderzusetzen. Insbesondere autonome Autos haben ihr Interesse geweckt, weshalb sie in ihrem Praktikum mehr über die verschiedenen KI-Technologien und Werkzeuge in autonomen Autos lernen wollte.

Ihr damaliger Praktikumsbetreuer Tom hat ihr erklärt, dass Deep Learning als Teilbereich des Machine Learnings eine wichtige Methode und Grundlage für die Entwicklung autonomer Autos darstellt. Denn über sogenannte neuronale Netze, die ähnlich wie ein menschliches Gehirn aufgebaut sind, können die Autos eine Verbindung mit der Umgebung herstellen. Außerdem müssen die Autos in der Lage sein, viele verschiedene Daten zu verarbeiten, Muster auf Basis von Bild- und Sensordaten zu erkennen und Entscheidungen auf Grundlage von KI-Algorithmen zu treffen.

Toms Aufgabe besteht unter anderem darin, genau solche KI-Algorithmen zu implementieren. Im Laufe des Praktikums, in dem sie Tom über die Schulter schauen und kleine Implementierungen unter seiner Aufsicht selbst durchführen durfte, ist ihr klar geworden, dass bereits kleine Fehler im Code und damit in der Software zu einer Vielzahl von Unfällen führen können. Emily wird auch jetzt noch mulmig bei dem Gedanken, dass sie für den Tod von anderen Menschen verantwortlich sein könnte.

Zudem fragt sie sich, wer bei einem Unfall, an dem ein autonomes Auto beteiligt ist, im generellen Fall die Haftung übernehmen müsste. Der Fahrer, der Hersteller, der Konstrukteur oder doch etwa der Software-Entwickler? Sie stellt fest: Toms Job bringt auf jeden Fall viel Verantwortung mit sich!

Auch in der Personalabteilung, die sie, während Tom auf einer Fortbildung war, besuchen durfte, sind ihr verschiedene Anwendungen von Künstlicher Intelligenz begegnet. So wendet die Firma unter anderem sogenanntes Roboter Recruiting zur Personalauswahl an. Es werden jedoch nicht nur Lebensläufe und weitere Bewerbungsunterlagen anhand bestimmter Kriterien voranalysiert, sondern sogar das Bewerbungsgespräch wird von einem Computer durchgeführt.

Emily war sofort begeistert, wie diese KI-basierte Software dabei Mimik, Stimme und Inhalt genau analysieren kann, um anschließend zu ermitteln, ob sich der Bewerber für den Job eignet oder nicht. Sie hat erfahren, dass die Firma mithilfe von Roboter Recruiting bereits erfolgreich Mitarbeiter einstellen konnte, und dass die Trefferquote ebenfalls sehr hoch sei. Der Computer hat eben im Gegensatz zum Menschen keine Vorurteile und ist somit diskriminierungsfrei, denkt sich Emily. Somit ist Roboter Recruiting nicht nur eine Erleichterung für die Personalabteilung, sondern bringt auch noch Vorteile für die Bewerber mit sich.

Als Emily wieder zurück in Deutschland ist und ihr Praktikum Revue passieren lässt, wird ihr erst bewusst, in wie vielen Bereichen und Anwendungen KI heutzutage nicht mehr wegzudenken ist. Inspiriert von ihrem Praktikum beschließt sie, sich tiefgehender mit den Methoden und Werkzeugen der KI zu beschäftigen. Auf der Suche nach Kommilitonen, die sich ebenfalls für KI interessieren, entdeckt sie an ihrer Universität eine Projektgruppe zur KI. Da das Semester gerade erst begonnen hat, kann sich Emily noch ohne Probleme anmelden.

In der darauffolgenden Woche besucht sie das erste Treffen der Gruppe, an dem festgelegt werden soll, an welchem KI-basierten Projekt man dieses Semester arbeiten wird. Emily überlegt, welche KI-Verfahren sie in ihrem Praktikum am meisten begeistert haben, und inwiefern man diese in einem eigenen Projekt erforschen und realisieren könnte.

Schließlich erzählt sie den restlichen Teilnehmern von dem Verfahren des Roboter Recruitings, das die Firma aus den USA bereits erfolgreich eingesetzt hat. Im Zuge dessen kommt ihr die Idee, dieses oder ein ähnliches Verfahren auch für das Eignungsfeststellungsverfahren (EFV) im Bewerbungsprozess bei Studierenden anzuwenden. Die erste Stufe des EFV ist hierbei bereits digitalisiert: Anhand der eingesendeten Bewerbungsunterlagen wird digital festgestellt, welche von den Fakultäten definierten Punktegrenzen jeweils erreicht sind. Anschließend sendet die Universität dem Bewerber, abhängig von seiner Punktezahl, automatisch eine E-Mail zu, die ihm mitteilt, ob er direkt für einen Studienplatz zugelassen wird, keinen Studienplatz erhält oder in das EFV-Gespräch muss. Die zweite Stufe des EFV, also das Gespräch mit dem Professor, ist derzeit allerdings noch nicht digitalisiert.

Der Projektleiter und die anderen Teilnehmer sind begeistert von ihrer Idee, dieses Gespräch auch zu digitalisieren, weshalb sie sich schließlich für dieses Projekt entscheiden. In den nächsten Wochen beginnen sie, die verschiedenen notwendigen KI-Techniken hierfür zu erarbeiten und umzusetzen. So beschäftigen sie sich intensiv mit dem Verfahren des Deep Learnings, das Emily bereits in ihrem Auslandspraktikum im Bereich der autonomen Autos kennenlernen durfte. Damit die KI am Ende sinnvolle Ergebnisse liefert, ist es besonders wichtig, die künstlichen neuronalen Netze mit möglichst vielen qualitativ hochwertigen Daten zu trainieren.

Deshalb sammeln Emily und die anderen Gruppenmitglieder über das gesamte Semester Daten von erfolgreichen Studienabsolventen, um die KI damit zu trainieren und zu verfeinern. Nach einem Gespräch des Computers mit einem Studienbewerber vergleicht die KI schließlich die gespeicherten Daten erfolgreicher Studienabsolventen mit den im gesamten EFV gesammelten Daten, um basierend darauf eine Entscheidung zu treffen. Emily verbringt jede freie Minute an der Verfeinerung dieses Deep Learning Prozesses.

Eines Abends, als Emily bei ihrer Tante und ihrem Onkel zu Besuch ist, berichtet sie ihnen begeistert von ihrem Projekt und seinem stetigen Fortschritt. Ihre Tante, die sich kaum mit Technik und Informatik auskennt, ist skeptisch und fragt sich, ob die Entscheidung über einen Studienplatz wirklich von einer Maschine getroffen werden kann. Sollte nicht ein Mensch über eine so wichtige Entscheidung bestimmen? Denn woher soll die Maschine wissen, wer für einen bestimmten Studienplatz geeignet ist und wer nicht? Emily versucht, ihrer Tante das grundlegende Verfahren von selbstlernenden Maschinen zu erklären und ihre Bedenken zu widerlegen, doch sie kann die Befürchtungen ihrer Tante nicht vollkommen ausräumen.

Auch ihr Onkel, der sich als GI-Mitglied an der TU sehr wohl mit Informatik auskennt, sieht das Projekt teilweise kritisch. Er erzählt Emily von einem Fall bei Amazon, bei dem die KI Frauen bei der Personalauswahl benachteiligt hat. Schuld waren die Trainingsdaten für die KI, die auf den Bewerbungen der letzten zehn Jahre basierten. Denn die meisten Bewerbungen stammten von Männern, weshalb das KI-System daraus folgerte, dass das Unternehmen bevorzugt Männer einstelle.

Emilys Onkel macht ihr deutlich, dass die Menschenwürde in diesem Fall nicht gewahrt und geschützt wurde, wie es klar im Artikel 9 “Zivilcourage“ der neuen ethischen Leitlinien, welche das Präsidium der GI am 9. Juni 2018 verabschiedet hat, gefordert wird.

Als Emily an diesem Abend nach Hause geht, wird ihr bewusst, dass ihr Projekt eventuell auch Schattenseiten besitzt, über die sie sich bis jetzt keine Gedanken gemacht hat. Was ist, wenn auch bei ihnen die Trainingsdaten Vorurteile enthalten, weil Jungs beispielsweise eher technische Studiengänge wählen als Mädchen? Daheim recherchiert Emily über ähnliche Fälle und fängt an, ihr Projekt kritisch zu hinterfragen. Doch so kurz vor dem Ziel möchte sie natürlich nicht aufgeben und schiebt die Gedanken beiseite.

Zwei Wochen später ist die Arbeit an ihrem Projekt fertiggestellt, und erste Tests mit freiwilligen Studienbewerbern werden durchgeführt. Nach dem Gespräch mit dem Computer füllen die Testpersonen außerdem einen Fragebogen aus, in dem ihre persönliche Meinung über das geführte Gespräch erfasst wird. Als die Projektgruppe die Fragebögen auswertet, stellt sie fest, dass viele auch Kritik enthalten. So wird beispielsweise kritisiert, dass man eine von einem KI-basierten System getroffene Entscheidung nicht nachvollziehen könne. Schließlich trifft die KI die Entscheidung auf Grundlage von verknüpften Daten und von Wissen, über das kein direkter Zugriff besteht. Außerdem geben einige Testpersonen an, dass sie sich bei dem Gespräch unwohl gefühlt haben und nicht wussten, wie sie sich verhalten sollen. Vielen fehlte auch einfach das Persönliche, das so ein Gespräch doch irgendwie ausmache.

Obwohl Emily mit Kritik gerechnet hat, ist sie nun doch etwas schockiert. Als schließlich auch noch ihre Befürchtungen wahr werden und die Testergebnisse zeigen, dass nur Jungs im Informatikstudiengang zugelassen worden wären, ist ihr klar, dass ihr Verfahren noch lange nicht ausgereift ist.

Fragen

  1. Inwie vielen und welchen Lebensbereichen begegnet KI uns tatsächlich? Ist KI aus unseremLeben überhaupt noch wegzudenken? Inwiefern unterstützen uns die verschiedenen KI-Technologien? Können sie uns auch in irgendeinerWeise schaden?
  2. Was sind qualitativ hochwertige Daten für das Training der neuronalen Netze im Hinblick auf die Digitalisierung der zweiten Stufe des EFV? Sollten die Trainingsdaten nur Daten von Studienabsolventen mit einem Studienerfolg nach X Semestern enthalten, oder sollte der Studienerfolg insgesamt zählen? Welche Daten sind überhaupt von Relevanz, wenn es um den Abschluss eines erfolgreichen Studiums geht? Woran kann man festmachen, ob jemand ein Studium schaffen wird? Gibt es hierfür überhaupt irgendwelche Kriterien?
  3. Inwieweit kann man sicherstellen, dass die Daten frei von Vorurteilen sind bzw. ist das überhaupt möglich?
  4. Kann man das Verfahren von Roboter Recruiting also einfach auf Bewerbungsverfahren von Studierenden anwenden?
  5. Was ist mit den Befürchtungen der Tante? Kommt der Computer bei Menschen wie Emilys Tante, die eine Ablehnung und Unsicherheit bei solchen Verfahren aufweisen, zu anderen Ergebnissen als bei Menschen, die sich mit der Technologie auskennen und diese für gut heißen? Wenn ja, ist dies gerechtfertigt?
  6. Wie sieht es bezüglich des Datenschutzes aus?
  7. Inwiefern ist eine Dokumentation der Daten, die für das Training der KI verwendet werden, notwendig? Wie kann man diese dokumentierten Daten im Falle eines Einspruchs von einem Studienbewerber bei Ablehnung berücksichtigen? Kann eine Entscheidung nachträglich aufgrund dieser Dokumentation geändert werden?

Erschienen im Informatik Spektrum, 42(4), 2019, S. 304-306, doi: 10.1007/s00287-019-01189-8

Fallbeispiel: Der Albtraum

Christina B. Class, Debora Weber-Wulff

Andrea, Jens und Richard sitzen in ihrer Lieblingspizzeria in Hamburg und feiern bei Bier und Pizza den erfolgreichen Abschluss der Softwaretests des Projekts ,,SafeCar“. Das Projekt wird morgen in Hamburg zum TÜV-Test gehen und sie sind schon fertig. Sie müssen nicht die Nacht durcharbeiten!

Sie arbeiten im Unternehmen SmartSW GmbH in Hamburg und sind für die Entwicklung einer Softwaresteuerung für die Sicherheitskomponente des neuen Automodells KLU21 des Autoherstellers ABC verantwortlich.

Der Autohersteller ABC stand in letzter Zeit wirtschaftlich ziemlich unter Druck, da er sich zu sehr auf die klassischen Antriebssysteme statt auf Elektromotoren konzentriert hat. Die Skandale um Dieselfahrzeuge in den letzten Jahren haben ihm zunehmend zu schaffen gemacht.

Das aktuelle sparsame Hybridmodell KLU21 soll durch eine neue intelligente Fahrsteuerung und ein erweitertes Sicherheitssystem ergänzt werden. Dieses soll eine intelligente Fahrunterstützung mit Hilfe von Echtzeitdaten anbieten. Durch Verwendung der neuesten Kommunikationstechnologien
will ABC das angeschlagene Image verbessern. ABC möchte als modernes Unternehmen und Pionier wahrgenommen werden und hofft, dadurch etwas Marktanteil zurückgewinnen zu können und Arbeitsplätze zu erhalten.

Im Rahmen des Projekts SafeCar wurde ein Sicherheitssystem für KLU21 mit künstlicher Intelligenz entwickelt. Zum einen verhindert die Software, dass ein Auto von der Fahrspur abkommt. Hierzu werden Informationen der externen Kameras verknüpft mit der Lokalisation des Fahrzeugs und aktuellen Verkehrsdaten über den Straßenzustand und Satellitendaten, die in Echtzeit von einer gesicherten Cloud geladen werden. Das Auto nimmt auch die anderen Autos auf der Straße wahr und erzwingt die Einhaltung des Sicherheitsabstands.

Zum anderen soll eine auf den Fahrer gerichtete Kamera feststellen, wenn sich die Augen des Fahrers schließen. Das könnte bedeuten, dass er in einen Sekundenschlaf fällt oder ohnmächtig geworden ist. Ein Alarmton soll den Fahrerwecken. Kann das System keine sofortige Reaktion des Fahrers beobachten, übernimmt es die automatische Steuerung und bringt das Fahrzeug unter Beachtung der Straßensituation und des Verkehrs am Straßenrand zum Stehen. Die maximale Reaktionszeit des Fahrers bis die Software die Steuerung übernimmt, hängt von der Straße, dem Straßenzustand sowie der Verkehrssituation ab, um das Risiko für alle Verkehrsteilnehmer zu minimieren.

Andrea, Jens und Richard haben dem Projektleiter vorgeschlagen, zu erkennen, wenn der Fahrer mit dem Mobiltelefon hantiert, und eine Warnung auf dem Display anzuzeigen und ein Warnsignal zu senden. Jens und Richard haben sich ferner den Spaß gemacht, automatisch zu erkennen, wenn eine Fahrerin Lippenstift appliziert. Das Auto soll dann pfeifen – aber auch nicht immer, nur durchschnittlich jedes sechste Mal. Natürlich soll dieses Feature nicht aktiviert werden.

Es war ja so einfach, die Bilder via den 5G-Netzwerk zum Cloud Cluster zu schicken, und dort die Bilder zu zerlegen und zu schauen, ob sie was erkennen können. Um den Sekundenschlaf und Ohnmacht möglichst genau zu erkennen, haben sie das Programm mit vielen Daten, die sie eigens dafür erhalten haben, trainiert. Handy oder Lippenstift zu erkennen war dagegen eine einfache Fingerübung. Es gab ja ausreichend freie „Trainingsdaten“ (Bilder und Videos) im Internet zu finden.

Sollte das Auto eine technische Panne haben, der Fahrer das Bewusstsein verlieren oder ein Unfall passieren, wird ein automatischer Notruf an die Polizei abgesetzt mit den relevanten Daten betreffend des Autos, der Art der Panne oder des Unfalls, Information betreffend des Bedarfs nach einer Notarzt und der genauen Angabe, wo das Auto steht.

Nachdem sie viele Überstunden gemacht haben, feiern Andrea, Jens und Richard den erfolgreichen Abschluss der Tests ausgelassen. Nach vielen erfolgreichen In-House Tests sind sie in den letzten beiden Tagen mit einem auf der Beifahrerseite installierten System durch die Straßen der Stadt und der näheren Umgebung gefahren, und haben alle Informationen und Befehle des Systems protokolliert. Die Auswertung hat gezeigt, dass alle gestellten Situationen korrekt erkannt wurden. Sie haben heute von ihrem Teamleiter schon ein dickes Kompliment erhalten. Sie klönen miteinander bis weit nach Mitternacht.

Als Andrea mit dem Taxi nach Hause gefahren ist, fühlt sie sich plötzlich ziemlich durstig. Mit einer Flasche Mineralwasser setzt sie sich auf das Sofa und schaltet den Fernseher ein. Es kommt eine Wiederholung einer Talkshow, bei der es, wie seit Monaten schon, um den aktuellen Stand des 5G Netzausbaus geht. Es wird wieder einmal diskutiert, wie viele Funklöcher in ländlichen Gebieten existieren, die immer noch nicht geschlossen wurden. Dazu kommen unzureichende Regeln für nationales Roaming.

Ein Firmenvertreter behauptet, es werde nur noch wenige Funklöcher geben, wenn der 5G-Ausbau fertig ist. Eine Zuschauerin beklagt sich dagegen heftigst darüber, dass sie trotz des neuen Netzes nur im Garten Empfang hat. Ihre neu hinzugezogene Nachbarin, die noch einen Vertrag mit einem anderen Netzanbieter hat, hat nur auf dem Friedhof am Ende des Ortes Empfang, da das Roaming nicht verpflichtend ist. Eine heftige Diskussion entbrennt…

Andrea ist sehr müde. Sie lehnt sich zurück. Die Augen fallen ihr zu …: Sie fährt Auto. Die Strecke ist kurvenreich und dasWetter ist sehr neblig, sie hat kaum Sicht. Sie ist froh, dass sie einen KLU21 fährt, er unterstützt sie dabei, auf der rechten Spur zu bleiben. Doch plötzlich merkt sie, wie die Lenkunterstützung des Autos ausfällt. Sie ist nicht darauf vorbereitet und bevor sie recht reagieren kann, hat ihr Auto die Fahrbahn verlassen und kracht seitlich gegen einen Baum. Sie wird schräg nach vorne geschleudert, so dass sie unglücklich auf den Airbag auftrifft. Sie verliert das Bewusstsein.

Sie beobachtet wie sie bewusstlos im Auto sitzt. Gleich wird Hilfe kommen, zum Glück hat KLU21 einen Notruf abgesetzt. Sie sieht sich im Auto um, die Notfall-Leuchte blinkt nicht, warum wurde kein Notruf abgesetzt? Sie blutet! Warum kommt keine Hilfe? Plötzlich weiß sie es! Ein Funkloch … Die Lenkunterstützung konnte so nicht ausreichend funktionieren, da Echtzeitdaten fehlten, genauso wenig die Benachrichtigung der Notrufzentrale … Hallo? Hört mich jemand? Warum kommt kein Auto vorbei? Warum hilft mir niemand? Hilfe, ich blute! Ich verblute!

Schweißgebadet wacht Andrea auf! Sie braucht einen Moment, um sich zu beruhigen und zu begreifen, dass es nur ein Traum war, sie sich in ihrer Wohnung befindet und es ihr gut geht.

Und dann erinnert sie sich an die erfolgreichen Softwaretests von heute und die Sendung mit den Beschwerden über unzureichende Netzabdeckung in manchen ländlichen Gebieten. Auch da führen Straßen durch. Warum haben sie nie darüber nachgedacht, als sie die Software für KLU21 entwickelt haben? Warum haben sie nie ihren Auftraggeber darauf angesprochen? Ihre Tante wohnt ja in Sankt Peter-Neustadt und hat schon öfters über ihre schlechte Verbindung geklagt. Sie muss unbedingt mit ihrem Chef sprechen …

Fragen

  1. Tests zu gestalten ist sehr schwer. Im vorliegenden Beispiel sind die Entwickler maßgeblich an den Tests beteiligt. Ist dies gerechtfertigt? Wie kann sichergestelltwerden, dass die Tests nicht verzerrt werden und zu falschen Ergebnissen führen? Wie stark sind Anforderungen an Tests in Abhängigkeit von der Sicherheitsrelevanz der Software zu definieren? Wie stark beeinflussen Deadlines und wirtschaftlicher Druck die Durchführung von Softwaretests?
  2. Tests können die Fehlerfreiheit von Software nicht nachweisen. Noch weniger ist es möglich, nachzuweisen, dass die Software nichts macht, was nicht gefordert ist. In dem Beispiel wurde mit der Lippenstifterkennung ein sogenanntes Easter Egg (Osterei) eingefügt, das nicht aktiviert wird. Welche Probleme können sich durch ein solches Easter Egg ergeben? Wie ist ein solches Easter Egg zu beurteilen, wenn die Entwickler es in ihrer „Freizeit“ entwickelt haben?
  3. Es handelt sich im Beispiel um eine sicherheitskritische Anwendung, die mit Trainingsdaten trainiert wird. Wie kann man die Qualität der Trainingsdaten sicherstellen? Welche Richtlinien sollte/kann es hierfür geben? Wann und unter welchen Umständen sollte erzwungen werden, dass ein System mit neuen Daten lernt? Wie müssen erneute Tests aussehen, wenn das System weitere Trainingsdaten erhalten hat? Müssen alle bisherigen Tests erneut wiederholt werden? Dürfen sich Personen, die Trainingsdaten definieren, auch an der Entwicklung von Tests beteiligen? Wenn nicht, warum nicht?
  4. Im Internet sind viele Bilder und Videos „frei“ zu finden. Dürfen diese einfach als Trainingsdaten verwendet werden? Wenn nicht, warum nicht? Wenn ja, gibt es Einschränkungen für die Art von Anwendungen, für die man sie verwenden darf?
  5. Für gewisse Anwendungsbereiche oder auchWettbewerbe im Bereich von Data Mining und KI gibt es frei verfügbare, anwendungsspezifische Datensets (open data). Ist es erlaubt, diese für andere Arten von Anwendungen/Fragestellungen zu verwenden? Welche Anforderung muss an die Dokumentation solcher Datensets gestellt werden, in Bezug auf Datenquelle, Auswahl der Daten und getroffenen Annahmen? Wie groß ist die Gefahr, falsche Schlussfolgerungen zu ziehen, wenn man solche Daten verwendet?
  6. In den aktuellen Diskussionen über 5G wird häufig über die Notwendigkeit einer flächendeckenden Abdeckung sowie von National Roaming gesprochen.Wie wichtig ist eine solche? Ist es vertretbar, sicherheitskritische Anwendungen zu erstellen, so lange nicht sichergestellt ist, dass die Infrastruktur flächendeckend zur Verfügungsteht? Ist es vertretbar, Anwendungen zu schreiben, die nur lokal genutzt werden können/dürfen, also z. B. nur in der Stadt? Wenn der Nutzer nach einem Umzug ein Systemnicht mehr benutzen kann, sollte er dann eine Entschädigung erhalten?
  7. Funklöcher betreffen heute schon viele Regionen, in denen mit einem Handy z. B. keine Rettungskräfte oder Polizei gerufen werden kann oder in denen Rettungskräfte keinen Kontakt mit der Leitstelle aufnehmen können.Wie stark ist die Politik gefordert, hier regulierend einzugreifen? Wie stark ist diese Digital Divide wirklich in Deutschland? Können wir es uns als Industrienation leisten, dass diese weiterhin bestehend bleibt, bzw. u.U. mit dem 5G Ausbau verstärkt wird?

Erschienen im Informatik Spektrum, 42(3), 2019, S. 215-217, DOI: 10.1007/s00287-019-01171-4

 

Fallbeispiel: HackerZero

Constanze Kurz, Rainer Rehak

Elvira und Nico haben Informatik studiert und schreiben gerade ihre Dissertationen im Bereich IT-Sicherheit. Daneben lehren sie an verschiedenen Universitäten. Sie haben ein Projekt namens ,,HackerZero“ angeregt und konnten dafür Fördergelder gewinnen. Das Projekt bietet eine universitäre Plattform als Portal für Sicherheitsforschung an. Zehn verschiedeneUniversitäten sind an dem Projekt beteiligt. Elvira und Nico freuen sich über die Zusage, dass die Förderung für weitere zwei Jahre verlängert wurde.

Wer Sicherheitslücken in Software entdeckt hat, kann diese über die innovative Plattform ,,HackerZero“ an die betroffenen Hersteller oder Anbieter melden und muss gleichzeitig das Vorgehen und Wissen offenlegen. Da die Kommunikation über Elvira und Nico als Betreiber der Plattform läuft, braucht man sich nicht über unangenehme juristische Folgen zu sorgen, da sie die Meldungen entgegennehmen und weiterleiten. Elvira und Nico übernehmen also die Kommunikation mit den betroffenen Softwareanbietern. Als Informatikfachleute prüfen die beiden aber auch die technische Seite der gemeldeten Schwachstellen.

Um zu verhindern, dass die Sicherheitslücken ausgenutzt werden, haben die kommerziellen Partner und auch die Open-Source-Projekte nach Meldung eine gewisse Zeit zur Verfügung, in der sie das Wissen um eine Sicherheitslücke exklusiv erhalten. Aber nach spätestens drei Monaten wird das Wissen für alle Plattformmitglieder offengelegt und dann veröffentlicht. Den Firmen wird also eine Frist gesetzt, Patches für die gefundenen Probleme in ihrer Software bereitzustellen. Wenn die Firmen die Sicherheitslücken als „behoben“ markieren, so werden diese auch vor Fristablauf schon offengelegt.

Die Firmen können entscheiden, ob sie zusätzlich auch Informationen zur Lösung bekanntgebenwollen. Damit können alle Personen, die sich mit Sicherheitsfragen beschäftigen, aus diesen Fehlern – und den Lösungen – lernen.

Die Plattform ,,HackerZero“ wird vom Konsortium der zehn beteiligten Universitäten betrieben. Sie steht auch kommerziellen Partnern als Plattform zur Verfügung, um ihre Produkte samt Quellcode für die Sicherheitsprüfung zu hinterlegen. Open-Source-Projekte können sich ebenfalls als Partner anmelden.

,,HackerZero“ bietet IT-Sicherheitsforschern für die Meldung von Softwareschwachstellen eine Aufwandsentschädigung in Form eines Preisgeldes an. Es sind keine großen Summen, die mit dem kommerziellen Markt mithalten könnten, aber damit soll ein zusätzlicher Anreiz für das Nutzen der Plattform zur Offenlegung von Problemen gesetzt werden.

In ,,HackerZero“ werden diese Preisgelder von den kommerziellen Partnern finanziert. Die Gelder kommen in einen gemeinsamen Topf, sodass für alleMeldungen von Sicherheitslücken Gelder zur Verfügung stehen und auch Open-Source-Projekte von der Plattform profitieren können. Sowohl Elvira als auch Nico sind davon überzeugt, dass die Offenlegung von Schwachstellen stets von sehr großem Nutzen für alle an IT-Sicherheitsforschung Interessierten sowie für die Softwarehersteller selbst ist.

Während einer Projektsitzung kommt es wegen einer Neuanmeldung zu heftigen Diskussionen: Der neue kommerzielle Partner hat sich bei ,,HackerZero“ angemeldet, sein Produkt nutzt jedoch selbst Schwachstellen in anderen Softwareprodukten aus. Einige der universitären Partner haben nun mit demAusstieg aus dem Projekt gedroht.

Elvira hatte Nico nach der Anmeldung sofort geschrieben, dass sie den neuen Partner nicht akzeptabel findet. Klar sei doch, dass der Neuzugang ein Käufer von Sicherheitslücken sei oder aber mindestens ein Interesse haben müsse, Schwachstellen in der Software möglichst lange offenzuhalten, um das eigene Produkt besser verkaufen zu können. Das widerspräche klar der Intention der ganzen ,,HackerZero“-Plattform. Elvira meint, dass nicht mal klar sei, ob das Produkt der potenziellen neuen Partnerfirma legal sei.

Nico hält dagegen, dass es immer gut sei, Schwachstellen aufzudecken, auch in solchen Softwareprodukten, die ihrerseits Sicherheitslücken ausnutzen. Die Firma hätte ihren Sitz in Deutschland, was ein illegales Produkt wahrscheinlich ausschließe. Außerdem sei es gerade bei solcher Software besonders wichtig, dass sie sicher und handwerklich gut programmiert sei. Schließlich sei ihnen doch beiden klar, dass die Kunden der Firma wohl vornehmlich Strafverfolgungsbehörden sein würden.

Fragen

  1. Ist es sinnvoll und ethisch vertretbar, über eine universitäre Plattform Gelder für Schwachstellenmeldungen anzubieten, wenn eine Offenlegung zu einem späteren Zeitpunkt stattfindet?
  2. Müssen sich Elvira und Nico damit auseinandersetzen, welche Firmen und welche Software bei ,,HackerZero“ angemeldet sind? Wäre es notwendig gewesen, dies festzulegen, als das Projekt definiert wurde?
  3. Widerspricht die Aufnahme eines Partners, dessen Geschäft die Ausnutzung von Schwachstellen ist, grundsätzlich dem Projektziel? Warum? Gäbe es Gründe, die die Aufnahme rechtfertigen? Wenn ja, welche wären das?
  4. Wäre es vertretbar oder sogar notwendig, spezifische Regeln für den Umgang mit Vorabinformationen über Sicherheitslücken einzuführen?
  5. Würde sich etwas ändern, wenn eine staatliche Stelle als Partner teilnehmen wollte?
  6. Änderte sich dadurch etwas, wenn sich keine der beteiligten Universitäten über die neue Partnerfirma verärgert gezeigt hätte? Müssten Elvira und Nico dennoch die Art der zu untersuchenden Software diskutieren?
  7. Wen könnten Elvira und Nico hinzuziehen, wenn sich die beiden über die Anmeldung der neuen Partnerfirma nicht einig werden können? Sollten sie das Dilemma gar öffentlich diskutieren?

Erschienen im Informatik Spektrum, 42(2), 2019, S. 144-145, https://doi.org/10.1007/s00287-019-01163-4

Fallbeispiel: Freiwillige DNA-Sammlung

Constanze Kurz, Debora Weber-Wulff

Erst seit wenigen Wochen arbeitet Rita bei der Firma ,,Wissenscode“. Sie ist Bio-Informatikerin und hatte bei dem recht bekannten Unternehmen angeheuert, weil sie die Mischung aus Wissenschaft und Business für ihre berufliche Zukunft als sinnvoll erachtet. ,,Wissenscode“ wertet für medizinische Zwecke große Mengen genetischer Daten aus. Die Gründer der Firma sind Mediziner, die sich medial ganz gern als Visionäre inszenieren. Rita findet die PR ihres neuen Arbeitgebers ein wenig überzogen, kann sich aber mit der Idee gut identifizieren, ihre Arbeitskraft als Informatikerin für den Zweck einzusetzen, Krankheiten entgegenzuwirken und Forschung zu unterstützen.

Aktuell wird das größte Projekt in der Geschichte des Unternehmens vorbereitet: Von 200.000 Menschen in einem bestimmten Gebiet Deutschlands sollen DNA-Daten eingesammelt und analysiert werden. Die Region ist natürlich nicht isoliert, dennoch leben nach wissenschaftlich belegten Studien besonders viele Familien dort seit mehreren Generationen und sind überdurchschnittlich sesshaft. Eine Genom-Datenbank über diese 200.000 Menschen soll hohe Aussagekraft über vererbbare Krankheiten hervorbringen.

Als das erste Mal Post von der Firma ,,Wissenscode“ in den Briefkästen der Region lag, hatte die Presse noch gar keinen Wind davon bekommen. Die Bürger wurden aber mit einer ansehnlichen bunten Broschüre über künftige medizinische Durchbrüche informiert, die man aus den freiwillig abzugebenden Gendaten ziehen wolle. Man habe einen lokalen gemeinnützigen Verein als Kooperationspartner gewinnen können, deren Mitarbeiter die DNA-Proben an jedem einzelnen Haus einsammeln werden. Nach Ende der Sammlung werde ,,Wissenscode“ an die Organisation fünf Euro pro Probe spenden, damit winken also eine Million Euro Spenden.

Die Presse springt bald auf das Thema an und stellt es mehrheitlich als eine großartige Aktion dar, um mehr Wissen über Krankheiten zu erlangen und zugleich Spenden für die wohltätige Organisation zu sammeln. Politiker der Region stellen sich öffentlichkeitswirksam hinter das Vorhaben von ,,Wissenscode“. Einige Krankenkassen kündigen Kooperationsprojekte an. Es gibt zwar auch einige wenige Kritiker, aber die befürwortende Stimmung überwiegt klar.

In Rita allerdings wachsen die Zweifel: In der Firma selbst sind nämlich keine Vorbereitungen getroffen worden, die informationstechnische Auswertung der Proben in den Datenbanken vorzunehmen. Die ganze Abteilung, in der Rita arbeitet, werkelt weiter an ihren bisherigen Auswertungen als stehe gar keine große Datensammlung zur Analyse an. Immerhin wäre das die größte Auswertung, die je durchgezogen wurde.

Und warum wird die ganze Aktion eigentlich in nur einer Woche vollzogen? Warum reagiert die Firma nicht auf kritische Nachfragen? Stattdessen betont ,,Wissenscode“ nun auf allen Kanälen und über die Presse, dass die DNA-Sammlung nur dann medizinischen Nutzen haben könne, wenn ganz viele Menschen der Region auch mitmachen. Und jeder müsse doch wollen, dass sinnvolle Forschung über Krankheiten mit den Daten vollzogen werden könne.

Rita erkundigt sich firmenintern über diese Merkwürdigkeiten, kann aber nichts Genaues erfahren. Es gibt zwar Gerüchte, dass die Firma verkauft werden soll, aber die hat es schon immer gegeben. Sie fragt sich, ob die Daten vielleicht eine Art Mitgift sind? Andererseits gibt es schon viele Firmen, die freiwillige DNA-Proben auswerten, um den Einsendern Informationen darüber zu geben, wo ihre Familie herstammt. Da zahlen die Kunden sehr gutes Geld, um recht nutzlose, aber interessante Informationen zu erhalten.

Fragen

  1. Wie ist das massenhafte Einsammeln genetischer Daten generell ethisch einzuschätzen?
  2. Darf Rita in ihrer Firma herumspionieren, nur weil sie unbeantwortete Fragen hat?
  3. Soll Rita ihre Bedenken äußern? Sie weiß ja nichts Gesichertes.
  4. Steht Rita in einer Handlungspflicht, wenn sie von dem Verkauf von ,,Wissenscode“ Kenntnis erlangt? Wenn ja, welche?
  5. Ist es überhaupt eine ethische Frage, wenn Rita über Informationen über die DNA-Sammlung verfügt, aber sich entschließt, mit niemandem darüber zu reden? Schließlich kann ja die Verarbeitung woanders stattfinden.
  6. Darf sich Rita anmaßen, selbst zu entscheiden, was für die vielen DNA-Datengeber von Interesse ist und was nicht?
  7. Gemeinnützige Organisationen haben fast immer Geldnot. Gibt es irgendwelche Probleme, wenn sie bei der DNA-Materialsammlung mitmachen?
  8. Ist Rita moralisch verpflichtet, eine drohende Verletzung von Persönlichkeitsrechten an jemanden zu melden? Schließlich vertrauen die DNA-Datengeber darauf, dass die eingesammelten Proben zur medizinischen Forschung verwendet werden.
  9. Gibt es ethische Forderungen an ,,Wissenscode“?

Erschienen im Informatik Spektrum, 42(1), 2019, S. 58-59

Fallbeispiel: Eine verlockende Perspektive

Christina B. Class, Carsten Trinitis

Erwin ist Professor im Bereich Gesichtserkennung/Bildverarbeitung. Er hat vor einem Jahr einen Ruf an der sehr renommierten University BigU angenommen. In verschiedenen Projekten verwenden er und seine Mitarbeiter Methoden des Deep Learning. Er war daher sehr froh, den Ruf zu erhalten, da seine neue Universität finanziell deutlich besser dasteht und er in den Berufungsverhandlungen für die ersten drei Jahre recht erfolgreich einige Mittel für Forschungsprojekte aushandeln konnte. Auch befinden sind zwei Forschungsinstitute in der Nähe der Hochschule, mit denen er bereits in der Vergangenheit erfolgreich zusammengearbeitet hat. Aber auch als neu berufener Professor merkt er den Druck, Drittmittel einzuwerben, da die Universität sich auch für die nächste Runde der Exzellenzinitiative bewerben möchte. Wie lange er seine gute Lehrstuhlausstattung behalten kann, sollte diese Bewerbung nicht erfolgreich sein, vermag Erwin nicht abzuschätzen.

Aktuell ist er mit seiner Gruppe dabei, Verfahren des Deep Learning zu verwenden, um Sentimentanalyse mit Gesichtserkennung zu verbinden. Sie hoffen, dadurch automatisch Krankheitsanzeichen erkennen zu können und so ein automatisches Frühwarnsystem für allein lebende ältere Menschen zu erstellen, um im Notfall rechtzeitig einen Arzt zu rufen. Dies soll analog zu den Sturzerkennungssystemen erfolgen, die jedoch sehr viel später einsetzen und keine Hilferufe absetzen, wenn jemand z. B. im Sitzen oder Liegen das Bewusstsein verliert. Die für diese Arbeit notwendigen Rechenkapazitäten sind ziemlich groß und sie stecken noch in den Anfängen. Aktuell können sie zwar ansatzweise ein Unwohlsein erkennen, allerdings haben sie noch keinen Ansatzpunkt, um zwischen physischem Unwohlsein (Krankheitsanzeichen) und negativen Emotionen (z. B. genervt sein) zu unterscheiden.

Wie andere Hochschulen auch, ist BigU dabei, in Fernost mit der lokalen Universität East University eine gemeinsame Universität mit ausgewählten Studiengängen zu gründen. Die deutschen Studienpläne sollen dort umgesetzt werden, begabte Studierende Stipendien für ein Masterstudium in Deutschland erhalten und einige ausgewählte Studierende zum Promovieren nach Deutschland eingeladen werden. Dieses Projekt soll die wirtschaftliche und wissenschaftliche Kooperation stärken und findet daher auch Unterstützung aus der Politik.

Im Bereich der Rechnerarchitektur hat East University einige beachtliche Referenzen aufzuweisen und gemeinsam mit Industriepartnern einen Superrechner in Betrieb, der in der Lage ist, extrem hohe Datenmengen in kürzester Zeit zu verarbeiten. Mit Blick auf seine Projekte und die dafür notwendigen Rechenleistungen interessiert sich Erwin sehr für das Projekt und ist entsprechend engagiert.

Daher ist er auch Teil eines Projektteams, mit dem Ziel, einen gemeinsamen Masterstudienplan in Informatik und eine Strategie für eine Forschungskooperation zu erstellen. Mit einigen Vertretern seiner Hochschule reist er für zwei Wochen in das Land. Sie sind alle begeistert von der East University und den Gesprächen mit Kollegen. Insbesondere der Superrechner beeindruckt Erwin. Als mögliche gemeinsame Projekte im Bereich der Informatik diskutiert werden, finden seine aktuellen Arbeiten großen Anklang. Die lokalen Kollegen sind sehr an einer gemeinsamen Fortführung seiner Arbeit interessiert und stellen ihm für das Projekt praktisch unbegrenzten Zugang zu ihrem Superrechner in Aussicht. Erwin ist begeistert. Damit könnten sie einen großen Sprung nach vorne erreichen.

Nach dem offiziellen Programm hängt er mit zwei Kollegen noch drei Tage an, um die Stadt und die Gegend gemeinsam mit zwei lokalen Kollegen selber zu erkunden. Zunehmend merkt er dabei, dass dort ganz andere Vorstellungen bez. Privatsphäre herrschen als zuhause in Deutschland. Nun, da sie Zeit haben, sich etwas umzusehen, beobachtet er den umfassenden Einsatz von Überwachungstechnologien im Alltag. So langsam fühlt er sich selber etwas überwacht und merkt auch, wie er etwas vorsichtig(er) wird in seinem Verhalten und mit seinen Meinungsäußerungen anderen gegenüber.

Wieder in Deutschland angekommen, liegt auf dem Mensatisch das Faltblatt „Unsere ethischen Leitlinien“ der Gesellschaft für Informatik. Er steckt es ein und liest es auf dem Heimweg in der U-Bahn.

Erwin ist zunächst alles andere als begeistert von den ethischen Leitlinien. Er hat den Eindruck, dass die Autoren sehr technik-kritisch sind und sich irgendwie gegen den Fortschritt sperren. Ob das wirklich Informatiker sind, die daran mitgearbeitet haben? Die hätten bestimmt etwas gegen seine Projekte … Er schüttelt den Kopf und steckt die Leitlinien, ohne groß weiter darüber nachzudenken, in seine Jackentasche.

Am Abend trifft Erwin einige seiner Freunde im Restaurant. Erwin erzählt begeistert von seiner Reise nach Fernost und den Möglichkeiten, die sich ihm eröffnen. Er kommt richtig ins Schwärmen, als er von dem Besuch im Rechenzentrum berichtet. Hans, ein Jugendfreund, der an einem Gymnasium Deutsch und Politik unterrichtet, fragt sehr interessiert nach und will genaue Schilderungen von Erwins Eindrücken des Alltags. Er ist etwas skeptisch, vor allen Dingen da er viel über Überwachungen gelesen hat. Frank, ein Projektleiter bei einem Energieversorger, wirft ein, er wäre da etwas vorsichtig. Man habe doch genug von Industriespionage gehört, und sie in ihrem Unternehmen würden daher aus Asien keine Praktikanten einstellen. Erwin berichtet von der offenen Atmosphäre, die er erlebt hat, im Laufe des Gespräches erinnert er sich aber auch an das etwas unbehagliche Gefühl, das sich bei ihm einschlich, da er sich auf der Straße überwacht fühlte. Marius, ein Kollege, der schon seit 2 Jahren vor Ort lebt, hat ihm sogar erzählt, dass er gelernt habe, immer neutral zu blicken und weder Zustimmung noch Langeweile noch Ablehnung in Besprechungen nonverbal zum Ausdruck zu bringen, da man da doch teilweise schnell darauf angesprochen wird, vor allen Dingen auch von Vorgesetzten … Erwin bestellt eine neue Runde für alle und sie wechseln das Thema und haben noch einen lustigen Abend.

Als Erwin später im Bett liegt und kurz vor dem Einschlafen ist, kommen ihm einige Gesprächsfetzen wieder in den Sinn. Er beginnt zu grübeln. Was könnte man mit seiner Arbeit alles anstellen? Plötzlich fallen ihm die Leitlinien wieder ein. Gab es da nicht irgendwas zu Kontrolle und Überwachung? Da er jetzt wieder richtig wach geworden ist, steht er auf, geht zu seiner Jacke und liest die Leitlinien noch einmal durch. Er bleibt an Artikel 11 hängen und plötzlich drängen sich ihm Fragen auf …

Artikel 11 der GI Leitlinien (Version 2018) „Das GI-Mitglied wirkt darauf hin, die von IT-Systemen Betroffenen an der Gestaltung dieser Systeme und deren Nutzungsbedingungen angemessen zu beteiligen. Dies gilt insbesondere für Systeme, die zur Beeinflussung, Kontrolle und Überwachung der Betroffenen verwendet werden können.“ (https://gi.de/ueber-uns/organisation/unsere-ethischen-leitlinien/)

Fragen

  • Ein Ziel der Arbeit von Erwins Gruppe ist die Erkennung des physischen Unwohlseins bei Menschen, um z. B. bei älteren Menschen schneller reagieren und Hilfe holen zu können. In einer alternden Gesellschaft, in der nicht alle Menschen dauerhaft betreut werden können, ist dies eine sehr sinnvolle Anwendung. Doch dieser Nutzen schließt die Beobachtung der Menschen ein. Inwieweit müssen zukünftige Nutzer, also die Patienten in die Entwicklung eingebunden werden? Muss/sollte verlangt werden, dass z. B. Patienten in Heimen der Nutzung solcher Systeme zustimmen? Wie kann eine solche Zustimmung erfolgen? Was ist zu bedenken, wenn Menschen sich der Tragweite ihrer Zustimmung auf Grund mangelnder Sachkenntnis oder Erkrankung (z. B. Demenz) nicht bewusst sind? Was kann man tun, wenn manche Patienten zustimmen und manche nicht? Kann man ,,zum Wohle“ des Patienten einfach eine Zustimmung voraussetzen? Welche Probleme und Gefahren ergeben sich hierbei?
  • Erwin stellt sich die Frage, ob die von seiner Gruppe durchgeführte Forschung in einem anderen Land zu Kontrolle und Überwachung eingesetzt werden kann und möglicherweise wird. Es handelt sich um eine Vermutung, er hat keine Beweise dafür, und es geht um den möglichen Einsatz im Fernen Osten. Bezieht sich Artikel 11 der GI Leitlinien auch auf einen solchen Fall? Mögliche/zukünftige Betroffene von IT-Systemen in anderen Ländern können schlecht in die Entwicklung von Systemen in Deutschland einbezogen werden. Inwieweit muss man die Betroffenen bei der Entwicklung gedanklich einbeziehen?
  • Forschung kostet Geld und viele Hochschulen und Institute sind zunehmend auf den Erwerb von Drittmitteln angewiesen, um Forschungsprojekte durchführen zu können. Wie stark machen sich die Forschenden dann von Interessen außerhalb abhängig? Wie unabhängig kann Forschung noch sein? Können Leitlinien Forschenden den Rücken stärken, um gewisse Projekte nicht weiterzuverfolgen? Welche Unterstützung bräuchten Forschende und Hochschulen, um die wirtschaftliche Freiheit zu haben, fragwürdige Projekte nicht weiterzuverfolgen.
  • Forschende stehen unter Druck, Forschungsergebnisse zu veröffentlichen. Die Veröffentlichungen sind weltweit zugänglich. Ist esmöglich, den Missbrauch der Ergebnisse zu verhindern? Ist es möglich, die Nutzung der eigenen Arbeit und den Missbrauch, z. B. zur Überwachung und Kontrolle, immer vorherzusehen? Soll/muss sich ein Forschender hierzu Gedanken machen? Oder bezieht sich der entsprechende Artikel der Leitlinien „nur“ auf diejenigen, die Systeme effektiv entwickeln und nicht auf Forschende?
  • Was ist die Rolle von ethischen Leitlinien? Was kann man von ethischen Leitlinien erwarten? Ist es realistisch, dass sie zum Nachdenken anregen? Und können/sollen ethische Leitlinien in Konfliktfällen Handlungsempfehlungen oder gar Handlungsanweisungen geben?
  • Wäre Erwin nach dem Gespräch mit den Freunden nicht auch ins Grübeln gekommen, wenn er die Leitlinien nicht zwischen die Finger bekommen hätte?
  • Ist es sinnvoll und notwendig, ethische Leitlinien zu haben, die den aktuellen Stand der Technik ansprechen? Wie kann dies sichergestellt werden in Bereichen, die sich sehr stark und schnell ändern? Wie oft sollen/müssen ethische Leitlinien angepasst/überarbeitet werden?
  • Sollen und müssen ethische Leitlinien neben Fachexperten, in diesem Fall dann Informatikern, auch Gesellschaftswissenschaftler als Autoren haben?

Erschienen im Informatik Spektrum, 41(6), 2018, S. 445-447

Fallbeispiel: Smarte Armbänder

Constanze Kurz, Stefan Ullrich

Vicky ist in der Technik-Abteilung einer Firma für Gesundheitsbedarf angestellt. Die früher nur aus zehn Leuten bestehende Truppe wurde in den letzten beiden Jahren enorm aufgestockt und das Personal verdreifacht. Dabei ist Vicky Chefin ihres eigenen kleinen Teams aus sechs Mitarbeitern geworden. Sie ist Informatikerin und beschäftigt sich in der Firma zumeist mit der ganz praktischen Umsetzung von Hardware-Lösungen.

Im letzten Jahr hatte ihr Team für eine große Reha-Kette in Armbändern integrierte Chips entwickelt und geliefert, die nun sowohl als Zugangslösung zu Klinik-Räumlichkeiten dienen als auch durch Vibration an die Medikamenteneinnahme erinnern. Vickys Team hatte die Hardware entworfen, die Software und die Integration in die Kliniken der Kette übernahmen andere Firmen-Abteilungen. Die Zusammenarbeit hatte gut funktioniert, das Zeitbudget wurde nur mäßig überschritten.

Ihrem neuen Projekt sieht Vicky gelassen entgegen, da dieselbe Technik weiterverwendet werden kann, die zuvor für die Klinik-Kette entwickelt worden war. Zufälligerweise hatte sie den Deal über einen persönlichen Kontakt mit Ferdinand, einem Pfarrer, sogar selbst an Land gezogen. Der neue Kunde CARE-ful betreibt mehrere kirchliche Schul- und Betreuungseinrichtungen. Die Hardware kann zwar nicht als Armband umgesetzt werden, da sich der Auftraggeber dagegen entschieden hatte. Vertreter von CARE-ful und die kirchlichen Kontaktpersonen hatten sich die Klinik-Armbänder zeigen lassen und erbeten, eine andere Lösung vorzuschlagen. Die Kinder würden die Armbänder zu schnell zerstören, hatte Vicky als Begründung gehört.

Das Team, das die Lesetechnik für die Chips in den Gebäuden anbringen und die Software installieren soll, hatte nach einem Besuch von zwei Einrichtungen vorgeschlagen, einfach die Schuluniform der Kinder zu nutzen. Der Leiter des Software-Teams Enrico hatte mit Vicky besprochen, ob man die Chips in den Kragen integrieren könne. Das hatte sie bejaht und die Planungen begonnen.

Vickys Firma war begeistert von der Idee, denn man konnte CARE-ful nun ein Komplettsystem anbieten: neue Schul- und Hortklassen bekämen die standardisierte Kleidung inklusive wasserdicht verschweißtem Chip geliefert, in die bereits getragenen Uniformen würde der Chip im Nachhinein unter dem Kragen angebracht. Eine einfache Idee mit einem Klettverschluss wurde dazu umgesetzt, damit die Sachen waschbar bleiben. Wenn die Eltern den Chip doch mitwaschen sollten, war der Ersatz natürlich lieferbar – gegen Entgelt, versteht sich.

Nicht nur das, mit wenigen Handgriffen sei auch die Barrierefreiheit gewährleistet, was prompt einen weit größeren Auftrag bringt: In den kommenden Jahren würden in allen Gebäuden von CARE-ful barrierefreie Türsysteme installiert, die sich selbständig beim Herannahen eines berechtigten Chips in der Kleidung öffnen. Auch Fahrstühle könnten für Schülerinnen und Schüler mit eingeschränkter Mobilität freigeschaltet werden. Vickys Chefs waren höchst erfreut.

Alles lief recht gut im Plan, einzig die Kommunikation mit der Software-Abteilung von Enrico fand nur punktuell statt. Vicky hatte zuvor noch nie mit Enrico gearbeitet und war irritiert darüber, dass nicht nur er, sondern eigentlich sein ganzes Team sehr abgekapselt arbeiteten. Es wurde wenig kommuniziert, manche E-Mail und manches Ticket im firmeneigenen System blieb einfach unbearbeitet. Andererseits hatte Vicky keine Anhaltspunkte, dass Enricos Team nicht im Zeitplan war. Im Grunde waren ihr weniger Kommunikation und seltene Meetings sogar lieber als zuviel.

Nur sechs Wochen, bevor das neue System an der ersten Schule gestartet werden sollte, erhält Vicky eine merkwürdige Nachricht auf ihrer privaten E-Mailadresse. Sie ist gerade auf dem Sprung nach Hause und hat zuvor noch die ersten der neuen Schuluniformen mit integrierten Chips abgeholt und inspiziert. Gutgelaunt macht sie sich auf denWeg und sieht auf dem Mobiltelefon die Nachricht von Pfarrer Ferdinand. Sie hatten ein privates Treffen für nächste Woche vereinbart, das er nun mit harschen Worten absagt.

Bestürzt ruft Vicky den Pfarrer anderntags an und fragt ihn, was los sei. Mit distanzierter Stimme sagt Ferdinand zu ihr: ,,Dein Vertrauensmissbrauch enttäuscht mich. Ich verweigere meine Zustimmung! Du hättest mir sagen müssen, wenn ihr hinter meinem Rücken ein solches Überwachungsvorhaben baut und den Eltern Zusatzdienste verkauft.“

Vicky ist entgeistert, was meint Ferdinand? Sie beruft ein Meeting ein, das Enrico aber kurzerhand absagt. Man sei im Stress und hätte wenig Zeit für Meetings. Sein Team sei im Zeitplan, alle technischen Schnittstellen wie gewünscht umgesetzt, Enrico sehe keinen Sinn, jetzt alle grundlos aus der Arbeit zu reißen. Enricos Team muss tatsächlich für Meetings immer durch die halbe Stadt reisen, weil die Abteilungen auf verschiedene Standorte verteilt sind.

Vicky kennt Roswita, die jetzt in Enricos Team arbeitet, seit mehreren Jahren und versucht, sie zu kontaktieren. Sie erreicht Roswita erst abends und erfährt zu ihrem Entsetzen erstmals, dass Enricos Team an CARE-ful eine Software verkauft hat, die alle uniformierten Kinder durch die gesamten Gebäude dauerhaft trackt. Es ist sogar eine Zusatzfunktion verkauft worden, die den Eltern oder Lehrern der Kinder Benachrichtigungen aufs Mobiltelefon sendet, wo sich Schüler wann aufhalten. Davon war niemals die Rede gewesen in Vickys Team, an sowas wollte sie nie mitwirken! Was soll sie jetzt machen?

Fragen

  • Darf man ein Zugangssystem, das ursprünglich für die Nutzung von erwachsenen Patienten entwickelt wurde, einfach zu einem Trackingsystem für Kinder umbauen? Müssten dazu ethische Fragen diskutiert werden? Welche wären das?
  • Hätte sich Vicky neben der Hardware stärker für die Softwareumsetzung interessieren müssen? Warum eigentlich? Was geht sie das an? Kann sie sich darauf zurückziehen, dass sie nur Basis-Technologie entwickelt, die Überwachungsanwendung aber von einem anderen Team entwickelt wird?
  • Ändert es etwas, wenn die Eltern der Kinder diesem Tracking zustimmten? Aber was, wenn nicht alle Eltern und Lehrer zustimmten? Wäre es eine Lösung, das Tracking nur für Eltern zu aktivieren, die das wollen?
  • Die hier erwähnte Monitoring-Technik dient auch der Erinnerung an die Medikamenteneinnahme. Wie berücksichtigt man diese positiven Effekte in einer ethischen Beurteilung der Überwachungstechnik?
  • Ist es vertretbar, dass Vicky sich quasi auf informellem Wege die Informationen dazu besorgte, was das Software-Team erarbeitet hat?
  • Muss Vicky Rücksicht nehmen auf Pfarrer Ferdinand, der das Projekt vermittelte und erbost ist? Ist das ihr Problem?
  • Reicht es, wenn Vicky darauf besteht, dass prozedurale Maßnahmen getroffen werden, die
    die Überwachung nur in begründeten Ausnahmefällen zulässt?
    Was wären solche begründbaren Ausnahmefälle?
  • An wen sollte sich Vicky wenden, um über das Problem zu reden? Ihre Geschäftsführung? Kirchenvertreter? Datenschutzbeauftragter? Die Öffentlichkeit?
  • Vicky führt ein ganzes Team und will eigentlich weiter in der Firma Karriere machen. Darf das ihre Entscheidung beeinflussen?

Erschienen im Informatik Spektrum 41(4), 2018, S. 285-287.

English translation available.

Robot-Avatare in der Schule?

Deutschlandfunk berichtet über AV1, ein norwegischer Roboter, der als Avatar kranke Kinder vertreten soll (https://www.deutschlandfunk.de/unterricht-via-avatar-roboter-vertritt-kranke-kinder-im.676.de.html?dram:article_id=426613):

ie norwegische Entwicklerin Karen Dolva zeigt ihren Roboter AV1. In Deutschland sind derzeit 20 der Avatare testweise im Einsatz. (picture alliance / Michael Kappeler/dpa)

Die norwegische Entwicklerin Karen Dolva zeigt ihren Roboter AV1. In Deutschland sind derzeit 20 der Avatare testweise im Einsatz. (picture alliance / Michael Kappeler/dpa)

Hier werden einige ethische Fragestellungen aufgeworfen:

  • Gewöhnt man Schüler_innen daran, abgehört zu werden?
  • Haben diese Avatare „Menschenrechte“, weil sie einen Menschen vertreten?
  • Ist die Anthropomorphisierung problematisch?