|
Jennifer Schmautzer, Carsten Trinitis
Emily ist mit ihrem Informatik-Bachelor an der TU fast fertig. Im vergangenen Semester hat sie ein Praktikum im Ausland gemacht, um ihre Fremdsprachenkenntnisse sowie ihre Schlüsselqualifikationen zu verbessern. Dabei hat sie sich für eine Firma aus den USA entschieden, die sich vor allem auf die Entwicklung autonomer Autos spezialisiert hat. Denn Emily war schon als Kind von Autos und deren Technik sowie Funktionsweise fasziniert. Seitdem sie außerdem selbst eine begeisterte Autofahrerin ist, hat sie angefangen, sich näher mit der fortschreitenden Technologie im Bereich der Automobilindustrie auseinanderzusetzen. Insbesondere autonome Autos haben ihr Interesse geweckt, weshalb sie in ihrem Praktikum mehr über die verschiedenen KI-Technologien und Werkzeuge in autonomen Autos lernen wollte.
Ihr damaliger Praktikumsbetreuer Tom hat ihr erklärt, dass Deep Learning als Teilbereich des Machine Learnings eine wichtige Methode und Grundlage für die Entwicklung autonomer Autos darstellt. Denn über sogenannte neuronale Netze, die ähnlich wie ein menschliches Gehirn aufgebaut sind, können die Autos eine Verbindung mit der Umgebung herstellen. Außerdem müssen die Autos in der Lage sein, viele verschiedene Daten zu verarbeiten, Muster auf Basis von Bild- und Sensordaten zu erkennen und Entscheidungen auf Grundlage von KI-Algorithmen zu treffen.
Toms Aufgabe besteht unter anderem darin, genau solche KI-Algorithmen zu implementieren. Im Laufe des Praktikums, in dem sie Tom über die Schulter schauen und kleine Implementierungen unter seiner Aufsicht selbst durchführen durfte, ist ihr klar geworden, dass bereits kleine Fehler im Code und damit in der Software zu einer Vielzahl von Unfällen führen können. Emily wird auch jetzt noch mulmig bei dem Gedanken, dass sie für den Tod von anderen Menschen verantwortlich sein könnte.
Zudem fragt sie sich, wer bei einem Unfall, an dem ein autonomes Auto beteiligt ist, im generellen Fall die Haftung übernehmen müsste. Der Fahrer, der Hersteller, der Konstrukteur oder doch etwa der Software-Entwickler? Sie stellt fest: Toms Job bringt auf jeden Fall viel Verantwortung mit sich!
Auch in der Personalabteilung, die sie, während Tom auf einer Fortbildung war, besuchen durfte, sind ihr verschiedene Anwendungen von Künstlicher Intelligenz begegnet. So wendet die Firma unter anderem sogenanntes Roboter Recruiting zur Personalauswahl an. Es werden jedoch nicht nur Lebensläufe und weitere Bewerbungsunterlagen anhand bestimmter Kriterien voranalysiert, sondern sogar das Bewerbungsgespräch wird von einem Computer durchgeführt.
Emily war sofort begeistert, wie diese KI-basierte Software dabei Mimik, Stimme und Inhalt genau analysieren kann, um anschließend zu ermitteln, ob sich der Bewerber für den Job eignet oder nicht. Sie hat erfahren, dass die Firma mithilfe von Roboter Recruiting bereits erfolgreich Mitarbeiter einstellen konnte, und dass die Trefferquote ebenfalls sehr hoch sei. Der Computer hat eben im Gegensatz zum Menschen keine Vorurteile und ist somit diskriminierungsfrei, denkt sich Emily. Somit ist Roboter Recruiting nicht nur eine Erleichterung für die Personalabteilung, sondern bringt auch noch Vorteile für die Bewerber mit sich.
Als Emily wieder zurück in Deutschland ist und ihr Praktikum Revue passieren lässt, wird ihr erst bewusst, in wie vielen Bereichen und Anwendungen KI heutzutage nicht mehr wegzudenken ist. Inspiriert von ihrem Praktikum beschließt sie, sich tiefgehender mit den Methoden und Werkzeugen der KI zu beschäftigen. Auf der Suche nach Kommilitonen, die sich ebenfalls für KI interessieren, entdeckt sie an ihrer Universität eine Projektgruppe zur KI. Da das Semester gerade erst begonnen hat, kann sich Emily noch ohne Probleme anmelden.
In der darauffolgenden Woche besucht sie das erste Treffen der Gruppe, an dem festgelegt werden soll, an welchem KI-basierten Projekt man dieses Semester arbeiten wird. Emily überlegt, welche KI-Verfahren sie in ihrem Praktikum am meisten begeistert haben, und inwiefern man diese in einem eigenen Projekt erforschen und realisieren könnte.
Schließlich erzählt sie den restlichen Teilnehmern von dem Verfahren des Roboter Recruitings, das die Firma aus den USA bereits erfolgreich eingesetzt hat. Im Zuge dessen kommt ihr die Idee, dieses oder ein ähnliches Verfahren auch für das Eignungsfeststellungsverfahren (EFV) im Bewerbungsprozess bei Studierenden anzuwenden. Die erste Stufe des EFV ist hierbei bereits digitalisiert: Anhand der eingesendeten Bewerbungsunterlagen wird digital festgestellt, welche von den Fakultäten definierten Punktegrenzen jeweils erreicht sind. Anschließend sendet die Universität dem Bewerber, abhängig von seiner Punktezahl, automatisch eine E-Mail zu, die ihm mitteilt, ob er direkt für einen Studienplatz zugelassen wird, keinen Studienplatz erhält oder in das EFV-Gespräch muss. Die zweite Stufe des EFV, also das Gespräch mit dem Professor, ist derzeit allerdings noch nicht digitalisiert.
Der Projektleiter und die anderen Teilnehmer sind begeistert von ihrer Idee, dieses Gespräch auch zu digitalisieren, weshalb sie sich schließlich für dieses Projekt entscheiden. In den nächsten Wochen beginnen sie, die verschiedenen notwendigen KI-Techniken hierfür zu erarbeiten und umzusetzen. So beschäftigen sie sich intensiv mit dem Verfahren des Deep Learnings, das Emily bereits in ihrem Auslandspraktikum im Bereich der autonomen Autos kennenlernen durfte. Damit die KI am Ende sinnvolle Ergebnisse liefert, ist es besonders wichtig, die künstlichen neuronalen Netze mit möglichst vielen qualitativ hochwertigen Daten zu trainieren.
Deshalb sammeln Emily und die anderen Gruppenmitglieder über das gesamte Semester Daten von erfolgreichen Studienabsolventen, um die KI damit zu trainieren und zu verfeinern. Nach einem Gespräch des Computers mit einem Studienbewerber vergleicht die KI schließlich die gespeicherten Daten erfolgreicher Studienabsolventen mit den im gesamten EFV gesammelten Daten, um basierend darauf eine Entscheidung zu treffen. Emily verbringt jede freie Minute an der Verfeinerung dieses Deep Learning Prozesses.
Eines Abends, als Emily bei ihrer Tante und ihrem Onkel zu Besuch ist, berichtet sie ihnen begeistert von ihrem Projekt und seinem stetigen Fortschritt. Ihre Tante, die sich kaum mit Technik und Informatik auskennt, ist skeptisch und fragt sich, ob die Entscheidung über einen Studienplatz wirklich von einer Maschine getroffen werden kann. Sollte nicht ein Mensch über eine so wichtige Entscheidung bestimmen? Denn woher soll die Maschine wissen, wer für einen bestimmten Studienplatz geeignet ist und wer nicht? Emily versucht, ihrer Tante das grundlegende Verfahren von selbstlernenden Maschinen zu erklären und ihre Bedenken zu widerlegen, doch sie kann die Befürchtungen ihrer Tante nicht vollkommen ausräumen.
Auch ihr Onkel, der sich als GI-Mitglied an der TU sehr wohl mit Informatik auskennt, sieht das Projekt teilweise kritisch. Er erzählt Emily von einem Fall bei Amazon, bei dem die KI Frauen bei der Personalauswahl benachteiligt hat. Schuld waren die Trainingsdaten für die KI, die auf den Bewerbungen der letzten zehn Jahre basierten. Denn die meisten Bewerbungen stammten von Männern, weshalb das KI-System daraus folgerte, dass das Unternehmen bevorzugt Männer einstelle.
Emilys Onkel macht ihr deutlich, dass die Menschenwürde in diesem Fall nicht gewahrt und geschützt wurde, wie es klar im Artikel 9 “Zivilcourage“ der neuen ethischen Leitlinien, welche das Präsidium der GI am 9. Juni 2018 verabschiedet hat, gefordert wird.
Als Emily an diesem Abend nach Hause geht, wird ihr bewusst, dass ihr Projekt eventuell auch Schattenseiten besitzt, über die sie sich bis jetzt keine Gedanken gemacht hat. Was ist, wenn auch bei ihnen die Trainingsdaten Vorurteile enthalten, weil Jungs beispielsweise eher technische Studiengänge wählen als Mädchen? Daheim recherchiert Emily über ähnliche Fälle und fängt an, ihr Projekt kritisch zu hinterfragen. Doch so kurz vor dem Ziel möchte sie natürlich nicht aufgeben und schiebt die Gedanken beiseite.
Zwei Wochen später ist die Arbeit an ihrem Projekt fertiggestellt, und erste Tests mit freiwilligen Studienbewerbern werden durchgeführt. Nach dem Gespräch mit dem Computer füllen die Testpersonen außerdem einen Fragebogen aus, in dem ihre persönliche Meinung über das geführte Gespräch erfasst wird. Als die Projektgruppe die Fragebögen auswertet, stellt sie fest, dass viele auch Kritik enthalten. So wird beispielsweise kritisiert, dass man eine von einem KI-basierten System getroffene Entscheidung nicht nachvollziehen könne. Schließlich trifft die KI die Entscheidung auf Grundlage von verknüpften Daten und von Wissen, über das kein direkter Zugriff besteht. Außerdem geben einige Testpersonen an, dass sie sich bei dem Gespräch unwohl gefühlt haben und nicht wussten, wie sie sich verhalten sollen. Vielen fehlte auch einfach das Persönliche, das so ein Gespräch doch irgendwie ausmache.
Obwohl Emily mit Kritik gerechnet hat, ist sie nun doch etwas schockiert. Als schließlich auch noch ihre Befürchtungen wahr werden und die Testergebnisse zeigen, dass nur Jungs im Informatikstudiengang zugelassen worden wären, ist ihr klar, dass ihr Verfahren noch lange nicht ausgereift ist.
Fragen
- Inwie vielen und welchen Lebensbereichen begegnet KI uns tatsächlich? Ist KI aus unseremLeben überhaupt noch wegzudenken? Inwiefern unterstützen uns die verschiedenen KI-Technologien? Können sie uns auch in irgendeinerWeise schaden?
- Was sind qualitativ hochwertige Daten für das Training der neuronalen Netze im Hinblick auf die Digitalisierung der zweiten Stufe des EFV? Sollten die Trainingsdaten nur Daten von Studienabsolventen mit einem Studienerfolg nach X Semestern enthalten, oder sollte der Studienerfolg insgesamt zählen? Welche Daten sind überhaupt von Relevanz, wenn es um den Abschluss eines erfolgreichen Studiums geht? Woran kann man festmachen, ob jemand ein Studium schaffen wird? Gibt es hierfür überhaupt irgendwelche Kriterien?
- Inwieweit kann man sicherstellen, dass die Daten frei von Vorurteilen sind bzw. ist das überhaupt möglich?
- Kann man das Verfahren von Roboter Recruiting also einfach auf Bewerbungsverfahren von Studierenden anwenden?
- Was ist mit den Befürchtungen der Tante? Kommt der Computer bei Menschen wie Emilys Tante, die eine Ablehnung und Unsicherheit bei solchen Verfahren aufweisen, zu anderen Ergebnissen als bei Menschen, die sich mit der Technologie auskennen und diese für gut heißen? Wenn ja, ist dies gerechtfertigt?
- Wie sieht es bezüglich des Datenschutzes aus?
- Inwiefern ist eine Dokumentation der Daten, die für das Training der KI verwendet werden, notwendig? Wie kann man diese dokumentierten Daten im Falle eines Einspruchs von einem Studienbewerber bei Ablehnung berücksichtigen? Kann eine Entscheidung nachträglich aufgrund dieser Dokumentation geändert werden?
Erschienen im Informatik Spektrum, 42(4), 2019, S. 304-306, doi: 10.1007/s00287-019-01189-8
Christina B. Class, Debora Weber-Wulff
Andrea, Jens und Richard sitzen in ihrer Lieblingspizzeria in Hamburg und feiern bei Bier und Pizza den erfolgreichen Abschluss der Softwaretests des Projekts ,,SafeCar“. Das Projekt wird morgen in Hamburg zum TÜV-Test gehen und sie sind schon fertig. Sie müssen nicht die Nacht durcharbeiten!
Sie arbeiten im Unternehmen SmartSW GmbH in Hamburg und sind für die Entwicklung einer Softwaresteuerung für die Sicherheitskomponente des neuen Automodells KLU21 des Autoherstellers ABC verantwortlich.
Der Autohersteller ABC stand in letzter Zeit wirtschaftlich ziemlich unter Druck, da er sich zu sehr auf die klassischen Antriebssysteme statt auf Elektromotoren konzentriert hat. Die Skandale um Dieselfahrzeuge in den letzten Jahren haben ihm zunehmend zu schaffen gemacht.
Das aktuelle sparsame Hybridmodell KLU21 soll durch eine neue intelligente Fahrsteuerung und ein erweitertes Sicherheitssystem ergänzt werden. Dieses soll eine intelligente Fahrunterstützung mit Hilfe von Echtzeitdaten anbieten. Durch Verwendung der neuesten Kommunikationstechnologien
will ABC das angeschlagene Image verbessern. ABC möchte als modernes Unternehmen und Pionier wahrgenommen werden und hofft, dadurch etwas Marktanteil zurückgewinnen zu können und Arbeitsplätze zu erhalten.
Im Rahmen des Projekts SafeCar wurde ein Sicherheitssystem für KLU21 mit künstlicher Intelligenz entwickelt. Zum einen verhindert die Software, dass ein Auto von der Fahrspur abkommt. Hierzu werden Informationen der externen Kameras verknüpft mit der Lokalisation des Fahrzeugs und aktuellen Verkehrsdaten über den Straßenzustand und Satellitendaten, die in Echtzeit von einer gesicherten Cloud geladen werden. Das Auto nimmt auch die anderen Autos auf der Straße wahr und erzwingt die Einhaltung des Sicherheitsabstands.
Zum anderen soll eine auf den Fahrer gerichtete Kamera feststellen, wenn sich die Augen des Fahrers schließen. Das könnte bedeuten, dass er in einen Sekundenschlaf fällt oder ohnmächtig geworden ist. Ein Alarmton soll den Fahrerwecken. Kann das System keine sofortige Reaktion des Fahrers beobachten, übernimmt es die automatische Steuerung und bringt das Fahrzeug unter Beachtung der Straßensituation und des Verkehrs am Straßenrand zum Stehen. Die maximale Reaktionszeit des Fahrers bis die Software die Steuerung übernimmt, hängt von der Straße, dem Straßenzustand sowie der Verkehrssituation ab, um das Risiko für alle Verkehrsteilnehmer zu minimieren.
Andrea, Jens und Richard haben dem Projektleiter vorgeschlagen, zu erkennen, wenn der Fahrer mit dem Mobiltelefon hantiert, und eine Warnung auf dem Display anzuzeigen und ein Warnsignal zu senden. Jens und Richard haben sich ferner den Spaß gemacht, automatisch zu erkennen, wenn eine Fahrerin Lippenstift appliziert. Das Auto soll dann pfeifen – aber auch nicht immer, nur durchschnittlich jedes sechste Mal. Natürlich soll dieses Feature nicht aktiviert werden.
Es war ja so einfach, die Bilder via den 5G-Netzwerk zum Cloud Cluster zu schicken, und dort die Bilder zu zerlegen und zu schauen, ob sie was erkennen können. Um den Sekundenschlaf und Ohnmacht möglichst genau zu erkennen, haben sie das Programm mit vielen Daten, die sie eigens dafür erhalten haben, trainiert. Handy oder Lippenstift zu erkennen war dagegen eine einfache Fingerübung. Es gab ja ausreichend freie „Trainingsdaten“ (Bilder und Videos) im Internet zu finden.
Sollte das Auto eine technische Panne haben, der Fahrer das Bewusstsein verlieren oder ein Unfall passieren, wird ein automatischer Notruf an die Polizei abgesetzt mit den relevanten Daten betreffend des Autos, der Art der Panne oder des Unfalls, Information betreffend des Bedarfs nach einer Notarzt und der genauen Angabe, wo das Auto steht.
Nachdem sie viele Überstunden gemacht haben, feiern Andrea, Jens und Richard den erfolgreichen Abschluss der Tests ausgelassen. Nach vielen erfolgreichen In-House Tests sind sie in den letzten beiden Tagen mit einem auf der Beifahrerseite installierten System durch die Straßen der Stadt und der näheren Umgebung gefahren, und haben alle Informationen und Befehle des Systems protokolliert. Die Auswertung hat gezeigt, dass alle gestellten Situationen korrekt erkannt wurden. Sie haben heute von ihrem Teamleiter schon ein dickes Kompliment erhalten. Sie klönen miteinander bis weit nach Mitternacht.
Als Andrea mit dem Taxi nach Hause gefahren ist, fühlt sie sich plötzlich ziemlich durstig. Mit einer Flasche Mineralwasser setzt sie sich auf das Sofa und schaltet den Fernseher ein. Es kommt eine Wiederholung einer Talkshow, bei der es, wie seit Monaten schon, um den aktuellen Stand des 5G Netzausbaus geht. Es wird wieder einmal diskutiert, wie viele Funklöcher in ländlichen Gebieten existieren, die immer noch nicht geschlossen wurden. Dazu kommen unzureichende Regeln für nationales Roaming.
Ein Firmenvertreter behauptet, es werde nur noch wenige Funklöcher geben, wenn der 5G-Ausbau fertig ist. Eine Zuschauerin beklagt sich dagegen heftigst darüber, dass sie trotz des neuen Netzes nur im Garten Empfang hat. Ihre neu hinzugezogene Nachbarin, die noch einen Vertrag mit einem anderen Netzanbieter hat, hat nur auf dem Friedhof am Ende des Ortes Empfang, da das Roaming nicht verpflichtend ist. Eine heftige Diskussion entbrennt…
Andrea ist sehr müde. Sie lehnt sich zurück. Die Augen fallen ihr zu …: Sie fährt Auto. Die Strecke ist kurvenreich und dasWetter ist sehr neblig, sie hat kaum Sicht. Sie ist froh, dass sie einen KLU21 fährt, er unterstützt sie dabei, auf der rechten Spur zu bleiben. Doch plötzlich merkt sie, wie die Lenkunterstützung des Autos ausfällt. Sie ist nicht darauf vorbereitet und bevor sie recht reagieren kann, hat ihr Auto die Fahrbahn verlassen und kracht seitlich gegen einen Baum. Sie wird schräg nach vorne geschleudert, so dass sie unglücklich auf den Airbag auftrifft. Sie verliert das Bewusstsein.
Sie beobachtet wie sie bewusstlos im Auto sitzt. Gleich wird Hilfe kommen, zum Glück hat KLU21 einen Notruf abgesetzt. Sie sieht sich im Auto um, die Notfall-Leuchte blinkt nicht, warum wurde kein Notruf abgesetzt? Sie blutet! Warum kommt keine Hilfe? Plötzlich weiß sie es! Ein Funkloch … Die Lenkunterstützung konnte so nicht ausreichend funktionieren, da Echtzeitdaten fehlten, genauso wenig die Benachrichtigung der Notrufzentrale … Hallo? Hört mich jemand? Warum kommt kein Auto vorbei? Warum hilft mir niemand? Hilfe, ich blute! Ich verblute!
Schweißgebadet wacht Andrea auf! Sie braucht einen Moment, um sich zu beruhigen und zu begreifen, dass es nur ein Traum war, sie sich in ihrer Wohnung befindet und es ihr gut geht.
Und dann erinnert sie sich an die erfolgreichen Softwaretests von heute und die Sendung mit den Beschwerden über unzureichende Netzabdeckung in manchen ländlichen Gebieten. Auch da führen Straßen durch. Warum haben sie nie darüber nachgedacht, als sie die Software für KLU21 entwickelt haben? Warum haben sie nie ihren Auftraggeber darauf angesprochen? Ihre Tante wohnt ja in Sankt Peter-Neustadt und hat schon öfters über ihre schlechte Verbindung geklagt. Sie muss unbedingt mit ihrem Chef sprechen …
Fragen
- Tests zu gestalten ist sehr schwer. Im vorliegenden Beispiel sind die Entwickler maßgeblich an den Tests beteiligt. Ist dies gerechtfertigt? Wie kann sichergestelltwerden, dass die Tests nicht verzerrt werden und zu falschen Ergebnissen führen? Wie stark sind Anforderungen an Tests in Abhängigkeit von der Sicherheitsrelevanz der Software zu definieren? Wie stark beeinflussen Deadlines und wirtschaftlicher Druck die Durchführung von Softwaretests?
- Tests können die Fehlerfreiheit von Software nicht nachweisen. Noch weniger ist es möglich, nachzuweisen, dass die Software nichts macht, was nicht gefordert ist. In dem Beispiel wurde mit der Lippenstifterkennung ein sogenanntes Easter Egg (Osterei) eingefügt, das nicht aktiviert wird. Welche Probleme können sich durch ein solches Easter Egg ergeben? Wie ist ein solches Easter Egg zu beurteilen, wenn die Entwickler es in ihrer „Freizeit“ entwickelt haben?
- Es handelt sich im Beispiel um eine sicherheitskritische Anwendung, die mit Trainingsdaten trainiert wird. Wie kann man die Qualität der Trainingsdaten sicherstellen? Welche Richtlinien sollte/kann es hierfür geben? Wann und unter welchen Umständen sollte erzwungen werden, dass ein System mit neuen Daten lernt? Wie müssen erneute Tests aussehen, wenn das System weitere Trainingsdaten erhalten hat? Müssen alle bisherigen Tests erneut wiederholt werden? Dürfen sich Personen, die Trainingsdaten definieren, auch an der Entwicklung von Tests beteiligen? Wenn nicht, warum nicht?
- Im Internet sind viele Bilder und Videos „frei“ zu finden. Dürfen diese einfach als Trainingsdaten verwendet werden? Wenn nicht, warum nicht? Wenn ja, gibt es Einschränkungen für die Art von Anwendungen, für die man sie verwenden darf?
- Für gewisse Anwendungsbereiche oder auchWettbewerbe im Bereich von Data Mining und KI gibt es frei verfügbare, anwendungsspezifische Datensets (open data). Ist es erlaubt, diese für andere Arten von Anwendungen/Fragestellungen zu verwenden? Welche Anforderung muss an die Dokumentation solcher Datensets gestellt werden, in Bezug auf Datenquelle, Auswahl der Daten und getroffenen Annahmen? Wie groß ist die Gefahr, falsche Schlussfolgerungen zu ziehen, wenn man solche Daten verwendet?
- In den aktuellen Diskussionen über 5G wird häufig über die Notwendigkeit einer flächendeckenden Abdeckung sowie von National Roaming gesprochen.Wie wichtig ist eine solche? Ist es vertretbar, sicherheitskritische Anwendungen zu erstellen, so lange nicht sichergestellt ist, dass die Infrastruktur flächendeckend zur Verfügungsteht? Ist es vertretbar, Anwendungen zu schreiben, die nur lokal genutzt werden können/dürfen, also z. B. nur in der Stadt? Wenn der Nutzer nach einem Umzug ein Systemnicht mehr benutzen kann, sollte er dann eine Entschädigung erhalten?
- Funklöcher betreffen heute schon viele Regionen, in denen mit einem Handy z. B. keine Rettungskräfte oder Polizei gerufen werden kann oder in denen Rettungskräfte keinen Kontakt mit der Leitstelle aufnehmen können.Wie stark ist die Politik gefordert, hier regulierend einzugreifen? Wie stark ist diese Digital Divide wirklich in Deutschland? Können wir es uns als Industrienation leisten, dass diese weiterhin bestehend bleibt, bzw. u.U. mit dem 5G Ausbau verstärkt wird?
Erschienen im Informatik Spektrum, 42(3), 2019, S. 215-217, DOI: 10.1007/s00287-019-01171-4
Constanze Kurz, Rainer Rehak
Elvira und Nico haben Informatik studiert und schreiben gerade ihre Dissertationen im Bereich IT-Sicherheit. Daneben lehren sie an verschiedenen Universitäten. Sie haben ein Projekt namens ,,HackerZero“ angeregt und konnten dafür Fördergelder gewinnen. Das Projekt bietet eine universitäre Plattform als Portal für Sicherheitsforschung an. Zehn verschiedeneUniversitäten sind an dem Projekt beteiligt. Elvira und Nico freuen sich über die Zusage, dass die Förderung für weitere zwei Jahre verlängert wurde.
Wer Sicherheitslücken in Software entdeckt hat, kann diese über die innovative Plattform ,,HackerZero“ an die betroffenen Hersteller oder Anbieter melden und muss gleichzeitig das Vorgehen und Wissen offenlegen. Da die Kommunikation über Elvira und Nico als Betreiber der Plattform läuft, braucht man sich nicht über unangenehme juristische Folgen zu sorgen, da sie die Meldungen entgegennehmen und weiterleiten. Elvira und Nico übernehmen also die Kommunikation mit den betroffenen Softwareanbietern. Als Informatikfachleute prüfen die beiden aber auch die technische Seite der gemeldeten Schwachstellen.
Um zu verhindern, dass die Sicherheitslücken ausgenutzt werden, haben die kommerziellen Partner und auch die Open-Source-Projekte nach Meldung eine gewisse Zeit zur Verfügung, in der sie das Wissen um eine Sicherheitslücke exklusiv erhalten. Aber nach spätestens drei Monaten wird das Wissen für alle Plattformmitglieder offengelegt und dann veröffentlicht. Den Firmen wird also eine Frist gesetzt, Patches für die gefundenen Probleme in ihrer Software bereitzustellen. Wenn die Firmen die Sicherheitslücken als „behoben“ markieren, so werden diese auch vor Fristablauf schon offengelegt.
Die Firmen können entscheiden, ob sie zusätzlich auch Informationen zur Lösung bekanntgebenwollen. Damit können alle Personen, die sich mit Sicherheitsfragen beschäftigen, aus diesen Fehlern – und den Lösungen – lernen.
Die Plattform ,,HackerZero“ wird vom Konsortium der zehn beteiligten Universitäten betrieben. Sie steht auch kommerziellen Partnern als Plattform zur Verfügung, um ihre Produkte samt Quellcode für die Sicherheitsprüfung zu hinterlegen. Open-Source-Projekte können sich ebenfalls als Partner anmelden.
,,HackerZero“ bietet IT-Sicherheitsforschern für die Meldung von Softwareschwachstellen eine Aufwandsentschädigung in Form eines Preisgeldes an. Es sind keine großen Summen, die mit dem kommerziellen Markt mithalten könnten, aber damit soll ein zusätzlicher Anreiz für das Nutzen der Plattform zur Offenlegung von Problemen gesetzt werden.
In ,,HackerZero“ werden diese Preisgelder von den kommerziellen Partnern finanziert. Die Gelder kommen in einen gemeinsamen Topf, sodass für alleMeldungen von Sicherheitslücken Gelder zur Verfügung stehen und auch Open-Source-Projekte von der Plattform profitieren können. Sowohl Elvira als auch Nico sind davon überzeugt, dass die Offenlegung von Schwachstellen stets von sehr großem Nutzen für alle an IT-Sicherheitsforschung Interessierten sowie für die Softwarehersteller selbst ist.
Während einer Projektsitzung kommt es wegen einer Neuanmeldung zu heftigen Diskussionen: Der neue kommerzielle Partner hat sich bei ,,HackerZero“ angemeldet, sein Produkt nutzt jedoch selbst Schwachstellen in anderen Softwareprodukten aus. Einige der universitären Partner haben nun mit demAusstieg aus dem Projekt gedroht.
Elvira hatte Nico nach der Anmeldung sofort geschrieben, dass sie den neuen Partner nicht akzeptabel findet. Klar sei doch, dass der Neuzugang ein Käufer von Sicherheitslücken sei oder aber mindestens ein Interesse haben müsse, Schwachstellen in der Software möglichst lange offenzuhalten, um das eigene Produkt besser verkaufen zu können. Das widerspräche klar der Intention der ganzen ,,HackerZero“-Plattform. Elvira meint, dass nicht mal klar sei, ob das Produkt der potenziellen neuen Partnerfirma legal sei.
Nico hält dagegen, dass es immer gut sei, Schwachstellen aufzudecken, auch in solchen Softwareprodukten, die ihrerseits Sicherheitslücken ausnutzen. Die Firma hätte ihren Sitz in Deutschland, was ein illegales Produkt wahrscheinlich ausschließe. Außerdem sei es gerade bei solcher Software besonders wichtig, dass sie sicher und handwerklich gut programmiert sei. Schließlich sei ihnen doch beiden klar, dass die Kunden der Firma wohl vornehmlich Strafverfolgungsbehörden sein würden.
Fragen
- Ist es sinnvoll und ethisch vertretbar, über eine universitäre Plattform Gelder für Schwachstellenmeldungen anzubieten, wenn eine Offenlegung zu einem späteren Zeitpunkt stattfindet?
- Müssen sich Elvira und Nico damit auseinandersetzen, welche Firmen und welche Software bei ,,HackerZero“ angemeldet sind? Wäre es notwendig gewesen, dies festzulegen, als das Projekt definiert wurde?
- Widerspricht die Aufnahme eines Partners, dessen Geschäft die Ausnutzung von Schwachstellen ist, grundsätzlich dem Projektziel? Warum? Gäbe es Gründe, die die Aufnahme rechtfertigen? Wenn ja, welche wären das?
- Wäre es vertretbar oder sogar notwendig, spezifische Regeln für den Umgang mit Vorabinformationen über Sicherheitslücken einzuführen?
- Würde sich etwas ändern, wenn eine staatliche Stelle als Partner teilnehmen wollte?
- Änderte sich dadurch etwas, wenn sich keine der beteiligten Universitäten über die neue Partnerfirma verärgert gezeigt hätte? Müssten Elvira und Nico dennoch die Art der zu untersuchenden Software diskutieren?
- Wen könnten Elvira und Nico hinzuziehen, wenn sich die beiden über die Anmeldung der neuen Partnerfirma nicht einig werden können? Sollten sie das Dilemma gar öffentlich diskutieren?
Erschienen im Informatik Spektrum, 42(2), 2019, S. 144-145, https://doi.org/10.1007/s00287-019-01163-4
Constanze Kurz, Debora Weber-Wulff
Erst seit wenigen Wochen arbeitet Rita bei der Firma ,,Wissenscode“. Sie ist Bio-Informatikerin und hatte bei dem recht bekannten Unternehmen angeheuert, weil sie die Mischung aus Wissenschaft und Business für ihre berufliche Zukunft als sinnvoll erachtet. ,,Wissenscode“ wertet für medizinische Zwecke große Mengen genetischer Daten aus. Die Gründer der Firma sind Mediziner, die sich medial ganz gern als Visionäre inszenieren. Rita findet die PR ihres neuen Arbeitgebers ein wenig überzogen, kann sich aber mit der Idee gut identifizieren, ihre Arbeitskraft als Informatikerin für den Zweck einzusetzen, Krankheiten entgegenzuwirken und Forschung zu unterstützen.
Aktuell wird das größte Projekt in der Geschichte des Unternehmens vorbereitet: Von 200.000 Menschen in einem bestimmten Gebiet Deutschlands sollen DNA-Daten eingesammelt und analysiert werden. Die Region ist natürlich nicht isoliert, dennoch leben nach wissenschaftlich belegten Studien besonders viele Familien dort seit mehreren Generationen und sind überdurchschnittlich sesshaft. Eine Genom-Datenbank über diese 200.000 Menschen soll hohe Aussagekraft über vererbbare Krankheiten hervorbringen.
Als das erste Mal Post von der Firma ,,Wissenscode“ in den Briefkästen der Region lag, hatte die Presse noch gar keinen Wind davon bekommen. Die Bürger wurden aber mit einer ansehnlichen bunten Broschüre über künftige medizinische Durchbrüche informiert, die man aus den freiwillig abzugebenden Gendaten ziehen wolle. Man habe einen lokalen gemeinnützigen Verein als Kooperationspartner gewinnen können, deren Mitarbeiter die DNA-Proben an jedem einzelnen Haus einsammeln werden. Nach Ende der Sammlung werde ,,Wissenscode“ an die Organisation fünf Euro pro Probe spenden, damit winken also eine Million Euro Spenden.
Die Presse springt bald auf das Thema an und stellt es mehrheitlich als eine großartige Aktion dar, um mehr Wissen über Krankheiten zu erlangen und zugleich Spenden für die wohltätige Organisation zu sammeln. Politiker der Region stellen sich öffentlichkeitswirksam hinter das Vorhaben von ,,Wissenscode“. Einige Krankenkassen kündigen Kooperationsprojekte an. Es gibt zwar auch einige wenige Kritiker, aber die befürwortende Stimmung überwiegt klar.
In Rita allerdings wachsen die Zweifel: In der Firma selbst sind nämlich keine Vorbereitungen getroffen worden, die informationstechnische Auswertung der Proben in den Datenbanken vorzunehmen. Die ganze Abteilung, in der Rita arbeitet, werkelt weiter an ihren bisherigen Auswertungen als stehe gar keine große Datensammlung zur Analyse an. Immerhin wäre das die größte Auswertung, die je durchgezogen wurde.
Und warum wird die ganze Aktion eigentlich in nur einer Woche vollzogen? Warum reagiert die Firma nicht auf kritische Nachfragen? Stattdessen betont ,,Wissenscode“ nun auf allen Kanälen und über die Presse, dass die DNA-Sammlung nur dann medizinischen Nutzen haben könne, wenn ganz viele Menschen der Region auch mitmachen. Und jeder müsse doch wollen, dass sinnvolle Forschung über Krankheiten mit den Daten vollzogen werden könne.
Rita erkundigt sich firmenintern über diese Merkwürdigkeiten, kann aber nichts Genaues erfahren. Es gibt zwar Gerüchte, dass die Firma verkauft werden soll, aber die hat es schon immer gegeben. Sie fragt sich, ob die Daten vielleicht eine Art Mitgift sind? Andererseits gibt es schon viele Firmen, die freiwillige DNA-Proben auswerten, um den Einsendern Informationen darüber zu geben, wo ihre Familie herstammt. Da zahlen die Kunden sehr gutes Geld, um recht nutzlose, aber interessante Informationen zu erhalten.
Fragen
- Wie ist das massenhafte Einsammeln genetischer Daten generell ethisch einzuschätzen?
- Darf Rita in ihrer Firma herumspionieren, nur weil sie unbeantwortete Fragen hat?
- Soll Rita ihre Bedenken äußern? Sie weiß ja nichts Gesichertes.
- Steht Rita in einer Handlungspflicht, wenn sie von dem Verkauf von ,,Wissenscode“ Kenntnis erlangt? Wenn ja, welche?
- Ist es überhaupt eine ethische Frage, wenn Rita über Informationen über die DNA-Sammlung verfügt, aber sich entschließt, mit niemandem darüber zu reden? Schließlich kann ja die Verarbeitung woanders stattfinden.
- Darf sich Rita anmaßen, selbst zu entscheiden, was für die vielen DNA-Datengeber von Interesse ist und was nicht?
- Gemeinnützige Organisationen haben fast immer Geldnot. Gibt es irgendwelche Probleme, wenn sie bei der DNA-Materialsammlung mitmachen?
- Ist Rita moralisch verpflichtet, eine drohende Verletzung von Persönlichkeitsrechten an jemanden zu melden? Schließlich vertrauen die DNA-Datengeber darauf, dass die eingesammelten Proben zur medizinischen Forschung verwendet werden.
- Gibt es ethische Forderungen an ,,Wissenscode“?
Erschienen im Informatik Spektrum, 42(1), 2019, S. 58-59
Christina B. Class, Carsten Trinitis
Erwin ist Professor im Bereich Gesichtserkennung/Bildverarbeitung. Er hat vor einem Jahr einen Ruf an der sehr renommierten University BigU angenommen. In verschiedenen Projekten verwenden er und seine Mitarbeiter Methoden des Deep Learning. Er war daher sehr froh, den Ruf zu erhalten, da seine neue Universität finanziell deutlich besser dasteht und er in den Berufungsverhandlungen für die ersten drei Jahre recht erfolgreich einige Mittel für Forschungsprojekte aushandeln konnte. Auch befinden sind zwei Forschungsinstitute in der Nähe der Hochschule, mit denen er bereits in der Vergangenheit erfolgreich zusammengearbeitet hat. Aber auch als neu berufener Professor merkt er den Druck, Drittmittel einzuwerben, da die Universität sich auch für die nächste Runde der Exzellenzinitiative bewerben möchte. Wie lange er seine gute Lehrstuhlausstattung behalten kann, sollte diese Bewerbung nicht erfolgreich sein, vermag Erwin nicht abzuschätzen.
Aktuell ist er mit seiner Gruppe dabei, Verfahren des Deep Learning zu verwenden, um Sentimentanalyse mit Gesichtserkennung zu verbinden. Sie hoffen, dadurch automatisch Krankheitsanzeichen erkennen zu können und so ein automatisches Frühwarnsystem für allein lebende ältere Menschen zu erstellen, um im Notfall rechtzeitig einen Arzt zu rufen. Dies soll analog zu den Sturzerkennungssystemen erfolgen, die jedoch sehr viel später einsetzen und keine Hilferufe absetzen, wenn jemand z. B. im Sitzen oder Liegen das Bewusstsein verliert. Die für diese Arbeit notwendigen Rechenkapazitäten sind ziemlich groß und sie stecken noch in den Anfängen. Aktuell können sie zwar ansatzweise ein Unwohlsein erkennen, allerdings haben sie noch keinen Ansatzpunkt, um zwischen physischem Unwohlsein (Krankheitsanzeichen) und negativen Emotionen (z. B. genervt sein) zu unterscheiden.
Wie andere Hochschulen auch, ist BigU dabei, in Fernost mit der lokalen Universität East University eine gemeinsame Universität mit ausgewählten Studiengängen zu gründen. Die deutschen Studienpläne sollen dort umgesetzt werden, begabte Studierende Stipendien für ein Masterstudium in Deutschland erhalten und einige ausgewählte Studierende zum Promovieren nach Deutschland eingeladen werden. Dieses Projekt soll die wirtschaftliche und wissenschaftliche Kooperation stärken und findet daher auch Unterstützung aus der Politik.
Im Bereich der Rechnerarchitektur hat East University einige beachtliche Referenzen aufzuweisen und gemeinsam mit Industriepartnern einen Superrechner in Betrieb, der in der Lage ist, extrem hohe Datenmengen in kürzester Zeit zu verarbeiten. Mit Blick auf seine Projekte und die dafür notwendigen Rechenleistungen interessiert sich Erwin sehr für das Projekt und ist entsprechend engagiert.
Daher ist er auch Teil eines Projektteams, mit dem Ziel, einen gemeinsamen Masterstudienplan in Informatik und eine Strategie für eine Forschungskooperation zu erstellen. Mit einigen Vertretern seiner Hochschule reist er für zwei Wochen in das Land. Sie sind alle begeistert von der East University und den Gesprächen mit Kollegen. Insbesondere der Superrechner beeindruckt Erwin. Als mögliche gemeinsame Projekte im Bereich der Informatik diskutiert werden, finden seine aktuellen Arbeiten großen Anklang. Die lokalen Kollegen sind sehr an einer gemeinsamen Fortführung seiner Arbeit interessiert und stellen ihm für das Projekt praktisch unbegrenzten Zugang zu ihrem Superrechner in Aussicht. Erwin ist begeistert. Damit könnten sie einen großen Sprung nach vorne erreichen.
Nach dem offiziellen Programm hängt er mit zwei Kollegen noch drei Tage an, um die Stadt und die Gegend gemeinsam mit zwei lokalen Kollegen selber zu erkunden. Zunehmend merkt er dabei, dass dort ganz andere Vorstellungen bez. Privatsphäre herrschen als zuhause in Deutschland. Nun, da sie Zeit haben, sich etwas umzusehen, beobachtet er den umfassenden Einsatz von Überwachungstechnologien im Alltag. So langsam fühlt er sich selber etwas überwacht und merkt auch, wie er etwas vorsichtig(er) wird in seinem Verhalten und mit seinen Meinungsäußerungen anderen gegenüber.
Wieder in Deutschland angekommen, liegt auf dem Mensatisch das Faltblatt „Unsere ethischen Leitlinien“ der Gesellschaft für Informatik. Er steckt es ein und liest es auf dem Heimweg in der U-Bahn.
Erwin ist zunächst alles andere als begeistert von den ethischen Leitlinien. Er hat den Eindruck, dass die Autoren sehr technik-kritisch sind und sich irgendwie gegen den Fortschritt sperren. Ob das wirklich Informatiker sind, die daran mitgearbeitet haben? Die hätten bestimmt etwas gegen seine Projekte … Er schüttelt den Kopf und steckt die Leitlinien, ohne groß weiter darüber nachzudenken, in seine Jackentasche.
Am Abend trifft Erwin einige seiner Freunde im Restaurant. Erwin erzählt begeistert von seiner Reise nach Fernost und den Möglichkeiten, die sich ihm eröffnen. Er kommt richtig ins Schwärmen, als er von dem Besuch im Rechenzentrum berichtet. Hans, ein Jugendfreund, der an einem Gymnasium Deutsch und Politik unterrichtet, fragt sehr interessiert nach und will genaue Schilderungen von Erwins Eindrücken des Alltags. Er ist etwas skeptisch, vor allen Dingen da er viel über Überwachungen gelesen hat. Frank, ein Projektleiter bei einem Energieversorger, wirft ein, er wäre da etwas vorsichtig. Man habe doch genug von Industriespionage gehört, und sie in ihrem Unternehmen würden daher aus Asien keine Praktikanten einstellen. Erwin berichtet von der offenen Atmosphäre, die er erlebt hat, im Laufe des Gespräches erinnert er sich aber auch an das etwas unbehagliche Gefühl, das sich bei ihm einschlich, da er sich auf der Straße überwacht fühlte. Marius, ein Kollege, der schon seit 2 Jahren vor Ort lebt, hat ihm sogar erzählt, dass er gelernt habe, immer neutral zu blicken und weder Zustimmung noch Langeweile noch Ablehnung in Besprechungen nonverbal zum Ausdruck zu bringen, da man da doch teilweise schnell darauf angesprochen wird, vor allen Dingen auch von Vorgesetzten … Erwin bestellt eine neue Runde für alle und sie wechseln das Thema und haben noch einen lustigen Abend.
Als Erwin später im Bett liegt und kurz vor dem Einschlafen ist, kommen ihm einige Gesprächsfetzen wieder in den Sinn. Er beginnt zu grübeln. Was könnte man mit seiner Arbeit alles anstellen? Plötzlich fallen ihm die Leitlinien wieder ein. Gab es da nicht irgendwas zu Kontrolle und Überwachung? Da er jetzt wieder richtig wach geworden ist, steht er auf, geht zu seiner Jacke und liest die Leitlinien noch einmal durch. Er bleibt an Artikel 11 hängen und plötzlich drängen sich ihm Fragen auf …
Artikel 11 der GI Leitlinien (Version 2018) „Das GI-Mitglied wirkt darauf hin, die von IT-Systemen Betroffenen an der Gestaltung dieser Systeme und deren Nutzungsbedingungen angemessen zu beteiligen. Dies gilt insbesondere für Systeme, die zur Beeinflussung, Kontrolle und Überwachung der Betroffenen verwendet werden können.“ (https://gi.de/ueber-uns/organisation/unsere-ethischen-leitlinien/)
Fragen
- Ein Ziel der Arbeit von Erwins Gruppe ist die Erkennung des physischen Unwohlseins bei Menschen, um z. B. bei älteren Menschen schneller reagieren und Hilfe holen zu können. In einer alternden Gesellschaft, in der nicht alle Menschen dauerhaft betreut werden können, ist dies eine sehr sinnvolle Anwendung. Doch dieser Nutzen schließt die Beobachtung der Menschen ein. Inwieweit müssen zukünftige Nutzer, also die Patienten in die Entwicklung eingebunden werden? Muss/sollte verlangt werden, dass z. B. Patienten in Heimen der Nutzung solcher Systeme zustimmen? Wie kann eine solche Zustimmung erfolgen? Was ist zu bedenken, wenn Menschen sich der Tragweite ihrer Zustimmung auf Grund mangelnder Sachkenntnis oder Erkrankung (z. B. Demenz) nicht bewusst sind? Was kann man tun, wenn manche Patienten zustimmen und manche nicht? Kann man ,,zum Wohle“ des Patienten einfach eine Zustimmung voraussetzen? Welche Probleme und Gefahren ergeben sich hierbei?
- Erwin stellt sich die Frage, ob die von seiner Gruppe durchgeführte Forschung in einem anderen Land zu Kontrolle und Überwachung eingesetzt werden kann und möglicherweise wird. Es handelt sich um eine Vermutung, er hat keine Beweise dafür, und es geht um den möglichen Einsatz im Fernen Osten. Bezieht sich Artikel 11 der GI Leitlinien auch auf einen solchen Fall? Mögliche/zukünftige Betroffene von IT-Systemen in anderen Ländern können schlecht in die Entwicklung von Systemen in Deutschland einbezogen werden. Inwieweit muss man die Betroffenen bei der Entwicklung gedanklich einbeziehen?
- Forschung kostet Geld und viele Hochschulen und Institute sind zunehmend auf den Erwerb von Drittmitteln angewiesen, um Forschungsprojekte durchführen zu können. Wie stark machen sich die Forschenden dann von Interessen außerhalb abhängig? Wie unabhängig kann Forschung noch sein? Können Leitlinien Forschenden den Rücken stärken, um gewisse Projekte nicht weiterzuverfolgen? Welche Unterstützung bräuchten Forschende und Hochschulen, um die wirtschaftliche Freiheit zu haben, fragwürdige Projekte nicht weiterzuverfolgen.
- Forschende stehen unter Druck, Forschungsergebnisse zu veröffentlichen. Die Veröffentlichungen sind weltweit zugänglich. Ist esmöglich, den Missbrauch der Ergebnisse zu verhindern? Ist es möglich, die Nutzung der eigenen Arbeit und den Missbrauch, z. B. zur Überwachung und Kontrolle, immer vorherzusehen? Soll/muss sich ein Forschender hierzu Gedanken machen? Oder bezieht sich der entsprechende Artikel der Leitlinien „nur“ auf diejenigen, die Systeme effektiv entwickeln und nicht auf Forschende?
- Was ist die Rolle von ethischen Leitlinien? Was kann man von ethischen Leitlinien erwarten? Ist es realistisch, dass sie zum Nachdenken anregen? Und können/sollen ethische Leitlinien in Konfliktfällen Handlungsempfehlungen oder gar Handlungsanweisungen geben?
- Wäre Erwin nach dem Gespräch mit den Freunden nicht auch ins Grübeln gekommen, wenn er die Leitlinien nicht zwischen die Finger bekommen hätte?
- Ist es sinnvoll und notwendig, ethische Leitlinien zu haben, die den aktuellen Stand der Technik ansprechen? Wie kann dies sichergestellt werden in Bereichen, die sich sehr stark und schnell ändern? Wie oft sollen/müssen ethische Leitlinien angepasst/überarbeitet werden?
- Sollen und müssen ethische Leitlinien neben Fachexperten, in diesem Fall dann Informatikern, auch Gesellschaftswissenschaftler als Autoren haben?
Erschienen im Informatik Spektrum, 41(6), 2018, S. 445-447
Constanze Kurz, Stefan Ullrich
Vicky ist in der Technik-Abteilung einer Firma für Gesundheitsbedarf angestellt. Die früher nur aus zehn Leuten bestehende Truppe wurde in den letzten beiden Jahren enorm aufgestockt und das Personal verdreifacht. Dabei ist Vicky Chefin ihres eigenen kleinen Teams aus sechs Mitarbeitern geworden. Sie ist Informatikerin und beschäftigt sich in der Firma zumeist mit der ganz praktischen Umsetzung von Hardware-Lösungen.
Im letzten Jahr hatte ihr Team für eine große Reha-Kette in Armbändern integrierte Chips entwickelt und geliefert, die nun sowohl als Zugangslösung zu Klinik-Räumlichkeiten dienen als auch durch Vibration an die Medikamenteneinnahme erinnern. Vickys Team hatte die Hardware entworfen, die Software und die Integration in die Kliniken der Kette übernahmen andere Firmen-Abteilungen. Die Zusammenarbeit hatte gut funktioniert, das Zeitbudget wurde nur mäßig überschritten.
Ihrem neuen Projekt sieht Vicky gelassen entgegen, da dieselbe Technik weiterverwendet werden kann, die zuvor für die Klinik-Kette entwickelt worden war. Zufälligerweise hatte sie den Deal über einen persönlichen Kontakt mit Ferdinand, einem Pfarrer, sogar selbst an Land gezogen. Der neue Kunde CARE-ful betreibt mehrere kirchliche Schul- und Betreuungseinrichtungen. Die Hardware kann zwar nicht als Armband umgesetzt werden, da sich der Auftraggeber dagegen entschieden hatte. Vertreter von CARE-ful und die kirchlichen Kontaktpersonen hatten sich die Klinik-Armbänder zeigen lassen und erbeten, eine andere Lösung vorzuschlagen. Die Kinder würden die Armbänder zu schnell zerstören, hatte Vicky als Begründung gehört.
Das Team, das die Lesetechnik für die Chips in den Gebäuden anbringen und die Software installieren soll, hatte nach einem Besuch von zwei Einrichtungen vorgeschlagen, einfach die Schuluniform der Kinder zu nutzen. Der Leiter des Software-Teams Enrico hatte mit Vicky besprochen, ob man die Chips in den Kragen integrieren könne. Das hatte sie bejaht und die Planungen begonnen.
Vickys Firma war begeistert von der Idee, denn man konnte CARE-ful nun ein Komplettsystem anbieten: neue Schul- und Hortklassen bekämen die standardisierte Kleidung inklusive wasserdicht verschweißtem Chip geliefert, in die bereits getragenen Uniformen würde der Chip im Nachhinein unter dem Kragen angebracht. Eine einfache Idee mit einem Klettverschluss wurde dazu umgesetzt, damit die Sachen waschbar bleiben. Wenn die Eltern den Chip doch mitwaschen sollten, war der Ersatz natürlich lieferbar – gegen Entgelt, versteht sich.
Nicht nur das, mit wenigen Handgriffen sei auch die Barrierefreiheit gewährleistet, was prompt einen weit größeren Auftrag bringt: In den kommenden Jahren würden in allen Gebäuden von CARE-ful barrierefreie Türsysteme installiert, die sich selbständig beim Herannahen eines berechtigten Chips in der Kleidung öffnen. Auch Fahrstühle könnten für Schülerinnen und Schüler mit eingeschränkter Mobilität freigeschaltet werden. Vickys Chefs waren höchst erfreut.
Alles lief recht gut im Plan, einzig die Kommunikation mit der Software-Abteilung von Enrico fand nur punktuell statt. Vicky hatte zuvor noch nie mit Enrico gearbeitet und war irritiert darüber, dass nicht nur er, sondern eigentlich sein ganzes Team sehr abgekapselt arbeiteten. Es wurde wenig kommuniziert, manche E-Mail und manches Ticket im firmeneigenen System blieb einfach unbearbeitet. Andererseits hatte Vicky keine Anhaltspunkte, dass Enricos Team nicht im Zeitplan war. Im Grunde waren ihr weniger Kommunikation und seltene Meetings sogar lieber als zuviel.
Nur sechs Wochen, bevor das neue System an der ersten Schule gestartet werden sollte, erhält Vicky eine merkwürdige Nachricht auf ihrer privaten E-Mailadresse. Sie ist gerade auf dem Sprung nach Hause und hat zuvor noch die ersten der neuen Schuluniformen mit integrierten Chips abgeholt und inspiziert. Gutgelaunt macht sie sich auf denWeg und sieht auf dem Mobiltelefon die Nachricht von Pfarrer Ferdinand. Sie hatten ein privates Treffen für nächste Woche vereinbart, das er nun mit harschen Worten absagt.
Bestürzt ruft Vicky den Pfarrer anderntags an und fragt ihn, was los sei. Mit distanzierter Stimme sagt Ferdinand zu ihr: ,,Dein Vertrauensmissbrauch enttäuscht mich. Ich verweigere meine Zustimmung! Du hättest mir sagen müssen, wenn ihr hinter meinem Rücken ein solches Überwachungsvorhaben baut und den Eltern Zusatzdienste verkauft.“
Vicky ist entgeistert, was meint Ferdinand? Sie beruft ein Meeting ein, das Enrico aber kurzerhand absagt. Man sei im Stress und hätte wenig Zeit für Meetings. Sein Team sei im Zeitplan, alle technischen Schnittstellen wie gewünscht umgesetzt, Enrico sehe keinen Sinn, jetzt alle grundlos aus der Arbeit zu reißen. Enricos Team muss tatsächlich für Meetings immer durch die halbe Stadt reisen, weil die Abteilungen auf verschiedene Standorte verteilt sind.
Vicky kennt Roswita, die jetzt in Enricos Team arbeitet, seit mehreren Jahren und versucht, sie zu kontaktieren. Sie erreicht Roswita erst abends und erfährt zu ihrem Entsetzen erstmals, dass Enricos Team an CARE-ful eine Software verkauft hat, die alle uniformierten Kinder durch die gesamten Gebäude dauerhaft trackt. Es ist sogar eine Zusatzfunktion verkauft worden, die den Eltern oder Lehrern der Kinder Benachrichtigungen aufs Mobiltelefon sendet, wo sich Schüler wann aufhalten. Davon war niemals die Rede gewesen in Vickys Team, an sowas wollte sie nie mitwirken! Was soll sie jetzt machen?
Fragen
- Darf man ein Zugangssystem, das ursprünglich für die Nutzung von erwachsenen Patienten entwickelt wurde, einfach zu einem Trackingsystem für Kinder umbauen? Müssten dazu ethische Fragen diskutiert werden? Welche wären das?
- Hätte sich Vicky neben der Hardware stärker für die Softwareumsetzung interessieren müssen? Warum eigentlich? Was geht sie das an? Kann sie sich darauf zurückziehen, dass sie nur Basis-Technologie entwickelt, die Überwachungsanwendung aber von einem anderen Team entwickelt wird?
- Ändert es etwas, wenn die Eltern der Kinder diesem Tracking zustimmten? Aber was, wenn nicht alle Eltern und Lehrer zustimmten? Wäre es eine Lösung, das Tracking nur für Eltern zu aktivieren, die das wollen?
- Die hier erwähnte Monitoring-Technik dient auch der Erinnerung an die Medikamenteneinnahme. Wie berücksichtigt man diese positiven Effekte in einer ethischen Beurteilung der Überwachungstechnik?
- Ist es vertretbar, dass Vicky sich quasi auf informellem Wege die Informationen dazu besorgte, was das Software-Team erarbeitet hat?
- Muss Vicky Rücksicht nehmen auf Pfarrer Ferdinand, der das Projekt vermittelte und erbost ist? Ist das ihr Problem?
- Reicht es, wenn Vicky darauf besteht, dass prozedurale Maßnahmen getroffen werden, die
die Überwachung nur in begründeten Ausnahmefällen zulässt?
Was wären solche begründbaren Ausnahmefälle?
- An wen sollte sich Vicky wenden, um über das Problem zu reden? Ihre Geschäftsführung? Kirchenvertreter? Datenschutzbeauftragter? Die Öffentlichkeit?
- Vicky führt ein ganzes Team und will eigentlich weiter in der Firma Karriere machen. Darf das ihre Entscheidung beeinflussen?
Erschienen im Informatik Spektrum 41(4), 2018, S. 285-287.
English translation available.
Deutschlandfunk berichtet über AV1, ein norwegischer Roboter, der als Avatar kranke Kinder vertreten soll (https://www.deutschlandfunk.de/unterricht-via-avatar-roboter-vertritt-kranke-kinder-im.676.de.html?dram:article_id=426613):
Die norwegische Entwicklerin Karen Dolva zeigt ihren Roboter AV1. In Deutschland sind derzeit 20 der Avatare testweise im Einsatz. (picture alliance / Michael Kappeler/dpa)
Hier werden einige ethische Fragestellungen aufgeworfen:
- Gewöhnt man Schüler_innen daran, abgehört zu werden?
- Haben diese Avatare „Menschenrechte“, weil sie einen Menschen vertreten?
- Ist die Anthropomorphisierung problematisch?
Benjamin Kees & Rainer Rehak
Franka hatte schon immer Freude an Statistik. Während der Schulzeit stieß sie damit oft auf Irritation, da solche Hobbys eher selten sind. Doch im Leistungskurs Mathematik ihres Gymnasiums fand sie Begeisterte mit der gleichen Neigung. Zahlen und das Spielen damit, war so schön eindeutig und neutral. Doch das Ausrechnen auf dem Papier ohne praktische Anwendung genügte ihr irgendwann nicht mehr, sie wollte etwas mit Statistik und für Statistiknutzung bauen. Also lernte sie noch während der Abiturphase programmieren, hauptsächlich mathe- und statistikorientierte Sprachen, aber auch solche, mit denen einfache Anwendungen und User-Interfaces gebaut werden können. Informatik und Mathematik zu studieren erschien ihr dann der nächste logische Schritt. Nach sechs Semestern war sie jedoch so unzufrieden mit den strengen Anwesenheitspflichten, den schulähnlichen Kursnachweisen und dem eindimensionalen Lehrplan, dass sie zusehends eher eigenen Projekten nachging.
Nach zwei weiteren Semestern besuchte sie gar keine Kurse mehr und wurde letztendlich exmatrikuliert, nachdem sie sich nicht mehr zurückgemeldet hatte. Das war ihr jedoch mittlerweile egal, denn sie war nun in der Community bekannt und sah sich nach richtigen Jobs um; sie wollte nun richtig loslegen. Sie stieß bald auf einige sehr gute Angebote von großen Firmen und auch welche von Startups im Bereich der automatisierten Personalevaluation. Die großen Firmen winkten jedoch alle ab, wenn sie erfuhren, dass Franka gar keinen Abschluss hatte, wie es in den Ausschreibungen gefordert war. Die Startups hingegen waren immer begeistert, denn sie hatte ja erfolgreiche Projekte und konkrete Programmierfähigkeiten vorzuweisen. Aber die Startups boten meist nur an, sie gegen eine mickrige Bezahlung anzuheuern, dafür gab es jedoch oft Firmenanteile. Franka erbat sich ein paar Tage Bedenkzeit.
Nach den letzten zwei Wochen Bewerbungsmarathon ist sie nun froh, aber etwas durcheinander. Sie erinnert sich kaum noch an einzelne Menschen und erst recht nicht, welche Büroräume zu welcher Firma gehörten – mit einer Ausnahme. Besonders bleibt ihr die Firma StudiStat im Gedächtnis. Sie ist noch klein, aber kein Startup mehr. Die Stimmung war positiv, die Leute freundlich und organisiert-zielstrebig. Die Räume waren sehr offen und modern gestaltet, jedoch sehr geschmackvoll und ohne den üblichen infantil-bunten Kreativ-Stil. Die angebotenen Aufgaben erscheinen interessant und die beiden Chefinnen haben Schneid, Humor und Kompetenz. Ursprünglich hatte die Firma eine Studierendenverwaltungssoftware für private Universitäten entwickelt, doch zunehmend wollen die Universitäten keine „schnöde Verwaltung“ mehr, sondern ein „smartes Management“, wie die Chefinnen es ausdrücken.
Sie wollen etwa bei den Studierenden-Bewerbungsprozessen automatisierte Vorfilterungen und Evaluations- sowie Voraussagefunktionen. Das bedeutet im Klartext eine statistische Auswertung der Studierendendaten inklusive Prognosen, also genau Frankas Spezialgebiet. Der Auswahlprozess der Bewerber und Bewerberinnen soll derart unterstützt werden, dass die Anzahl der Studienabbrüche möglichst gering ist und nur diejenigen zugelassen werden, die möglichst gute Abschlüsse erwerben. Daraus sollen dann Handlungsempfehlungen für die Universitätsleitung und Studierendenbetreuung abgeleitet werden. Möglicherweise könnte die Auswertung später auch auf den gesamten Zeitraum vom Studienstart bis zum Abschluss ausgedehnt werden.
Daten über Studierende, die zugrunde gelegt werden können, sind ja im Überfluss vorhanden, angefangen bei den Bewerbungsunterlagen an sich über das Kursbelegungsverhalten bis hin zu den Arbeits- und Abgabezeiten von Hausarbeiten. Die von den Universitäten genutzte Dokumenten-Cloud-Lösung für die Studierenden kann nämlich auch diese Daten liefern. Hinzu kommen noch Daten zu den Essgewohnheiten, die via Bezahlsmartcard erhoben werden, und perspektivisch auch die Metadaten der Kommunikation zwischen den Studierenden auf den Lernplattformen. Frankas Aufgabe bei StudiStat würde zunächst der statistische Grundbau der Optimierung der Bewerbungsauswahl werden.
Ach, denkt sich Franka, das ist genau die richtige Größe von Unternehmen und die Aufgabe ist überschaubar, aber dennoch verlockend. Sie sagt also zu und fängt zwei Wochen später dort an. Sie bekommt ihren Arbeitsplatz, ihre Login-Zugänge und sichtet erstmal die Datenbasis der teilnehmenden Universitäten. Sie sucht sich ihre statistischen Features zusammen, erdenkt Modelle, verwirft sie wieder, passt sie an, recherchiert, experimentiert und wird immer besser. Bald hat sie einen ersten Prototypen, um Kriterien zu identifizieren, die Aussagen über Leistungswahrscheinlichkeiten erlauben könnten. Noch ist nicht ganz klar, was die Ergebnisse in Form von Korrelationen, Durchschnitten und Clustern überhaupt aussagen, aber es sind erstmal konkrete Ansätze mit tatsächlichen Ergebnissen.
Nun wagt sie sich an die eigentliche Aufgabe: Gibt es Indikatoren während des Bewerbungsprozesses, die Schätzungen über die generelle Leistungserbringung oder sogar die zukünftige Abschlussnote erlauben? Dafür hat sie Zugriff auf einen vom restlichen System abgetrennten Rechner mit vorherigen, pseudonymisierten Bewerbungsunterlagen und den zu den Personen gehörenden Abschlussleistungen bzw. die Unterlagen zu vorzeitigen Studienabbrüchen. Meist handelt es sich dabei um eingescannte und danach digital geschwärzte PDF-Dokumente. Sie ist stolz, als sie alle Schrifterkennungswerkzeuge automatisiert und nun alle möglichen interessanten Daten aus den unstrukturierten Dateien in einer Datenbank vorliegen hat. Für Franka fühlt es sich an wie der morgendliche Blick auf einen spiegelglatten riesigen See, einen Datensee. Getrübt ist ihre Freude nur dadurch, dass die Anonymisierung äußerst oberflächlich durchgeführt wurde und Namen und andere persönliche Informationen trotzdem in ihrer Datenbank landen.
In der zweiten Phase wertet sie die Bewerbungs- und Abschlussdaten mit ihren Analysemodellen aus und kommt zu einem verblüffenden Ergebnis. Personen, die nicht aus großen Städten kommen, haben innerhalb der ersten fünf Semester eine signifikant höhere Abbruchquote. Ein Zusammenhang zu den jeweiligen Leistungen in den Anfangssemestern stellt sich jedoch nicht heraus.
Im Laufe der Analysen ergeben sich noch eine Reihe weiterer Zusammenhänge, die sie sich mit ihrem gesunden Menschenverstand noch weniger erklären kann. Wer oft vegetarische Mahlzeiten in der Kantine wählt, schneidet in den Zwischenprüfungen schlechter ab, hat dann aber überdurchschnittliche Abschlussnoten. Wer langsam tippt und viel in den Vormittagsstunden schreibt, ist statistisch schlechter in mathematischen Kursen, aber gleicht dies durch Noten in nicht-mathematischen Kursen wieder aus, wenn im Sommer wenig über das hochschuleigene System kommuniziert wird.
Franka erkennt, dass ihr System auf Basis der statistisch richtigen Modelle diese Ergebnisse als Grundlage für Empfehlungen nehmen müsste. Um die Abbrecherquote möglichst gering zu halten, würden also bestimmte Studierendengruppen unabhängig von ihren tatsächlichen bisherigen Leistungen benachteiligt. Oder aber sie greift ein, indem sie bestimmte Informationen aus den Bewerbungsunterlagen weniger wichtet. Damit diese Justierung jedoch nicht auffällt, müsste sie das sehr geschickt im Code und in den zugrundeliegenden Modellen verstecken. Stundenlang denkt sie nach, denn der Grund für ihre Zahlenliebe war doch ursprünglich genau die Neutralität gewesen, die nun so absurde Ergebnisse liefert.
Fragen
- Ist der Studienabbruch Frankas nachvollziehbar, weil ihr „das Studium nicht so recht passt“? Welche Verantwortung und Verpflichtung hat sie, die ihr gegebenen Möglichkeiten eines Abschlusses auch zu nutzen, wenn sie einmal angefangen hat?
- Störte sie der schulische Universitätsbetrieb zu Recht so sehr, muss sich eine Studierende nicht manchmal einfach „zusammenreißen“?
- Was bedeutet der Universitätsabschluss für die Firmen, warum legen sie so viel Wert darauf, obwohl Franka doch auch ohne Abschluss gute Projekte zu präsentieren hatte?
- Ist es abgesehen vom Datenschutz ein ethisches Problem, dass die Studierenden offensichtlich sogar beim Essen überwacht werden?
- Wie wäre die eigenmächtige Manipulation des Codes im Interesse der Gleichberechtigung zu werten?
- Wie wäre es zu werten, wenn Franka die Benachteiligung von Nichtstädtern zu Gunsten einer wahrscheinlich geringeren Abbrecherquote in Kauf nimmt?
- Darf Franka die nur scheinbar anonymen Informationen nutzen? Würde es ein Unterschied sein, wenn diese Informationen den entscheidenden Zusammenhang zur Abbrecherquote darstellen würden?
- Gibt es in Bewerbungen besondere Informationen, deren automatisierte Auswertung für eine Annahmeentscheidung oder -empfehlung problematischer sind als z. B. das Aufwachsen in einer Großstadt?
- Ist es eine Manipulation des Bewerbungsprozesses, wenn Franka die Modelle anpassen und gewichten würde, oder wäre es Manipulation, wenn sie das gerade nicht tut?
Erschienen im Informatik-Spektrum, 41 (5), 2018.
Christina B. Class, Debora Weber-Wulff
Die vor wenigen Jahren gegründete Marktkette YourLife verkauft Lebensmittelprodukte, mit einem Schwerpunkt auf regionale Produkte, zusammen mit einem großen Sortiment an Drogeriemarktartikeln und Wellnessprodukten. Insbesondere im Bereich der Drogerieartikel versucht sie mit Eigenprodukten einen stabilen Marktanteil in Großstädten zu erreichen.
YourLife ist auch sehr aktiv im Internet und bietet zusätzlich zum Ladenverkauf Online-Shopping an.
Diese Bereiche werden durch die Firma ITCompetenceForYou GmbH, ITC4U genannt, abgedeckt. ITC4U ist ein recht junges Unternehmen mit insgesamt 12 Angestellten.
ITC4U hat für YourLife auch einige Apps im BereichWellness und gesunder Lebensstil entwickelt, die Nutzer bei gesunder Ernährung, dem Abnehmen und regelmäßiger Bewegung im Alltag unterstützen sollen. Die Nutzer geben persönliche Daten sowie alle Aktivitäten ein und erhalten spezifische Tagespläne, Informationen und Anregungen, teilweise verbunden mit Ernährungstipps oder Hinweisen auf Nahrungsergänzungsmittel, die im YourLife-Online-Shop oder den Läden erhältlich sind. Die Apps können leicht mit den in den Märkten angebotenen Körperwaagen oder Blutdruckmessgeräten verbunden werden und weisen zusätzlich auf Sonderangebote im Markt hin, um so eine bessere Kundenbindung zu erreichen.
B. Lange arbeitet seit längerer Zeit intensiv daran, bei Frauen mit starken Zyklusbeschwerden durch gezielte Ernährungspläne und an den Zyklus angepasste Nahrungsergänzungsprodukte die Beschwerden zu lindern. Zusammenmit ITC4U hat B. Lange die App Unbeschwert entwickelt, die ihre aktuellen Ansätze beinhaltet. Die App erstellt basierend auf Gesundheitsdaten und Informationen zum aktuellen Wohlbefinden und Beschwerden Vorschläge für spezifische Gymnastikübungen und Ernährung. Unterstützt wurde die Entwicklung von YourLife, die ihre Mitarbeiterinnen bittet, den Prototypen der App zu testen. Die Daten werden nicht mit YourLife geteilt, sondern zur Verbesserung der App anonymisiert und an B. Lange weitergereicht. YourLife hat die App bei den vorwiegend weiblichen Angestellten bekannt gemacht, um die Verbesserung des Prototypen zu unterstützen, bevor dieser groß angekündigt werden soll. Für diese Testzwecke steht die App nur auf dem internen App-Server, der nur nach Login mit der Personalnummer und einem PIN-Code erreichbar ist, zur Verfügung.
YourLife hat von Anfang an auf persönlichen Kontakt mit den Kunden gesetzt und daher eine große Personaldichte. In letzter Zeit hat es in einigen Filialen aber immer wieder längere Schlangen an den Kassen gegeben und die Personen, die eigentlich für die Beratung eingeteilt wurden, mussten dann auch an den Kassen einspringen. Um dies besser analysieren zu können und die Personalplanung insbesondere der Teilzeitangestellten zu optimieren, stellt YourLife alle Log-Daten der Scannerkassen der letzten 12 Monate zur Analyse zur Verfügung. ITC4U soll basierend auf diesen Daten ein System zur optimierten Personalplanung erstellen. Da sich die Kassiererinnen immer bei denKassen einloggen müssen, wird ITC4U auch gebeten, eine Leistungsanalyse der Kassiererinnen basierend auf den Daten vorzunehmen. Die Personaldaten aller Kassiererinnen, die Voll- oder Teilzeit bei YourLife arbeiten, stehen ITC4U nicht zur Verfügung.
Andreas und Markus sind mit dieser Aufgabe betraut. Sie erstellen verschiedene Kennzahlen, um die Schnelligkeit an der Kasse zu beschreiben. Hierbei ergeben sich, wenn man die Zahlen detailliert analysiert, deutliche Unterschiede basierend auf der Tageszeit. Die Schlüsse daraus können vielleicht genutzt werden, Pausenzeiten besser zu planen. Auch zeigt sich deutlich, dass die Geschwindigkeit der einzelnen Personen von Tag zu Tag Unterschiede aufweist.
Als sie am Nachmittag beim Kaffee mit Clemens darüber sprechen, der für die Aufbereitung der Daten aus der AppUnbeschwert für B. Lange zuständig ist, kommt Markus die Idee, man könne, sofern diese Daten auch irgendwiemit der Personalnummer verknüpft sind, die Daten jamal mit den Performancedaten an der Kasse vergleichen. Nachdem sich die drei zuerst etwas erstaunt anschauen, da die Idee doch etwas gewagt scheint, nehmen sie es doch in Angriff. Tatsächlich kann Clemens die Personalnummer in den ihm zur Verfügung gestellten Daten erkennen. 20 Testnutzerinnen der App arbeiten auch an der Kasse und so sind schnell einige Auswertungen gemacht. Bei acht Frauen ergibt sich ein deutlicher Leistungsabfall in den ersten zwei Tagen des Zyklus, bei denen in derApp größere Schmerzen eingetragen wurden, bei 12 weiteren Personen ist ein nicht signifikanter Effekt zu beobachten.Andreas grinst die beiden anderen an: ,,Naja, jetzt weiß ich wenigstens warum meine Liebste manchmal nichts auf die Reihe bekommt!“ Die anderen beiden grinsen zurück.
Im Teammeeting von ITC4U am Mittwoch machen die beiden ITC4U-Inhaber Thomas und Frank die Ankündigung, dass Frank sich aus gesundheitlichen Gründen aus der Teamleitung zurückziehen wird. Daher bitten sie um In-Haus-Bewerbungen. Clemens zieht hörbar die Luft ein. Andreas grinst ihn an. Das wäre der Traum von Clemens und er wäre super geeignet. Als dann aber Frank seine Stellvertreterin Martina bittet, die neuen Projekte vorzustellen, beschleicht Clemens ein komisches Gefühl. Es scheint, als hätten Frank und Thomas eigentlich schon einen neuen technischen Leiter – eine Leiterin – bestimmt. Martina ist die einzige Ingenieurin in der Firma.
Beim Bier abends macht sich Markus Luft. Er und die anderen sind mit Martina nie so recht warm geworden. Sie ist immer so ernst und professionell und hat keinen Sinn für Humor. Seit sie im Großraumbüro sitzt sei es weniger entspannt und lustig, die Arbeit würde nicht mehr wirklich Spaß machen. Wenn sie dann noch für die Projekte verantwortlich sei! Nein, das ginge gar nicht. Da schaut Andreas ihn an. Das sollte doch nicht so schwierig sein … Sie sei doch eine Frau und mit ihren Analysen letzteWoche hätten sie doch gezeigt, dass die Leistungsfähigkeit von Frauen zyklusabhängig sei. Die Firma kann sich niemanden leisten, der nicht immer voll einsatzfähig sei. Markus wirft ein, dass sie ja nur wenige Daten hätten und die Effekte nur bei acht Personen signifikant seien. Andreas wischt die Bedenken beiseite, immerhin hätten sie es da schwarz auf weiß und sie wüssten ja wohl alle, dass ihre Frauen manchmal schlechte Launen hätten. Da fangen sie alle drei an zu lachen. Markus bietet an, diese Ergebnisse morgen so nebenbei bei Thomas und Frank anzusprechen. Andreas hebt sein Glas: Auf Clemens, den neuen technischen Leiter!
Auf dem Nachhauseweg fühlt sich Clemens nicht sehr gut. Ob sie die Daten wirklich so weitergeben sollten? Vielleicht schadet das Martina mehr, als nur in Bezug auf die Bewerbung zur technischen Leiterin? Und was ist, wenn Thomas oder Frank die Daten so interessant finden, dass sie die Daten an YourLife weitergeben? Und überhaupt, riskieren sie Probleme, weil sie die Daten einfach so zusammengefügt haben?
Fragen
- Ist es richtig, In-Haus-Bewerbungen für eine Teamleitung bei einer so kleinen Firma zu verlangen? Sollten die Geschäftsführer das nicht einfach selber bestimmen?
- Ist so eine Verknüpfung zweier Datenmengen zulässig? Es geschieht ja innerhalb der Firma. Wenn es rechtlich zulässig ist, ist es ethisch vertretbar?
- Gibt es rechtliche Vorschriften für eine Analyse von Performance-Daten? Müssen die Mitarbeiterinnen aufgeklärt werden darüber, was die Firma mit den Daten vor hat?
- Die App in vorliegendem Beispiel wurde gezielt für Frauen mit Beschwerden entwickelt. Schwächt dies die Aussage, die aus der Verknüpfung der Daten gezogen werden können?
- Data Mining ist ein nützliches Instrument, um Zusammenhänge zu entdecken, die man sonst nicht vermutet. Worin bestehen die Gefahren, die Zusammenhänge falsch zu interpretieren, zum Beispiel also eine Kausalität zu unterstellen? Wenn Zusammenhänge fest gestellt werden, sollen diese verwendet werden? Gibt es Gründe, festgestellte Zusammenhänge nicht zu verwenden?
- Wie wird die Signifikanz von Zusammenhängen festgestellt? Ist eine Aussage ,,signifikanter Zusammenhang“ objektiv?
- Es ist schwer, aus Daten gewonnene Zusammenhänge richtig zu interpretieren. Welche Voraussetzungen braucht es hierfür? Wie kann man Außenstehenden, welche die Methoden nicht kennen, die entdeckten Zusammenhänge erklären? Es können hierbei ja leicht Missverständnisse entstehen.
- Im beschriebenen Fall möchte Markus die Inhaber von ICT4U auf die wenigen Daten hinweisen, in denen Frauen zu Beginn des Zyklus etwas weniger leistungsfähig sind. Er möchte nicht darauf hinweisen, wie wenige Daten sie haben, und auch nicht direkt Martina ansprechen. Jedoch hofft er, dass diese Information Entscheidungen beeinflussen wird. Wie ist sein Verhalten zu bewerten? Wenn Frank und Thomas darauf anspringen, wie muss dann ihr Verhalten bewertet werden? Wie groß ist das Risiko, dass wir uns unbewusst durch auf diese Weise dargestellten und mit vermeintlich ausreichenden Daten ,,untermauerten“ Zusammenhänge beeinflussen lassen?
- Kennen Sie Beispiele von einem ,,allzu lockeren“ Umgang mit Zusammenhängen, die man in Daten gesehen hat? Hatten diese Beispiele negative Konsequenzen? Positive Konsequenzen?
- Wir Menschen tendieren oft dazu, andere in Schubladen zu stecken. Vergrößert sich diese Gefahr durch die zunehmende Datenanalyse? Oder werden wir vielleicht lernen, dass das Gegenüber nicht so leicht zu erfassen ist, je mehr verschiedene Zusammenhänge uns bekannt werden? Kann die Vielfalt von Informationen, die wir über unser Gegenüber erhalten, auch dazu führen, dass wir diese nicht mehr so leicht in Schubladen stecken?
Erschienen im Informatik Spektrum 41(3), 2018, S. 208–210
|
|
Kommentare