Archiv

Fallbeispiel: Eine verlockende Perspektive

Christina B. Class, Carsten Trinitis

Erwin ist Professor im Bereich Gesichtserkennung/Bildverarbeitung. Er hat vor einem Jahr einen Ruf an der sehr renommierten University BigU angenommen. In verschiedenen Projekten verwenden er und seine Mitarbeiter Methoden des Deep Learning. Er war daher sehr froh, den Ruf zu erhalten, da seine neue Universität finanziell deutlich besser dasteht und er in den Berufungsverhandlungen für die ersten drei Jahre recht erfolgreich einige Mittel für Forschungsprojekte aushandeln konnte. Auch befinden sind zwei Forschungsinstitute in der Nähe der Hochschule, mit denen er bereits in der Vergangenheit erfolgreich zusammengearbeitet hat. Aber auch als neu berufener Professor merkt er den Druck, Drittmittel einzuwerben, da die Universität sich auch für die nächste Runde der Exzellenzinitiative bewerben möchte. Wie lange er seine gute Lehrstuhlausstattung behalten kann, sollte diese Bewerbung nicht erfolgreich sein, vermag Erwin nicht abzuschätzen.

Aktuell ist er mit seiner Gruppe dabei, Verfahren des Deep Learning zu verwenden, um Sentimentanalyse mit Gesichtserkennung zu verbinden. Sie hoffen, dadurch automatisch Krankheitsanzeichen erkennen zu können und so ein automatisches Frühwarnsystem für allein lebende ältere Menschen zu erstellen, um im Notfall rechtzeitig einen Arzt zu rufen. Dies soll analog zu den Sturzerkennungssystemen erfolgen, die jedoch sehr viel später einsetzen und keine Hilferufe absetzen, wenn jemand z. B. im Sitzen oder Liegen das Bewusstsein verliert. Die für diese Arbeit notwendigen Rechenkapazitäten sind ziemlich groß und sie stecken noch in den Anfängen. Aktuell können sie zwar ansatzweise ein Unwohlsein erkennen, allerdings haben sie noch keinen Ansatzpunkt, um zwischen physischem Unwohlsein (Krankheitsanzeichen) und negativen Emotionen (z. B. genervt sein) zu unterscheiden.

Wie andere Hochschulen auch, ist BigU dabei, in Fernost mit der lokalen Universität East University eine gemeinsame Universität mit ausgewählten Studiengängen zu gründen. Die deutschen Studienpläne sollen dort umgesetzt werden, begabte Studierende Stipendien für ein Masterstudium in Deutschland erhalten und einige ausgewählte Studierende zum Promovieren nach Deutschland eingeladen werden. Dieses Projekt soll die wirtschaftliche und wissenschaftliche Kooperation stärken und findet daher auch Unterstützung aus der Politik.

Im Bereich der Rechnerarchitektur hat East University einige beachtliche Referenzen aufzuweisen und gemeinsam mit Industriepartnern einen Superrechner in Betrieb, der in der Lage ist, extrem hohe Datenmengen in kürzester Zeit zu verarbeiten. Mit Blick auf seine Projekte und die dafür notwendigen Rechenleistungen interessiert sich Erwin sehr für das Projekt und ist entsprechend engagiert.

Daher ist er auch Teil eines Projektteams, mit dem Ziel, einen gemeinsamen Masterstudienplan in Informatik und eine Strategie für eine Forschungskooperation zu erstellen. Mit einigen Vertretern seiner Hochschule reist er für zwei Wochen in das Land. Sie sind alle begeistert von der East University und den Gesprächen mit Kollegen. Insbesondere der Superrechner beeindruckt Erwin. Als mögliche gemeinsame Projekte im Bereich der Informatik diskutiert werden, finden seine aktuellen Arbeiten großen Anklang. Die lokalen Kollegen sind sehr an einer gemeinsamen Fortführung seiner Arbeit interessiert und stellen ihm für das Projekt praktisch unbegrenzten Zugang zu ihrem Superrechner in Aussicht. Erwin ist begeistert. Damit könnten sie einen großen Sprung nach vorne erreichen.

Nach dem offiziellen Programm hängt er mit zwei Kollegen noch drei Tage an, um die Stadt und die Gegend gemeinsam mit zwei lokalen Kollegen selber zu erkunden. Zunehmend merkt er dabei, dass dort ganz andere Vorstellungen bez. Privatsphäre herrschen als zuhause in Deutschland. Nun, da sie Zeit haben, sich etwas umzusehen, beobachtet er den umfassenden Einsatz von Überwachungstechnologien im Alltag. So langsam fühlt er sich selber etwas überwacht und merkt auch, wie er etwas vorsichtig(er) wird in seinem Verhalten und mit seinen Meinungsäußerungen anderen gegenüber.

Wieder in Deutschland angekommen, liegt auf dem Mensatisch das Faltblatt „Unsere ethischen Leitlinien“ der Gesellschaft für Informatik. Er steckt es ein und liest es auf dem Heimweg in der U-Bahn.

Erwin ist zunächst alles andere als begeistert von den ethischen Leitlinien. Er hat den Eindruck, dass die Autoren sehr technik-kritisch sind und sich irgendwie gegen den Fortschritt sperren. Ob das wirklich Informatiker sind, die daran mitgearbeitet haben? Die hätten bestimmt etwas gegen seine Projekte … Er schüttelt den Kopf und steckt die Leitlinien, ohne groß weiter darüber nachzudenken, in seine Jackentasche.

Am Abend trifft Erwin einige seiner Freunde im Restaurant. Erwin erzählt begeistert von seiner Reise nach Fernost und den Möglichkeiten, die sich ihm eröffnen. Er kommt richtig ins Schwärmen, als er von dem Besuch im Rechenzentrum berichtet. Hans, ein Jugendfreund, der an einem Gymnasium Deutsch und Politik unterrichtet, fragt sehr interessiert nach und will genaue Schilderungen von Erwins Eindrücken des Alltags. Er ist etwas skeptisch, vor allen Dingen da er viel über Überwachungen gelesen hat. Frank, ein Projektleiter bei einem Energieversorger, wirft ein, er wäre da etwas vorsichtig. Man habe doch genug von Industriespionage gehört, und sie in ihrem Unternehmen würden daher aus Asien keine Praktikanten einstellen. Erwin berichtet von der offenen Atmosphäre, die er erlebt hat, im Laufe des Gespräches erinnert er sich aber auch an das etwas unbehagliche Gefühl, das sich bei ihm einschlich, da er sich auf der Straße überwacht fühlte. Marius, ein Kollege, der schon seit 2 Jahren vor Ort lebt, hat ihm sogar erzählt, dass er gelernt habe, immer neutral zu blicken und weder Zustimmung noch Langeweile noch Ablehnung in Besprechungen nonverbal zum Ausdruck zu bringen, da man da doch teilweise schnell darauf angesprochen wird, vor allen Dingen auch von Vorgesetzten … Erwin bestellt eine neue Runde für alle und sie wechseln das Thema und haben noch einen lustigen Abend.

Als Erwin später im Bett liegt und kurz vor dem Einschlafen ist, kommen ihm einige Gesprächsfetzen wieder in den Sinn. Er beginnt zu grübeln. Was könnte man mit seiner Arbeit alles anstellen? Plötzlich fallen ihm die Leitlinien wieder ein. Gab es da nicht irgendwas zu Kontrolle und Überwachung? Da er jetzt wieder richtig wach geworden ist, steht er auf, geht zu seiner Jacke und liest die Leitlinien noch einmal durch. Er bleibt an Artikel 11 hängen und plötzlich drängen sich ihm Fragen auf …

Artikel 11 der GI Leitlinien (Version 2018) „Das GI-Mitglied wirkt darauf hin, die von IT-Systemen Betroffenen an der Gestaltung dieser Systeme und deren Nutzungsbedingungen angemessen zu beteiligen. Dies gilt insbesondere für Systeme, die zur Beeinflussung, Kontrolle und Überwachung der Betroffenen verwendet werden können.“ (https://gi.de/ueber-uns/organisation/unsere-ethischen-leitlinien/)

Fragen

  • Ein Ziel der Arbeit von Erwins Gruppe ist die Erkennung des physischen Unwohlseins bei Menschen, um z. B. bei älteren Menschen schneller reagieren und Hilfe holen zu können. In einer alternden Gesellschaft, in der nicht alle Menschen dauerhaft betreut werden können, ist dies eine sehr sinnvolle Anwendung. Doch dieser Nutzen schließt die Beobachtung der Menschen ein. Inwieweit müssen zukünftige Nutzer, also die Patienten in die Entwicklung eingebunden werden? Muss/sollte verlangt werden, dass z. B. Patienten in Heimen der Nutzung solcher Systeme zustimmen? Wie kann eine solche Zustimmung erfolgen? Was ist zu bedenken, wenn Menschen sich der Tragweite ihrer Zustimmung auf Grund mangelnder Sachkenntnis oder Erkrankung (z. B. Demenz) nicht bewusst sind? Was kann man tun, wenn manche Patienten zustimmen und manche nicht? Kann man ,,zum Wohle“ des Patienten einfach eine Zustimmung voraussetzen? Welche Probleme und Gefahren ergeben sich hierbei?
  • Erwin stellt sich die Frage, ob die von seiner Gruppe durchgeführte Forschung in einem anderen Land zu Kontrolle und Überwachung eingesetzt werden kann und möglicherweise wird. Es handelt sich um eine Vermutung, er hat keine Beweise dafür, und es geht um den möglichen Einsatz im Fernen Osten. Bezieht sich Artikel 11 der GI Leitlinien auch auf einen solchen Fall? Mögliche/zukünftige Betroffene von IT-Systemen in anderen Ländern können schlecht in die Entwicklung von Systemen in Deutschland einbezogen werden. Inwieweit muss man die Betroffenen bei der Entwicklung gedanklich einbeziehen?
  • Forschung kostet Geld und viele Hochschulen und Institute sind zunehmend auf den Erwerb von Drittmitteln angewiesen, um Forschungsprojekte durchführen zu können. Wie stark machen sich die Forschenden dann von Interessen außerhalb abhängig? Wie unabhängig kann Forschung noch sein? Können Leitlinien Forschenden den Rücken stärken, um gewisse Projekte nicht weiterzuverfolgen? Welche Unterstützung bräuchten Forschende und Hochschulen, um die wirtschaftliche Freiheit zu haben, fragwürdige Projekte nicht weiterzuverfolgen.
  • Forschende stehen unter Druck, Forschungsergebnisse zu veröffentlichen. Die Veröffentlichungen sind weltweit zugänglich. Ist esmöglich, den Missbrauch der Ergebnisse zu verhindern? Ist es möglich, die Nutzung der eigenen Arbeit und den Missbrauch, z. B. zur Überwachung und Kontrolle, immer vorherzusehen? Soll/muss sich ein Forschender hierzu Gedanken machen? Oder bezieht sich der entsprechende Artikel der Leitlinien „nur“ auf diejenigen, die Systeme effektiv entwickeln und nicht auf Forschende?
  • Was ist die Rolle von ethischen Leitlinien? Was kann man von ethischen Leitlinien erwarten? Ist es realistisch, dass sie zum Nachdenken anregen? Und können/sollen ethische Leitlinien in Konfliktfällen Handlungsempfehlungen oder gar Handlungsanweisungen geben?
  • Wäre Erwin nach dem Gespräch mit den Freunden nicht auch ins Grübeln gekommen, wenn er die Leitlinien nicht zwischen die Finger bekommen hätte?
  • Ist es sinnvoll und notwendig, ethische Leitlinien zu haben, die den aktuellen Stand der Technik ansprechen? Wie kann dies sichergestellt werden in Bereichen, die sich sehr stark und schnell ändern? Wie oft sollen/müssen ethische Leitlinien angepasst/überarbeitet werden?
  • Sollen und müssen ethische Leitlinien neben Fachexperten, in diesem Fall dann Informatikern, auch Gesellschaftswissenschaftler als Autoren haben?

Erschienen im Informatik Spektrum, 41(6), 2018, S. 445-447

Fallbeispiel: Smarte Armbänder

Constanze Kurz, Stefan Ullrich

Vicky ist in der Technik-Abteilung einer Firma für Gesundheitsbedarf angestellt. Die früher nur aus zehn Leuten bestehende Truppe wurde in den letzten beiden Jahren enorm aufgestockt und das Personal verdreifacht. Dabei ist Vicky Chefin ihres eigenen kleinen Teams aus sechs Mitarbeitern geworden. Sie ist Informatikerin und beschäftigt sich in der Firma zumeist mit der ganz praktischen Umsetzung von Hardware-Lösungen.

Im letzten Jahr hatte ihr Team für eine große Reha-Kette in Armbändern integrierte Chips entwickelt und geliefert, die nun sowohl als Zugangslösung zu Klinik-Räumlichkeiten dienen als auch durch Vibration an die Medikamenteneinnahme erinnern. Vickys Team hatte die Hardware entworfen, die Software und die Integration in die Kliniken der Kette übernahmen andere Firmen-Abteilungen. Die Zusammenarbeit hatte gut funktioniert, das Zeitbudget wurde nur mäßig überschritten.

Ihrem neuen Projekt sieht Vicky gelassen entgegen, da dieselbe Technik weiterverwendet werden kann, die zuvor für die Klinik-Kette entwickelt worden war. Zufälligerweise hatte sie den Deal über einen persönlichen Kontakt mit Ferdinand, einem Pfarrer, sogar selbst an Land gezogen. Der neue Kunde CARE-ful betreibt mehrere kirchliche Schul- und Betreuungseinrichtungen. Die Hardware kann zwar nicht als Armband umgesetzt werden, da sich der Auftraggeber dagegen entschieden hatte. Vertreter von CARE-ful und die kirchlichen Kontaktpersonen hatten sich die Klinik-Armbänder zeigen lassen und erbeten, eine andere Lösung vorzuschlagen. Die Kinder würden die Armbänder zu schnell zerstören, hatte Vicky als Begründung gehört.

Das Team, das die Lesetechnik für die Chips in den Gebäuden anbringen und die Software installieren soll, hatte nach einem Besuch von zwei Einrichtungen vorgeschlagen, einfach die Schuluniform der Kinder zu nutzen. Der Leiter des Software-Teams Enrico hatte mit Vicky besprochen, ob man die Chips in den Kragen integrieren könne. Das hatte sie bejaht und die Planungen begonnen.

Vickys Firma war begeistert von der Idee, denn man konnte CARE-ful nun ein Komplettsystem anbieten: neue Schul- und Hortklassen bekämen die standardisierte Kleidung inklusive wasserdicht verschweißtem Chip geliefert, in die bereits getragenen Uniformen würde der Chip im Nachhinein unter dem Kragen angebracht. Eine einfache Idee mit einem Klettverschluss wurde dazu umgesetzt, damit die Sachen waschbar bleiben. Wenn die Eltern den Chip doch mitwaschen sollten, war der Ersatz natürlich lieferbar – gegen Entgelt, versteht sich.

Nicht nur das, mit wenigen Handgriffen sei auch die Barrierefreiheit gewährleistet, was prompt einen weit größeren Auftrag bringt: In den kommenden Jahren würden in allen Gebäuden von CARE-ful barrierefreie Türsysteme installiert, die sich selbständig beim Herannahen eines berechtigten Chips in der Kleidung öffnen. Auch Fahrstühle könnten für Schülerinnen und Schüler mit eingeschränkter Mobilität freigeschaltet werden. Vickys Chefs waren höchst erfreut.

Alles lief recht gut im Plan, einzig die Kommunikation mit der Software-Abteilung von Enrico fand nur punktuell statt. Vicky hatte zuvor noch nie mit Enrico gearbeitet und war irritiert darüber, dass nicht nur er, sondern eigentlich sein ganzes Team sehr abgekapselt arbeiteten. Es wurde wenig kommuniziert, manche E-Mail und manches Ticket im firmeneigenen System blieb einfach unbearbeitet. Andererseits hatte Vicky keine Anhaltspunkte, dass Enricos Team nicht im Zeitplan war. Im Grunde waren ihr weniger Kommunikation und seltene Meetings sogar lieber als zuviel.

Nur sechs Wochen, bevor das neue System an der ersten Schule gestartet werden sollte, erhält Vicky eine merkwürdige Nachricht auf ihrer privaten E-Mailadresse. Sie ist gerade auf dem Sprung nach Hause und hat zuvor noch die ersten der neuen Schuluniformen mit integrierten Chips abgeholt und inspiziert. Gutgelaunt macht sie sich auf denWeg und sieht auf dem Mobiltelefon die Nachricht von Pfarrer Ferdinand. Sie hatten ein privates Treffen für nächste Woche vereinbart, das er nun mit harschen Worten absagt.

Bestürzt ruft Vicky den Pfarrer anderntags an und fragt ihn, was los sei. Mit distanzierter Stimme sagt Ferdinand zu ihr: ,,Dein Vertrauensmissbrauch enttäuscht mich. Ich verweigere meine Zustimmung! Du hättest mir sagen müssen, wenn ihr hinter meinem Rücken ein solches Überwachungsvorhaben baut und den Eltern Zusatzdienste verkauft.“

Vicky ist entgeistert, was meint Ferdinand? Sie beruft ein Meeting ein, das Enrico aber kurzerhand absagt. Man sei im Stress und hätte wenig Zeit für Meetings. Sein Team sei im Zeitplan, alle technischen Schnittstellen wie gewünscht umgesetzt, Enrico sehe keinen Sinn, jetzt alle grundlos aus der Arbeit zu reißen. Enricos Team muss tatsächlich für Meetings immer durch die halbe Stadt reisen, weil die Abteilungen auf verschiedene Standorte verteilt sind.

Vicky kennt Roswita, die jetzt in Enricos Team arbeitet, seit mehreren Jahren und versucht, sie zu kontaktieren. Sie erreicht Roswita erst abends und erfährt zu ihrem Entsetzen erstmals, dass Enricos Team an CARE-ful eine Software verkauft hat, die alle uniformierten Kinder durch die gesamten Gebäude dauerhaft trackt. Es ist sogar eine Zusatzfunktion verkauft worden, die den Eltern oder Lehrern der Kinder Benachrichtigungen aufs Mobiltelefon sendet, wo sich Schüler wann aufhalten. Davon war niemals die Rede gewesen in Vickys Team, an sowas wollte sie nie mitwirken! Was soll sie jetzt machen?

Fragen

  • Darf man ein Zugangssystem, das ursprünglich für die Nutzung von erwachsenen Patienten entwickelt wurde, einfach zu einem Trackingsystem für Kinder umbauen? Müssten dazu ethische Fragen diskutiert werden? Welche wären das?
  • Hätte sich Vicky neben der Hardware stärker für die Softwareumsetzung interessieren müssen? Warum eigentlich? Was geht sie das an? Kann sie sich darauf zurückziehen, dass sie nur Basis-Technologie entwickelt, die Überwachungsanwendung aber von einem anderen Team entwickelt wird?
  • Ändert es etwas, wenn die Eltern der Kinder diesem Tracking zustimmten? Aber was, wenn nicht alle Eltern und Lehrer zustimmten? Wäre es eine Lösung, das Tracking nur für Eltern zu aktivieren, die das wollen?
  • Die hier erwähnte Monitoring-Technik dient auch der Erinnerung an die Medikamenteneinnahme. Wie berücksichtigt man diese positiven Effekte in einer ethischen Beurteilung der Überwachungstechnik?
  • Ist es vertretbar, dass Vicky sich quasi auf informellem Wege die Informationen dazu besorgte, was das Software-Team erarbeitet hat?
  • Muss Vicky Rücksicht nehmen auf Pfarrer Ferdinand, der das Projekt vermittelte und erbost ist? Ist das ihr Problem?
  • Reicht es, wenn Vicky darauf besteht, dass prozedurale Maßnahmen getroffen werden, die
    die Überwachung nur in begründeten Ausnahmefällen zulässt?
    Was wären solche begründbaren Ausnahmefälle?
  • An wen sollte sich Vicky wenden, um über das Problem zu reden? Ihre Geschäftsführung? Kirchenvertreter? Datenschutzbeauftragter? Die Öffentlichkeit?
  • Vicky führt ein ganzes Team und will eigentlich weiter in der Firma Karriere machen. Darf das ihre Entscheidung beeinflussen?

Erschienen im Informatik Spektrum 41(4), 2018, S. 285-287.

English translation available.

Robot-Avatare in der Schule?

Deutschlandfunk berichtet über AV1, ein norwegischer Roboter, der als Avatar kranke Kinder vertreten soll (https://www.deutschlandfunk.de/unterricht-via-avatar-roboter-vertritt-kranke-kinder-im.676.de.html?dram:article_id=426613):

ie norwegische Entwicklerin Karen Dolva zeigt ihren Roboter AV1. In Deutschland sind derzeit 20 der Avatare testweise im Einsatz. (picture alliance / Michael Kappeler/dpa)

Die norwegische Entwicklerin Karen Dolva zeigt ihren Roboter AV1. In Deutschland sind derzeit 20 der Avatare testweise im Einsatz. (picture alliance / Michael Kappeler/dpa)

Hier werden einige ethische Fragestellungen aufgeworfen:

  • Gewöhnt man Schüler_innen daran, abgehört zu werden?
  • Haben diese Avatare „Menschenrechte“, weil sie einen Menschen vertreten?
  • Ist die Anthropomorphisierung problematisch?

 

Fallbeispiel: Vermessen

Benjamin Kees & Rainer Rehak

Franka hatte schon immer Freude an Statistik. Während der Schulzeit stieß sie damit oft auf Irritation, da solche Hobbys eher selten sind. Doch im Leistungskurs Mathematik ihres Gymnasiums fand sie Begeisterte mit der gleichen Neigung. Zahlen und das Spielen damit, war so schön eindeutig und neutral. Doch das Ausrechnen auf dem Papier ohne praktische Anwendung genügte ihr irgendwann nicht mehr, sie wollte etwas mit Statistik und für Statistiknutzung bauen. Also lernte sie noch während der Abiturphase programmieren, hauptsächlich mathe- und statistikorientierte Sprachen, aber auch solche, mit denen einfache Anwendungen und User-Interfaces gebaut werden können. Informatik und Mathematik zu studieren erschien ihr dann der nächste logische Schritt. Nach sechs Semestern war sie jedoch so unzufrieden mit den strengen Anwesenheitspflichten, den schulähnlichen Kursnachweisen und dem eindimensionalen Lehrplan, dass sie zusehends eher eigenen Projekten nachging.

Nach zwei weiteren Semestern besuchte sie gar keine Kurse mehr und wurde letztendlich exmatrikuliert, nachdem sie sich nicht mehr zurückgemeldet hatte. Das war ihr jedoch mittlerweile egal, denn sie war nun in der Community bekannt und sah sich nach richtigen Jobs um; sie wollte nun richtig loslegen. Sie stieß bald auf einige sehr gute Angebote von großen Firmen und auch welche von Startups im Bereich der automatisierten Personalevaluation. Die großen Firmen winkten jedoch alle ab, wenn sie erfuhren, dass Franka gar keinen Abschluss hatte, wie es in den Ausschreibungen gefordert war. Die Startups hingegen waren immer begeistert, denn sie hatte ja erfolgreiche Projekte und konkrete Programmierfähigkeiten vorzuweisen. Aber die Startups boten meist nur an, sie gegen eine mickrige Bezahlung anzuheuern, dafür gab es jedoch oft Firmenanteile. Franka erbat sich ein paar Tage Bedenkzeit.

Nach den letzten zwei Wochen Bewerbungsmarathon ist sie nun froh, aber etwas durcheinander. Sie erinnert sich kaum noch an einzelne Menschen und erst recht nicht, welche Büroräume zu welcher Firma gehörten – mit einer Ausnahme. Besonders bleibt ihr die Firma StudiStat im Gedächtnis. Sie ist noch klein, aber kein Startup mehr. Die Stimmung war positiv, die Leute freundlich und organisiert-zielstrebig. Die Räume waren sehr offen und modern gestaltet, jedoch sehr geschmackvoll und ohne den üblichen infantil-bunten Kreativ-Stil. Die angebotenen Aufgaben erscheinen interessant und die beiden Chefinnen haben Schneid, Humor und Kompetenz. Ursprünglich hatte die Firma eine Studierendenverwaltungssoftware für private Universitäten entwickelt, doch zunehmend wollen die Universitäten keine „schnöde Verwaltung“ mehr, sondern ein „smartes Management“, wie die Chefinnen es ausdrücken.

Sie wollen etwa bei den Studierenden-Bewerbungsprozessen automatisierte Vorfilterungen und Evaluations- sowie Voraussagefunktionen. Das bedeutet im Klartext eine statistische Auswertung der Studierendendaten inklusive Prognosen, also genau Frankas Spezialgebiet. Der Auswahlprozess der Bewerber und Bewerberinnen soll derart unterstützt werden, dass die Anzahl der Studienabbrüche möglichst gering ist und nur diejenigen zugelassen werden, die möglichst gute Abschlüsse erwerben. Daraus sollen dann Handlungsempfehlungen für die Universitätsleitung und Studierendenbetreuung abgeleitet werden. Möglicherweise könnte die Auswertung später auch auf den gesamten Zeitraum vom Studienstart bis zum Abschluss ausgedehnt werden.

Daten über Studierende, die zugrunde gelegt werden können, sind ja im Überfluss vorhanden, angefangen bei den Bewerbungsunterlagen an sich über das Kursbelegungsverhalten bis hin zu den Arbeits- und Abgabezeiten von Hausarbeiten. Die von den Universitäten genutzte Dokumenten-Cloud-Lösung für die Studierenden kann nämlich auch diese Daten liefern. Hinzu kommen noch Daten zu den Essgewohnheiten, die via Bezahlsmartcard erhoben werden, und perspektivisch auch die Metadaten der Kommunikation zwischen den Studierenden auf den Lernplattformen. Frankas Aufgabe bei StudiStat würde zunächst der statistische Grundbau der Optimierung der Bewerbungsauswahl werden.

Ach, denkt sich Franka, das ist genau die richtige Größe von Unternehmen und die Aufgabe ist überschaubar, aber dennoch verlockend. Sie sagt also zu und fängt zwei Wochen später dort an. Sie bekommt ihren Arbeitsplatz, ihre Login-Zugänge und sichtet erstmal die Datenbasis der teilnehmenden Universitäten. Sie sucht sich ihre statistischen Features zusammen, erdenkt Modelle, verwirft sie wieder, passt sie an, recherchiert, experimentiert und wird immer besser. Bald hat sie einen ersten Prototypen, um Kriterien zu identifizieren, die Aussagen über Leistungswahrscheinlichkeiten erlauben könnten. Noch ist nicht ganz klar, was die Ergebnisse in Form von Korrelationen, Durchschnitten und Clustern überhaupt aussagen, aber es sind erstmal konkrete Ansätze mit tatsächlichen Ergebnissen.

Nun wagt sie sich an die eigentliche Aufgabe: Gibt es Indikatoren während des Bewerbungsprozesses, die Schätzungen über die generelle Leistungserbringung oder sogar die zukünftige Abschlussnote erlauben? Dafür hat sie Zugriff auf einen vom restlichen System abgetrennten Rechner mit vorherigen, pseudonymisierten Bewerbungsunterlagen und den zu den Personen gehörenden Abschlussleistungen bzw. die Unterlagen zu vorzeitigen Studienabbrüchen. Meist handelt es sich dabei um eingescannte und danach digital geschwärzte PDF-Dokumente. Sie ist stolz, als sie alle Schrifterkennungswerkzeuge automatisiert und nun alle möglichen interessanten Daten aus den unstrukturierten Dateien in einer Datenbank vorliegen hat. Für Franka fühlt es sich an wie der morgendliche Blick auf einen spiegelglatten riesigen See, einen Datensee. Getrübt ist ihre Freude nur dadurch, dass die Anonymisierung äußerst oberflächlich durchgeführt wurde und Namen und andere persönliche Informationen trotzdem in ihrer Datenbank landen.

In der zweiten Phase wertet sie die Bewerbungs- und Abschlussdaten mit ihren Analysemodellen aus und kommt zu einem verblüffenden Ergebnis. Personen, die nicht aus großen Städten kommen, haben innerhalb der ersten fünf Semester eine signifikant höhere Abbruchquote. Ein Zusammenhang zu den jeweiligen Leistungen in den Anfangssemestern stellt sich jedoch nicht heraus.

Im Laufe der Analysen ergeben sich noch eine Reihe weiterer Zusammenhänge, die sie sich mit ihrem gesunden Menschenverstand noch weniger erklären kann. Wer oft vegetarische Mahlzeiten in der Kantine wählt, schneidet in den Zwischenprüfungen schlechter ab, hat dann aber überdurchschnittliche Abschlussnoten. Wer langsam tippt und viel in den Vormittagsstunden schreibt, ist statistisch schlechter in mathematischen Kursen, aber gleicht dies durch Noten in nicht-mathematischen Kursen wieder aus, wenn im Sommer wenig über das hochschuleigene System kommuniziert wird.

Franka erkennt, dass ihr System auf Basis der statistisch richtigen Modelle diese Ergebnisse als Grundlage für Empfehlungen nehmen müsste. Um die Abbrecherquote möglichst gering zu halten, würden also bestimmte Studierendengruppen unabhängig von ihren tatsächlichen bisherigen Leistungen benachteiligt. Oder aber sie greift ein, indem sie bestimmte Informationen aus den Bewerbungsunterlagen weniger wichtet. Damit diese Justierung jedoch nicht auffällt, müsste sie das sehr geschickt im Code und in den zugrundeliegenden Modellen verstecken. Stundenlang denkt sie nach, denn der Grund für ihre Zahlenliebe war doch ursprünglich genau die Neutralität gewesen, die nun so absurde Ergebnisse liefert.

Fragen

  • Ist der Studienabbruch Frankas nachvollziehbar, weil ihr „das Studium nicht so recht passt“? Welche Verantwortung und Verpflichtung hat sie, die ihr gegebenen Möglichkeiten eines Abschlusses auch zu nutzen, wenn sie einmal angefangen hat?
  • Störte sie der schulische Universitätsbetrieb zu Recht so sehr, muss sich eine Studierende nicht manchmal einfach „zusammenreißen“?
  • Was bedeutet der Universitätsabschluss für die Firmen, warum legen sie so viel Wert darauf, obwohl Franka doch auch ohne Abschluss gute Projekte zu präsentieren hatte?
  • Ist es abgesehen vom Datenschutz ein ethisches Problem, dass die Studierenden offensichtlich sogar beim Essen überwacht werden?
  • Wie wäre die eigenmächtige Manipulation des Codes im Interesse der Gleichberechtigung zu werten?
  • Wie wäre es zu werten, wenn Franka die Benachteiligung von Nichtstädtern zu Gunsten einer wahrscheinlich geringeren Abbrecherquote in Kauf nimmt?
  • Darf Franka die nur scheinbar anonymen Informationen nutzen? Würde es ein Unterschied sein, wenn diese Informationen den entscheidenden Zusammenhang zur Abbrecherquote darstellen würden?
  • Gibt es in Bewerbungen besondere Informationen, deren automatisierte Auswertung für eine Annahmeentscheidung oder -empfehlung problematischer sind als z. B. das Aufwachsen in einer Großstadt?
  • Ist es eine Manipulation des Bewerbungsprozesses, wenn Franka die Modelle anpassen und gewichten würde, oder wäre es Manipulation, wenn sie das gerade nicht tut?

Erschienen im Informatik-Spektrum, 41 (5), 2018.

Fallbeispiel: Leistungsfähigkeit

Christina B. Class, Debora Weber-Wulff

Die vor wenigen Jahren gegründete Marktkette YourLife verkauft Lebensmittelprodukte, mit einem Schwerpunkt auf regionale Produkte, zusammen mit einem großen Sortiment an Drogeriemarktartikeln und Wellnessprodukten. Insbesondere im Bereich der Drogerieartikel versucht sie mit Eigenprodukten einen stabilen Marktanteil in Großstädten zu erreichen.

YourLife ist auch sehr aktiv im Internet und bietet zusätzlich zum Ladenverkauf Online-Shopping an.

Diese Bereiche werden durch die Firma ITCompetenceForYou GmbH, ITC4U genannt, abgedeckt. ITC4U ist ein recht junges Unternehmen mit insgesamt 12 Angestellten.

ITC4U hat für YourLife auch einige Apps im BereichWellness und gesunder Lebensstil entwickelt, die Nutzer bei gesunder Ernährung, dem Abnehmen und regelmäßiger Bewegung im Alltag unterstützen sollen. Die Nutzer geben persönliche Daten sowie alle Aktivitäten ein und erhalten spezifische Tagespläne, Informationen und Anregungen, teilweise verbunden mit Ernährungstipps oder Hinweisen auf Nahrungsergänzungsmittel, die im YourLife-Online-Shop oder den Läden erhältlich sind. Die Apps können leicht mit den in den Märkten angebotenen Körperwaagen oder Blutdruckmessgeräten verbunden werden und weisen zusätzlich auf Sonderangebote im Markt hin, um so eine bessere Kundenbindung zu erreichen.

B. Lange arbeitet seit längerer Zeit intensiv daran, bei Frauen mit starken Zyklusbeschwerden durch gezielte Ernährungspläne und an den Zyklus angepasste Nahrungsergänzungsprodukte die Beschwerden zu lindern. Zusammenmit ITC4U hat B. Lange die App Unbeschwert entwickelt, die ihre aktuellen Ansätze beinhaltet. Die App erstellt basierend auf Gesundheitsdaten und Informationen zum aktuellen Wohlbefinden und Beschwerden Vorschläge für spezifische Gymnastikübungen und Ernährung. Unterstützt wurde die Entwicklung von YourLife, die ihre Mitarbeiterinnen bittet, den Prototypen der App zu testen. Die Daten werden nicht mit YourLife geteilt, sondern zur Verbesserung der App anonymisiert und an B. Lange weitergereicht. YourLife hat die App bei den vorwiegend weiblichen Angestellten bekannt gemacht, um die Verbesserung des Prototypen zu unterstützen, bevor dieser groß angekündigt werden soll. Für diese Testzwecke steht die App nur auf dem internen App-Server, der nur nach Login mit der Personalnummer und einem PIN-Code erreichbar ist, zur Verfügung.

YourLife hat von Anfang an auf persönlichen Kontakt mit den Kunden gesetzt und daher eine große Personaldichte. In letzter Zeit hat es in einigen Filialen aber immer wieder längere Schlangen an den Kassen gegeben und die Personen, die eigentlich für die Beratung eingeteilt wurden, mussten dann auch an den Kassen einspringen. Um dies besser analysieren zu können und die Personalplanung insbesondere der Teilzeitangestellten zu optimieren, stellt YourLife alle Log-Daten der Scannerkassen der letzten 12 Monate zur Analyse zur Verfügung. ITC4U soll basierend auf diesen Daten ein System zur optimierten Personalplanung erstellen. Da sich die Kassiererinnen immer bei denKassen einloggen müssen, wird ITC4U auch gebeten, eine Leistungsanalyse der Kassiererinnen basierend auf den Daten vorzunehmen. Die Personaldaten aller Kassiererinnen, die Voll- oder Teilzeit bei YourLife arbeiten, stehen ITC4U nicht zur Verfügung.

Andreas und Markus sind mit dieser Aufgabe betraut. Sie erstellen verschiedene Kennzahlen, um die Schnelligkeit an der Kasse zu beschreiben. Hierbei ergeben sich, wenn man die Zahlen detailliert analysiert, deutliche Unterschiede basierend auf der Tageszeit. Die Schlüsse daraus können vielleicht genutzt werden, Pausenzeiten besser zu planen. Auch zeigt sich deutlich, dass die Geschwindigkeit der einzelnen Personen von Tag zu Tag Unterschiede aufweist.

Als sie am Nachmittag beim Kaffee mit Clemens darüber sprechen, der für die Aufbereitung der Daten aus der AppUnbeschwert für B. Lange zuständig ist, kommt Markus die Idee, man könne, sofern diese Daten auch irgendwiemit der Personalnummer verknüpft sind, die Daten jamal mit den Performancedaten an der Kasse vergleichen. Nachdem sich die drei zuerst etwas erstaunt anschauen, da die Idee doch etwas gewagt scheint, nehmen sie es doch in Angriff. Tatsächlich kann Clemens die Personalnummer in den ihm zur Verfügung gestellten Daten erkennen. 20 Testnutzerinnen der App arbeiten auch an der Kasse und so sind schnell einige Auswertungen gemacht. Bei acht Frauen ergibt sich ein deutlicher Leistungsabfall in den ersten zwei Tagen des Zyklus, bei denen in derApp größere Schmerzen eingetragen wurden, bei 12 weiteren Personen ist ein nicht signifikanter Effekt zu beobachten.Andreas grinst die beiden anderen an: ,,Naja, jetzt weiß ich wenigstens warum meine Liebste manchmal nichts auf die Reihe bekommt!“ Die anderen beiden grinsen zurück.

Im Teammeeting von ITC4U am Mittwoch machen die beiden ITC4U-Inhaber Thomas und Frank die Ankündigung, dass Frank sich aus gesundheitlichen Gründen aus der Teamleitung zurückziehen wird. Daher bitten sie um In-Haus-Bewerbungen. Clemens zieht hörbar die Luft ein. Andreas grinst ihn an. Das wäre der Traum von Clemens und er wäre super geeignet. Als dann aber Frank seine Stellvertreterin Martina bittet, die neuen Projekte vorzustellen, beschleicht Clemens ein komisches Gefühl. Es scheint, als hätten Frank und Thomas eigentlich schon einen neuen technischen Leiter – eine Leiterin – bestimmt. Martina ist die einzige Ingenieurin in der Firma.

Beim Bier abends macht sich Markus Luft. Er und die anderen sind mit Martina nie so recht warm geworden. Sie ist immer so ernst und professionell und hat keinen Sinn für Humor. Seit sie im Großraumbüro sitzt sei es weniger entspannt und lustig, die Arbeit würde nicht mehr wirklich Spaß machen. Wenn sie dann noch für die Projekte verantwortlich sei! Nein, das ginge gar nicht. Da schaut Andreas ihn an. Das sollte doch nicht so schwierig sein … Sie sei doch eine Frau und mit ihren Analysen letzteWoche hätten sie doch gezeigt, dass die Leistungsfähigkeit von Frauen zyklusabhängig sei. Die Firma kann sich niemanden leisten, der nicht immer voll einsatzfähig sei. Markus wirft ein, dass sie ja nur wenige Daten hätten und die Effekte nur bei acht Personen signifikant seien. Andreas wischt die Bedenken beiseite, immerhin hätten sie es da schwarz auf weiß und sie wüssten ja wohl alle, dass ihre Frauen manchmal schlechte Launen hätten. Da fangen sie alle drei an zu lachen. Markus bietet an, diese Ergebnisse morgen so nebenbei bei Thomas und Frank anzusprechen. Andreas hebt sein Glas: Auf Clemens, den neuen technischen Leiter!

Auf dem Nachhauseweg fühlt sich Clemens nicht sehr gut. Ob sie die Daten wirklich so weitergeben sollten? Vielleicht schadet das Martina mehr, als nur in Bezug auf die Bewerbung zur technischen Leiterin? Und was ist, wenn Thomas oder Frank die Daten so interessant finden, dass sie die Daten an YourLife weitergeben? Und überhaupt, riskieren sie Probleme, weil sie die Daten einfach so zusammengefügt haben?

Fragen

  • Ist es richtig, In-Haus-Bewerbungen für eine Teamleitung bei einer so kleinen Firma zu verlangen? Sollten die Geschäftsführer das nicht einfach selber bestimmen?
  • Ist so eine Verknüpfung zweier Datenmengen zulässig? Es geschieht ja innerhalb der Firma. Wenn es rechtlich zulässig ist, ist es ethisch vertretbar?
  • Gibt es rechtliche Vorschriften für eine Analyse von Performance-Daten? Müssen die Mitarbeiterinnen aufgeklärt werden darüber, was die Firma mit den Daten vor hat?
  • Die App in vorliegendem Beispiel wurde gezielt für Frauen mit Beschwerden entwickelt. Schwächt dies die Aussage, die aus der Verknüpfung der Daten gezogen werden können?
  • Data Mining ist ein nützliches Instrument, um Zusammenhänge zu entdecken, die man sonst nicht vermutet. Worin bestehen die Gefahren, die Zusammenhänge falsch zu interpretieren, zum Beispiel also eine Kausalität zu unterstellen? Wenn Zusammenhänge fest gestellt werden, sollen diese verwendet werden? Gibt es Gründe, festgestellte Zusammenhänge nicht zu verwenden?
  • Wie wird die Signifikanz von Zusammenhängen festgestellt? Ist eine Aussage ,,signifikanter Zusammenhang“ objektiv?
  • Es ist schwer, aus Daten gewonnene Zusammenhänge richtig zu interpretieren. Welche Voraussetzungen braucht es hierfür? Wie kann man Außenstehenden, welche die Methoden nicht kennen, die entdeckten Zusammenhänge erklären? Es können hierbei ja leicht Missverständnisse entstehen.
  • Im beschriebenen Fall möchte Markus die Inhaber von ICT4U auf die wenigen Daten hinweisen, in denen Frauen zu Beginn des Zyklus etwas weniger leistungsfähig sind. Er möchte nicht darauf hinweisen, wie wenige Daten sie haben, und auch nicht direkt Martina ansprechen. Jedoch hofft er, dass diese Information Entscheidungen beeinflussen wird. Wie ist sein Verhalten zu bewerten? Wenn Frank und Thomas darauf anspringen, wie muss dann ihr Verhalten bewertet werden? Wie groß ist das Risiko, dass wir uns unbewusst durch auf diese Weise dargestellten und mit vermeintlich ausreichenden Daten ,,untermauerten“ Zusammenhänge beeinflussen lassen?
  • Kennen Sie Beispiele von einem ,,allzu lockeren“ Umgang mit Zusammenhängen, die man in Daten gesehen hat? Hatten diese Beispiele negative Konsequenzen? Positive Konsequenzen?
  • Wir Menschen tendieren oft dazu, andere in Schubladen zu stecken. Vergrößert sich diese Gefahr durch die zunehmende Datenanalyse? Oder werden wir vielleicht lernen, dass das Gegenüber nicht so leicht zu erfassen ist, je mehr verschiedene Zusammenhänge uns bekannt werden? Kann die Vielfalt von Informationen, die wir über unser Gegenüber erhalten, auch dazu führen, dass wir diese nicht mehr so leicht in Schubladen stecken?

Erschienen im Informatik Spektrum 41(3), 2018, S. 208–210

Scenario: Smart Wristbands

Constanze Kurz, Stefan Ullrich

Vicky works in the IT department of a medical supply company. While the firm initially employed only a small ten-member team, it has grown tremendously in the past two years and seen a three-fold increase in staff. Vicky’s been promoted and now oversees her own team of six co-workers. She is a computer scientist and her job at the company consists primarily of implementing hands-on solutions to hardware problems.

Last year, she and her team developed and delivered wristbands with integrated chips to a large chain of rehab clinics. The chips were designed for user access to clinic facilities as well as to remind patients to take their meds using vibrations. Vicky’s team created the hardware, but other departments within the company were responsible for developing the software and installing it at various locations in the chain of clinics. The collaboration went well, and only exceeded the budget for billable hours by a slim margin.

Vicky feels great going into her next project because it involves the same technology they developed for the clinic chain. Coincidentally, she was the one who actually landed the deal through personal contact with a pastor named Ferdinand. The new client, CARE-ful, operates multiple church-sponsored educational and residential care facilities. But the client has decided against using wristbands, so Vicky needs to come up with a new hardware solution. Following a client presentation of the wristbands for the clinic, representatives of CARE-ful and contact people from the church asked for different hardware. Vicky heard that one concern was that the children would quickly destroy the wristbands.

After site visits to two of the facilities, the team that would be installing chip readers and software in the buildings suggested that they simply use the children’s uniforms. Enrico, head of the software team, met with Vicky to discuss the idea of placing chips in the kids’ collars. She gave the go-ahead and they began planning.

Vicky’s company was thrilled with the idea because it allowed them to offer CARE-ful a complete system: new classes and cohorts of students would be issued standard uniforms equipped with waterproof chips. The uniforms currently in use would be retrofitted with chips placed beneath the collars. A simple Velcro design would be used to remove the chip when the uniform needed cleaning. Should parents accidentally throw the chip in the wash, it was easily replaced—for a fee, of course!

Not only that, but they were only steps away from barrier-free accessibility—and that would immediately open the door to another much bigger contract: in the coming years, barrier-free entry systems would be installed in all CARE-ful’s buildings so that doors would open automatically any time an authorized chip embedded in a uniform approached. Elevators could also be activated by wheelchairs for students with limited mobility. Vicky’s bosses were over the moon.

Everything was running according to plan, except that communication with Enrico’s software department was sporadic at best. Vicky hadn’t ever worked with Enrico before and was irritated because it wasn’t just Enrico—his whole team seemed to work in their own little bubble. Communication between them was sparse. Many an email went unanswered, and tickets sent to the company’s internal system were simply left unresolved. Vicky had little concrete evidence that Enrico’s team wasn’t working on schedule, and she actually preferred less communication and fewer meetings over too much and too many.

But then, only six weeks before the new system was scheduled for launch in the first school, Vicky received a weird message sent to her private email address. While rushing to get home—having just picked up and inspected the first of the new school uniforms with integrated chips—she was feeling upbeat. Until she found a message from Pastor Ferdinand on her cell phone. They’d arranged a private meeting for the following week which he canceled abruptly in the harshest of terms.

Vicky was rather taken aback and called the pastor the next day to ask him what was up. Ferdinand’s voice was cold: “I’m disappointed that you would betray my trust this way. I would never consent to this! You should have told me that you were planning to construct this kind of surveillance apparatus behind my back, and then make the parents pay for extra services no less.”

Vicky was floored: what on earth was Ferdinand talking about? She called a meeting, but Enrico objected, saying they were under too much stress already to waste time on meetings. His team was on schedule, all the technical interfaces were in place as requested, and he saw no reason to pull everyone away from their work at this stage in the game. What for? Enrico’s team always had to travel halfway across town to attend meetings because their departments were located in different parts of the city.

Vicky has known Roswita for several years. Since Roswita is a member of Enrico’s team now, Vicky tries to contact her, but doesn’t reach her until after hours. And that’s when she first discovers, much to her chagrin, that Enrico’s has sold CARE-FUL a software package that tracks all the kids in uniform throughout the day and all over campus. The package even includes an additional function that sends notifications to parents’ or teachers’ cell phones telling them where the children are and when. Vicky’s team never discussed this, and she never would have agreed to anything remotely like it! Now what should she do?

Questions:

  • Is it OK to simply re-purpose a keyless entry system that was developed for adult patients as a tracking system for children? Wouldn’t you have to first discuss the ethical issues? What would these be?
  • Even though her job was to concern herself with hardware solutions, should Vicky have been more proactive about the software implementation? Why should she? It’s not her problem, is it? Can’t she simply claim that her job is to develop the basic technology, that the surveillance application was developed by another team?
  • Does it make a difference that the children’s parents consented to the tracking? What if some of the parents and/or teachers had been against it? Would selective tracking—activated only for the parents who wanted it—be an acceptable solution?
  • The monitoring technology at issue here was also developed as a way to remind (adult) patients to take their meds. How does this positive outcome impact the ethical considerations concerning the same technology used as a surveillance mechanism?
  • Is the informal way that Vicky obtained information about the software team’s work acceptable?
  • Does Vicky owe Pastor Ferdinand any special consideration because he is the one who initially brokered the contract and is now angry? Is that her problem?
  • Is it enough for Vicky to insist that procedural measures be taken to ensure that the surveillance is only use in justifiable exceptions? What would constitute a “justifiable exception”?
  • Who should Vicky talk to about this problem? Management? The church? Data protection services? The public?
  • Vicky is head of an entire team and wants to keep advancing at this company. Should she allow this to influence her decision?

Published in Informatik Spektrum 41(4), 2018, S. 285-287.

Translated from German by Lillian M. Banks.

Fallbeispiel: Blockchain-Disruption?

Wolfgang Coy,  Stefan Ullrich

Pia hat sich nach einem Studium der Mathematik für eine Promotion in der Informatik entschieden. Sie besucht sogar Vorlesungen in der praktischen Informatik, obwohl sie das nicht müsste; es interessiert sie aber ungemein, wie mathematische Formeln plötzlich in Software-Produkten eingesetzt werden. Ihre Kommilitoninnen und Kommilitonen findet sie sehr sympathisch, allerdings scheinen sich viele nicht für die Theorie der Informatik zu interessieren, sondern nur, wie man möglichst effizient und zuverlässig ein gegebenes Problem löst. Pia hat sich rasch mit Alex angefreundet, inzwischen gehen sie regelmäßig zusammen in die Mensa und hängen im Arbeitsraum schweigend auf dem gleichen Sofa an ihren Rechnern ab. Alex hat seinen Master noch immer nicht geschrieben, weil ihn seine Startup-Firma SERVANDA komplett einnimmt, die er mit zwei BWL-Studenten, einer Designerin und einer Medieninformatikstudentin gegründet hat. Seit einigen Wochen kommt er gar nicht mehr in die Uni, Pia trifft ihn eines Abends eher zufällig. Sie begrüßen sich herzlich und gehen in das nahe gelegene Teehaus am alten Hafen.

Alex erzählt, dass er jetzt im FinTech-Sektor arbeitet. ,,Bitcoins? Kasino-Kapitalismus? Zahlst Du den Kaffee – oder muss ich schon einspringen? Ich kenn den heutigen Kurs nicht“ fragt Pia. ,,Nein, nein. Blockchain-Anwendungen. Total seriös. Und ich zahle, auch wenn wir noch keinen Umsatz machen. Unseren ersten richtig dicken Kooperationspartner haben wir schon.“ grinst Alex. ,,Aber Blockchain ist doch sowas von 2017“, frotzelt Pia, ,,damit lockt man doch keine weiteren Kunden mehr an.“ ,,Denkst du, es sind doch keine spekulierenden Privatkunden, sondern Firmen, die sich für Langzeitverträge interessieren.

Es geht um die Langlebigkeit von Verträgen, wenn sich die Umstände ändern. Brexit, Privatisierung, Verstaatlichung – unser Vertragssystem garantiert die Integrität noch in 100, 200 Jahren! Pacta sunt servanda!“ ,,Ich kann kein Französisch“, scherzt Pia, ,,aber von der Blockchain verstehe ich vielleicht einiges. Ich verstehe beispielsweise, dass wir noch gar keine Aussagen über ihre Integrität in zehn oder gar einhundert Jahren machen können.“ ,,Wir“, unterbricht sie Alex, ,,haben demnächst sogar ein erstes consumer-Produkt. Eine App, mit der man digitale Tagebücher in der Cloud abspeichern kann – total sicher mit einem Passwort und für beliebig lange Zeit. In unserer Blockchain. DiaryChain soll sie heißen. Tagebuch in der cloud. Total privat. Unantastbar! Verschlüsselt! Lebenslang! Und wirklich neu: Gemeinsame Tagebücher: Texte, Bilder – auch solche die nicht jeder sehen soll –, Filme. Oder die Geschichte einer Krankheit, Befunde, Entwicklungen, medizinische Eingriffe, positive und negative ärztlicheMaßnahmen, Messwerte der iHealth-Geräte usw. Kann man später dann mal mit Abstand betrachten. Oder Passworte. In der Blockchain! Von überall aus erreichbar mit einem einzigen Masterpasswort.“ ,,Sorry, wie wollt ihr diese Daten vor fremdemZugriff schützen?“ ,,Behold: Das Masterpass – mit mindestens zwölf Zeichen.“ ,,Und das soll ausreichen? Wie sicher ist denn eure Software überhaupt?“ ,,Kein Problem, die Blockchain-Software ist Open Source. Da kümmern sich andere drum, man kann die Verschlüsselung ja auch der Technikentwicklung anpassen.“

Pia wird etwas unruhig. ,,Wird die denn zuverlässig weiter gewartet? Soweit ich weiß, sind weniger als zehn Prozent angefangener Blockchain-OS-Systeme noch aktiv. Die anderen werden nicht geupdatet, wenn Schwachstellen in der Krypto sind, oder besser gesagt, wenn Schwachstellen gefunden werden, denn wir sprechen ja hier immer noch von Software, Software ist nie fehlerfrei. Und eine klare Definition, was sie eigentlich machen soll, steht ja letztlich auch aus.“ ,,Bei uns ist Software sicher!“, trumpft Alex auf. ,,Heißt das, Eure Blockchain ist formal verifiziert? Kann ich kaum glauben.“ ,,Nee, das

nun nicht. Aber Kirami, ja, genau, der Kirami von der Krypto-Foundation, hat geschrieben, dass er sie so lange er etwas Zeit findet, weiter warten will und Updates pusht. Und wenn er aufhört, macht es jemand anders, die developer community ist riesig. Und was soll dann schon noch schief gehen? Sie läuft ja bei uns.“ Pia ist nicht überzeugt, dass SERVANDA-Software einfach jahrelang oder gar jahrzehntelang läuft, ohne dass Fehler auftreten, die unbedingt behoben werden müssen. Aber da ist noch ein weiteres Problem, das ihr in den Kopf kommt. ,,Die Daten sind ja nun für immer in der öffentlich einsehbaren Chain, wie sichert ihr die denn? Zehn Zeichen lange Passwords sind heute schon problematisch. Zwölf ist derzeit Standard.

Aber in zehn Jahren – oder gar fünfzig? Es gibt ja jetzt allerlei Versuche mit Quantenrechnern. Für die sind die meisten Verschlüsselungen ein Klacks, wenn sie entsprechend viel Bits gleichzeitig nutzen können. Bei 12 Zeichen wären das,Moment mal, kommen ja nur die Zeichen in Frage, die auf allen verwendeten Eingabegeräten genutzt werden können – das sind, glaub ich 72 verschiedene. Bankenüblich heißt daswohl. Also grob 75 Bit für 12 bankenübliche Tastaturzeichen. Meinst Du dass in zehn Jahren keine Quantenrechner auftauchen, die mit 75 Qbits rechnen. Oder halt in 20, 30 oder 50 Jahren?“ ,,Ach ja, Quantencomputer“, unterbricht Alex ihren Redeschwall ,,die kommen so schnell nicht.“

Alex’ Euphorie wird durch die Einwände ein wenig gedämpft, aber sein breites Grinsen verschwindet nie ganz. ,,Pia, ganz ehrlich, unsere Klitsche besteht eher aus Designern und PR-Strategen und etwasManagement. Ich bin der einzige Programmierer. Wir haben aber eine richtig coole Website, stehen in allen Suchmaschinen an oberster Stelle und haben die besten Referenzen. Ich verstehe ja deine mathematischen Einwände, aber das ist eben Theorie. Ganz praktisch können wir ein System anbieten, das nicht manipuliert werden kann und das ohne externe Aufsicht auskommt.“

,,Alex, die Quanten-Disruption wird kommen. Und selbst wenn nicht die Krypto gebrochen wird, wie stellt ihr denn sicher, dass sich genug Leute an diesem System beteiligen? Dass es überhaupt mit handelsüblicher Hardware betrieben werden kann? Was, wenn es einfach nicht mehr genutzt wird, oder schlimmer, was, wenn es geforked wird? Was, wenn die Transaktionskosten so teuer werden, dass bestehendeVerträge einfach nicht mehr geändert werden können, weil es die Vertragspartner ruinieren würde? Was, wenn…“ ,,Ich seh schon, wir brauchen vielleicht wirklich einen Mathe-Freak bei uns. Wie ist denn deine Gehaltsvorstellung? Hättest du Interesse, bei uns einzusteigen und dich um diese Themen zu kümmern?“ ,,Nein, danke, ich muss viel zu viel lesen und noch viel mehr schreiben, das schaffe ich nicht zusätzlich.“

Als sie sich verabschiedet haben und Pia sehr lange auf den Bus warten muss, schaut sie sich auf der Website von SERVANDA um. Noch während sie surft, wird die Website aktualisiert. Unter der Überschrift ,,5 Fakten, warum Sie auf SERVANDA vertrauen können“ liest sie nun: ,,Mehr als 90% der Blockchain-Lösungen sind anfällig für die Quanten-Disruption. Unser System wird regelmäßig an den neuesten Stand von Wissenschaft und Technik angepasst, so dass sie sicher sein können: Pacta sunt SERVANDA!“

Fragen

  • Dürfen Informatiker denkbare Risiken in ihren Produkten offen lassen? Müssen Sie an der Lösung arbeiten, sowie sie erkannt werden? Müssen Sie sie wenigstens offen ansprechen?
  • Open-Source-Software-Lizenzen beginnen oft mit einem Haftungsausschluss, kann sich eine Entwicklerin oder ein Entwickler so einfach aus der Haftung stehlen? Oder Nutzerinnen und Nutzer?
  • Ist es ein moralisches Problem, bei Software-Problemen zu sagen: Davon versteh ich nichts, das macht die community?
  • Gehen die relevant erscheinenden Risiken Pia überhaupt etwas an?
  • Besitzt Pia eine moralische Verpflichtung, Arbeit in die Lösung der von ihr angesprochenen Probleme zu stecken? Hätte Sie Alex’ Arbeitsangebot annehmen sollen?
  • Sind Sicherheitslücken, noch dazu unentdeckte, überhaupt ein moralisches Problem?
  • Wie soll man verantwortlich mit Software umgehen, die hundert Jahre eingesetzt werden soll?
  • Sind Entwicklerinnen und Entwicklermoralisch dazu verpflichtet, zukünftige Technologien wie Quantencomputer in ihre Überlegungen einzubeziehen?
  • Das Start-Up besteht aus mehreren Personen. Tragen die (Medien-)Informatikerinnen und Informatiker eine größere Verantwortung als die anderen Firmenmitglieder? Tragen die Gründungsmitglieder eine größere Verantwortung als die Angestellten?

Erschienen im Informatik Spektrum 41(2), 2018, S. 146-147

Fallbeispiel: Assistenzsystem als Killbot?

Constanze Kurz, Debora Weber-Wulff

Ansgar hat seinen Informatik-Master gerade abgeschlossen und nach einer Probezeit eine wichtige Entscheidung getroffen: Er hat begonnen, Vollzeit in einer Rüstungsfirma zu arbeiten. Es fiel ihm nicht ganz leicht, weil er keine besondere Vorliebe für das Militär hat, doch durch seine Masterarbeit war er mit der Firma bereits vertraut und überzeugt, eine interessante und angenehme Arbeitsatmosphäre für seinen ersten Job gefunden zu haben. Er hofft, mit dem guten Gehalt seine Schulden aus dem Studium schnell zurückzuzahlen.

Sein neuer Arbeitgeber stellt Kettenfahrzeuge mit festmontierten Abwehrwaffen her. Es sind defensive Systeme, die darauf programmiert sind, Zivilisten, aber auch Tiere als Ziele sicher zu vermeiden, jedoch feindliche Fahrzeuge abzuwehren. Die Firma liefert Hard- und Software zwar hauptsächlich an das Militär, hat aber mittlerweile sehr viel mehr Umsatz im zivilen Bereich. Denn die Softwarevarianten der Systeme eignen sich auch hervorragend für alles, was eine treffsichere optische Analyse und Objekterkennung braucht – und verkauft sich blendend.

Ansgar ist durch seine Masterarbeit ein Spezialist für die Auswertung vor allem optischer Signale geworden, in diesem Bereich hat er bereits als Student gearbeitet. Seine Software, die er im Team mit zwei älteren Kollegen, Sabine und Ingo, in vielen Monaten konzeptioniert und programmiert hat, nutzt Techniken der künstlichen Intelligenz. Seine beiden Kollegen haben mehr Erfahrung als Ansgar und konnten ihm viel beibringen.

Mit der von dem Team erstellten Software können vorab bezeichnete Objekte optisch sicher erkannt und klar unterschieden werden von solchen, die nicht mit sehr hoher Wahrscheinlichkeit zugeordnet werden können. Diese Unterscheidung ist besonders für die militärische Anwendung von Bedeutung, denn die Softwareergebnisse liefern den Systemnutzern in Echtzeit Informationen darüber, was für ein Objekt die Sensoren aktuell aufzeichnen. Im Nachtbetrieb erleichtert das den militärischen Nutzern die Entscheidung, wann die Waffen benutzt werden und wann nicht, denn im Dunkeln ist das System den Augen des Menschen haushoch überlegen.

Mit einer neuen Geschäftsentscheidung der Unternehmensleitung aber tun sich Sabine und Ingo schwer: Die schriftlich übermittelte neue Software-Spezifikation enthält die Anforderung, die aus den Sensordaten errechnete Objekterkennung mit der Schussvorrichtung des Waffensystems direkt zu verknüpfen. Sie wissen, was das heißt: Ihre Software wird damit vielleicht die Entscheidung über Leben und Tod treffen – ohne dass ein Mensch den Finger am Abdruck hat. Wird mit sehr hoher Wahrscheinlichkeit ein bestimmtes Objekt erkannt und gleichzeitig errechnet, dass es sich weder um einen Zivilisten noch um ein Tier handelt, soll die Schussvorrichtung selbständig auslösen.

Sabine ist entsetzt. Für sie ist es ein himmelweiter Unterschied, ob ein Soldat sofort die Softwareergebnisse sieht und dann eine besser informierte Entscheidung treffen kann oder ob die Waffe dann selbst auslöst. Damit wird aus dem Softwaresystem ein LAWS (Lethal Autonomous Weapon System), und damit will sie nichts zu tun haben. Sie weigert sich sofort, weiter daran mitzuwirken, und stellt einen Antrag, in die zivile Sparte der Firma zu wechseln

Ingo hingegen könnte sich schon vorstellen, dass man bei ehrlicher Betrachtung der Auswertung vergangener Einsätze gerade im Nachtbetrieb zu dem Ergebnis kommt, dass die Software weit bessere Ergebnisse als ein Mensch liefert und deswegen sehr viel mehr Zivilisten und Tiere schützt als ihnen schadet. Er hat im Grunde genommen wenig Sorgen und kann sich vorstellen, die Software in diese Richtung weiterzuentwickeln. Er sieht allerdings erheblichen Forschungs- und Diskussionsbedarf, um abzuklären, unter welchen Bedingungen ein automatischer Schuss auszulösen ist.

Ansgar hingegen findet die älteren Kollegen irgendwie unmodern. Er ist sich sicher, dass in Zukunft unglaublich viele Echtzeitentscheidungen durch Software getroffen werden, sowohl im zivilen als auch im militärischen Bereich. Man könne doch das Rad nicht zurückdrehen. Er freut sich schon jetzt auf durch Software gesteuerte Autos und wäre einer der ersten Kunden. Gerade wegen der überragend guten Erkennungsleistung ihrer Software versteht er die Bedenken der Kollegen nicht. Wollen sie ernsthaft argumentieren, dass irgendein Soldat mitten in der Nacht mehr sehen könnte als die Kombination ihrer Software mit den Sensordaten?

Fragen

  1. Ist es sinnvoll, KI-Methoden von als Assistenzsystemkonzipierter Software auf tatsächlich autonome Schießvorrichtungen anzuwenden? Müssen dazu nicht ganz neue ethische Fragen diskutiert werden? Welche wären das?
  2. Wie könnte man überhaupt testen, ob die Methode der Erkennung bei echten Einsätzen wirklich funktioniert?
  3. Muss sich Ansgar für einem autonomen Einsatz stärker dafür interessieren, mit welcher Genauigkeit die Software arbeitet? Warum eigentlich? Die Soldaten verlassen sich doch schon heute auf die Ergebnisse der Software.
  4. Ändert sich dadurch etwas, dass Ansgar unerfahrener ist als die Kollegen? Sollten oder müssen Sabine und Ingo hier Einfluss auf ihn nehmen?
  5. Ist es vertretbar, dass eine KI-Software über Leben und Tod entscheidet, wenn die bisher gemessenen Erkennungsraten weit über menschlichen Fähigkeiten liegen und damit vielleicht Leben von Zivilisten oder Tieren gerettet würden? Kann man bei Waffensystemen überhaupt davon reden, Leben zu retten?
  6. Falls sich sowohl Sabine als auch Ingo entscheiden, die gewünschte Weiterentwicklung nicht vertreten zu können: Darf sich Ansgar aus ethischer und zwischenmenschlicher Sicht anmaßen, im Zweifel allein zu entscheiden, ob er die gemeinsam geschaffene Software auch für autonome Waffensysteme weiterentwickelt oder nicht? Muss er Rücksicht nehmen auf die Entscheidung der Teammitglieder?
  7. Ansgar ist neu im Job. Er weiß, dass er diese Arbeitsstelle braucht und dass er eine schlechtere Position als die erfahrenen Kollegen hat. Wie beeinflusst das seine Entscheidung?
  8. Wäre es anders, wenn die Software zunächst für die Katastrophenschutz entwickelt worden ist und nun militaristisch eingesetzt wird?

Erschienen im  Informatik Spektrum 41(1), 2018, S. 65-66.

The Machine Fired Me

A very troublesome tale (https://idiallo.com/blog/when-a-machine-fired-me) of a software-based decision system running wild. Well worth reading!