Archiv

Fallbeispiel: Drohnenprojekt

Christina Class & Christian R. Kühne

Lennard arbeitet in der IT Abteilung des großen Versandhandels Waseba. Sein Team ist für alle technischen Belange der Logistik des Unternehmens verantwortlich.

Bertram, der Abteilungsleiter der Logistik, ist immer für neue Ideen zu haben und versucht auch mit ungewöhnlichen Ideen, Prozesse zu beschleunigen und Kosten zu sparen. Nachdem er in der Presse immer wieder von Unternehmen gelesen hat, die mit Lieferdrohnen experimentieren wollen, hat er sich etwas näher mit diesem Thema beschäftigt. Auf einer Fachmesse hat er Gelegenheit einen Vortrag des Start-up-Unternehmens DroSta zu besuchen, das sich auf kleine Drohnen spezialisiert. Das Unternehmen ist dabei, eine besonders leichte Drohne zu entwickeln, die mit GPS ausgestattet sehr präzise landen kann. Eine Kamera erlaubt es, während des Fluges auf Hindernisse zu reagieren. In einem Gespräch mit Andi, einem der Gründer von DroSta, erfährt Bertram, dass die Firma ein Unternehmen sucht, mit dem sie zusammen die Drohne für Direktlieferungen von Waren testen kann. Hierfür hat DroSta einige Fördergelder erhalten. Bertram ist von der Idee begeistert und lädt Andi zu einer Teamsitzung ein.

Lennard ist anfangs von der Idee der Zusammenarbeit ebenfalls begeistert. Seine Arbeit verspricht endlich wirklich interessant zu werden, da er viel Neues kennenlernen wird. Weg von der Routine. Während der Sitzung wird er allerdings zunehmend skeptisch. Die Drohne verfügt über ein Funkgerät, über das regelmäßig Bilder an eine zentrale Station („zur Koordination“) gesendet werden sollen. Die Fluggeräte werden zwar gratis zur Verfügung gestellt, die zu verwendende Steuerungssoftware sowie die zentrale Koordinationssoftware soll das Team von Waseba allerdings selber entwickeln. Auf Lennards Nachfragen zu diesem Punkt weicht Andi etwas aus: Ja, sie hätten bereits eine andere Version mit anderen Partnern getestet, aber leider könnten sie weder die Software noch die Testergebnisse zur Verfügung stellen. Bei Problemen könne sein Kollege aber gerne helfen. Nachfragen betreffend Datenschutz und der Verwendung der Bilder spielt Andi als zweitrangig herunter, es sei ja klar, dass man keine Daten sammeln möchte. Als Lennard nach Risiken durch flugtechnische Störungen fragt, ergreift nun auch Bertram das Wort, und überführt die Frage in eine technische Herausforderung für das Team, die nach Kreativität und Geschick verlangt. Lennards Teamkollegen fühlen sich angespornt und beginnen sogleich, über mögliche Störungen zu sprechen.

Am Abend nach dem Meeting findet Lennard im Netz einige Informationen über ein Projekt von DroSta. Er stößt außerdem auf ein paar Veröffentlichungen mit Autoren von DroSta und einem durch das Militär finanzierten Forschungsinstitut – fachlich ist das alles sehr interessant, aber…

Lennards Kollegen sind von dem Projekt alle begeistert und wollen seine vorsichtigen Bedenken gar nicht erst hören. Insbesondere Bertram hofft, bei Erfolg des Projektes einige Kosten einsparen zu können. Bereits nach wenigen Wochen ist die Entwicklungsumgebung weitestgehend eingerichtet, so dass die ersten Testflüge durchgeführt werden können. Die Stimmung ist großartig und die Beteiligten von Tatendrang erfüllt. Als Lennard jedoch eines Morgens die Testdaten auf dem Team-Server anschaut, bemerkt er, dass seine Kollegin Franziska einen Ordner mit Fotodaten eines Testflugs zurückgelassen hat. Ohne nachzudenken wirft er einen Blick auf die Bilder und ist etwas irritiert, als er auf vielen Bildern Franziskas Mann im Gespräch mit einer Frau entdeckt. Hatte Franziska etwa die Drohne verwendet, um ihrem Mann nachzuspionieren? Lennard entschließt sich erst einmal kein Wort darüber fallen zu lassen. Eine Stunde später ist der Ordner verschwunden. Auf dem Nachhauseweg macht sich Lennard Gedanken über den Umgang mit dieser neuen Technik.

Zehn Monate später ist das Projekt in einer Sackgasse. Die Entwickler von Waseba stehen vor einigen Schwierigkeiten, das Gerät autonom fliegen zu lassen. Der technische Ansprechpartner bei DroSta hat die Firma gewechselt und ist nicht mehr greifbar. Das Team ist frustriert und probiert verschiedene Dinge aus. Sie haben noch drei Monate Zeit, eine Lösung zu finden, bevor Bertram das Projekt aus Kostengründen beendet. Heute findet wieder ein Meeting statt, um den aktuellen Stand zu diskutieren. Franziska meldet sich zu Wort, sie hat eine neue Idee, wie das Problem durch Hinzufügen einer weiteren Softwarekomponente gelöst werden könnte. Die Umsetzung ist allerdings recht aufwändig und es ist unklar, ob sie zum Ziel führen wird. Das Team nimmt ihren Vorschlag dankbar auf und Lennard skizziert einen Zeitplan.

Am gleichen Abend erinnert Lennard sich an einen Algorithmus, den er in einem der Paper gelesen hat, der die Synchronisation der einzelnen Elemente der Drohne deutlich verbessert. In der Einleitung zum Paper werden Probleme bei einem instabilen autonomen Flug erwähnt, die so gelöst werden könnten. Er vermutet, dass dies vielleicht auch eine Lösung für ihre Schwierigkeiten sein könnte. Aber irgendwie weiß er nicht, ob er morgen im Büro etwas andeuten soll. Seiner Meinung nach hat das Projekt zu viele offene Fragen in Bezug auf Datenschutz, Sicherheit sowie die spätere Verwendung der von ihnen erstellten Software. Und die Paper hat er ja schließlich in seiner Freizeit und nicht im Rahmen der Arbeit gelesen…

Fragen:

  • Welche Risiken stellen Drohne für die Sicherheit im Sinne der physischen Unversehrtheit der Bürger dar? Wer soll haften, wenn etwas passiert (der Hersteller, die Entwickler, diejenigen, die sie einsetzen)?
  • Wenn Drohnen Bilder machen, die gespeichert und verarbeitet werden, kann dies zu datenschutzrechtlichen Problemen führen, sofern Personen auf diesen Bilden abgebildet sind. Welche möglichen Probleme und Gefahren ergeben sich aus der Technik? Welchen Nutzen könnte die Verarbeitung und Speicherung von Bildern haben? Könnte es sinnvoll sein, die Bilder für andere Zwecke (z. B. Aufklärung von Verbrechen) einzusetzen? Wenn ja, wie ist eine Abgrenzung zur Vorratsdatenspeicherung vorzunehmen?
  • Lennard hat Grund zur Annahme, dass DroSta in der Entwicklung der Drohne mit dem Militär zusammengearbeitet hat. Wie ist dies zu beurteilen? Wo sollen / können die Grenzen für eine Kooperation gezogen werden? Welche Themen wären tabu, wenn man sich einer solchen Zusammenarbeit entziehen möchte? Ist dies überhaupt realisierbar?
  • Lennard hat eine Lösungsidee in der Freizeit. Die Idee basiert auf Informationen, die er sich in der Freizeit angeeignet hat. Ist es Lennards Aufgabe, diese Idee einzubringen? Wem gehören Ideen, die er in der Freizeit hat? Wo würden Sie Grenzen ziehen?
  • Bertram hofft, durch den Einsatz der Drohnen Gelder einsparen zu können. Letzen Endes werden dadurch wohl wieder einige Stellen abgebaut. Wie ist das Verhalten von Entscheidungsträgern zu beurteilen, die versuchen, solche Entwicklungen zu verzögern?

Erschienen in Informatik Spektrum 37(2), 2014, S. 146–148

Veranstaltungshinweis: 8.4. in Stuttgart

Im Rahmen einer Ringvorlesung zum Thema Ethik und Nachhaltigkeit lädt die Hochschule für Technik in Stuttgart zu einem Ethikum-Abendvortrag mit anschließender Diskussion ein.

Digitale Mündigkeit versus Totalüberwachung: Die Verantwortung des Technikers

In Beruf, Forschung und Alltag – ohne Laptop oder Smartphone geht heute gar nichts mehr. Die »Always On«-Geräte der Nutzer hinterlassen breite Datenspuren und offenbaren somit (gewollt oder ungewollt) geschäftliche wie private Geheimnisse. Die so hinterlassenen Meta-Daten sind heiß begehrt, Firmen und Geheimdienste sammeln sie fleißig hinter unserem Browser-Fenster auf, um ihre ganz eigenen Schlüsse daraus zu ziehen. Die komplexen Wechselwirkungen von Gesellschaft und Technik können in der Tiefe nur noch von Technikerinnen und Technikern angemessen verstanden werden, ihnen kommt also große Verantwortung zu. Kritische Reflexion des technischen Handelns gehört deshalb unbedingt zur fachlichen Ausbildung an den gestalterisch-technischen Hochschulen!

Vortrags- und Diskussionsabend mit Stefan Ullrich, Humboldt-Universität zu Berlin.

08.04.2014, 17:30 Uhr, Aula, Bau 1, HFT Stuttgart.

Update: Die Veranstaltungswebsite ist inzwischen online.

Fallbeispiel: »Die üblichen Verdächtigen«

Constanze Kurz & Stefan Ullrich

summa cum fraude
Alicia ist Schülerin der Doris-Lessing-Schule in München und gerade in die neunte Klasse gekommen. Im Informatikunterricht hat sie einen neuen Lehrer, Herr Rohse, der die Schüler in diesem Schuljahr in die theoretischen und praktischen Grundlagen des Programmierens einführen wird. Zu Anfang des Schuljahres versucht er, etwas Neugierde zu wecken und erklärt, was sie lernen werden. Er kündigt an, dass die Schüler am Ende des Schuljahres selbst Programme schreiben können werden, aber auch Interessantes über die Menschen lernen werden, die Programmiersprachen erfunden haben.

Herr Rohse spricht aber auch eine Warnung aus: Keiner der Schüler dürfe fremden Programm-Code kopieren, man müsse sich schon selber anstrengen. Auch die Text-Hausarbeiten und Referate sollen selbst recherchiert und nicht aus dem Netz kopiert werden. Er erklärt, dass die Schule eine Prüfsoftware erworben hat, die alle Quelltexte und Hausarbeiten – ohne Ausnahme – auf Plagiate untersuchen wird. Alle Programme, Referate und andere Texte müssen über ein Web-Formular im Computerraum der Schule zu Beginn der entsprechenden Unterrichtsstunde hochgeladen werden. Ein Referat darf nur dann gehalten werden, wenn die Software »grün« anzeigt.

Als Alicia nach der Schule ihren Eltern von dem neuen Informatik-Lehrer erzählt, erwähnt sie auch die Plagiatssoftware. Sie stört, dass sie als fleißige, ehrliche Schülerin unter Verdacht gestellt wird. Sie hat sich allerdings nicht getraut, etwas zu sagen. Alicias Mutter, Felizitas, ist erstaunt, denn im Elternbeirat war der Kauf einer solchen Software nicht zur Sprache gekommen, zumal dort zu Spenden für die technische Ausstattung aufgerufen wurde. Sie beschließt, bei der nächsten Sitzung danach zu fragen.

Als Felizitas in der Elternbeiratssitzung den hergebetenen Herrn Rohse nach der Plagiatssoftware fragt, erhält sie umfangreiche Auskunft sowie einen Probezugang, damit sie auch selbst testen kann, wie der britische Anbieter »Fair work« die Arbeiten testet.

Zuhause probiert sie es aus: Sie lädt einen Text aus der größten Online-Enzyklopädie herunter und reicht ihn bei »Fair work« zur Prüfung ein. Und siehe da: Er wird korrekterweise als Plagiat erkannt. Felizitas hatte beim Einloggen die Nutzungsbedingungen und eine »Data Policy« angezeigt bekommen und dann heruntergeladen, denn sie möchte sie später lesen.

Als sich Felizitas am Tag darauf die ziemlich langen Nutzungsbedingungen und die »Data Policy« durchliest, stößt sie auf Unerwartetes: »Fair work« archiviert sämtliche Arbeiten, die zur Prüfung hochgeladen werden, und behält sich das Recht zur kommerziellen Verwertung vor. Das hatte Herr Rohse nicht erwähnt, vermutlich auch nicht gewusst. Sie beschließt, den Plagiatsdienstleister erneut auf die Tagesordnung des nächsten Treffens des Elternbeirates zu setzen.

Es stellt sich heraus, dass tatsächlich niemand die Klausel in den Nutzungsbedingungen bemerkt hatte. Felizitas merkt an, dass auch Heranwachsende gefragt werden müssten, wenn ihre Arbeiten – egal ob Quellcode oder Textarbeit – einfach an Dritte weitergegeben werden sollen. Außerdem hätte sich das Unternehmen »Fair work« auch noch allerlei schwammige Rechte vorbehalten, was die Daten der Autoren und deren Weitergabe betreffe. Felizitas erklärt süffisant, sie sei keine »Juristin mit Spezialgebiet internationale Datenmafia«, um einschätzen zu können, was das eigentlich für die hochgeladenen Informationen über ihre Tochter bedeute. Und gehöre die Vermittlung der vielbeschworenen »Digitalen Mündigkeit« nicht auch zum Informatikunterricht, fragt sie.

Die Stimmung wird gereizt, weitere Eltern äußern sich kritisch. Allerdings sieht die Mehrheit der Elternschaft kein Problem in dem Vorgehen des Lehrers. Er habe schließlich die Aufgabe gestellt und dürfe auch die Bedingungen diktieren. Es sei zwar nicht schön, dass man alle Kinder unter eine Art Generalverdacht stellen würde, aber dass viele Arbeiten aus dem Netz geladene Kopien sind, bestreiten die Eltern nicht. Und am Ende seien es doch nur Arbeiten von Neuntklässlern, die Kirche solle man bitteschön im Dorf lassen.

FRAGEN:

    • Kann eine solche Plagiatssoftware dabei helfen, aus unehrlichen Schülern ehrliche zu machen? Ist dieser Ansatz für eine Schule angemessen?
    • Sollen schulische Arbeiten einer kommerziellen Verarbeitung zugeführt werden dürfen, wenn man dafür im Gegenzug einige Plagiate aufdecken kann?
    • Wäre es in Ordnung, wenn man die Schüler und Eltern vorab fragt, ob sie einverstanden sind? Müssten dann die Schülerarbeiten, deren Autoren nicht zugestimmt haben, einzeln und per Hand auf Plagiate getestet werden?
    • Macht es einen Unterschied, wenn die Plagiatserkennungssoftware auf dem Schulserver betrieben würde und die Daten lediglich für die Lehrerschaft einsichtig sind?
    • Wem gehören schulische Auftragsarbeiten? Hat der Lehrer nicht ein ebenso großes Bestimmungsrecht wie die Schüler? Schließlich hätten die Schüler ohne ihn den Text ja gar nicht verfasst.
    • Wäre die Schule verpflichtet gewesen, dafür zu sorgen, dass die Nutzungsbedingungen eines Dienstleisters vor dem Einsatz geprüft werden?
    • Sehen Sie einen Unterschied in der moralischen Bewertung, wenn es um Quelltexte statt um Textarbeiten geht?

Wir haben übrigens weitere Fallszenarien über Plagiate!


Erschienen in Informatik-Spektrum 37 (1), 2014, S. 59-60

Fallbeispiel: Data Mining für Public Health

Christina Class, Debora Weber-Wulff & Tobias Preuß

Andrea arbeitet in der Informatikabteilung einer großen Krankenkasse. Sie ist für die Datenanalyse zuständig und hat die Möglichkeit, neuere Methoden auszuprobieren. In den letzten Jahren hat sie sich häufiger mit Tom unterhalten, den sie immer wieder auf Konferenzen getroffen hat. Tom forscht seit Jahren erfolgreich im Bereich „Privacy Preserving Data Mining“ an Methoden, die die Privatsphäre von Personen schützen. Hierzu gehören ausgeklügelte Verfahren der Anonymisierung.

Die Krankenkasse, bei der Andrea arbeitet, beteiligt sich, wie auch viele andere Kassen, an einem von einer Stiftung finanzierten Projekt mit dem Namen „Public Health“. Dafür stellen verschiedene Krankenkassen und Unfallversicherungen Daten der letzten 30 Jahre zur Verfügung. Nach Abgleich und Aggregierung der personenbezogenen Informationen werden die Daten anonymisiert. Die Analyse der zahlreichen Daten aus drei Jahrzehnten soll einer verbesserten Abschätzung der Entwicklung der Anforderungen im Gesundheitsbereich dienen. Damit soll es möglich werden, die Ausbildungsplanung bei Ärzten und Pflegepersonal, die Spezialisierung sowie die Kapazitätenplanung in Krankenhäusern und Pflegeheimen zu verbessern. Somit soll ein wichtiger Beitrag zur Vorbereitung auf die alternde Gesellschaft geleistet werden. Tom hat für das Projekt ein Gutachten erstellt, in dem dargelegt wird, wie die auf die Daten angewendeten Anonymisierungverfahren ausreichen, um den Datenschutzrichtlinien gerecht zu werden.

Andrea ist von dem Projekt begeistert und lässt sich von Tom sein Gutachten geben. Doch sie wird nachdenklich, als sie eine Studie in einer wissenschaftlichen Zeitung liest. Diese zeigt auf, dass sich Daten, die mit den Methoden des Projekts anonymisiert wurden, zu 93% wieder personalisiert werden können. Sie gibt ihre eigenen Informationen (Geschlecht, Geburtsdatum und Postleitzahl) ein und wendet das im Artikel beschriebene Verfahren an. Sie schaut ungläubig auf ihre Krankengeschichte, diese ist (soweit sie sich erinnern kann) vollständig. Gut, ihr Fall ist vielleicht auch recht einfach. Sie war ihr Leben lang bei der gleichen Versicherung versichert, lebte in der gleichen Stadt und hat nie ihren Namen geändert. Um es mit etwas komplexeren Daten zu versuchen, gibt Andrea Geburtsdatum, Postleitzahl und Geschlecht ihrer Mutter ein. Durch zwei Ehen mit Namenswechseln, verschiedene Wohnorte, Arbeitsstellen und Krankenkassen, sollten die Daten ihrer Mutter nicht so einfach zu ermitteln sein. Doch dies ist eine trügerische Hoffnung. Die (Andreas Wissen nach) komplette Krankengeschichte ihrer Mutter wird erstellt, inklusive der zwei Kuren auf Norderney. Die Krankendaten reichen sogar 40 Jahre zurück, eine Kasse hat also mehr Informationen zur Verfügung gestellt. Plötzlich starrt Andrea ungläubig auf einen Eintrag aus dem Jahr 1975. Ihre Mutter hatte damals, 18 Jahre alt, einen gesunden Jungen entbunden, der wohl zur Adoption freigegeben wurde. Andrea ist schockiert. Dennoch kann sie diese Information sofort glauben, sie erklärt die heftige Reaktion ihrer Mutter, als ihre 21-jährige Cousine ein Kind zur Adoption freigab.

Andrea wird nachdenklich. Was soll sie tun? Das Projekt wird mit einer großen Summe gefördert und das Gesundheitsministerium ist ein Projektpartner. Das Thema ist von gesellschaftlicher Relevanz. Aber die Daten einzelner Personen können viel zu leicht extrahiert werden. Da sich sowohl ihr Chef als auch der Leiter des Gesamtprojekts positive Auswirkungen auf ihre Karriere ausrechnen, wird es schwer, diese von den Risiken zu überzeugen. Von Tom kann sie keine Hilfe erwarten. Sie überlegt eine Weile und stellt dann eine Krankenakte für ihren Chef und den Projektleiter zusammen. Sie hat ein komisches Gefühl, als sie sieht, dass ihr Chef jahrelang in Psychotherapie war und der Projektleiter alle paar Monate einen AIDS Test machen lässt. Aber was soll’s! Sie wird ihnen beim nächsten Projekttreffen ihre Akten vorlegen und sie dann hoffentlich dazu bewegen können, das Projekt zu stoppen.

Als sie nach Hause geht, kehren ihre Gedanken wieder zu ihrer Mutter zurück. Wie soll sie ihr gegenübertreten? Was soll sie mit dem Wissen tun? Vergessen kann sie es nicht so einfach, dass sie noch einen Halbbruder hat….

Fragen:

  • Hatte Andrea das Recht, nach den Daten ihrer Mutter zu suchen? Hätte sie sie vorher fragen sollen?
  • Ist es ein ethisches Problem, dass Andrea einfach davon ausgeht, dass Tom, ihr Chef und der Projektleiter ihren Bedenken kein Gehör schenken würden?
  • Durfte Andrea die Daten ihres Chefs und des Projektleiters herausziehen, um sie von den Problemen mit der Datenanonymisierung zu überzeugen?
  • Wird Andreas Herangehensweise von Erfolg gekrönt sein oder könnte die Offenlegung der privaten Krankengeschichte ihrer Vorgesetzen von diesen anders interpretiert werden?
  • Wie ist zu bewerten, dass mindestens eine beteiligte Krankenkasse Daten eines längeren Zeitraums für das Projekt zur Verfügung stellt?
  • Die alternde Gesellschaft wird uns vor einige Probleme stellen, auf die wir uns vorbereiten müssten. Ist das Risiko, dass Krankendaten wie im beschriebenen Fall eingesehen werden können, vertretbar, wenn es darum geht, die medizinische Infrastruktur der Zukunft zu planen? Ist die Annahme, dass unsere medizinischen Daten in der heutigen Zeit ausreichend geschützt sind, überhaupt noch zutreffend?
  • Sollten Personen, die im Rahmen von Datenanalyse mit (anonymisierten) medizinischen Daten in Kontakt kommen, der Vorsicht halber einfach zur Verschwiegenheit verpflichtet werden?

Wir freuen uns auf Ihre Kommentare!


Erschienen in Informatik-Spektrum 37 (1), 2014, S. 60-61

Fallbeispiel: Ich weiß wo Du bist

Wolfgang Coy & Debora Weber-Wulff

Schmöditz, Bruskop und Zerbst (SBZ) ist ein regionales Versandhaus mit eigener Logistik. Die SBZ GmbH bedient ökologisch bewusste Kunden (,,Alles für den grünen Gartenzwerg: Von der Doppelaxt bis zum solargetriebenen Rüttelrost“ spottete Lars, der für die IT zuständig war). Sein Vorgänger Jürgen hat Wirtschaftsinformatik studiert und war inzwischen in der Geschäftsleitung – als CIO (Chief Information Officer), wie er gerne erzählte.

Die SBZ hatte eine exklusive Kooperation mit Baltics-Com, einer Firma aus Riga, die im großen Stil Waren für BSZ liefert. Von Baltics werden auch die Fahrer für die regionale Auslieferung in Deutschland gestellt, die Produkte aus verschiedenen zentralen Großhandelslagern direkt an die Endkunden von SBZ ausliefern. Die LKWs gehören freilich SBZ – wie auch den Reklameaufklebern zu entnehmen ist. Die logistische Zusammenarbeit führt zu deutlichen Einsparungen.

Direkt nach der Mittagspause kommt Jürgen in Lars’ Büro. Er hatte neulich gelesen, dass unangenehme Gespräche leichter nach dem Mittagessen zu führen seien. Aber wahrscheinlich gibt es gar kein echtes Problem. Lars ist halt Vollblut-Informatiker und daher manchmal etwas stur.

Jürgen: ,,Es geht um unsere Kooperation mit Baltics.“

Lars: ,,Ich weiß – Entwicklungshilfe unter Freunden.“ (… und Euer Lohnparadies – wo ihr sicher bald auch die Informatiker entdeckt; aber das behielt er für sich).

,,Tja und die Freunde scheinen unsere LKWs für eigene Geschäfte zu nutzen.“, fährt Jürgen fort.

,,Das wäre aber schon arg vertragswidrig. Wie kommst Du darauf?“, fragt Lars nach.

,,Ich hab verschiedene Rechnungen angestellt. Ich erwarte ja nicht von den Fahrern, dass sie das Traveling-Salesman-Problem in Echtzeit lösen, aber die gefahrenen km-Leistungen sind laut Tacho schon viel mehr als die Strecken, die ich zusammenstellen würde. Und: Du weißt ja, dass wir eingebaute Telefone haben. Es wurden mehrfach Nummern der DKW angerufen – unser schärfster Konkurrent, dem eine logistische Dienstleistung der Baltics gerade recht käme – und das mit unseren LKWs! Für die Fahrer ein gutes Zusatzeinkommen, wenn sie nebenbei für DKW was ausliefern, könnt ich mir vorstellen. Vielleicht auch für Baltics.“

,,Du hast sie abgehört?“

,,Sei nicht albern, das kriegen wir doch gar nicht hin – und verboten wäre es auch. Aber unsere Telefonrechnung weist Verbindungsdaten nach – minus den letzten drei Stellen. Auf den Telefonen sollten nur Gespräche mit unserer Zentrale geführt werden, alles andere erledigen wir von hier aus. Es gibt aber Gespräche mit der Vorwahl der DKW und deren ersten Ziffern. Jedenfalls kam das vor fünf Wochen zweimal vor; seitdem allerdings nicht mehr.“

,,Na also. Zufall. Verwählt.“

Jürgen fixiert ihn: ,,Verwählt schon, aber nur in der Wahl des Telefons, denn die Fahrer benutzen wohl jetzt ihre Handys. Ihnen wird die Schwachstelle aufgegangen sein. Oder DKW hat ihnen Handys gegeben.“

,,Dann können wir technisch nix machen. Aber den Vertrag mit Baltics kündigen können wir auch nicht. Wir haben weder Beweise noch eine Alternative.“

,,Richtig: wir brauchen Beweise und die besorgst Du. Ich hab mir folgendes überlegt. Unsere eingebauten Telefone und Navis fliegen raus und werden durch nagelneue Tablets ersetzt. Ist eh billiger. Jeder Fahrer kann damit telefonieren – für den Arbeitseinsatz, versteht sich.“

Lars blickt skeptisch: ,,Ja und? Mit dem Tablett kann man doch garnicht anrufen. Da geht doch nur Mobilfunk um Internet aufzubauen?“

Jürgen seufzt: ,,Darum geht es doch gar nicht. Es gibt da eine App, die heißt ,,WoIstMeinPad?“ Damit kann man per Internet über die Mobilfunkverbindung einfach die Geokoordinaten feststellen, wo sich unser Tablet aktuell befindet. Und da es im LKW eingebaut wird, kriegen wir auch mit,wo unser LKW gerade ist – falls er geklaut wird. Nur falls jemand nachfragt: Das ist der Grund für diese App. Aber solche Fragen wollen wir gar nicht erst provozieren: Deshalb schreibstDu jetzt eine selbststartende App, die regelmäßig, so alle 20 Minuten, die GPS-Koordinaten speichert und sie an unseren Server sendet. Den Kern-Code hab ich als Open Source für eine Geo-Caching-Anwendung gefunden, der Rest ist ja wohl nicht allzu schwierig. Und nenn’ die App Kalorienzähler oder so. Etwas, was keinen interessiert.“

Lars sieht ihn irritiert an: ,,Das mach ich nicht. Das wäre Bespitzeln unter Freunden – auf eine bloße Vermutung hin. Find ich unmöglich!“

Doch Jürgen lässt sich nicht bremsen: ,,Komm mal wieder runter und hör zu. Die Situation ist doch klar:

Die benehmen sich vertragswidrig so wie es aussieht.

Wir hören nicht ab, das dürfen und können wir nicht.

Das Tablet dient für die gemeinsame Arbeit als Navi und Lieferverwaltung.

Wir sichern unser Eigentum, den Lkw und halt auch unser Tablet.

Alles klar?“ Jürgen schaut seine Armbanduhr an. ,,Ich muss weiter.“ Mit diesem effektvollen Plädoyer verlässt er den Raum.

Lars fühlt sich extrem unwohl. Soll er jemanden überwachen – auf einen so vagen Verdacht hin? Wenn Jürgen sicher ist, warum spricht er das Thema nicht bei der Geschäftsleitung von Baltics an – oder schaltet einen Anwalt ein? Freilich:Wenn die App erst mal installiert ist, kann jede Aktivität der LKWs und damit der Fahrer protokolliert werden. Dann können auch die Intervalle verkürzt werden. Begründeten Verdacht braucht Jürgen dann nicht mehr. So gesehen, hat das Ganze einen gewissen Sinn für SBZ, selbst wenn alles im Sande verläuft. Aber was kann er tun?

Wenn die SBZ einen Betriebsrat hätte, könnte er mit ihm die Sache besprechen, aber so ein Formalkram schien bisher unnötig. ,,Wir regeln Probleme unter Freunden“, sagen ihm die Kollegen und Chefs. Und Lars fragt sich auch, was ein Betriebsrat hier tun würde. Die rechtliche Situation scheint wirklich eindeutig, oder?

Die Firmenchefin ansprechen (,,Nenn mich Daniela!“)? Sie ist jetzt dauernd in der neuen Niederlassung – und hat sicher kein Interesse an einem solchen Technikkram, wie sie alles, was nicht ,,strategisch bedeutsam“ ist, gern nennt.

Zur Presse gehen? Er muss über sich selber lachen. Wem sollte das eine Zeile wert sein?

Verweigert er die Arbeit, drohen ihm freilich Abmahnung oder gar Kündigung. Jürgen macht das, da ist er sich sicher. Und er braucht den Job. Soll er ihn riskieren wegen einiger Fahrer, die sich vielleicht wirklich unrechtmäßig verhalten? Vor einem Arbeitsgericht müsste die Firma wohl nur ,,bewusste Arbeitsverweigerung“ sagen, um sogar seine fristlose Kündigung durchzusetzen.

Was würden Sie tun?


Erschienen im Informatik Spektrum 36(5), 2013, S. 478–479

Veranstaltungshinweis: Leaked Data

Im Rahmen des öffentlichen Symposions des Fachbereichs »Informatik und Gesellschaft« der GI veranstaltet die Fachgruppe Ethik und Informatik einen Workshop am Samstag, den 28. September 2013.

Informatiksysteme sind keine rein technischen, sie müssen in ihren gesellschaftlichen Kontexten geplant, entworfen und konstruiert werden. Dies gilt in besonderer Weise für ihre (beabsichtigt und unbeabsichtigt) anfallenden Daten.

Der GI-Fachbereich »Informatik und Gesellschaft« lädt Sie am 27. und 28. September zu einem zweitägigen Symposion ein, um über gesellschaftliche Dimensionen von digitalen Daten zu sprechen. Veranstaltungsort ist das Forschungszentrum »Kultur und Informatik« der HTW Berlin.

Am Samstag liegt der Fokus auf der unfreiwilligen Veröffentlichung von geheimen Daten. Was motiviert Whistleblower?

Offizielle Veranstaltungsseite mit Programm

Die Teilnahme ist allen Interessierten kostenfrei möglich. Sie erleichtern uns die Planung, wenn Sie sich bei jochen.koubek@uni-bayreuth.de anmelden.

Ethische Fallbeispiele aus den USA

Die Office of Research Integrity (ORI) in den USA wird in Kürze 20 Fallbeispiele (eher aus dem Lebenswissenschaften) publizieren:

ORI will soon release a series of RCR case studies edited by Dr. James Dubois of St. Louis Univerity.  The creation of the case studies was funded through ORI’s RCR Resource Development program and involved a team of nearly 20 writers, contributors, and reviewers.  These well-crafted case studies, along with role playing scenarios, will be available for instructors to incorporate into their institutions RCR training program.

Der erste Fallbeispiel beschäftigt sich mit Peer Review.

[RCR = Responsible Conduct of Research]

Fallbeispiel: Pfade des Lernens

Constanze Kurz & Stefan Ullrich

Franziska arbeitet am Lehrstuhl der Informatik-Professorin Andrea Abend, die sich schwerpunktmäßig mit E-Learning-Systemen und in letzter Zeit besonders mit Educational Data-Mining beschäftigt. Ihr Lehrstuhl kooperiert mit Kollegen anderer Fachrichtungen, um interdisziplinäre Forschung in dem noch recht neuen Gebiet zu ermöglichen.

Manuel ist mit Leib und Seele Ethnologe und seit zwei Monaten als wissenschaftlicher Mitarbeiter in dem neuen Projekt, in dem auch Franziska mitwirkt. Ihn faszinieren die Erkenntnisse, die er aus der Beobachtung von Menschen in ihrer alltäglichen Umgebung erlangt. Im Kooperationsprojekt »Pfade des Lernens« bringt er das Beobachtungskonzept ein. Entwicklerin Franziska setzt das Konzept um, es wird auch sofort als Pilotverfahren in ihrer eigenen Lehre getestet.

Manuel weiß aus seiner bisherigen Arbeit: Je mehr Daten er über die Lernenden erhält, desto bessere Schlüsse kann er daraus ziehen und in der Folge durchdachte didaktische Konzepte für zukünftige Studierende entwerfen. Wie bei jeder guten Beobachtung sollen die Daten jedoch nur anonym vorliegen, so dass keine personenbezogenen Aussagen getroffen werden können.

Die Software wird während des Einsatzes aufzeichnen, wer wann welche Materialien heruntergeladen hat und in welcher Reihenfolge die Zugriffe erfolgten. Zudem wird festgehalten, wie lange und zu welchen Uhrzeiten die Lernplattform aufgesucht wurde. Ausgewertet werden soll dann in Zukunft, ob es messbare Zusammenhänge zwischen den später durch die Prüfungen ermittelten Lernerfolg und der Art der Nutzung der Plattform gibt. Zudem sollen Erkenntnisse über Unterschiede in Benutzung und Lernerfolg von Männern und Frauen sowie Menschen mit Migrationshintergrund gewonnen werden.

Prof. Abend als Projektverantwortliche und Franziska als Entwicklerin haben umfassende Administrationsrechte und Zugriff auf alle Daten. Manuel hingegen bekommt eine zusammenfassende Auswertung und hat nie gefragt, ob er umfassendere Rechte für die Software bekommen könnte. Ihm ist die technische Umsetzung ein Rätsel geblieben, ohnehin interessierten ihn von vorneherein die Ergebnisse und nicht die technischen Details.

Das Projekt läuft gut an, sowohl die Programmierung als auch die Zusammenarbeit zwischen den Wissenschaftlern ist gelungen. Doch es taucht ein Problem auf, als die Plattform erstmals in der Lehre praktisch getestet werden soll. Franziska und Manuel stellen das Konzept und die Umsetzung gemeinsam in der ersten Seminarstunde den Studenten in Ruhe vor. Nach ein paar Minuten meldet sich ein junger Student, Yorick. Er ruft entrüstet: »Ich möchte aber nicht Ihr Versuchskaninchen sein, es geht nur mich etwas an, wie und wann ich lerne!«

Es entsteht eine heftige Diskussion im Seminar, während der sich die Meinungen der Studenten in drei Lager teilen: Die einen empfinden es als unerträglich, ständig beim Lernen beobachtet zu werden, die anderen betrachten es als ausgesprochen sinnvoll, Lernprozesse zu messen und für die künftige Verbesserung der Lehre nutzbar zu machen. Und schließlich gibt es die Gruppe, denen das herzlich egal ist. Sie haben sich ohnehin daran gewöhnt, dass Administratoren und Webseitenbetreiber ständig einen Blick über ihre Schulter werfen, außerdem wollen sie im Grunde nur den Schein und keinen ideologischen Streit.

Fragen

  • Welche ethischen Probleme sehen Sie beim Einsatz von Lernanalyse-Werkzeugen?
  • Besteht bei diesen Problemen ein Unterschied darin, ob die Plattform Daten erhebt, die den Lernenden direkt zugeordnet werden können?
  • Macht es einen Unterschied, ob die Daten permanent oder nur kurzfristig gespeichert werden?
  • Angenommen, beim tatsächlichen Einsatz der Software würde Franziska von ihren Datenzugriffsrechten als Administratorin Gebrauch machen. Welche zusätzliche ethischen Probleme sehen Sie?
  • Ist die Förderung solcher Formen der detaillierten technischen Analyse von individuellen Lernprozessen prinzipiell vertretbar?
  • Verstehen Sie die kategorische Ablehnung der Software durch einige Studenten? Welche Möglichkeiten der »digitalen Selbstverteidigung« sehen Sie?
  • Eine andere Gruppe der Studenten argumentiert, dass die Auswertung ihres Lernprozesses künftigen Studierenden eine bessere Lehre ermöglichen könnte. Sind die Gegner angesichts dieses potentiellen Vorteils nicht auch verpflichtet, an das Wohl nachfolgender Studentengenerationen zu denken?
  • Ist es ein Problem, dass Manuel die technischen Möglichkeiten der Erfassung der Handlungen der Lernenden gar nicht kennt?
  • Professor Abend verdankt der Software ganz neue Erkenntnisse über ihre Studenten. Besonders eine Studentin ist online sehr fleißig, stellt neue Diskussionsbeiträge ein und schaut sich regelmäßig die Folien an. Dabei war sie in den Präsenzveranstaltungen eher etwas ruhiger. Wie beurteilen Sie die Tatsache, dass die Software auf den Eindruck der Lehrperson einwirkt?

Erschienen in Informatik Spektrum 36(4), 2013, S. 416–417

Fallbeispiel: Identitätsdiebstahl

David Zellhöfer & Debora Weber-Wulff

Hans arbeitet für eine pharmazeutische Forschungseinrichtung. Gerade beschäftigt er sich mit einer Studie über ein Medikament für geriatrische Gesundheitsprobleme. Es ist ihm gelungen, 57 betroffene Patienten in verschiedenen Altersheimen in der näheren Umgebung zu finden, die dazu bereit waren, an der Studie teilzunehmen.

Er hat sehr viele Daten gesammelt, um verschiedene, denkbare Einflussfaktoren auf Grundlage einer breiten Basis bewerten zu können. Um mit Sicherheit bestimmen zu können, ob die mit dem Medikament behandelte Gruppe weniger Symptome zeigt als die mit dem Placebo behandelte, unterzieht er die Daten umfangreichen, statistischen Analysen.

Diese Arbeit ist am Institut ziemlich umständlich. Francis, die Datenbankadministratorin, ist eine sehr nervige Person. Ständig tut sie so, als ob sie alles besser als die eigentlichen Forscher wüsste. Besonders ihr ständiges Bestehen darauf, dass Hans die Personen-identifizierenden Daten von den weiteren Daten getrennt halten müsste, gestaltet seine Arbeit kompliziert. Nur um Forscher zu quälen, hatte sie sich ein System mit verschiedenen Passwörtern ausgedacht, damit nur „autorisierte“ Personen Zugang zu den Daten hätten. Dabei hatte er die Interviews selber durchgeführt und konnte sich den Zustand des Patienten viel besser vorstellen, wenn er den Namen und die Adresse aus den Personen-identifizierenden Daten parat hätte. Francis verstand wissenschaftliches Arbeiten einfach nicht.

Obwohl er gelegentlich von zuhause aus arbeiten durfte, war dies dank Francis‘ Vorkehrungen nur schwer möglich. Ein Zugriff über das Internet auf die Datenbank war unterbunden. Wollte er sich mit dem Institut verbinden, musste er das umständliche und vor allem langsame VPN nutzen. Eine schnelle Recherche in der Datenbank war so kaum möglich.

Zum Glück war sein Fußball-Kumpel Deniz ein Computer-Freak. Hans hatte ihn gefragt, wie man Kopien von Daten anfertigen könnte, um von zuhause aus arbeiten zu können. Das Kopieren im VPN war langsam, aber funktionierte. Allerdings waren die Daten, die er gewonnen hatte, mit einem Passwort versehen, aber Deniz zeigte ihm, wie schnell man so etwas mit den heutigen Werkzeugen überlisten konnte. Schlagartig wurde sein Leben leichter. Er konnte am Wochenende arbeiten oder im Café in der Nachbarschaft mit kostenlosem WLAN!

Während des Frühstücks im Café war Hans dabei, die Zahlen aus einem neuen Blickwinkel zu betrachten. Neben ihm waren nur wenige andere Personen im Café, die so ähnlich wie er arbeiteten: mit Notebook und Mobiltelefon; moderne Nomaden.

Eine dieser Personen war Richard. Er war stolz darauf, wie gut er inzwischen darin beim Ausspähen von Daten in öffentlichen Räumen geworden war. Es faszinierte ihn, wie viele Leute keinerlei Passwörter nutzten oder interessante Daten einfach öffentlich zugänglich ablegten. Wenn man ein bisschen Glück hätte, konnte man sogar Daten finden, die man verkaufen konnte. Richard war „selbständig“ und freute sich über jeden Euro, den er verdienen konnte.

Während Hans auf Toilette war, erweckte sein Notebook Richards Aufmerksamkeit. Der Rechner war nicht gesperrt und Richard konnte einen Blick auf eine offene Tabelle werfen. Aus reiner Neugier suchte er im Netzwerk nach Ordnern, die zum Teilen freigegeben waren. Nach einigen Klicks konnte Richard eine Tabelle finden, die persönliche Daten enthielt: Namen, Adressen, Geburtsdaten – Wahnsinn! Ein lukratives Geschäft. Nach den Geburtsdaten zu urteilen handelte es sich um alte Leute. Sie würden gar nicht wissen, wie sie sich gegen eventuellen Identitätsdiebstahl wehren könnten.

Jeder Datensatz war bestimmt 100 € wert – nicht schlecht für nur einen Morgen im Café! Kriminelle, die Waren im Namen anderer kauften, würden sich über diese Daten freuen. Bis die Mahnbriefe eintrafen, wäre die „gekaufte“ Ware längst weiterverkauft. Nur die Personen, deren Daten dazu benutzt worden, würden ihre liebe Mühe haben, das Problem zu verstehen und wohl zahlen müssen. Aber was soll’s – er brauchte das Geld.

Fragen

  • Von den rechtlichen Problemen abgesehen, welche ethischen Probleme sind hier beschrieben?
  • Hans hat ja selber die Daten nicht verkauft. Trifft ihn eine (Mit-)Verantwortung, wenn die Daten widerrechtlich genutzt werden? Richard hat die Daten ja ohne seine Erlaubnis erlangt.
  • Die Daten waren leicht zugänglich– ist Richard dafür verantwortlich, was andere mit den Daten anfangen? Er hätte die Daten ja selber aus öffentlichen Quellen zusammensuchen können.
  • Hat Francis irgendeine Verantwortung für das, was hier passiert ist? Wäre es ihre Pflicht gewesen, die Daten technisch besser zu schützen?
  • Hätte Francis die Mitarbeiter besser über den Sinn und Zweck ihres Sicherheitsprozesses aufklären müssen?
  • Hätte Francis den Zugriff per Audit entdecken müssen?
  • Steht Deniz mit in der Verantwortung, da er sein Wissen bereitwillig geteilt hat ohne nach den Gründen zu fragen?

Erscheinen Informatik-Spektrum, 36(3), 2013, S. 333–335