Archiv

Gewissensbisse oder Zivilcourage?

Wie bereits angekündigt, hier nun der Text des Artikels von Stefan Klumpp und Constanze Kurz aus der FIfF-Kommunikation, Ausgabe 1/2010:

Gewissensbisse oder Zivilcourage? Ethik und Verantwortung in der Informatik-Lehre.

MONSIEUR JOURDAIN.— Quoi, quand je dis: «Nicole, apportez-moi mes pantoufles, et me donnez mon bonnet de nuit», c’est de la prose?
MAÎTRE DE PHILOSOPHIE.— Oui, Monsieur.
MONSIEUR JOURDAIN.— Par ma foi, il y a plus de quarante ans que je dis de la prose, sans que j’en susse rien; et je vous suis le plus obligé du monde, de m’avoir appris cela.
(Molière, le Bourgeois gentilhomme, Acte II, Scène IV)

Angelehnt an Molière könnte man nach dem Studium der Grundlagenwerke zur Ethik aufspringen und sich freuen: «Meiner Treu, da handle ich schon mein ganzes Leben lang moralisch, ohne es zu wissen.» Dem Bourgeois gentilhomme war der Begriff Prosa ebenso unbekannt wie vielen Schülern und Studenten heute ein Begriff von Ethik und den damit verbundenen moralphilosophischen Theorien eines Kants oder eines Aristoteles. Nichtsdestotrotz wollte niemand bestreiten, dass alle vernunftbegabten Lernenden moralisch richtig handeln können. Denn die Beurteilung einer Handlung in moralischer Hinsicht kann von jedem Menschen vorgenommen werden. Praktisch stellt sich allerdings das Problem, dass Fragen der Verantwortung und Moral innerhalb der Informatik zu wenig thematisiert werden – und wenn, dann meist im Zusammenhang mit juristischen Fragestellungen.

Das universitäre Fach Informatik ist sowohl Handwerk als auch Wissenschaft, gelehrt wird nicht nur technisches Handeln, sondern auch technisches Verstehen. Die kritische Reflexion des technischen Handelns durch die Informatiker ist daher integraler Bestandteil des akademischen Fachs – zumindest sollte dies so sein. Die komplizierten Wechselwirkungen von Informatik mit vielen Bereichen des Lebens sollte dabei auf den Prüfstand. Technisch kompetent sollte ein Informatiker auch sachlich in der Lage sein, technische Artefakte und Entwicklungen kritisch zu beurteilen, aber auch sein eigenes Handeln verantwortungsvoll auszuführen.

Wie es schon die Ethischen Leitlinien der Gesellschaft für Informatik [1] fordern, gilt es besonders seit der stetigen Zunahme der Bedeutung informatischer Systeme und deren Wechselwirkungen, solche Fragen stärker zu thematisieren. 2003 wurde die Leitlinien überarbeitet und von der Mitgliederversammlung der GI angenommen. Doch wie erreicht man das Ansinnen der Ethischen Leitlinien in der Lehre? Wie kann verantwortlicher Umgang mit informationstechnischen Systemen in der Ausbildung und Lehre thematisiert werden? Das Vorgehen, das wir hier beschreiben wollen, ist das Arbeiten mit Fallbeispielen, die unterschiedliche ethische Konfliktfälle aufwerfen und dadurch zur Diskussion und Reflexion anregen sollen. Die Studenten erlernen mit Hilfe dieser Szenarien, ethische Dilemmata als solche zu erkennen und Konflikte kritisch zu beurteilen.

Für den deutschsprachigen Raum gab es bisher keine solchen Szenarien für die Lehre. Diesem Mangel wollten wir begegnen. Die Konfliktfälle der Association of Computing Machinery lieferten uns dafür einige Anregungen. Die Seminare zu dem Thema Verantwortung und Ethik in der Informatik, in denen wir nun selbst entworfenen Fallszenarien heranziehen konnten, richten wir an Schüler und Studenten, die zukünftig Computersysteme entwickeln oder deren Entwicklung überwachen werden. Damit sich die Diskussionen mit konkreten, lebensnahen Sachverhalten beschäftigen, entwickelten wir in der GI-Fachgruppe Informatik und Ethik «handfeste» Fallbeispiele und stellten sie jeweils den Teilnehmern vor. Den Studenten oder Schülern zeigt sich dadurch schnell, dass ihr technisches Handeln eine moralische Komponente besitzt. Die Beispiele fordern sie geradezu auf, dieses Handeln zu reflektieren.

Ohne philosophisches Rüstzeug mag diese Reflexion zu Beginn unsystematisch ausfallen. Schüler und Studenten der Informatik neigen dazu, die Konflikte in praktischer Hinsicht auf ihre Lösbarkeit hin zu untersuchen und vor allem ihr technisches Wissen anzuwenden. Sie suchen förmlich den Algorithmus zur Lösung, weil es doch für alle Probleme eine Art Programm geben müsse. Es geht ihnen weniger um die jahrhundertealte Frage, ob und welche Tugendlehren anwendbar sind. Schon Sokrates und Protagoras sind sich damals nicht einig geworden, ob Tugend überhaupt lehrbar sei. Doch die Informatik muss sich mit diesen Themen beschäftigen. Das liegt an der schlichten Erkenntnis, dass gerade Studenten der Informatik verstehen lernen müssen, dass es in ihrem Fach eben nicht um Computer geht, sondern um die Menschen, die diese Systeme entwickeln und benutzen. Auch gibt es keine technischen Lösungen für nicht-technische Probleme. Was die konkreten Fallbeispiele betrifft, gibt es nicht einmal eine allgemeingültige Lösung. Hilfe und Orientierung bieten aber vorgegebene zu erörternde Fragestellungen, die Lehrende verwenden können, um die Diskussionen anzuleiten.

Beim Erproben der Fallbeispiele konnten wir die Erfahrung machen, dass viele Diskussionsteilnehmer anfangs meinen, dass die beschriebenen Probleme sehr einfach lösbar seien, dass es gar keiner intensiven Debatte bedürfe. «Das ist doch ganz klar!», war häufig nach dem Vorstellen eines Falles zu hören. Es wird jedoch schnell deutlich, dass dem nicht so ist.

Strukturell sind die Beispiele so gestaltet, dass Lebenssituationen beschrieben werden und namentlich benannte fiktive Personen in Konflikte geraten, die ethische Dilemmata darstellen. Entsprechend ist es die Aufgabe der Seminarteilnehmer, diese Dilemmata zunächst als solche zu identifizieren und zu gewichten, dann zu analysieren und zu diskutieren. Dass die handelnden Personen in den Fällen dabei Namen und einige biographische Angaben besitzen, erleichtert das Reden über die Konflikte. Beruhen die Szenarien auf tatsächlichen Fällen, so sind selbstverständlich Umstände und vor allem Namen anonymisiert worden.

Gleichzeitig werden in den Seminaren weitere Kompetenzen vermittelt: die Diskussionsleitung, das strukturierte Aufzeichnen der Ergebnisse einer Diskussion, die Veranschaulichung von Beziehungsgeflechten und Abhängigkeiten zwischen Beteiligten in den Beispielen. Eine schriftliche Ausarbeitung erfolgt jeweils nach der Diskussion. Hier sollen die ethischen Dilemmata der Fälle analysiert, aber auch Argumente aus der Diskussion wiedergegeben und eingeordnet werden. Teilweise werden dabei die Ethischen Leitlinien der GI herangezogen und Verstöße gegen sie bewertet. Vergleichend können auch Kodizes und Leitlinien anderer Verbände vergleichend betrachtet werden.

Außer an Schulen und Universitäten haben wir viele der Fallbeispiele in ganztägigen Workshops erprobt und dabei verschiedene Formen der Diskussion ausgetestet. Ein dazu von der Fachgruppe entworfenes Diskussionsschema kann gerade zu Anfang einer solchen Veranstaltung herangezogen werden. Es zeigte sich, dass auch Informatiker mit jahrelanger Praxis die Fälle engagiert diskutierten und dabei ihre beruflichen Erfahrungen einfließen ließen. Persönliche Zwänge, vor allem aber Kosten- und Zeitgründe, die moralischen Entscheidungen entgegenstehen, werden von in der Berufspraxis stehenden Informatikern stärker thematisiert. Die Fälle sind daher nicht nur für Schüler und Studenten geeignet, sondern durchaus auch für Berufspraktiker und Akademiker anregend.

Inhaltlich sind die Fallbeispiele breit gefächert und nicht ausschließlich informatikspezifisch. So sind verschiedene Problemstellungen thematisiert, wie etwa der Umgang mit Überwachungs- oder Anonymisierungstechnologien, Fragen der Hackerethik, des Whistleblowings, des geistiges Eigentums oder des Identitätsdiebstahls. In den letzten Jahren wurden immer mehr Fälle wissenschaftlichen Fehlverhaltens öffentlich, auch in der Informatik. Daher widmen sich einige Szenarien der guten wissenschaftlichen Praxis. Zusätzlich haben wir Fälle über Diskriminierung durch Technik, ethische Probleme bei Robotern oder den Einsatz von Spyware entworfen und jeweils in Lehrveranstaltungen vorgestellt. Konfliktfälle in Fragen des sogenannten Dual Use, also der missbräuchlichen Möglichkeit der Verwendung von Technik in nicht-intendierter Form, sind ein weiteres Beispiel, um über Technikfolgen zu sprechen, da die Diskrepanz zwischen Absicht und Tat aufgezeigt wird: Eine beabsichtigte Handlung kann unbeabsichtigte Folgen haben. Aber auch der eigentliche Zweck einer technischen Handlung kann moralisch problematisch sein, etwa das Programmieren einer Datenbank zum Erfassen und Auswerten privater Daten. Auch Sicherheitslücken in solchen Datenbanken, die durch schlampige Programmierung oder mangelnde Ausbildung entstehen, werden in mehreren Szenarien thematisiert. Zuweilen sind zwar für einige der Fallbeispiele auch technische Vorkenntnisse nötig, um sinnvoll über Auswirkungen sprechen zu können. Doch selbstverständlich kann die Analyse der Funktionsweise von in den Fallbeispielen adressierten Techniken in die Lehrveranstaltung integriert werden.

Juristische Fragen wurden jedoch absichtlich weitgehend ausgeklammert. Ob eine Handlung legal im Sinne bestehender Gesetze ist, wurde trotz des vorausgesetzten Respektes vor rechtlichen Rahmenbedingungen in den Veranstaltungen zwar thematisiert, blieb aber stets nur am Rande der Erörterung. Kontroverse Positionen sollen eben gerade nicht anhand der Jurisdiktion aufgelöst, sondern nach dem eigenen moralischen Kompass entschieden werden. Allerdings gibt es auch Gesetze, die sehr wohl einbezogen wurden, gerade weil sie den Anspruch erheben, sowohl moralisch geboten als auch politisch legitimiert zu sein: die universellen Menschenrechte. Auch wenn sie normativ formuliert sind, ist nicht deren Wortlaut entscheidend, sondern der dahinterliegende Sinn. Was bedeutet es, wenn postuliert wird, dass alle Menschen frei sind und über ein Gewissen verfügen? Was bedeuten diese Menschenrechte für die Arbeit von Informatikern? Wie können die Menschenrechte im alltäglichen (Arbeits-)Leben angewandt werden? Diese Fragen waren oft Teil der Diskussionen.

Stets waren die Debatten in den universitären Seminaren, aber auch in den Schulen engagiert, manchmal hitzig, vor allem aber ergebnisoffen. Der Zwang, zu einer verbindlichen, eindeutigen Lösung der Fallbeispiele zu kommen, entfiel zugunsten des Diskurses und der Schulung der Urteilsfähigkeit. Argumente zu finden und im Diskurs zu begründen, steht dabei im Vordergrund ebenso wie die Schulung der Fähigkeit, gutbegründete Argumente von Mitdiskutanten aufzunehmen und zu reflektieren. Dennoch wurden immer auch konkrete Problemlösungen erörtert, Personen oder Institutionen benannt, die Hilfe oder Orientierung bieten könnten. Ob die personalisierten Fallstudien mit Namen und kurze Beschreibungen der Personen glaubwürdig und verständlich sind, haben wir nach einigen Lehrveranstaltungen und Workshops evaluiert. Verbesserungsvorschläge der Teilnehmer konnten so sukzessive in die Überarbeitung der Fälle eingehen.

Im Verlauf der Veranstaltungen lernten die angehenden Informatiker, die Nicht-Existenz einer vielleicht gar algorithmischen «Problemlösung» zu akzeptieren. Das heißt natürlich noch lange nicht, dass die Teilnehmer eines solchen Diskussionsseminars zur Verantwortung in der Informatik später im Berufsleben ausschließlich moralisch gebotene Handlungen ausführen. Aber es gilt ja gerade, die eigene Urteilskraft zu schärfen. Die Triebfeder des moralischen Gefühls liefert genügend Energie, um sowohl eine Reflexion des eigenen Handelns in moralischer Hinsicht vorzunehmen als auch daraus entstehende Handlungsanweisungen abzuleiten. Es ist klar, dass kein Mensch gesichertes Wissen um die Zukunft besitzt, er kann demzufolge auch nicht sicher vorhersagen, welche Folgen sein technisches Handeln bewirkt. Aber dass es Folgen hat, muss der homo faber, der herstellende Mensch, wissen. Die Freiheit bei der Entscheidung für die eine und gegen die andere Handlung führt also zur Verantwortung (auch im juridischen Sinne) für die eigene vollbrachte Tat. In moralischer Hinsicht sind alle Technikschaffenden bereits für die Entscheidung verantwortlich, die der Handlung vorausgeht. Um so wichtiger ist es, dass diese Entscheidung bewusst reflektiert wird. Dazu regen wir die Studenten unserer Seminare ausdrücklich an.

Die Fachgruppe setzt auch nach der Veröffentlichung der Fallbeispiele [2] das gemeinsame Entwerfen und Schreiben neuer Szenarien fort. Durch die Einbeziehung von Mitgliedern der Gruppe in Mediationsfällen oder das schlichte Studium der Tagespresse reißt der Strom an neuen Konfliktfällen nicht ab. Die Fallsammlung wird also in den nächsten Jahren erweitert. Anregungen sind natürlich stets willkommen.

2010 ist das Jahr Schopenhauers. Er lehrt, dass ein wesentliches Element allen menschlichen Handelns die Fähigkeit ist, sich in andere Personen hineinversetzen zu können. In seiner Preisschrift über die Grundlage der Moral zeigt er nachvollziehbar und klar, dass nur Handlungen, die sich auf das «Wohl und Wehe» einer anderen Person beziehen, in moralischer Hinsicht bewertet werden können. (Schopenhauer, S. 107) Der Mensch sei «mysteriöserweise» in der Lage, sich in einen anderen Menschen hineinzuversetzen, er könne sich mit dem jeweils anderen identifizieren. Die Fallbeispiele sollen diesen Prozess erleichtern, indem sie die Beschreibungen von Personen enthalten, so dass eine «Identification» im Sinne Schopenhauers überhaupt erst ermöglicht wird.

Sieht man gedanklich erst durch die Augen der Handelnden in den Szenarien, wird ethisches Bewerten beschreibbar und erlebbar: «Da ich nun aber doch nicht in der Haut des Andern stecke, so kann allein vermittelst der Erkenntniss, die ich von ihm habe, d. h. der Vorstellung von ihm in meinem Kopf, ich mich so weit mit ihm identificieren, daß meine That jenen Unterschied als aufgehoben ankündigt. Der hier analysirte Vorgang aber ist kein erträumter, oder aus der Luft gegriffener, sindern ein ganz wirklicher, ja, keineswegs seltener: es ist das alltägliche Phänomen des Mitleids, d. h. der ganz unmittelbaren, von allen anderweitigen Rücksichten unabhängigen Theilnahme zunächst am Leiden eines Andern und dadurch an der Verhinderung oder Aufhebung dieses Leidens, als worin zuletzt alle Befriedigung und alles Wohlseyn und Glück besteht. Dieses Mitleid ganz allein ist die wirkliche Basis aller freien Gerechtigkeit und aller ächten Menschenliebe.» (Schopenhauer, S. 107f.) Warum alle Menschen Mitleid empfinden, Empathie besitzen, bleibt auch im Schopenhauer-Jahr 2010 das «Mysterium der Ethik, ihr Urphänomen».

Das Hineinversetzen allein reicht jedoch noch nicht aus, denn die Voraussetzung zur Identifikation mit anderen Menschen ist deren Sichtbarkeit als Mensch. Diese Sichtbarkeit ist nicht immer gegeben. Der britische Autor John Brunner schreibt in seinem Roman Der Schockwellenreiter: «Wenn es ein Phänomen wie das absolute Böse überhaupt gibt, dann besteht es darin, einen Menschen wie ein Ding zu behandeln.« Erkennbar ist, dass heutzutage hinter den Datensätzen in Computersystemen der durch sie erfasste Mensch zurücktritt; Menschen werden mithin zu bloßen Datenobjekten degradiert. Jede solcher quantifizierender Betrachtungen von Personen ist ein Angriff auf ihre Menschenwürde, ein zutiefst moralisches Problem. Was aber bedeutet es ganz praktisch, wenn ein Scoring-Wert durch einen Algorithmus ermittelt wird? Welche Folgen kann der Einsatz eines solchen Scoring-Verfahrens haben? Es gilt also durch die Verwendung der Fallbeispiele, den Menschen hinter den Datenobjekten wieder sichtbar zu machen. Der Verlockung, einer Vereinfachung technisierter Abbildungen den Vorrang zu geben, kann so begegnet werden. Die Informatik lehrt ihren Studenten, Modelle zu entwickeln, in ihnen zu denken. Fatal ist dies dann, wenn man der Verlockung nachgibt und den Wert der eigenen Handlungen nur gegen das Modell, gegen die Simulation der Welt, misst.

Um eine Situation angemessen und kompetent bewerten und gemäß dieser Bewertung handeln zu können, benötigt der Lernende neben dem jedem Menschen gegebenen Vermögen, sich in andere hineinversetzen zu können, vor allem Urteilsvermögen und Übung in dessen Anwendung. Mit Hilfe der Fallbeispiele wollen wir im Zuge einer ergebnisoffenen Diskussion eben dies wecken: ein tiefes Verständnis und eine Sensibilisierung für die moralische Dimension der technischen Handlungen. Erst im Dialog mit anderen moralisch empfindsamen Gesprächspartnern werden Konflikte und Probleme sichtbar, die allen technischen Handlungen zugrundeliegen. Dies liegt auch daran, dass sich der Einzelne oft nicht vorstellen kann, welche Macht er durch die von ihm entwickelten Techniken potentiell besitzt.

Die Handlungsmacht des werkzeugschaffenden Menschen hat sich vergrößert und damit auch die einzelner Individuen. Eine Abkehr von «der Technik» im Allgemeinen, um schlimme Folgen für die Menschheit zu verhindern, ist kaum mehr möglich. Denn einerseits hat der Mensch seit Anbeginn seiner Zeit technische Vorgänge initiiert, die nur durch Fortschritt der Technik in einem anderen Bereich ausgeglichen werden könnten (wenn überhaupt). Und andererseits ist Technik ein Bestandteil jeder menschlichen Kultur, kann also gar nicht aus dieser entfernt werden. Technik ist, wo Menschen sind. Nicht die Technik könne kritisiert werden, nur der Mensch, der sie einsetzt, meinte Joseph Weizenbaum.

Er war – indirekt durch ein Gespräch auf einer Konferenz in der Humboldt-Universität – der Auslöser für die Idee, Fallbeispiele zu entwerfen und einzusetzen. Joseph Weizenbaum beschreibt bereits in «Die Macht der Computer und die Ohnmacht der Vernunft» noch immer aktuelle Grundsatzfragen zur Verantwortung von Technikern: «Daß der Mensch durch die Mittel seiner Naturwissenschaft und Technik eine enorme Macht angehäuft hat, ist eine derart banale Platitüde, daß sie zwar paradoxerweise noch genauso verbreitet ist, wie eh und je, in einer ernsthaften Unterhaltung jedoch nicht mehr so oft wiederholt wird.» (S. 337) So muss dann die Forderung lauten, Informatikern eben diese ungeheure Macht stets vor Augen zu führen. Und darüberhinaus ist es die Aufgabe aller kritischen Informatiker, angehenden Technikern, Entwicklern und IT-Entscheidungsträgern immer wieder die Sinnfrage zu stellen: «Wir können zwar zählen, aber wir vergessen immer schneller, wie wir aussprechen sollen, bei welchen Dingen es überhaupt wichtig ist, daß sie gezählt werden und warum es überhaupt wichtig ist.» (S. 33) Nur weil etwas technisch machbar ist, heißt das noch lange nicht, dass man es durchführen müsse. Denn auch und gerade scheinbar harmlose Entwicklungen können immense Folgen für zukünftige Gesellschaften haben, wenn man beispielsweise die Entsorgung hochgiftiger Stoffe, die in technischen Geräten enthalten sind, oder Fragen des Dual Use betrachtet.

Das Mittel des Dialoges zur Klärung moralischer Probleme ist natürlich nicht auf sie beschränkt, wie Heinrich von Kleist in seinem Brief «Über die allmähliche Verfertigung der Gedanken beim Reden» treffend bemerkt. Gleich am Anfang schreibt er: «Wenn du etwas wissen willst, und es durch Meditation nicht finden kannst, so rate ich dir, mein lieber, sinnreicher Freund, mit dem nächsten Bekannten, der dir aufstößt, darüber zu sprechen. Es braucht nicht eben ein scharfdenkender Kopf zu sein, auch meine ich es nicht so, als ob du ihn darum befragen solltest: nein! Vielmehr sollst du es ihm selber allererst erzählen.» [3] Denn durch die Erzählung, durch diese Vermittlung der eigenen Gedanken mit Hilfe von Sprache entstehe Verständnis – bei einem selbst.

Anmerkungen:

[1] Ethische Leitlinien der GI

[2] Das Buch Gewissensbisse – Ethische Probleme der Informatik ist 2009 im transcript-Verlag erschienen, hier im Blog können einige der Fallbeispiele gelesen und diskutiert werden.

[3] Damit beginnt der Brief Über die allmähliche Verfertigung der Gedanken beim Reden von Heinrich von Kleist. (Er ist online verfügbar im Kleist-Archiv in der Version 11.02.)

Literaturverzeichnis

  • Arthur Schopenhauer: Über die Grundlage der Moral, Meiner Verlag, Hamburg, 2006.
  • Joseph Weizenbaum: Die Macht der Computer und die Ohnmacht der Vernunft, Suhrkamp Taschenbuch Verlag, Frankfurt am Main, 1977.

Errata: Kleist hat natürlich über die allmähliche Verfertigung der Gedanken gesprochen und nicht über deren Verfestigung.

Artikel in der FIfF-Kommunikation

gewissensbisse-coverZwar ist bisher auf der Webseite der FIfF-Kommunikation noch kein Hinweis auf das aktuelle Heft zu finden, aber die Ausgabe 1/2010 ist erschienen. Darin ist der versprochene Artikel von Stefan Klumpp und Constanze Kurz zum Thema Ethik und Verantwortung in der Informatik-Lehre. Die Idee hinter dem Buch und der Einsatz der Fallbeispiele aus Gewissensbisse werden dort thematisiert.

Ethische Fragen zu Nacktscannern

Seit einiger Zeit ist der Medien-Hype und die politische Diskussion um die Nacktscanner zwar wieder vorüber, ethische Fragen zu einem etwaigen zukünftigen Einsatz aber bleiben. Diesen widmet sich das Tübinger Zentrum für Ethik in den Wissenschaften, das Sicherheitskonzeptionen und -technologien hinsichtlich ihrer Vertretbarkeit analysiert und kritisch bewertet. Peter Leusch hat für das Deutschlandradio die Forscher des Zentrums befragt: Totaler Schutz durch totale Kontrolle? Das mp3 der Sendung bietet das Deutschlandradio ebenfalls zum Download an.

bilder eines nacktscannersWerden Passagiere künftig halbnackt am Flughafen zu sehen sein?

Nachtrag zum Fall Hegemann

Wir hatten uns hier im Blog zwar nur kurz mit dem Hegemann-Plagiatsfall befasst, allerdings ist der Täuschungsversuch der Autorin nach der Veröffentlichung der umstrittenen Leipziger Erklärung zum Schutz geistigen Eigentums kurz vor der Buchmesse weiterhin in der Diskussion.

Dankenswerterweise hat Anna Steinbauer bei den Perlentauchern eine umfangreiche Zusammenstellung der Artikel, die zum Thema erschienen sind, veröffentlicht. Wer sich also für den Hegemann-Fall interessiert, kann hier gut und gern ein paar Stunden lesen.

Die Schule spioniert ihre Schüler aus

Manchmal passieren Fälle, die man sich gar nicht ausdenken kann. Dieser Fall aus den USA behandelt eine Schule, die ihren Schülern nachspioniert hat:

Der kanadische Journalist Cory Doctorow (der Autor von „Little Brother – Freiheit ist etwas, was du dir nehmen musst“) berichtet über den Lower Merion School District im US-Bundesstaat Pennsylvania. Sie haben für ihre über 2300 Schüler und Schülerinnen in diesem reichen Vorort von Philadelphia in den Klassen neun bis zwölf Laptops zur Verfügung gestellt. Für Schüler, welche die Versicherungsgebühren nicht zahlen können, gibt es Leihgeräte zum Gebrauch in der Schule.

Es ist nicht einfach, so viele Laptops auf den neuesten Stand zu halten und aufzupassen, dass keine geklaute Software darauf installiert wird. Sie haben daher das (inzwischen in Active Manager umbenannte) Produkt LANrev installiert, das außerdem mit dem sog. „Theft Protect“ ausgestattet war. Damit konnte die iSight-Kamera in dem Mac-Laptop aktiviert werden, ohne dass das Aktivierungslämpchen leuchtet (eine technische Diskussion findet man hier).

Ein Techniker der Schule hat in ein Mac-Forum erklärt, wie es geht, die Kameras auszuschalten. Es ist dort ein längere Diskussion entstanden über „paranoide“ Leute, die ihre Kameras mit Klebezettel abdecken sowie über Diebstahl. Es gibt auch einen Webcast von MacEnterprise, wo dieser Schultechniker groß angibt, wie das funktioniert.

„Es ist eine fantastische Eigenschaft“, sagt der Techniker. „Ich kann es nicht hoch genug loben.“

Dann kam der Tag, an den die Vizerektorin einen 15-jährigen Schüler getadelt hat, weil er zu Hause Drogen genommen hatte, wie der Lokalzeitung Philadelphia Enquirer berichtet. Als Beweis des Fehlverhaltens wurde ein Foto gezeigt, das vom Laptop aus aufgenommen wurde. Das Foto wurde gemacht, als versucht wurde, diesen Rechner zu orten, weil der Schüler angeblich ohne Erlaubnis ein Leihgerät mitgenommen hatte.

Der Schüler sagte aber, dass er nur eine Süßigkeit gegessen hatte, die aber durchaus genauso wie Tabletten aussähe: Mike & Ike. Und er hatte jeden Tag des letzten Monats diesen Rechner mit nach Hause nehmen dürfen, keiner hatte etwas gesagt. Seine Eltern gerieten in Rage, als sie erfuhren, dass bereits mehrfach (44 Mal) im laufenden Jahr Bilder aufgenommen worden sind, obwohl die Eltern nicht informiert waren, dass so etwas möglich war. Sie haben in einer  Sammelklage die Schule auf Unterlassung verklagt. Nebenbei sei bemerkt, dass 18 Mal ein geklauter Rechner wiedergefunden wurde.

Jetzt sind verschiedene Behörden aktiv geworden, auch auf US-Bundesebene. Und die Schule hat selber eine Untersuchung begonnen und sich bei den Eltern entschuldigt.

Durch das Publikmachen sind aber weitere Details bekanntgeworden. Schülervertreter hatten bereits vor einem Jahr die Sorge geäußert, dass ihre Laptops durchsucht werden könnten, darauf hat die Schule nicht reagiert. Und es wurde klar, dass diese Funktionalität von der Schule aus aktiviert werden muss. Es ist also nicht „per default“ angeschaltet.

Andere Schüler empfanden überhaupt kein Problem beider Überwachung, sie fanden es nur problematisch, dass sie darüber nicht informiert worden waren. Schließlich bietet die Technologie eine Möglichkeit, mit Steuergeldern angeschaffte Gegenstände wiederzubeschaffen.

(Weitere detaillierte Informationen: WikipediaTechrepublic)

Fragen:

  • Unabhängig von der Rechtslage, was für eine Erwartung an der Privatsphäre kann man haben? Ist diese Erwartung vom Alter unabhängig?
  • Ändert sich der Lage, wenn es Tatsache wäre, dass der Schüler den Laptop ohne Erlaubnis vom Schulgelände entfernt hat? Hat die Schule dann nicht das Recht, der Rechner zu orten?
  • Die Schüler mussten unterschreiben, dass sie die Laptops nur für die Schule nutzen würden, nicht für private E-Mails oder andere Zwecke. Hat also nicht auch in diesem Fall die Schule das Recht, zu beobachten, was mit den Rechnern passiert?
  • Wenn man nicht gegen die Regeln verstößt, hat man dann nichts zu befürchten, da ja die Beobachtung nur genutzt wird, wenn es darum geht, ein Regelverstoß aufzuklären? Warum sollte es hier ein Problem geben?
  • Da es sich in den USA abspielt, muss man nicht eigentlich annehmen, dass die Schule nur verklagt wird in der Hoffnung, dass ein hoher Schadenersatz dabei herausspringt? Darf man als Einzelne eine Sammelklage einreichen, ohne alle Beteiligten zu fragen, ob sie dabei sein wollen?
  • Sollte die Schule verlieren, würde die Schadenersatzzahlung vom Steuerzahler getragen werden müssen. Gibt es nicht einen anderen Weg, in diesem Fall eine Lösung zu finden?
  • Ist es ein Problem, dass die Schülervertreter nicht Alarm geschlagen haben, als ihre Bedenken nicht ausgeräumt wurden?
  • Sollte man die Privatrechner derjenigen Leute durchsuchen, die diese Kameras aktivieren konnten, um zu sehen, ob sie Bilder von sich entkleidenden Kindern gespeichert haben?
  • Wäre die Situation anders, wenn es sich um Erwachsene handeln würde, die einen Firmenlaptop mit nach Hause genommen haben?
  • Die Vizerektorin wird in den Berichten auch namentlich erwähnt. Ist das ein Problem? Sie hat ja nur ihren Job gemacht.
  • Gibt es ethische Bedenken, Süßigkeiten in Form von Tabletten anzufertigen?

Rezension in der FAZ

„Orientierung im digitalen Maschinenraum“ – Rezension von Miloš Vec über „Gewissensbisse“ (Online / Print: 3.3.2010, S. 28)

Ideen klonen

Gerade erschien im Informatik Spektrum unser Plagiatsfall, da diskutiert eine breite Öffentlichkeit den Hegemann-Fall. Die Autorin Helene Hegemann wurde „beim Mogeln“ erwischt, Teile ihres Romans sind plagiiert.

Ohne auf die näheren Umstände dieses Plagiatsfalls und die dreisten Verteidigungsargumente eingehen zu wollen, ist ein Aspekt auch für die allgemeine Diskussion über das Abschreiben und Kopieren ohne Quellenverweis interessant: Die Frankfurter Rundschau stellt in dem Artikel Der Abgeschriebene nämlich den eigentlichen Urheber in den Vordergrund. Er kann sich natürlich nicht aussuchen, das Opfer eines Plagiators zu werden, auch hat er keine Wahl, welcher Text zu welcher Zeit von ihm kopiert wird: „Ob er es nun will oder nicht: Das Plagiat von Helene Hegemann hat ihn berühmt gemacht.“ Der Betroffene sollte auch im wissenschaftlichen Kontext in der ethischen Debatte nicht zu kurz kommen.

Scenario: Genetic Data

Debora Weber-Wulff

[A real case]

A company was started in Iceland in 1996 and was working on determining genetic markers for specific diseases. When the human genome was sequenced in 2003 the company began storing the data for all of the inhabitants of Iceland.

There are only 300.000 inhabitants and they are quite strongly interrelated. In addition, the government has a lot of publically obtainable information about the inhabitants, that can easily be linked to other data using the tax number that every citizen is given. The Icelandic government also gave the company access to all health records in the country.

Icelanders are very enthusiastic about science and modern technology, and they willingly lined up to donate their data and DNA.

The company managed to set up a complete database, and was finding many interesting markers for certain kinds of diseases, and were successful in finding many markers for diabetes and some forms of cancer. But the Icelandic economy took a nosedive in 2008, and before long there was no money to continue the operation. The company filed for bankruptcy and began selling off assets to cover their debt.

The company was discovered to be in litigation against five former researchers, who left the company and moved to the United States, taking copies of the data with them. The researchers had been working on some long-year projects on determining predisposition to certain forms of cancer and were worried that the data might disappear if the company went broke.

An Icelandic woman had also sued the company to keep them from disclosing information about her and her now deceased father. Since she shares half of his genetic markers, releasing his health records would make information about her available. She won her case before the Icelandic Supreme Court, who determined that the company had not properly observed Icelandic privacy laws.

Questions:

  • Who are the actors in this scenario? There may be unnamed actors, and not all named actors are truly involved in the case.
  • What are the ethical problems (not the legal problems) involved in this scenario?
  • What will happen if another company purchases the database from this company? What are the ethical aspects of economic problems? Should the database be destroyed? What should happen in a case like this?
  • What should the researchers have done, when they saw their company in danger of going broke and their research threatened?
  • What if companies could request that prospective employees submit a genetic record, similar to a credit record, showing them to be free of predisposition to certain diseases? What are the implications of this?

Created for a workship for the Master’s Program in Computational Neuroscience, Charité, Berlin in 2010.

Scenario: Personal Health Records

Debora Weber-Wulff

Personal Health Records are all the rage. Do you remember what X-rays you have had or the names of the medicines that you regularly use? What were your blood cholesterol levels last year?

The company Health & More offers a personal online health record that provides a complete and accurate summary of the health and medical history for their customers by gathering data from many sources, including their fitbits, and making this information accessible online to anyone who has the necessary electronic credentials to view the information. In particular, Health & More collects information about

  • allergies and adverse drug reactions,
  • medications (including dose and how often taken) including over the counter medications and herbal remedies,
  • illnesses and hospitalizations,
  • surgeries and other procedures,
  • vaccinations,
  • laboratory test results,
  • and family history. (based on the Wikipedia entry PHR)

In order to finance this service, which is offered to customers for a very low price, Health & More sells de-anonymized data to interested parties, both medical researchers, health care providers, and marketers.
Inge had an account with Health & More, and since both her mother and her aunt had died of breast cancer, she religiously had a mammography every year. After her kids were grown up enough to take care of themselves, she applied for and obtained a great new job that offered health benefits.

But the health plan – for no clear reason – refused to offer her coverage for breast cancer, unless she paid a very high additional monthly fee. Inge managed to discover that the health plan provider was also a customer of Health & More. But it was not possible for her to discover the reasons why she was denied coverage

Questions

  • Who are the actors in this scenario? There may be unnamed actors, and not all named actors are truly involved in the case.
  • What are the ethical problems (not the legal problems) involved in this scenario?
  • Should Inge be able to discover why she was denied coverage?
  • Is it ethical for Health & More to sell de-anonymized data to others? They would not be able to cover their expenses otherwise.
  • What would be an ethical way of regulating access to the data?

Created for a workship for the Master’s Program in Computational Neuroscience, Charité, Berlin in 2010.