Archiv

Fallbeispiele Chronologisch

2024 (.inf)

2023 (.inf)

Bis 2022 werden die Gewissensbits im Informatik Spektrum veröffentlicht. Seit 2023 in .inf Das Informatik-Magazin.

2022 (Heft 45)

2021 (Heft 44)

2020 (Heft 43)

2019 (Heft 42)

2018 (Heft 41)

2017 (Heft 40)

2016 (Heft 39)

2015 (Heft 38)

2014 (Heft 37)

2013 (Heft 36)

2012 (Heft 35)

2011 (Heft 34)

2010 (Heft 33)

2009 (Heft 32)


B1: Buch 1, Gewissensbisse – Fallbeispiele zu Informatik und Ethik. Biometrie – Datenschutz – geistiges Eigentum. Mit Christina Class, Wolfgang Coy, Constanze Kurz und David Zellhöfer. Transkript Verlag : Bielefeld. 2009. ISBN 978-3-8376-1221-9
B2: Buch 2 (in Arbeit)

Fallbeispiel: Manipulationen

Christina B. Class & Debora Weber-Wulff

Die Firma AlgoConsult entwickelt hochspezialisierte Verfahren für verschiedenste Anwendungsbereiche. Aus Marketing-Gründen werden sie gegenüber Kunden und zunehmend auch hausintern ‘Algorithmen’ genannt, auch wenn dies eher Etikettenschwindel ist.

Im Projekt „CompanyRate“ wird für Investoren im Bankensektor ein Ratingsystem für in Deutschland tätige Unternehmen erstellt. Der Index soll zukünftige Investmententscheidungen erleichtern. Eine erste Version wurde im letzten Monat einigen ausgewählten Beta-Kunden vorgestellt und die ersten Rückmeldungen sind sehr positiv.

Um das Rating zu erstellen, werden verschiedene Ansätze des maschinellen Lernens kombiniert. Die Menge der Einflussfaktoren ist sehr groß, neben Börsenkursen und aktuellen Marktinformationen werden u.a. Daten über bekannte Werbebudgets, Medienpräsenz, Messebeteiligungen, Marktanteil, etc. herangezogen. Die verwendeten Algorithmen und Einflussfaktoren werden von AlgoConsult streng geheim gehalten, auch um eine Manipulation des „CompanyRate“-Index zu verhindern, wie AlgoConsult auf ihrer Projektwebseite anpreist.

Alle Projektteilnehmer werden daher unter den Mitarbeitern, die schon mindestens ein Jahr bei AlgoConsult tätig sind, sorgfältig ausgewählt und müssen für das Projekt spezifische NDAs, non-disclosure agreements, unterschreiben. Auch dürfen sie privat nicht in indizierte  Firmen investieren oder in Fonds, in denen diese Firmen einen großen Anteil im Portfolio haben. Dafür werden die Software-Analysten sehr gut bezahlt.

Achim ist stolzes Mitglied im Kernteam von „CompanyRate“, das für den Index zuständig ist. Er verabschiedet sich von seinem Kollegen Martin in die Mittagspause. Obwohl sie eigentlich immer zusammen beim Japaner oder Mexikaner im Erdgeschoss des Hochhauses essen, sagt Martin, dass er heute etwas von zu Hause mitgebracht hat. Am Fahrstuhl, der sich nur mit Passierkarte öffnen lässt, stellt Achim fest, dass sein Portemonnaie noch im Regenmantel steckt. Er geht zurück zum Büro.

Als er an der Tür steht, hört er, wie Martin, sonst sehr ruhig, aufgeregt telefoniert. Es ist keiner im Flur und so bleibt Achim neugierig stehen und lauscht verstohlen. Er meint herauszuhören, dass Martin mit jemandem bei PFC telefoniert, „People’s Fruit Company“. Trotz amerikanischem Namen handelt es sich um eine deutsche Firma, die im Index geführt wird. Achim räuspert sich und geht ins Büro. Martin legt schnell auf. „Meine Mutter, jeden Tag muss sie mich wegen irgendwas anrufen,“ lacht Martin nervös. Achim holt sein Portemonnaie und trifft sich mit den Kollegen einer anderen Abteilung wie gewohnt zum Essen, aber er kann sich auf die Gespräche nicht so recht konzentrieren.

Obwohl es eigentlich eine ruhige Phase im Projekt ist, da der Index gerade bei einigen Beta-Kunden ausprobiert wird, ist Martin am Nachmittag ungewöhnlich konzentriert und beschäftigt. Noch nicht einmal für den Nachmittagskaffee scheint er Zeit zu haben. Er ist auch immer noch am arbeiten als Achim nach Hause fährt.

Am nächsten Morgen stellt Achim fest, dass Martin am Abend zuvor viel Code eingecheckt hat, der über Nacht erfolgreich durch die Test-Suite gelaufen ist. „Meine Güte, Martin war aber fleißig denkt Achim, als er die Logs ansieht. Lauter Dokumentationen in den verschiedensten Ecken des Systems, das wird den Chef freuen. Achim lässt sich ein paar Programmänderungen, die alle wie üblich kommentiert sind,  anzeigen, um zu sehen, ob die geänderten Dokumentationen wirklich korrekt sind.

Bei der dritten Änderung stutzt Achim. Da wurde auch etwas an den Formeln geändert. Neu wird ein Wert bizarrer weise von einer Datei in der Cloud gelesen, statt wie zuvor errechnet zu werden. Bei genauerer Betrachtung stellt er fest, dass der Wert der Cloud nur in Fällen, die ziemlich genau auf die PFC zutreffen, verwendet wird.

Jetzt ist Achim unsicher, was er tun soll. Gerade letzte Woche wurde Anne fristlos entlassen, obwohl sie eine hervorragende Programmiererin ist. Sie wirkte seit einigen Wochen ziemlich bekümmert und hatte sich beim Chef einen Termin geben lassen. Nach dem Gespräch wurde die vom Sicherheitsdienst an ihren Schreibtisch eskortiert, um ihre Sachen zu holen, und aus des Gebäude begleitet. Das war ziemlich schockierend für das Team. Aber um nicht in irgendwas hineingezogen zu werden, haben alle weitergemacht und so getan, als sei nichts passiert.

Am Abend hatte Achim mehrfach versucht, Anne zu erreichen, aber sie drückte ihn immer weg. Er war sogar am Wochenende vorbeigefahren und hat draußen vor Annes Wohnung gestanden, bis sie zum Einkaufen rauskam. Als sie ihn sah, zischte sie nur „Geh bitte weg, ich kann nicht reden!“.

Achim ist sehr verunsichert. Er kennt Anne schon vom Studium. Sie ist hochbegabt und sehr ehrlich. Er kann sich nicht wirklich vorstellen, dass sie gegen die NDAs verstoßen hat oder irgendetwas getan haben soll, was AlgoConsult schaden könnte. Ob das Rating-System evtl. auch an anderer Stelle manipuliert wurde und sie das gemeldet hatte? Soll er riskieren, mit seinem Chef über seine Beobachtungen zu sprechen? Soll er wirklich den gut bezahlen Job auf’s Spiel setzen? Als er ins Auto steigt, läuft gerade eine Wiederholung des Wirtschaftsprogramms eines lokalen Senders. Der Pressesprecher einer Investor-Gruppe erzählt in einem Interview, dass sie nun eine Software basierend auf künstlicher Intelligenz entwickeln, um Kleinanleger gute Anlagemöglichkeiten aufzuzeigen und diese bei Investitionsentscheidungen zu unterstützen.

Was soll Achim tun?

Fragen

  • Gibt es irgendeinen Grund, der rechtfertigt, warum Achim das Gespräch von Martin mithörte?
  • Wie sicher kann sich Achim sein, dass Martin mit PFC telefoniert hat? Spielt das für den vorliegenden Fall eine Rolle?
  • Ist es in Ordnung, dass Achim mit Hilfe der Programmänderungen Martins Arbeit genauer unter die Lupe nimmt? Wie weit darf so eine „Kontrolle“ gehen?
  • Wie ist zu beurteilen, dass Martin so viele Änderungen und Ergänzungen der internen Programmdokumentation generiert hat, um seine Änderung der Berechnung zu „verschleiern“? Besteht die Möglichkeit, dass Martin die Kommentare zu den Änderungen einfach mit copy-paste eingetragen hat? Wie zuverlässig sind solche Kommentare? Wie wichtig ist es, Programmänderungen präzise zu dokumentieren?
  • Kann Achim davon ausgehen, dass diese Änderung mit der Absicht geschah, PFC zu bevorteilen?
  • Ist es möglich, dass der Chef über die Änderungen Martins informiert ist und ihn evtl. sogar angewiesen hat, diese  vorzunehmen?
  • Ist es für die Achim relevant, dass Anne anscheinend gefeuert wurde und jetzt nicht mehr darüber sprechen mag?
  • Soll man generell an Softwaresystemen arbeiten, die mit einem non-disclosure-Agreement behaftet sind?
  • Rating- und Matching-Algorithmen können das Kerngeschäft und einen zentralen Vermögenswert einer Firma ausmachen. Oft werden diese Algorithmen und Einflussfaktoren daher geheim gehalten. Aus ökonomischer Sicht verständlich, aber wie abhängig werden die Benutzer dann von den Algorithmen? Welche Manipulationsmöglichkeiten ergeben sich? Welche Gefahren können sich daraus nicht nur für den einzelnen Benutzer, sondern für Wirtschaftssysteme oder Gesellschaften ergeben?

Erschienen in Informatik-Spektrum, 39 (3) 2016, S. 247-248

Informationsfreiheit: Klage nach ablehnender Antwort

Manchmal ist die ablehnende Antwort auf eine Anfrage nach dem Informationsfreiheitsgesetz so inakzeptabel, dass man das nicht auf sich sitzenlassen kann. Nach dem Informationsfreiheitsgesetz (IFG), das im Jahr 2006 in Kraft trat, besteht ein Anspruch auf Zugang zu amtlichen Informationen für jedermann. Ohne Begründung kann jeder Einsicht in Behördenakten verlangen. Die Informationsfreiheit ist in Deutschland aber auch ein Grundrecht aus Artikel 5 Abs. 1 Grundgesetz.

In den letzten Jahren ist eine Entwicklung zu beobachten, die Ausnahmen des IFG weit auszulegen und insbesondere im Bereich der Polizeibehörden, Geheimdienste und der dafür zuständigen Ministerien mit phrasenhaften Verweisen auf die nationale Sicherheit abzulehnen. Häufig wird bei IFG-Anfragen in diesen Bereichen nicht mehr preisgegeben als unbedingt nötig ist oder gleich jegliche Auskunft verweigert.

Die hier gemeinte Anfrage, die von Rainer Rehak gestellt wurde, bezieht sich auf die Rigaer Straße in Berlin als sogenannter „kriminalitätsbelasteter Ort“ nach dem Berliner Allgemeinen Sicherheits- und Ordnungsgesetz (ASOG). Die Berliner Polizei hat die Anfrage nach Informationen, ob und warum die Rigaer Straße und damit ein Teil des Nordkiezes in Berlin-Friedrichshain als „kriminalitätsbelasteter Ort“ eingestuft wird, im März abgelehnt (pdf) und mit der folgenden Begründung beschieden, nämlich dass…

…staatliches Handeln, insbesondere polizeiliches Handeln […] nicht kalkulierbar oder voraussehbar sein

dürfen. Wenn dieses Handeln kalkulierbar und voraussehbar wäre und man die „Einsatzkonzeption Rigaer Straße“ herausgebe, könnte…

…die gesetzlich übertragene Aufgabe der Gefahrenabwehr und der vorbeugenden Strafverfolgung (sic) nicht mehr erfüllt werden.

Es geht dabei um erhebliche Einschränkungen von Grund- und Bürgerrechten in der Rigaer Straße. Im Juni war dort das Haus mit der Nummer 94 zudem unrechtmäßig teilgeräumt worden, was im beginnenden Wahlkampf zu anhaltenden politischen Scharmützeln führt, da der Berliner Innensenator Frank Henkel (CDU) dafür die Verantwortung trägt.

Das FIfF bittet um Unterstützung

Das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung e. V. (FIfF) klagt nun gegen die Informationsverweigerung und bittet gleichzeitig um Spenden für die Finanzierung des Rechtsstreits. Das FIfF schreibt in seiner Mitteilung:

Wenn jedoch nur IFG-Anfragen nach dem Kaffeeverbrauch von Ministerien beantwortet werden, nicht aber nach tatsächlich relevanten Dokumenten staatlichen Handelns, dann wird der Kern dieser Gesetze konterkariert.

Wer sich beteiligen möchte, kann hier spenden.

Vergleichende Studien über das studentische Plagiieren

Die Washington Post widmet sich in einem längeren Artikel Fragen des wissenschaftlichen Fehlverhaltens und der Sicht von Studenten auf Grundregeln wissenschaftlichen Arbeitens.

die trumpsSeit der Diskussion um Donald Trumps Gattin Melania Trump und ihre Rede beim Nominierungsparteitag der Republikaner, die in Teilen von einer Rede von Michelle Obama abgekupfert war, wird in den Vereinigten Staaten Plagiarismus wieder öffentlich diskutiert. Argumentativ erinnern viele Wortmeldungen an die deutsche Diskussion um die Plagiate in den Doktorarbeiten von Bildungsministerin Annette Schavan und Verteidigungsministerin Ursula von der Leyen, obwohl natürlich eine politische Rede nicht mit einer akademischen Qualifizierungsarbeit zu vergleichen ist. Denn selbstverständlich ist von angehenden Promovierten ein anderes Wissen darum zu erwarten, wie man wissenschaftlich sauber arbeitet.

Nur die allgemeine Berlusconisierung in der Politik verbindet die Diskussionen wohl. Melania Trumps Rede hat immerhin das Gespräch über betrügerische Energien und Verlogenheit geweckt. Die Kontroverse hat auch einen sehenswerten kreativen Ausschlag der US-Cartoonisten ausgelöst, die mit Spott nicht sparen.

Die WaPo nimmt nun aber Osteuropa in den Blick und schreibt über das Denken und Verhalten bei westlichen Studenten gegenüber Studenten des ehemaligen Ostblocks, wenn es um Plagiieren, Betrügen und Kopieren geht. Es ist schließlich kein deutsches Phänomen, dass nur hierzulande Politiker mit gefälschten Arbeiten auffliegen, wie zwei dreiste Plagiatsfälle in der rumänischen Spitzenpolitik zeigen.

Unabhängig davon, ob man den Argumenten in der WaPo folgen möchte, wonach die Unterschiede bei der Wahrnehmung von Plagiaten und Betrügereien auf das politische System und die verschiedenen Werteordnungen zwischen den einst real existierenden Kapitalismus- und Sozialismus-Varianten zurückzuführen sei, werden eine ganze Reihe an internationalen Studienergebnissen zusammengetragen:

Im Jahr 2002 verglichen Forscher US-amerikanische mit russischen Studenten. 64 Prozent der Russen gaben zu, schon mal betrogen zu haben. Zum Vergleich: Bei den US-Studenten waren es 55 Prozent. Für tschechische Befragte war die Signifikanz einer späteren Studie höher: 44,8 Prozent gegenüber nur 14,1 Prozent bei ihren US-amerikanischen Altersgenossen gaben zu, schon mal von jemandem kopiert oder abgeschrieben zu haben. Bei kroatischen Studenten gaben 20 Prozent an, dass Täuschen bei Prüfungen schon irgendwie statthaft sei, wohingegen britische Studenten das nur zu 7 Prozent so sahen.

Ein weiterer Vergleich zwischen ukrainischen und US-amerikanischen Studenten: Untersucht wurde beispielsweise, wie häufig sie betrogen und wie ihre Sicht auf Mogeleien und Täuschungen ist. Insgesamt gab es auch hier signifikante Unterschiede: Auf einer Art Mogel-Skala von 1 („nie“) bis 5 („täglich“) kamen die US-Studenten auf einen Wert von 1,3, die aus der Ukraine auf 2,38. Gleichzeitig hielten mehr US-Studenten Betrügen auch für ein falsches Verhalten. Man hatte den Studenten sechs verschiedene Arten von Täuschungen vorgegeben, die allesamt von den ukrainischen Studenten als weniger falsch eingestuft wurden als das die US-Studenten einschätzten. Zugleich wurden alle sechs Täuschungsarten auf der ukrainischen Seite auch häufiger angewendet.

Allerdings könnte das auch der Grund für die niedrigeren Werte bei der Angabe über Betrügereien sein:

If U.S. students believe plagiarism and cheating to be worse than students in post-Communist Europe do, they might underreport having done so. Instead of revealing that cheating is more prevalent in Eastern Europe, these studies may simply be telling us only that it’s less embarrassing to admit.

Gründe für das studentische Plagiieren könnten auch natürlich darin liegen, nicht genau zu wissen, was ein Plagiat ist. In den angegebenen Studien spielt die Frage, welches Wissen die Studenten über Grundregeln wissenschaftlichen Arbeitens haben, keine große Rolle, da die abgefragten Arten der Täuschungen sehr einfach als wissentliches Betrügen zu klassifizieren sind.

Es gibt im Artikel auch ein kleines Fallbeispiel zu betrügerischem Verhalten:

Here’s the hypothetical scenario: Two of them cheated during an exam. Student A copied answers from Student B, with B’s consent. Student C reported this to the department.

Wie schätzen wohl russische und US-amerikanische Studenten das Verhalten von A, B und C ein? Nicht gleich hinklicken, sondern erst Vermutungen anstellen, wie neben A und B der „Informant“ C bewertet wird und warum.

Bei der Gelegenheit legen wir nochmal unser Fallbeispiel über Betrug und Plagiat ans Herz.

Bildlizenz: CC BY-ND 2.0, disneyabc.

Fallbeispiel: IT-Sicherheit: changeme

Rainer Rehak & Stefan Ullrich

Tim kann man wohl landläufig als ,,politisch interessierten Techie“ bezeichnen. Er studierte technische Informatik an der Hochschule in seiner Heimatstadt und verbrachte auch privat viel Zeit am Gerät. Nach einem Kurs zu IT-Sicherheit hatte eine Dozentin ihn auf einen großen jährlichen ,,Hackerkongress“ hingewiesen und prompt war er ohne viel nachzudenken einfach so mit einem Kommilitonen hingefahren.

Er besuchte allerlei interessante, verstörende und skurrile Vorträge. Ein Vortrag hatte ihn besonders beeindruckt. Es ging um einen Hack, wobei hunderttausende Passwörter veröffentlicht worden waren. Da bauten die besten Techniker und Technikerinnen die sichersten Computersysteme, die Tim jemals gesehen hatte und die Leute verwendeten ,,12345“, ,,password“ oder gar ,,changeme“ um ihre Daten zu schützen. Das war für ihn unfassbar, aber traurige Realität. An diesem Abend besuchte er einen Workshop zu funkbasierten Smartcards, dabei ging es um das Auslesen, Analysieren und überhaupt Verstehen dieser bald allgegenwärtigen Minisysteme. Die Workshopleiterin namens Juliane beantwortete alle seine Fragen und war selbst nachwie vor begeistert von dieser Technik.

Cartes 2012 - CC BY-NC Pierre Metivier

Cartes 2012 – CC BY-NC Pierre Metivier

Gegen Ende des Workshops fiel ihm ein, dass er ja die so genannte ,,Multikarte“ seiner Hochschule dabei hatte. Wie zu erwarten war, sendete die Karte nur eine ID undwartete auf eine irgendwie geartete Authentifizierung, bei willkürlichen Eingaben folgte wenig überraschend Kauderwelsch. Er probierte alles Mögliche aus, was er so in seinenVorlesungen gelernt hatte, aber nichts klärte sich. Als die letzte Workshopteilnehmerin gegangen war, kam Juliane zu ihm und sie diskutierten über die vorliegende Situation. BeimHerumflachsen über Sicherheitsproblematiken und -fallstricke war es schließlich Juliane, die ihn an den Vortrag des Hackerkongresses erinnerte. Tim legte seine ,,Multikarte“ wieder auf das Lesegerät, aktivierte die einfachste aller Authentifizierungsarten und gab als Passwort den Hersteller-Standard ,,changeme“ ein – bingo! Nun gab die Karte bereitwillig Auskunft über Bezahlvorgänge, Aufladedaten und auch über den Kontostand. Scheinbar war die günstigste aller Lösungen ohne Schattenkonten oder andere Sicherungsmaßnahmen verwendet worden, ein sicherheitstechnischer Alptraum!

Er rief seinen Kommilitonen herbei, der auch so eine Karte verwendete, und auch dort waren die Informationen mit diesem Passwort einfach auslesbar, kopierbar und änderbar. Den ganzen Abend dachte er darüber nach,welche Systeme um ihn herum wohl ebenso unsicher waren. Türschlösser, EC-Karten, Herzschrittmacher, Kinderspielzeug, Spielzeugdrohnen – das Internet der angreifbaren Dinge. Sollte er den ,,Fehler“ nun der Herstellerfirma melden, sich bei der Hochschule beschweren oder erst mal ein paar kostenlose Essen vertilgen? Dann dachte er daran, dass man mit der Multicard auch Kopien und Scans in der Bibliothek bezahlen konnte. Die Digitalisierung eines Buches kostet um die 30 Euro, das würde sich durchaus lohnen.

Je mehr Tim über die Möglichkeiten nachdachte, desto eher kamen ihm auch soziale Projekte in den Sinn. Im Winter könnte man Schlüsselkarten an umliegende Obdachlose verteilen oder Mensakarten an weniger bemittelte Kommilitonen. Aber wie würden die Angesprochenen reagieren? Er war unentschlossen und fragte im privaten Forum seiner Studienkollegen nach Handlungsoptionen.

Am Morgen des nächsten Tage hatte er ein paar neue E-Mails im Postfach. Sein Kommilitone berichtete in einer E-Mail von vielen interessanten Gesprächen über diese Entdeckung, die er mit allerlei Leutenauch inanderen Foren geführt hatte, ein paar Spam-Mails waren dabei und dann eine E-Mail mit merkwürdigem Betreff und Absender. Da schrieb jemand, dass er großes Interesse daran hatte, dass dieser Fehler nicht behoben und auf gar keinen Fall an die Öffentlichkeit kommen sollte. Dieses Schweigen würde auch großzügig bezahlt werden. Zusätzlich war die Person auch an weiteren ,,Fehlern“ des Abrechnungskartensystems interessiert. Bedroht kam er sich nicht vor, aber seltsam war das doch. Er überlegte, was das nun eigentlich bedeutete.

Fragen

  1. Sollte Tim seinen Mitstudierenden aus wirtschaftlich schwachen Familien helfen, indem er das Guthaben ihrer Mensakarte auflädt?
  2. Welche Verantwortung trägt die Betreiberfirma der Mensa, die ein solches unsicheres Passwort eingesetzt hat?
  3. Macht es einen moralischen Unterschied, ob der Unbekannte sich als ein Hacktivist für sozial minderbemittelte herausstellt oder als Mitarbeiter der Herstellerfirma oder gar als Geheimdienstzuarbeiter?
  4. Welche Anreize setzt es, wenn ein Akteur Geld für Sicherheitslücken bietet?
  5. Machen sich die Mitglieder des privaten Forums mitschuldig, wenn sie von einer solchen Geschichte erfahren, aber nichts unternehmen?
  6. Hätten die Vortragenden des ,,Hackerkongresses“ nicht ihrerseits die Sicherheitslücken bereits dem Hersteller melden und somit beseitigen können?
  7. Würde es einen (moralischen) Unterschied machen, wenn die Schwachstelle nur durch aufwändige Verfahren (Ablösen des Chips, Betrachtung unter Elektronenmikroskop etc.) auffindbar gewesen wäre?

Erschienen im Informatik Spektrum 39(2), 2016, S. 166–167.

Scenario: Panopticon vs. Civic Courage

Thomas Kittel, Carsten Trinitis

A Bavarian company that develops camera systems and software for video surveillance in public places is expanding its product’s functionality to include the precise localization of various sounds (for example, gunshots) using multiple microphones. A record is made of all the data captured by the microphones.

The data collected is of such high quality that individual conversations can be easily extracted. So now it’s possible in real-time to use facial recognition posted in a Facebook search to identify who is in a surveillance video and to extract what that person is saying automatically.

Even though company employees are fully aware of the implications for the privacy of people being observed, they consider it an essential crime-fighting tool because they believe it will deter would-be criminals who come within viewing range of the cameras.

So that’s why they’re marketing the product as a video security system.

As an employee, Bernd knows that this new technology not only stores people’s movement profiles but also saves their conversations for thirty days. But he simply can’t imagine why anyone would abuse this data for nefarious purposes. Besides, he thinks the company is so small that no one would be interested in the data they collect anyway.

Plus, the budget for the system is limited, so he decides to set up the servers and databanks for storing all this sensitive data himself without knowing enough about data security to do this.

After an eighteen-month test phase at two centrally located public squares and in the city’s public transportation system, the audio-visual surveillance system is slated for city-wide installation.

Politicians and business executives speak in terms of a crucial system that’s already reduced the city’s crime rate and can now reduce it even further with this new technology (“Our success rate speaks for itself!”). Many residents were initially skeptical because it meant that their every move would be caught on tape, and now even their conversations would be recorded (and saved). Still, most of them quickly got used to it and now feel comfortable (and safe) with the system.

One balmy summer evening after the test period had run, two foreign correspondents ride a bus through the city center as tourists. Through the bus window, they witness a man stumble backward out of a bar and into the street. Behind him, two other stockily built individuals follow and attack the man lying on the ground. The journalists also watch as bystanders retreat rather than intervene and stand idly by at a safe distance as the offenders continue to beat the victim bloody as he is lying on the ground. Peter is among the locals passing by: he just assumes that the perpetrators will be easily identified and apprehended with the help of the audio and video recordings, so he figures there’s no need to risk his own life by getting involved.

Meanwhile, the out-of-town journalists urge the driver to call in an emergency and stop so the bus they can get out and intervene. But all the bus driver has to say is, “Don’t worry about it; that’s all on video. They’ll catch the perpetrators.” One of the passengers screams at them, “Do you want to get yourselves killed, or what? They won’t stop with you!” As they drive by, they see the victim’s motionless body lying in his blood.

After the incident, police officer Karl was tasked with reviewing the video data to ascertain precisely what happened that evening and who the perpetrators were. The officer first questioned some of the passersby, Peter included, whose contact information had been obtained through a radio cell inquiry and who were automatically summoned. Most witnesses, though, only vaguely recalled the incident. They’ve already suppressed it from memory, assuming that what happened was captured on video anyway. So Karl requests access to audio and video recordings from the crime scene. But about two weeks later, he learns that the cameras for that location were inoperable when the crime was committed. However, from the audio recordings, he knows that the perpetrators had been threatening the victim for quite some time inside the bar. Because there’s no video footage, though, the investigation hits a dead-end.

Upon their return home, the two journalists pen an article about civic courage in Germany—using the bus incident as a case in point. It’s published in the print edition of a major newspaper and on the paper’s website. A debate about the incident quickly ensues on social media, prompting traditional news outlets to delve more deeply into the matter. It becomes apparent that perceived security leads to widespread insecurity and indifference since people no longer feel any sense of personal responsibility. Closer examination reveals that crime hasn’t diminished; it’s merely moved from the significant public squares to other less highly surveilled places. Crime in some of these different areas has gotten so bad that people are afraid even to visit these neighborhoods. Even the police struggle to gain control over these new crime hotspots.

As a result, the developers of the surveillance system are suddenly subject to widespread media scrutiny. However, the developers are becoming increasingly aware of the drawbacks to deploying this technology: The system that was intended to make the city safer has led to the death of at least one individual. Bernd doubts how the cameras just happened to have failed, so he steals a second look at the database log files and notices that someone has accessed them multiple times. Could it be that someone deliberately deleted the data? If so, that would mean that there was a flaw in his design of the databank and corresponding access privileges. So he decides to keep the discovery to himself.

Secretly, he’s hoping that all the media scrutiny will soon subside.

Questions:

  • Should technology be seen as an all-encompassing panacea for solving all society’s problems?
  • How should the sheer volume of data collected from the population under surveillance be handled?
  • What risks are involved?
  • What actions should Bernd take as a result of his discovery?
  • Should he invest his private time in the project even though there is no budget for it? Should he get out ahead of the story and contact the press himself?
  • Who should have access to the collected data? What are the (legal) justifications to determine who has access?
  • Have the passersby exposed themselves to legal liability for failing to render aid?
  • Has responsibility shifted from the civic arena to the authorities in charge of surveillance?
  • Can anyone ever be called to account for anything once everything has been left to technology?

Erschienen im Informatik Spektrum 39 (1), 2016, S. 82-84

— Translated from German by Lillian M. Banks

Der irreführende „Cyberspace“ – wenn Begriffe Verantwortlichkeiten verschleiern

Cyberspace

openDemocracy – cyberspace – CC-BY-SA

In zahlreichen netzpolitischen Konferenzen, Dialogen und Diskussionen wird derzeit die Thematik „neue Regeln für den Cyberspace“ angegangen. Es geht dort den Umgang mit Beleidigung, Immaterialgüterrechten bis hin zum „Cyberkrieg im Netz“. Dabei zeugt die Begriffswahl „Cyberspace“ von grundsätzlichem Unverständnis der Materie und sie erschwert fruchtbare Debatten sogar noch.

Der Begriff „Cyberspace“ tauchte erstmals in den 1980er Jahren in der Science-Fiction-Literatur auf und wurde in den 1990ern – zur Zeit der Kommerzialisierung des Internet – auch darüber hinaus geläufig. Gemeint war immer ein von der echten Welt verschiedener, virtueller Raum, in dem andere Regeln galten. Mit Peter Steiner gesprochen: „On the internet, nobody knows you’re a dog“. Nun, zwanzig Jahre danach, bemerken wir jedoch, dass es diese zweite Welt gar nicht gibt, sondern dass das Digitale einfach Teil unserer normalen Welt wurde. Niemand ist mehr „online“ oder „offline“, weil auch unsere mobilen Geräte nun per default verbunden, ja ohne Netzverbindung teilweise völlig nutzlos sind. Weder die elektronisch übermittelte Steuererklärung noch die digitalen Videoüberwachungssysteme oder soziale Netzwerke sind auch nur ansatzweise virtuell. Es geht immer um reale Aktion und reale Konsequenz. Menschen werden wegen ihrer Äußerungen in sozialen Netzwerken auf echte „No-Fly“-Listen gesetzt; Personen bekommen echte Hausdurchsuchungen, weil sie bestimmte Daten veröffentlicht haben; wenn wir online etwas bestellen, kommt es tatsächlich zu uns in den Briefkasten; neue Autos sind immer mit dem Netz verbunden und das Internet bringt uns Filme, Telefon und Fernsehen ins Haus. Auch die Kommunikationsinfrastruktur selbst ist keineswegs virtuell: Router, Kabel, Netzknoten, Server – die Komponenten des Internet sind physisch existent und territorial verortbar. Von einem rechts- und regierungsfreien „Cyberspace“ kann also keine Rede sein, denn niemand lebt, arbeitet, kommuniziert oder leidet in diesem Cyberspace.

Wir stehen ohne Zweifel vor riesigen Herausforderungen, die Digitalisierung der Gesellschaft vernünftig zu gestalten, vorhandene Regelungen der vordigitalen Zeit zu aktualisieren und nötigenfalls zu erweitern. Aber Beleidigung, Erpressung, Datenklau und Spionage finden nicht im „Cyberspace“ statt, sondern sie werden von realen Tätern an realen Opfern begangen. Zuletzt muss darauf hingewiesen werden, dass in der öffentlichen Debatte meist nur dann von „Cyber-“ gesprochen wird, wenn es um undefinierte Gefahren geht (Cyberkriminalität, Cyberabwehrzentrum, Cyberkrieg). Positiv spricht man dagegen von der „digitalen Agenda“, „Onlinehandel“, „Internet Governance“ oder „e-government“, denn da geht es um spezifische informationstechnische Aspekte unserer echten vernetzten Welt, nicht um ein (fernes) Land. Insgesamt ergibt sich, dass die Cyberspacemetapher nicht hilfreich ist, wenn man über konkrete Gestaltung sprechen will – ganz im Gegenteil, denn sie blendet reale Machtverhältnisse aus und verhindert so Chancen echter Veränderung.

Folglich gilt es, den Fokus auf die prägenden Akteure zu richten und darauf, welche Regeln sie befolgen. Wenn mächtige Geheimdienste ganz genau wissen, wo sich jedes ans Internet angeschlossene Gerät befindet und zu welcher Person es gehört, so ist das politisch gewollt und kein Versehen. Wenn globale Konzerne Daten global verknüpfen, so ist das oftmals rechtlich erlaubt oder wird bewusst nicht geahndet. Wenn westliche Hersteller Überwachungssoftware an beliebige Drittstaaten liefern, so geschieht das vielfach nicht ungeregelt, sondern von Exportgesetzen gedeckt. Die aktuelle Situation entstand folglich nicht aus zufälliger „Wildwest“-Regellosigkeit, sondern aus den durchgesetzten, handfesten Interessen der jeweiligen Profiteure, egal ob es um Kriegsaktivitäten oder Datenhandel geht. Möchte man also ernsthaft über die Gestaltung der digitalen Welt nachdenken, muss man über Interessen und Macht sprechen, nicht über den „Cyberspace“ der 1980er.

3.-4. Juni 2016, Tutzing: »Mündig in der smarten Welt«

Die Bedeutungsmacht der Informationstechnologien ist immens. Sie reicht vom privaten Alltag bis in die Weltpolitik. Um zu einem angemessenen Umgang mit ihnen zu gelangen, reichen technische, juristische oder moralphilosophische Kenntnisse allein nicht aus. Vielmehr gilt es, technische Expertise mit der politisch-gesellschaftlichen Dimension zu verknüpfen.

Die Akademie für Politische Bildung und die Gesellschaft für Informatik eröffnen durch diese Tagung einen Diskussionsraum, in dem sich Informatiker und Nicht-Informatiker über die Selbstbestimmung im Informationszeitalter verständigen. Ziel ist es, einerseits Nichtinformatikern ein besseres Verständnis der Materie zu vermitteln, andererseits mit Informatikern
über deren gesellschaftliche Verantwortung zu diskutieren. Neben Vorträgen und Diskussionen werden einzelne Fragestellungen in Workshops vertieft.

Wir laden Sie herzlich zu unseren Diskussionen nach Tutzing ein.

Den Einladungs-Flyer finden Sie auf den Seiten der Regionalgruppe München der GI, das Anmeldungsformular stellt die Akademie für Politische Bildung Tutzing bereit.

Fallbeispiel: Panoptikum vs. Zivilcourage

Thomas Kittel & Carsten Trinitis

Eine Firma aus Bayern entwickelt Kamerasysteme und Software zur Videoüberwachung von öffentlichen Plätzen. Durch eine neue Funktion soll es dem System jetzt auch unter Zuhilfenahme von mehreren Mikrofonen möglich sein, verschiedene Geräusche (z. B. Schüsse) an einem Ort genau lokalisieren zu können. Dazu werden durch die Mikrofone aufgenommenen Daten auch aufgezeichnet.

Die Daten sind dabei so gut, dass sich daraus recht einfach einzelne Konversationen extrahieren lassen. Es ist nun in Echtzeit möglich, über Gesichtserkennung und eine Anfrage bei Facebook festzustellen, wer auf einem Überwachungsvideo zu sehen ist, und automatisch zu extrahieren, was die Person sagt.

Obwohl sich die Mitarbeiter der Entwicklungsfirma der Konsequenzen auf die Privatsphäre der Beobachteten bewusst sind, halten sie die Technik doch für einen wichtigen Baustein in der Verbrechensbekämpfung, da sie annehmen, dass potentielle Kriminelle innerhalb des mit Kameras ausgestatteten Bereiches abgeschreckt werden.

Aus diesem Grund bewerben Sie ihr System auch als Videoschutzsystem.

Mitarbeiter Bernd ist sich zwar im Klaren, dass durch die neue Technik nicht nur die Bewegungsprofile der Menschen gespeichert werden, sondern auch deren Konversationen für 30 Tage aufbewahrt werden. Er kann sich jedoch nicht vorstellen, dass jemand diese Daten für niedere Zwecke missbrauchen könnte. Außerdem, so denkt er, ist die Firma ja ohnehin noch so klein, dass sich niemand für die erhobenen Daten interessieren würde.

Daher, und weil das Budget für das Systembeschränkt ist, setzt er die entsprechenden Server und Datenbanksysteme, auf denen die sensiblen Daten gespeichert werden sollen, selbst auf, ohne sich vorher imDetail mit dem Thema Datensicherheit zu beschäftigen.

Nach einer 18-monatigen Testphase an zwei zentralen Plätzen und in den öffentlichen Verkehrsmitteln der Stadt soll das neue audiovisuelle Überwachungssystem nun flächendeckend in der Stadt eingesetzt werden.

Politik wie Exekutive sprechen von einem wichtigem System, das die Verbrechensrate in der Stadt bereits gesenkt hat und mit Hilfe der neuen Technik weiter senken kann (,,Unsere Erfolge geben uns recht!“). Obwohl viele Bürger der Stadt amAnfang sehr misstrauisch waren, da sie nun flächendeckend überwacht werden und sogar all ihre Konversationen gespeichert werden, haben sich die meisten doch schnell an das System gewöhnt und fühlen sichmit dem System sehr sicher.

An einem lauen Sommerabend, nach dem Ende der Testphase, fahren zwei Journalisten aus dem Ausland mit dem Bus durch das Stadtzentrum. Sie beobachten durch das Fenster, wie ein einzelner Mann rückwärts aus einem Lokal auf die Straße stolpert. Dem Mann folgen unvermittelt zwei weitere Personen mit kräftiger Statur, die den am Boden liegenden attackieren.

Die Touristen beobachten auch, dass sich umstehende Passanten, anstatt einzugreifen, zurückziehen und das Geschehen aus sicherer Entfernung beobachten, während die Täter weiterhin auf das blutend am Boden liegende Opfer einschlagen. Unter den Passanten befindet sich auch Peter, der davon ausgeht, dass die Täter problemlos mit Hilfe der Audio- und Videoaufzeichnungen identifiziert und überführt werden können.

Peter unterlässt es demnach, selbst einzugreifen, da er die Gefährdung seiner Person als unnötig einschätzt.

Die Touristen im Bus bitten indes den Busfahrer, einen Notruf abzusetzen und anzuhalten, um sie aus dem Bus zu lassen, damit sie in der Situation einschreiten können. Der Busfahrer entgegnet jedoch nur: ,,Macht Euch keine Gedanken, das ist alles auf Video. Sie werden die Täter schon finden“. Eine weitere im Bus sitzende Passantin schreit die Touristen noch an: ,,Wollt Ihr Euch umbringen, die machen doch vor Euch keinen Halt“. Im Vorbeifahren sehen sie noch den regungslosenKörper des Opfers in seinem eigenen Blut liegen.

Nach dem Vorfall wird der Polizist Karl beauftragt, die Videodaten zu sichten und herauszufinden, was genau an besagtem Abend passiert ist, und um wen es sich bei den Tätern handelt. Zuerst befragt der Polizist einige Passanten, darunter auch Peter, dessen Kontaktdaten direkt nach dem Vorfall durch eine Funkzellenabfrage ermittelt und welcher daher in Folge automatisch vorgeladen wurde. Die meisten Zeugen können sich jedoch nur noch sehr vage an den Vorfall erinnern. Sie haben das Ereignis schon verdrängt in der Annahme, dass das Geschehene doch bereits auf Video aufgezeichnet wurde. Daraufhin beantragt Karl Einsicht in die Audio- und Videoaufnahmen des Tatortes. Nach ca. zwei Wochen erfährt er jedoch, dass die Kameras an besagtem Ort zum Tatzeitpunkt anscheinend defekt waren. Aus den Tonaufnahmen kann er jedoch entnehmen, dass das Opfer in dem Lokal schon längere Zeit von den Tätern bedroht wurde. Aufgrund der fehlenden Videoaufnahmen verläuft die Ermittlung jedoch nach kurzer Zeit im Sand.

Wieder zu Hause angekommen, schreiben die beiden Journalisten einen Artikel über Zivilcourage in Deutschland, der sowohl in einer großen Zeitung als auch im Internetportal der Zeitung veröffentlicht wird. In den sozialen Medien entsteht schnell eine Diskussion über den Vorfall, der dazu führt, dass der Vorgang auch in den klassischen Medien tiefer beleuchtet wird. Es wird deutlich, dass die gefühlte Sicherheit in Wahrheit zu einer großen Unsicherheit und Gleichgültigkeit führt, da sich niemand mehr selbst in der Verantwortung sieht. Nach genauerer Analyse wird auch klar, dass sich das Verbrechen nur von den großen Plätzen an andere, nicht überwachte Orte verlagert hat. Insbesondere ist das Verbrechen an einigen dieser Orte mittlerweile so schlimm, dass sich die Bürger nicht mehr in diese Stadtviertel trauen. Auch die Polizei hat Schwierigkeiten, an den neuen Verbrechensherden die Kontrolle zu behalten.

In der Folge besteht auch großes mediales Interesse an den Entwicklern des Überwachungssystems. Diese werden sich jedoch immer mehr der Schwächen des Einsatzes der Technik bewusst. Durch ihre Technik, die die Stadt eigentlich sicherermachen sollte, ist jetzt mindestens eine Person verstorben. Bernd, der Zweifel am zufälligen Ausfall der Kamerasysteme hat, durchsucht insgeheim noch einmal die Logdateien der Datenbank und bemerkt einige Zugriffe auf die Datenbank. Könnte es sein, dass jemand die Daten gezielt gelöscht hat? Da dies jedoch auf seinen eigenen Fehler beim Design der Datenbank und der entsprechenden Zugriffsrechte zurückfallen würde, beschließt er den Fund für sich zu behalten.

Insgeheim hofft er, dass sich die mediale Aufmerksamkeit bald wieder legen wird.

Fragen

Sollte die Technik als Allheilmittel zur Lösung gesellschaftlicher Probleme gesehenwerden?

  • Wie ist mit der Datenmenge der überwachten Bevölkerung umzugehen?
  • Welche Gefahren ergeben sich dabei?
  • Welche Konsequenzen sollte Bernd nach seinem Fund eigentlich ziehen?
  • Sollte er trotz des fehlenden Budgets seine private Zeit in das Projekt stecken? Soll er die Flucht nach vorne antreten und die Presse kontaktieren?
  • Wer sollte Zugriff auf die erfassten Daten bekommen? Aufgrund welcher (richterlichen) Vorbehalte?
  • Machen sich die Passanten aufgrund der unterlassenen Hilfeleistung strafbar?
  • Hat sich dieVerantwortung von der Zivilgesellschaft zu den Überwachern verlagert?
  • Kann überhaupt noch irgend jemand zur Verantwortung gezogen werden, wenn alles der Technik überlassenwird?

Erschienen im Informatik Spektrum 39(1), 2016, S. 82-84