Archiv

Verantwortung übernehmen

Informatiksysteme sind keine rein technischen, sie müssen in ihren gesellschaftlichen Kontexten geplant, entworfen und konstruiert werden. Es liegt in der Verantwortung der Informatik, sich mit den Zielen, Wirkungen und Folgen der von ihr gebauten Systeme auseinanderzusetzen. Das gilt insbesondere im Hinblick auf die technisierte Gesellschaft in der Turing-Galaxis.

Der Fachbereich Informatik und Gesellschaft der Gesellschaft für Informatik (GI) und deren Fachgruppe „Informatik und Ethik“ lädt mit Unterstützung der Alcatel-Lucent-Stiftung am 2. und 3. November zu einem zweitägigen Symposion ein, um über gesellschaftliche Dimensionen von Informatiksystemen und ihre Bedeutung für die Disziplin Informatik zu sprechen.

Angeboten werden Workshops zu den Themen der einzelnen Fachgruppen und Arbeitskreise. Die Veranstaltung richtet sich ausdrücklich an Informatikerinnen und Informatiker, die ihre Tätigkeit als gesellschaftliche Aufgabe verstehen und eines möchten: Verantwortung übernehmen.

Weitere Informationen zum Symposion, den Workshops und dem Gastvortrag von Sebastian Sattler und Madlen Preuß finden sich auf der Webseite Verantwortung übernehmen – Mitten in der Turing-Galaxis.

Veranstaltungsort:
Malzfabrik Berlin, Bessemerstraße 2-14, Berlin-Südkreuz

Programm am Freitag:

  • 10 Uhr Informatik und Ethik: Eröffnung
  • 10:30-13:30 Uhr Workshops Panel 1
  • 14:30-17:30 Uhr Workshops Panel 2
  • 18 Uhr Führung durch die Ausstellung
  • ab 19 Uhr Abend-Buffet und Gastvortrag, Musik und Kultur

Programm am Samstag:

  • 10 Uhr Begrüßung mit starkem Kaffee
  • 10:30-13:30 Uhr Vorstellung der Workshop-Ergebnisse, Podiumsdiskussion zum Tagungsthema
  • gegen 14:30 Uhr Abschluss der Veranstaltung

Die Teilnahme an den Workshops tagsüber ist kostenlos. Es gibt ein Restaurant im Gebäude der Maschinenhalle für die Workshop-Teilnehmer. Bitte melden Sie sich bei Fragen per E-Mail an: verantwortung [at] turing-galaxis.de

malzfabrik
Foto von tristessedeluxe.

Fallbeispiel: Planungen

Debora Weber-Wulff & Christina B. Class

Michaela arbeitet in der örtlichen Polizeidienststelle vom Neustatt. Auf Grund der sinkenden Steuereinnahmen und Kürzungen der Zuschüsse des Bundeslandes, stehen in den kommenden Jahren deutlich weniger finanzielle Mittel für die Polizeiarbeit zur Verfügung. Die natürlichen Abgänge durch Pensionierungen werden wohl nicht ersetzt werden können. Insbesondere die Polizeipräsenz in der Stadt muss neu organisiert werden. Dies stellt ein großes Problem dar, da Kleinkriminalität, Diebstähle und Einbrüche in den letzten Monaten stark zugenommen haben. Nachdem einige Touristen beraubt wurden, die das bekannte Stadtzentrum und das Museum für moderne Kunst besucht haben, machen Fremdenverkehrsverein und Hotel- und Gaststättengewerbe zusätzlichen Druck auf die Polizeiabteilung und fordern eine Erhöhung der Polizeipräsenz.

Michaelas Freundin Sandra ist in einem interdisziplinären Forschungsprojekt beteiligt, in dem es darum geht, Methoden des Data Mining und der Künstlichen Intelligenz mit Erkenntnissen der Soziologie zu verbinden, um einen neuen Ansatz der Stadtentwicklung zu entwickeln. Die aktuellen Ergebnisse legen nahe, dass der entwickelte Prototyp verbesserte Prognosen über zu erwartende kriminelle Aktivitäten in bestimmten Gebieten erstellen kann. Daher wurde vorgeschlagen, in der nun beginnenden zweiten Projektphase einige Gemeinden einzubeziehen, um diese Annahme mit Hilfe detaillierter, wenn auch anonymisierter, Informationen zur Kriminalität sowie zu Tätern überprüfen zu können.

Michaela vereinbart für einen gemeinsamen Termin mit Sandra beim Bürgermeister. Dieser hört Sandra sehr aufmerksam zu und ist an einer Zusammenarbeit im Rahmen des Projektes interessiert. Er lädt Sandra zur nächsten Gemeinderatssitzung ein. Nach Sandras Vortrag beginnt eine engagierte Diskussion. Einige Gemeinderatsmitglieder melden Bedenken in Bezug auf den Datenschutz an. Sandra erläutert die Maßnahmen, die zur Anonymisierung und zum Schutz personenbezogener Daten ergriffen werden. Peter wendet ein, dass Personen, die zu kleinen Gruppen gehören, dennoch praktisch identifizierbar wären.  Daraufhin meldet sich Anton zu Wort: Gerade im Zusammenhang mit Kriminalität gäbe es verschiedene Faktoren, die häufig zusammenkommen, wie z.B. Armut, Arbeitslosigkeit, Ausbildung, etc. Er habe gehört, dass der am Projekt beteiligte Soziologieprofessor sich sehr stark auf die ethnische Herkunft bezieht und andere Faktoren gar nicht in die Untersuchungen einbezieht – das sei diskriminierend. Werner, Inhaber eines großen Gastronomiebetriebs, wirft dagegen ein, dass es wichtig ist, die Polizei sinnvoll einzusetzen und die Menschen und Betriebe vor der zunehmenden Kriminalität zu schützen.

Michaela ist verwirrt: sie sieht das Potential des Ansatzes, um die Ressourcen der Polizei sinnvoll einzusetzen. Allerdings versteht sie auch die Bedenken. Aber werden wir in unserer Gesellschaft nicht immer schon, und seit der elektronischen Auswertung von Datensätzen immer mehr, bestimmten Kategorien zugeordnet? Letztens wurden ihre Autoversicherungsbeiträge wieder erhöht, weil ihre Kategorie der Versicherten vermehrt Unfälle hatte. Das ist doch auch unfair…

Fragen

  • Wie stark ist das Problem, Menschen in Kategorien einzuteilen, in unserer Gesellschaft wirklich? Wurde es durch die Informatik verstärkt?
  • Sollte es Gemeinden erlaubt sein, sensible personenbezogene Daten anonymisiert für Forschungsprojekte herauszugeben? Welche ethischen Probleme könnten sich hierbei ergeben? Wie sehr vertrauen Sie Methoden der Anonymisierung von Daten?
  • Die Einsatzplanung von verstärkter Polizeipräsenz in bestimmten Gebieten kann dem Schutz der Bevölkerung vor Verbrechen dienen. Kommt sie aber gleichzeitig einer gewissen Vorverurteilung der Menschen in diesen Gebieten gleich? Wann ist eine solche gerechtfertigt?
  • Sollte das Forschungsprojekt und der Prototyp abgelehnt werden, weil eine beteiligte Person zweifelhafte Kriterien für die Klassifizierung verwendet?
  • Die Auswahl relevanter Variablen für die Analyse ist von zentraler Bedeutung. Wie kann man sicherstellen, sich hierbei nicht durch Vorurteile leiten zu lassen?
  • Wie kann verhindert werden, dass aus Korrelationen plötzlich ursächliche Zusammenhänge hergestellt werden? Wie groß ist die Gefahr im Zusammenhang mit der Analyse von personenbezogenen Daten?

Erschienen im Informatik-Spektrum 35(3), 2012, S. 236–237

Fallbeispiel: Der Assistent

Constanze Kurz & Stefan Ullrich

Felipe hat in seiner Firma nach einer mehrmonatigen Beratung eines Spezialisten für Optimierung der Geschäftsprozesse nun mit allerhand neuen IT-Systemen zu kämpfen. Er und seine Kollegen nutzen seit wenigen Tagen gemeinsame digitale Kalender für den besseren Überblick in die Terminlage. Ihre neuen Smartphones haben speziell konfigurierte Anwendungen, die vieles an Kommunikation zwischen den Kollegen, aber auch mit Kunden selbständig übernehmen.

Anfangs läuft alles noch etwas holprig, aber schon nach ein paar Tagen Übung und mehreren Anpassungen in der Konfiguration stellt sich heraus, dass das in die Arbeitsprozesse integrierte System nutzbringend ist und besonders die häufig sehr ähnlichen Nachrichten korrekt an die Adressaten sendet. Das spart Zeit und langweilige Arbeiten, die nun automatisiert im Hintergrund ablaufen.

Das System wird von der Firma Golemmata AG geliefert, die bereits seit vielen Jahren solche digitalen Assistenzsysteme herstellt. Mit dem »Life Integration Smart Assistant« ist der Durchbruch gelungen. Die Software reagiert auf Spracheingaben, synchronisiert automatisch sämtliche Termin- und Adressbucheinträge mit einer zentralen Datenbank und kann sogar geplante Veranstaltungen koordinieren, natürlich mit Hilfe von mehreren anderen Assistenzsystemen, die für die Smartphones von berufstätigen Menschen angeboten werden.

Felipes Freund Marco findet das System auch sehr praktisch, da er sich in seinem Beruf als freischaffender Künstler manchmal nicht gründlich genug um Termine kümmert. Felipes Smartphone haben sie gemeinsam so konfiguriert, dass es auch automatisch Marcos Kalender füllt, sie verabreden sich sogar mit Hilfe der Software. Marco hat für sein eigenes Telefon ebenfalls die Software von Golemmata gekauft, um den vernetzten Kalender von Felipe einsehen zu können. Beide sind erfreut über die automatischen Botschaften, die versendet werden, wenn Felipe auf dem Heimweg im Stau steht. Sein Smartphone schickt schon bei einer Verspätung von zehn Minuten eine freundliche Warnung an Marco.

In Felipes Firma wird das »Life Integration Smart Assistant«-System, das wegen seiner Sprachausgabe mit der weiblichen Stimme schon bald den zärtlichen Namen „Lisa“ erhält, zur unersetzlichen Stütze. Es hilft bei der Organisation des alltäglichen Arbeitens wie eine vorausschauende Sekretärin: Lisa bucht Reisen und Hotels, plant Reiserouten und ordert dafür die Tickets. Sie koordiniert zudem die beiden Schreibkräfte, die sich Felipe und seine Kollegen teilen: Nach jeweiligem Arbeitsbedarf werden sie automatisch gebucht.

In der neuesten Version kann Lisa auch den Standort genauer einbeziehen, um beispielsweise Reiserouten für die Abrechnung aufzuzeichnen oder bestimmte Zugangsberechtigungen für besonders gesicherte Gebäude bei Bedarf freizuschalten. Sie sagt auch automatisch Termine ab, falls sich der Besitzer des Handys noch zu weit vom Zielort entfernt aufhält, um ihn wahrnehmen zu können. Selbst die Zeiten im betriebseigenen Kindergarten werden mit Hilfe von Lisa koordiniert.

Marco freut sich anfangs mit Felipe über das oft zeitsparende System, das auch Spaß bei der Arbeit bringt durch manchmal lustige Formulierungen oder, seltener, auch durch Fehler wegen Namens- oder Ortsverwechslungen. Da die Software aber bei weitreichenden Kommunikations- oder Buchungsvorhaben zur Sicherheit an die Nutzer Nachfragen stellt, sind bisher keine groben Fehler passiert.

Doch Marco wird das Gefühl nicht los, dass die Software mit der Zeit die Tendenz von Felipe registriert hat, bei konfligierenden Terminen oft das Geschäftliche vorzuziehen. Er möchte eben Karriere machen und scheut auch Überstunden nicht. Er fragt eines Tages Felipe beiläufig, ob Lisa auch selbstlernende Komponenten hat. Stolz bejaht Felipe und erklärt, dass diese Lernfähigkeit das System noch nutzbringender gemacht hätte, als es bereits anfangs gewesen war.

Lisa leitet aus den Prioritäten und Zeitabläufen, die von Felipe und den Kollegen gesetzt werden, bestimmte Vorhersagen für anfallende Entscheidungen ab. So muss die Software nicht mehr bei jeder Kleinigkeit nachfragen und arbeitet entlang bereits bekannter und täglich neu hinzukommender Entscheidungsmuster. Marco kann sich des Eindrucks nicht erwehren, dass er bei privaten Verabredungen immer häufiger Lisas freundliche Absagenachrichten im Namen von Felipe erhält. Kino-Abende mit Freunden bestreitet er immer häufiger allein. Marcos entwickelt eine gewisse Abneigung gegen Lisa, mit dem System verbindet er dauernde Absagen und Rückweisungen. Er hat keine Lust mehr auf dieses halbautomatisiert organisierte Leben.

Felipe hingegen kann sich ein Leben ohne Lisa gar nicht mehr vorstellen. Es ist so ungemein praktisch, nicht mehr jede SMS oder E-Mail selbst schreiben, sich nicht mehr um Reisepläne kümmern zu müssen. Sein Leben ist viel effizienter, er hat kaum noch Zeitverluste bei Organisation und Logistik.

FRAGEN

  • Wie ist es ethisch zu bewerten, dass Lisa selbständig Entscheidungen trifft?
  • Ist es bereits ein Problem, wenn Lisa lediglich »Kleinigkeiten« selbständig entscheidet?
  • Wie sieht es mit der Herstellerfirma Golemmata aus – hat sie ethische Verpflichtungen bei der Programmierung oder Implementierung des Systems? Wie viel Entscheidungsfreiheit darf der Hersteller Lisa geben?
  • Würden sich ethische Fragestellungen ergeben, wenn die Daten für das lernende System bei der Firma Golemmata gespeichert würden? Welchen Unterschied machte das?
  • Felipe nutzt das System sowohl geschäftlich als auch privat. Macht es einen Unterschied, ob geschäftsinterne Termin nach außen, beispielsweise für Marco, sichtbar werden? Kann das ein ethisches Problem sein?
  • Wie ist es zu bewerten, wenn zwischenmenschliche Interaktionen und Kommunikation nach Effizienzkriterien optimiert werden?
  • Wie sollte sich Marco verhalten, wenn er das Gefühl hat, von Lisa benachteiligt zu werden?
  • Ist Marcos Abneigung dem System gegenüber nicht eher dem Verhalten von Felipe zuzurechnen? Lisa unterstützt doch lediglich die Planungen, sie trifft doch keine größeren Entscheidungen allein.

Erschienen in Informatik Spektrum 35(4), 2012, 315–316

Roboterträume

robot without colour
Nachdem Kriegsroboter schon viele Jahre kontroverse ethische Fragen aufwerfen, halten immer mehr zivile Roboter Einzug in die Gesellschaft. Und wie bei allen technischen Systemen stellen sich Fragen der Konsequenzen und der Verantwortung, die wir beispielsweise in unserem Fallbeispiel über zivile Drohnen angesprochen haben.

Vor ein paar Tagen gab es Berichte über Regulierungsansätze für zivile autonome Roboterautos auf öffentlichen Straßen im US-Bundesstaat Nevada. Dazu soll etwa die Vorschrift gehören, eine Blackbox zur Speicherung der Sensordaten einzubauen, beispielsweise für den Fall eines Unfalls oder Versicherungsschadens. Ob man Roboter in Zukunft als juristische Personen ansehen sollte, wird schon länger diskutiert. Klaus Schilling, Professor für „Robotics and Telematics“ in Würzburg, beantwortete die Frage 2010 so: „Bei uns arbeiten Techniker und Juristen mit Experten anderer Gebiete daran, fundierte Antworten auf solche Fragen zu finden. Denkbar ist es zum Beispiel, analog zu Schäden zu verfahren, die Kinder oder Haustiere verursacht haben. Für Versicherungen öffnet sich hier ein interessanter Bereich, innovative Produkte anzubieten.“ In Deutschland ist die damit angestrebte Rechtssicherheit allerdings bis heute nicht in die Tat umgesetzt worden.

Die Entwicklung von autonomen oder halbautonomen Robotern aller Art schreitet jedoch schnell und in verschiedene Richtungen voran, die Fertigung wird zunehmend automatisiert. Heute werden längst nur millimetergroße Mikroroboter gebaut, die Flügelschläge von Insekten vollführen können, Flugroboter oder menschenähnliche Roboter, die komplexe Aufgaben wie ein Ping-Pong-Spiel meistern, oder mobile autonome Hilfsroboter für viele Zwecke. Mittlerweile berühmt ist auch dieser beeindruckende zweibeinige Fahrradroboter oder der PETMAN von Boston Dynamics.

Es ist also an der Zeit, sich mehr Gedanken zu machen. Anregen lassen kann man sich dabei durch Rafael Capurro and Michael Nagenborg, die 2009 in Ethics and Robotics bereits viele Fragen zusammengetragen haben (Heidelberg: Akademische Verlagsgesellschaft).

Graphik „Add your own colours!“ von Enokson

Fallbeispiel: Plagiatssoftware-Opfer

Constanze Kurz & Stefan Ulrich (ohne Autorenvermerk erschienen)

Professorin Claudia Wolke kommt gutgelaunt aus der Prüfungskommissionssitzung zurück. Der von ihr eingebrachte Vorschlag zum Einsatz einer Plagiatserkennungssoftware war ein voller Erfolg, der Anbieter hatte nicht zuviel versprochen. Die sich häufenden Fälle von plagiierten Arbeiten an der Universität und nicht zuletzt die öffentliche Diskussion um prominente Fälle wissenschaftlichen Fehlverhaltens hatten das Gremium umgestimmt. Einmütig beschloss die Runde, das Softwareprodukt nun routinemäßig einzusetzen.

Professorin Wolke selbst setzt die Software »PlagParser« nun schon seit vier Semestern ein. Seitdem sind die eingereichten Plagiate deutlich zurückgegangen. Auf den Fachschaftsseiten wird ausdrücklich vor dem Einreichen einer kopierten Arbeit bei dieser Dozentin gewarnt.

Das Praktische an der Software ist der vollständige Automatismus. Professorin Wolke muss die Arbeit nicht selbst durch die Software »jagen«, da sie ein Teil des Studentenportals ist. Die Studenten reichen dort die Arbeiten in einem uniweit eingesetzten System ein. PlagParser überprüft sie automatisch auf verdächtige Stellen und verschickt gegebenenfalls selbständig eine E-Mail mit den Ergebnissen an den jeweiligen Dozenten. Falls kein Plagiat von der Software erkannt worden ist, wird die Arbeit zur weiteren Bewertung dem Dozenten vorgelegt, der innerhalb des Systems die »Credit Points« für die Studenten vergeben kann.

Felix erreicht kurz vor der Prüfungsphase am Ende des Semesters eine unangenehme E-Mail. Er hatte ein Seminar bei Professorin Wolke besucht und vor drei Wochen seine Hausarbeit abgegeben. Die E-Mail von ihr ist knapp gehalten und besteht aus nur vier Sätzen: »Die von Ihnen eingereichte Seminararbeit wurde von unserer Erkennungssoftware ›PlagParser‹ als Plagiat erkannt. Eine eigenständige Leistung für das Seminar ist damit nicht erbracht worden, einen Schein kann ich Ihnen daher nicht ausstellen. Sie können diesen Kurs leider nicht erneut besuchen. Diese E-Mail geht in Kopie an den Prüfungsausschuss.«

Felix ist am Boden zerstört, dieser Kurs war der letzte, der ihm noch zum Abschluss des Bachelor-Studiums fehlte. Er glaubt zunächst an eine Verwechslung, denn die Frage, ob er ein Plagiat abgegeben haben könnte, stellt sich ihm gar nicht. Er hatte die Arbeit schließlich geschrieben. Das Seminar der Professorin hatte Felix ohnehin nicht viel Freude gemacht, er hatte kein gutes Verhältnis zu ihr aufbauen können. Daher beschließt er, auf die E-Mail gar nicht zu reagieren. Der Streit mit der Professorin ist ihm zu mühselig, er ärgert sich zwar, belegt jedoch lieber einen Kurs bei einem anderen Seminarleiter.

Professorin Wolke stellt einige Zeit später die Software im Kollegenkreis vor. Die Kollegen, die sie bisher nicht nutzen, sollen so einen guten Überblick über die Bewertungen bekommen. Sie wählt dazu zufällig ein paar Arbeiten aus, sowohl solche, die als Plagiat erkannt wurden, als auch als einwandfrei gekennzeichnete Texte. Bei der Live-Demonstration wird die Seminararbeit von Felix plötzlich als plagiatsfrei (Kategorie AAA: Alles Astrein Ausgearbeitet) eingestuft. Professorin Wolke ist irritiert, sie hatte der Software vertraut und dem Studenten aufgrund des Ergebnisses keinen Seminarschein ausgestellt.

Im Anschluss an ihre Präsentation sieht sie sich den Text und die Software-Bewertung genauer an. Es stellt sich heraus, dass eine frühere Version der Software die französischen Anführungszeichen in der Seminararbeit nicht als solche erkannt und daher alle Zitate fälschlicherweise als plagiierte Stellen gezählt hatte. Dieser Fehler wurde mittlerweile behoben, erklärt Professorin Wolke ihren Kollegen. Die Anwesenden verlassen den Sitzungsraum dennoch mit einem unguten Gefühl. Am Einsatz der Software möchte die Universitätsleitung jedoch weiterhin festhalten, zumal jeder Seminarleiter im Einzelfall entscheiden kann, in welchem Maße er der Software vertraut.

Fragen

  • Welche ethischen Probleme sehen Sie beim automatisierten Einsatz von Plagiatserkennungssoftware?
  • Ist es auch ein ethisches Problem, dass zumindest frühere Versionen der Software technisch unzureichend waren, aber entscheidend die Scheinvergabe beeinflussten?
  • Besteht ein Unterschied darin, ob die Professorin eigenhändig prüft, ob die Standards wissenschaftlichen Arbeitens erfüllt wurden, oder dies mit Hilfe der Software teilautomatisiert?
  • Wer ist für den Schaden verantwortlich, wenn Felix aufgrund der fälschlichen Ausgabe der Software Nachteile (Zeitverzug) in seinem Studium enstanden sind?
  • Hat Professorin Wolke die Pflicht zu handeln, als sie entdeckt, dass die Software in älteren Versionen strukturelle Fehler aufweist? Muss sie ältere Seminararbeiten nun erneut prüfen?
  • Gesetzt den Fall, Professorin Wolke überprüft alte Seminararbeiten erneut – wie muss sie reagieren, wenn sie eine plagiierte Arbeit vorfindet, die sie damals jedoch als eigenständige Leistung akzeptiert hat?
  • Ist der so beschriebene Automatismus als Generalverdacht zu werten? Wenn ja, ist er ethisch vertretbar?
  • Ist die Benutzung einer solchen Software angesichts der Zunahme von Plagiaten moralisch gar geboten?
  • Hätte die Universitätsleitung den Einsatz kritischer prüfen müssen? Ist es vertretbar, die Verantwortung für eventuell fehlerhafte Bewertungen durch die Software an die Seminarleiter abzugeben?

Erschienen in Informatik Spektrum 35(1), 2012, S. 61–62

Fallbeispiel: Bewerbungsportal

Die Job Hunting GmbH ist eine renommierte Personalvermittlungsgesellschaft mit mittlerweile 50 Büros im gesamten deutschsprachigen Raum. Im Gegensatz zu vielen anderen Unternehmen hat sich Job Hunting nicht auf ein Klientel oder eine Branche festgelegt. Um ihre Dienstleistung zu gewährleisten werden neben Recherchen auch elektronische Analysen der erfassten Daten der Stellensuchenden durchgeführt. Die Daten werden entweder manuell auf Grundlage von Bewerbungen und geführten Bewerbungsgesprächen erfasst oder sie gelangen direkt durch das Internet-basierte Bewerbungsportal in das System.

Nach längerer Arbeitslosigkeit in Folge der Rezession wurde Jens, ein erfahrener Softwarearchitekt, vor kurzem in der Informatikabteilung angestellt und ist nun zuständig für das Bewerbungsportal, das komplett überarbeitet werden soll.

Jens‘ Vorgänger ist auf Grund eines Burnouts kurzfristig ausgeschieden und Jens ist noch damit beschäftigt, sich in die schlecht dokumentierte Software einzuarbeiten und die Anforderungen für eine Verbesserung zu überprüfen.

Jens stellt erstaunt fest, dass die Bewerber sowohl online als auch auf den schriftlichen Bewerbungsunterlagen automatisch einer Speicherung ihrer Daten für 5 Jahre zustimmen, sofern Sie nicht eine, sehr leicht zu übersehende, Widerspruchsregelung unterzeichnen. Er findet dies bedenklich. Die Informationen der Bewerber werden stark strukturiert abgelegt und numerisch bewertet; wobei auch Ausbildungsfirmen, Ausbildungsinstitute und Hochschulen eine Punktzahl erhalten. Es ist nicht klar, wie diese Punkte zustande kommen. Bei den Hochschulen fließen auch umstrittene Rankings in die Bewertung ein. Die Bewertung von Firmen und Institutionen ist vollkommen intransparent. Ein simpler Korrekturalgorithmus wird eingesetzt, um auf Grund der Rückmeldungen von Betrieben, welche Bewerber eingestellt haben, die Firmenbewertungen anzupassen. Für jede Negativbewertung wird der Punktestand um 3% nach unten, für jede Positivbewertung um 3% nach oben korrigiert. Die Anpassungen erfolgen in Einzelschritten basierend auf den eingegebenen Bewertungen ohne das Feedback zu überprüfen.

Qualifikationen, welche nicht in die vorgegebene Struktur der Datenbank passen, sowie Qualifikationen, die an nicht bekannten Hochschulen, Firmen oder Institutionen erworben wurden (hier vornehmlich im Ausland) werden einfach ignoriert. Das Portal, welches den Benutzern die Möglichkeit lässt, in Textfeldern diverse Zusatzqualifikationen und zusätzliche Informationen anzugeben, vermittelt den Bewerbern dagegen einen anderen Eindruck.

Die abschließenden Rankings der in Frage kommenden Bewerber werden einfach basierend auf der Gesamtsumme der Punkte eines Bewerbers erstellt.

Jens studiert die skizzierten neuen Anforderungen, die im nächsten Quartal umgesetzt werden sollen. Er soll eine soziale Suchmaschine einbinden, um auch Informationen in den Bewertungsprozess einfließen zu lassen, die sich in den einschlägigen Social Networks finden. Basierend auf Schlagworten in Postings der Bewerber oder über die Bewerber sollen positive bzw. negative Werte ohne weitere Prüfung vergeben werden. Das Ergebnis soll summarisch zusammen mit den Profilen gespeichert werden.

Jens sitzt lange an seinem Schreibtisch und überlegt. Er hatte endlich einen passenden Job gefunden, aber das Bewerbungsportal sowie die neuen Pläne werfen viele Fragen auf. Wie soll er vorgehen? Soll er die Probleme ansprechen? Auf die Anwendung komplexerer (und vielleicht genauerer) Verfahren zu sprechen kommen? Soll er sich erkundigen, ob die Verwendung der Daten in dieser Form rechtens ist? Andererseits sind Unternehmen und Bewerber nicht gezwungen, sich an Job Hunting zu wenden. Sieht er die Sache vielleicht etwas zu schwarz?

Fragen

  • Ist es legitim, dass Daten erfasst werden, die intransparent aus einem Gespräch „extrahiert“ werden?
  • Darf man in einer Eingabemaske vorgaukeln, dass die Angabe vieler Daten sich positiv auf eine Anwendung auswirkt? Oder sollte nur erfasst werden, was wirklich Auswirkungen auf die verwendeten Algorithmen hat?
  • Muss der Nutzer über den Bewertungsalgorithmus aufgeklärt werden? Wenn ja, umfasst dies auch die Feedback-Mechanismen, auf die er keinen Einfluss hat?
  • Ist es legitim, Daten Dritter (Hochschulrankings oder Social Networks) zusammenzuführen? Ist es überhaupt ethisch vertretbar, solche Daten unklaren Ursprungs in ein Gesamtprodukt zu überführen, welches sich nach außen hin als korrekt arbeitend darstellt?
  • Sind aggregierte Datensätze, deren Herkunft und Zusammensetzung unklar sind, überhaupt für die Entscheidungsfindung nutzbar? Wer trägt die Verantwortung bei Fehlentscheidungen? Dies ist insbesondere interessant, da die Fehler durch alle Beteiligten (auch die, deren Datenbestände nur abgeschöpft werden) hervorgerufen werden können.
  • Computer stellen für viele Anwender eine objektive Instanz dar. Betrügt Job Hunting hier nicht auch seine Kunden, da es vorgibt, den „perfekten“ Bewerber zu finden?
  • Liegt es in der Verantwortung von Job Hunting, Bewerber und Betriebe über den verwendeten Algorithmus aufzuklären? Oder fällt dies in die Sorgfaltspflicht der Bewerber und Betriebe?

Fallbeispiel: Karins Dilemma

Freundliche Angebote?

Karin freut sich. Professor Mews hat sie persönlich darauf angesprochen, dass bei der zweitägigen Exkursion zu einigen SAP-Anwendern ein Platz frei geworden sei, den er ihr reserviere, falls sie gleich zusage. Sie braucht diesen Exkursionsschein (ein Nachweis des „Praxisbezugs unseres Studiums“), um ihre Abschlussarbeit anfangen zu können. Bei Professorin Silber, die eine ähnliche Exkursion im letzten Semester anbot, hatte sie keinen Platz erhalten.

Abends trifft sie Professor Mews zufällig am Ausgang des Informatikgebäudes, und er spricht sie auf die Exkursion an. Sie sagt ihm, wie erleichtert sie ist. Dabei kommen sie ins Gespräch über die problematischen Studienbedingungen. Mews ist Vorsitzender der Prüfungskommission; er weiß um viele Missstände und gibt ihr bei den meisten Punkten recht. Als das Gespräch länger dauert, lädt er sie „auf einen Kaffee“ in die gegenüberliegende Mensa ein. Da sie noch dringend zur Post muss, sagt sie ihm ab, bedauert aber, dass sie die Gelegenheit nicht nutzen konnte, einem Professor wenigstens einmal vor Ende ihres Studiums ehrlich ihre Meinung zur Studiensituation sagen zu können. Am Nachmittag sieht sie den Aushang mit der Exkursionsliste. Statt zwölf Teilnehmern wie beim letzten Mal sind es nur sieben; sie hätte also noch sehr gut einen Platz bekommen können. Nur Jungs – sie ist die einzige Frau. „Das kann ja heiter werden“, denkt sie.

Am kommenden Tag ergibt sich doch noch eine Gelegenheit zum Gespräch. Mews steht am Saaleingang der Vorlesung von Professor Strunz und passt sie ab. Er habe jetzt schon alles für die Exkursion gebucht. Er fahre auch den Kleinbus, und man könne sich ja dann nebeneinander setzen, so könne man vieles besprechen. Am Tag der Exkursion begrüßt sie Professor Mews laut und weist auf den Platz neben sich, doch irgendwie ist es ihr nicht geheuer, sich direkt neben ihn zu setzen. So setzt sie sich lieber neben Jürgen, mit dem sie bereits öfter zu tun hatte. Im Hotel angekommen, werden die Zimmer verteilt. Sie als Frau hat ein Einzelzimmer, den anderen werden drei Doppelzimmer zugewiesen. Ihr Zimmer ist in einem anderen Stockwerk, „direkt neben meinem“, wie Professor Mews locker fallenlässt. Die Jungs grinsen. Ihr ist das peinlich.

Nach dem Abendessen wird die erste Besprechung angesetzt. Alle müssen eine Arbeit über die Firmenbesuche schreiben, wobei jeder ein spezifisches Thema hat. „Für unsere Prinzessin“, sagt Prof. Mews, „hab ich ein besonderes Thema ausgewählt.“ Nachdem alle ihr Thema haben, wendet sich Mews Karins Kommilitonen zu und sagt: „Sie können schon mal einen Zug durch die Gemeinde machen, wenn Sie wollen. Wir beide besprechen Karins Thema dann hier noch in Ruhe.“ Er wendet sich Karin zu: „Hier in dem Raum ist es recht zugig. Wir könnten auch in mein Zimmer gehen, dort gibt es eine Sitzgruppe mit einem großen Tisch.“ Karin antwortet irritiert: „Ich möchte jetzt mein Thema wissen – wie die anderen.“ Die Kommilitonen haben sie mit Mews allein gelassen, der ruhig zu ihr sagt: „Stellen Sie sich nicht so an. Was haben Sie denn gegen mich? Ich bin doch ein netter Kerl. Es ist doch nicht so schwer, nett zu sein und die Exkursion zu genießen.“ Und er fügt hinzu: „Gegen mich zu arbeiten funktioniert sowieso nicht, da haben sich schon andere die Zähne ausgebissen.“

Karin weiß nicht mehr, was sie sagen soll. Sie steht auf und geht in ihr Zimmer, doch die Nacht über kann sie lange nicht einschlafen, weil sie überlegt, was sie wohl falsch gemacht hat und ob sie nicht besser abreisen sollte. Das wäre freilich sehr demonstrativ und würde vermutlich im Institut herumgetratscht. Nach unruhigem kurzem Schlaf entschließt sie sich morgens, doch nicht abzureisen. Als sie in den Frühstücksraum kommt, fällt ihr ein, dass die anderen ja eigentlich nichts mitbekommen haben. Sie setzt sich an einen kleinen Tisch, der nur zwei Stühle hat. Mews steht auf und setzt sich ihr gegenüber. Einen Moment lang denkt sie, er wolle sich vielleicht entschuldigen, doch er sagt mit gepresster Stimme: „Wir wollen ihre Zicken mal vergessen. Ich hab Ihnen hier Ihre Aufgabe notiert – geben Sie sich etwas Mühe, sonst seh’ ich schwarz. Aber vielleicht besinnen Sie sich ja noch. Sie können immer noch kooperieren. Es liegt in Ihrer Hand.“

Vier Wochen später gibt sie ihre Arbeit ab; sie hat sie mit zwei Kommilitonen zusammen erarbeitet. Die drei Arbeiten sehen recht ähnlich aus, wobei sie ihre natürlich an die abweichende Fragestellung anpassen musste. Aber alle drei sind letztlich der Ansicht, dass sie ganz gute Arbeiten geschrieben haben. Nach weiteren vier Wochen hängen die Ergebnisse mit den Matrikelnummern am Sekretariat von Mews aus. Ihre Note ist „mangelhaft.“ Karin ist wie vor den Kopf geschlagen. Als sie ihre Arbeit im Sekretariat abholt und durchsieht, findet sie die Korrektur sehr kleinlich und das Ergebnis ungerecht angesichts ihrer gründlichen Arbeit. Sie überlegt sich zu beschweren. Aber wo? Mews ist der Vorsitzende der Prüfungskommission. Da will sie bestimmt nicht hin. Sie geht zum Dekan Ströbel und erzählt ihm ihre Geschichte. Ströbel zeigt sich nach ihrem Bericht verständnisvoll und fragt sie, ob sie mit einer zweiten Begutachtung z. B. durch Professorin Silber einverstanden wäre. Sie sieht keinen anderen Ausweg und stimmt notgedrungen zu. Nach zwei Wochen erhält sie eine E-Mail vom Dekan, sie könne ihren Schein abholen; die Sache scheint noch einmal gut ausgegangen zu sein.

Doch fünf Wochen später erhält sie eine E-Mail, die von Professor Mews an alle Fakultätsmitglieder, auch die Studierenden, gegangen ist: „Offener Brief über einige rufschädigende Gerüchte zu meiner Person.“ Dort wird beschrieben, dass Karin und einige weitere Studentinnen unzutreffende Verleumdungen über ihn behaupteten und dass er sich „leider” gezwungen sieht, einen Strafantrag wegen Verleumdung bei der Staatsanwaltschaft zu stellen.

Karin ist erschüttert. Nachdem sie sich mit verschiedenen Kommilitonen und der Fachschaft beraten hat, geht sie erneut zum Dekan. Der versucht sie zu beruhigen, hat aber keine Ahnung über den Stand des angekündigten Verfahrens. Er gehe davon aus, dass das Ganze im Sande verlaufen wird und es vermutlich gar keine Anzeige gibt. „Der Kollege ist eben etwas cholerisch. Das wissen wir doch. Sie müssen halt auch seine Situation verstehen.“ Nach Beratung und mit Hilfe der Frauenbeauftragten beschwert sie sich bei der Universitätsleitung, die verspricht, der Sache nachzugehen.

Letztlich schreibt sie weiter an ihrer Abschlussarbeit. Die Konzentration auf die Arbeit fällt ihr freilich schwer. Drei Wochen vor Abgabetermin erhält sie ein Schreiben der örtlichen Polizeidienststelle, in welchem sie im Namen der Staatsanwalt zu einer Stellungnahme aufgefordert wird. Sie will das zu diesem Zeitpunkt eigentlich nicht machen, aber beißt doch die Zähne zusammen und schreibt ihre Erlebnisse auf, wobei sie betont, dass sie eigentlich das Opfer einer Verleumdung ist. Trotz dieser äußeren Störung kann sie die Arbeit fristgerecht beenden. Ihre Konzentration wird belohnt. Sie erhält eine gute Note und direkt nach Aushändigung des Zeugnisses ein interessantes Stellenangebot, das sie gern annimmt.

Zehn Monate nach ihrer Abschlussfeier erhält Karin einen Brief der Staatsanwaltschaft, in dem ihr kurz mitgeteilt wird, dass das Ermittlungsverfahren gegen sie eingestellt ist; drei Wochen später kommt ein Brief der Universitätsleitung, dass man die Sache mangels nachprüfbarer Aussagen nicht weiter verfolge.

Fragen

In diesem Szenario werden verschiedene Fragestellungen aufgeworfen. Es berührt ethische Fragen ebenso wie rechtliche Aspekte.

  • Hat Karin überreagiert?
  • Hat Professor Mews überreagiert?
  • Was hätte Karin zu welchen Zeitpunkt machen können oder sollen?
  • Wer ist eigentlich verleumdet worden?
  • Wie hätten sich die Kommilitonen von Karin verhalten sollen?
  • Darf Karin sich einfach zurückhalten, weil sie nun nicht mehr an der Universität ist? Macht sie sich dann nicht mitschuldig, wenn andere Studentinnen in eine ähnliche Lage kommen werden und dann noch nicht einmal beim Dekan Unterstützung finden können?
  • Sollte sie anonym veröffentlichen, wie sich Professor Mews verhalten hat?
  • War Professor Mews vielleicht im Recht, und Karin hat sich nur etwas eingeredet?

8.10.11: Informatik – Mitten in der Gesellschaft


Informatiksysteme sind fester Bestandteil der Gesellschaft geworden. Damit sind sie nicht nur rein technische Systeme und müssen in ihren gesellschaftlichen Kontexten geplant, entworfen und konstruiert werden. Es gehört auch zur Informatik, die Verantwortung für die Ziele und Konsequenzen ihrer Systeme mitzutragen.
Der GI-Fachbereich »Informatik und Gesellschaft« lädt am 8. Oktober zu einem eintägigen Symposium ein. Wir informieren und diskutieren über gesellschaftliche Dimensionen von Informatiksystemen und ihre Bedeutung für die Disziplin Informatik.
Die Veranstaltung richtet sich ausdrücklich an Informatikerinnen und Informatiker, an Lehrerinen und Lehrer, an Studentinnen und Studenten, die ihre Tätigkeit als gesellschaftliche Aufgabe verstehen und die Informatik an einem Ort sehen: Mitten in der Gesellschaft.

Samstag 8. Oktober 2011
10:00 -17:30 Uhr


Humboldt-Universität zu Berlin
Seminargebäude am Hegelplatz
Dorotheenstr. 24
10099 Berlin

Programm

10:00 Eröffnung
10:15-11:00 Informatik – Mitten in der Gesellschaft (Prof. Dr. Stefan Jaehnichen)
11:00-13:00 Workshops Panel 1:

  • Computer als Medium
  • Frauen und Informatik
  • Informatik und Dritte Welt
  • Der Workshop Informatik- und Computergeschichte entfällt leider aus organisatorischen Gründen.

13:00-14:30 Mittagspause
14:30-16:30 Workshops Panel 2:

  • Informatik und Ethik
  • Elektronische Demokratie
  • Langzeitarchivierung

16:30-17:30 Abschlussplenum

Abstrakt für den Informatik und Ethik Workshop:

Put the Wiki back in Wikileaks!

Die Ursprungsidee von Wikileaks war das kollaborative Aufdecken von politischen Skandalen und ethisch fragwürdigen Machenschaften, die für die Öffentlichkeit relevant sein könnten. Diese Idee wurde zu Gunsten einer internationalen Zusammenarbeit mit ausgewählten Presseverlagen aufgegeben. Der Fokus liegt mittlerweile auf großen reißerischen Themen. Dabei wurden Entscheidungen – wie das Redigieren und die Auswahl der Depeschen – Journalisten und Einzelpersonen übertragen. Das hat auch ethische Konsequenzen.

Wer träfe solche Entscheidungen im kollaborativen Fall, wie zum Beispiel im VroniPlagWiki? Wie müsste ein kollaboratives System beschaffen sein, das mit solchen sensiblen Daten umgehen kann? Wie kann zum Beispiel der Schutz der Informanten gewährleistet werden? Wir wollen im Workshop zentrale Themen ansprechen und mögliche Anforderungen diskutieren.


Fallbeispiel: SuperGrade

Christina Class & Debora Weber-Wulff

SuperGrade ist ein Unternehmen, das seit vielen Jahren elektronische Lerninhalte und Lernsoftware erfolgreich vertreibt. Verschiedene Kurse von SuperGrade werden durch elektronische Prüfungen abgeschlossen. SuperGrade hat nicht nur gut funktionierende Multiple-Choice-Fragen-Auswerter, sondern ist als einziges System am Markt dazu in der Lage, auch Freitext-Antworten auf offene Fragen angemessen und automatisch zu korrigieren.

Die Bewertung basiert auf state-of-the-art semantischen Analysen und Abstandsmessungen der Antworten zu vorgegebenen Musterantworten. Das entsprechende Modul verwendet parallel mehrere Methoden, unter anderem neuronale Netze, statistische Analysen der Texte und verschiedene Abstandsmetriken, um zu einer Gesamtbewertung zu gelangen. Das Verfahren wird als großer Durchbruch im Bereich der Künstlichen Intelligenz bezeichnet, allerdings hängt die Zuverlässigkeit der Bewertung davon ab, dass (a) die vorgegebenen Musterantworten mit Sorgfalt gewählt sind und ein möglichst breites Spektrum korrekter Antworten vorgeben und (b) dass die zu bewertenden Antworten, die im Kurs verwendete Terminologie verwenden, und keine Konzepte umschreiben, ohne die Fachtermini zu verwenden. Auch wirken sich größere Rechtschreibfehler negativ aus.

Die Hochschulleitung an der Universität Fresenhagen hat SuperGrade angeschafft, weil sie vom Ministerium angehalten sind, StudienbewerberInnen ECTS-Credits für vor dem Studium erworbene Kenntnisse zu geben.  Martina Mayer arbeitet im Rechenzentrum und muss jetzt erste Erfahrungen mit Supergrade sammeln. Sie soll später die ProfessorInnen dabei unterstützen, erste Prüfungen für Grundkurse einzurichten. Studierende, welche die Prüfungen bestehen, würden die Credits für die entsprechenden Kurse erhalten. Als erstes hat sie sich, zusammen mit Hans Heller, Professor für Informatik, den Kurs Informatik 1 vorgenommen.

Die Bedienung von SuperGrade ist recht einfach und Hans und Martina haben schnell einige Musterantworten eingegeben. Um das System genauer zu überprüfen, testet Martina unterschiedlichste Formulierungen richtiger Antworten. Mit einiger Mühe schafft sie es, zwei Antworten so umständlich zu formulieren, dass das System sie nicht als richtig erkennt. Es ist schwer, Musterantworten zu definieren, die alle möglichen Fälle abdecken können. Insbesondere bei Fragen in Bezug auf Programmierung, wo es sehr viele Varianten für korrekte Lösungen geben kann, ist es nicht leicht, die Antworten zu entwickeln.

Hans ist von dem System begeistert – die Korrektur von Aufgaben findet er sowieso lästig. Sie kostet seinen wissenschaftlichen MitarbeiterInnen sehr viel Zeit, die sie lieber in die Forschung stecken sollten. Er will SuperGrade auch gerne in seinem eigenen regulären Unterricht einsetzen.

Martina hat Bedenken, ob die Software allen Prüflingen gerecht wird. Es ist allerdings zu erwarten, dass in den meisten Fällen keine Probleme auftreten werden, sofern die Musterantworten mit Sorgfalt entwickelt werden. Auch hat die Hochschulleitung bereits eine Pressekonferenz gegeben, die ersten Tests mit SuperGrade sollen nächste Woche abgenommen werden.

Fragen

  • Ist es ein ethisches Problem, dass menschliche Leistungen zunehmend automatisch bewertet werden?
  • Wie beurteilen Sie die schwere Nachvollziehbarkeit der Bewertungen bei offenen Fragen?
  • Wie werden  Neuronale Netze trainiert? Gibt es Beispiele für solche Bewertungen?
  • Wäre es unterschiedlich, wenn es nur Multiple-Choice-Fragen gäbe?
  • Wie misst man die Qualität von so einem System?
  • Auch Menschen machen in der Beurteilung von Prüfungsleistungen Fehler. Sind Fehler durch automatische Beurteilungen schwerer zu gewichten? Oder können solche Programme wie SuperGrade auch inhärente Probleme der Leistungsbewertung lösen?
  • Noten und Zertifikate spielen in der Ersteinschätzung von Menschen auf dem Arbeitsmarkt eine zunehmend große Rolle. Wird das verschärft, wenn Programme es erleichtern, Prüfungen abzunehmen und automatisch zu bewerten? Oder könnte diese Tendenz auch dazu führen, dass der Mensch wieder mehr beachtet wird hinter all den Zahlen?

Erschienen in Informatik-Spektrum 34(4), 2011, S. 421–422