Archiv

Fallbeispiel: Pseudokonferenz?

Marco promoviert in Informatik an einer Universität, die unter einer immer knapper werdenden Finanzierung leidet. Die Reisemittel wurden stark gekürzt und eine Reise wird nicht bewilligt, wenn kein wissenschaftlicher Artikel für das Tagungsprogramm akzeptiert wurde. Doktoranden im Fachbereich Informatik können erst, wenn sie drei Veröffentlichungen an Tagungen oder in Zeitschriften vorweisen können, ihre Dissertation einreichen.

Marco arbeitet am Institut von Prof. Birkenmoss, der als äußerst anspruchsvoll gilt. Er erwartet, dass seine Doktoranden geplante Artikel erst in einem Lehrstuhlkolloquium vorstellen, bevor sie diese einreichen. Marco hat dies vor einigen Monaten bereits getan, aber im Kolloquium wurden so viele Änderungswünsche genannt, dass er das Paper nicht mehr zum Abgabetermin fertig stellen konnte. Da Marcos Themengebiet nur für wenige Konferenzen und Journals interessant ist, fühlt er sich ziemlich stark unter Druck.

Eines Morgens findet Marco eine interessante E-Mail in seinem Postfach. Der 5-tägige »World Science International Multi-Conference on Computing Systems« (WSIMCCS) wird Ende des Jahres in Orlando, Florida stattfinden. Die thematische Spektrum der Konferenz ist sehr breit, so dass er sein Spezialthema unterbringen könnte.

Allerdings sind die Fahrtkosten nach Orlando und die Übernachtungen im Tagungshotel nicht gerade billig. Und dann ist die Tagung selbst sehr teuer. Wenn man die halbe Tagungsgebühr dazu zahlt, könnte man sogar einen zweiten Aufsatz präsentieren. Auf der Konferenzwebseite wird eine hohe Akzeptanzrate erwähnt, „um den breiten wissenschaftlichen Dialog zu fördern.“ Das hört sich gut an. Aber Marco fühlt sich auch etwas unsicher. Ist es wirklich eine gute Idee, auf dieser Konferenz, von der er noch nie gehört hat, zu publizieren? Oder vielleicht gar einen zweiten Artikel einzureichen? Dann erinnert sich Marco, dass ihm ein Kollege erzählt hat, dass Tagungsbeiträge in der Informatik eigentlich wichtiger seien als Journalartikel. Und immerhin handelt es sich um eine internationale Tagung.

Marco beschließt, einen Artikel einzureichen, und ist sehr glücklich (und etwas verwundert), als er nur ein paar Wochen später die Nachricht bekommt, dass sein Paper wie eingereicht angenommen wurde! Er musst nur noch die Tagungsgebühren zahlen und die Reise buchen. Für den Reiseantrag braucht er aber die Unterschrift von seines Chefs. Nun muß er beichten, dass er einen Aufsatz eingereicht hat, ohne diesen im Kolloquium vorher vorzustellen. Aber was sollte Prof. Birkenmoss eigentlich dagegen haben – es gibt ja die Freiheit von Forschung und Lehre. Prof. Birkenmoss ist jedoch sehr verärgert über Marcos Vorgehen. So viel Geld für Reisekosten zu einer Tagung, von der er noch nie etwas gehört hat. Und er hat den Aufsatz auch nicht gesehen. Marcos legt überzeugend dar, dass er unbedingt publizieren muss, wenn er seine Dissertation in einem kommenden Jahr einreichen möchte, und dass er wenige Möglichkeiten hat, sein spezielles Thema zu platzieren. Nach einer Weile gibt Prof. Birkenmoss nach und unterschreibt den Reiseantrag. Marco ist überglücklich und stürzt sich gleich in die Planungen. Er möchte zwei Wochen länger bleiben und ein bisschen herumreisen. Als er einige Wochen später im Tagungshotel in Orlando ankommt, ist er etwas enttäuscht. Es gibt in der Eingangshalle nur zwei kleine Plakate, die auf die Konferenz hinweisen.

Am nächsten Morgen stehen viele Leute am Registration Desk, aber nicht so vielem wie er erwartet hat. Er bekommt seine Unterlagen, der Tagungsband wird als CD ausgegeben.  Marco studiert das Programm, um zu sehen, wann er seinen Vortrag hat. Er wundert sich sehr, als er sieht, dass aus den fünf Tagen Konferenz inzwischen nur noch zwei Tage geworden sind. Drei Tage sind für Exkursionen u.a. zu Disney World oder zu den Everglades reserviert. Die Plenarsession ist recht gut besucht und es werden sehr viele Fotos gemacht. Die Sessions, die er danach besucht, sind leider fast leer. Seine Session selbst findet am nächsten Morgen um 9.00 statt. Bis auf drei Zuhörer ist niemand da, auch nicht der Session Chair. Marco ist enttäuscht. Er hat seinen Vortrag mit viel Mühe vorbereitet, und es kommt nicht eine einzige Frage. Da der nächste Vortragende gar nicht erst erscheint, löst sich die kleine Gruppe auf und geht Richtung Kaffeetisch. Marco packt seine Sachen und geht nachdenklich erst mal Richtung Pool.

Fragen

  • Durfte Marco seinen Aufsatz einreichen, ohne ihn dem Kolloquium vorzustellen?  Ist es sinnvoll, dass Prof. Birkenmoss eine solche Vorstellung fordert?
  • Hat sich Prof. Birkenmoss zu leicht von Marco überzeugen lassen?
  • Werden Forschende und Doktoranden benachteiligt, wenn sie in Spezialgebieten forschen und die gleiche Anzahl Veröffentlichungen von ihnen verlangt werden?
  • Hätte Marco auf der Tagung irgendwas sagen können? Hätte er sich beschweren müssen?
  • Wie kann man die Qualität einer Tagung messen? Gibt es Anzeichen für nicht ernstzunehmende Tagungen, die man im Vorhinein bemerken kann?
  • Auch auf guten Konferenzen kommt es immer wieder vor, dass Personen zwar einen Artikel einreichen und sich registrieren, aber nicht kommen und keinen Vortrag halten. Wie sollen die Tagungsorganisatoren und die Community damit umgehen?
  • Ist es ein Problem, dass Marco den Tagungsbesuch mit einem Urlaub verbindet?

Fallbeispiel: Open Data

Tobias Preuß & Stefan Ullrich

Hannelore Münkler ist Direktorin des naturwissenschaftlich ausgerichteten Ferdinand-Tönnies-Gymnasiums im ländlichen Randgebiet einer größeren Kleinstadt. Ihre Schule wurde vor kurzem modernisiert, im Frühjahr erst wurde der Abschluss der Arbeiten mit einem Fest gefeiert. Der Unterricht wird nun durch moderne elektronische Whiteboards unterstützt, Schüler der oberen Stufen arbeiten an Tablet-PCs. Diese technische Ausstattung wurde zum Großteil durch das Bundesland finanziert, aber auch das FTG musste seinen Beitrag leisten, so dass sich das Gymnasium aktuell keine weiteren Anschaffungen mehr leisten kann.

Bernd Schwiger, Frau Münklers Nachbar und »persönliche Computer-Hotline«, arbeitet für die Kreisstadt und betreut dort aktuell ein Projekt zum Thema »Open Data«. Dieses hat die Zielstellung, Daten der Verwaltung zu veröffentlichen, um damit Bürgern mehr Einblick, Verständnis und Beteiligung in die Arbeit der Stadt zu ermöglichen. Frau Münkler hat von diesem Projekt in der Lokalzeitung gelesen und sich interessiert weitere Informationen von Herrn Schwiger eingeholt. Dieser gab bereitwillig Auskunft über das Vorhaben.

Das Schuljahr neigt sich dem Ende und Frau Münkler kommt die Idee, dass »Open Data« ein interessantes und aktuelles Thema für die Projektwochen wäre. Von Herrn Schwiger hat sie erfahren, dass sich tolle Applikationen »wie von selbst« entwickeln, wenn man nur die Rohdaten bereitstellt. Frau Münkler weiß sofort, welche Rohdaten bereitgestellt werden können. Ihr fällt ein, dass das Gymnasium die Stundenpläne aller Klassen und die Raumbelegungen aller Gebäude auf der Webseite der Schule veröffentlichen könnte, da diese Daten ohnehin schon digital vorliegen. Außerdem möchte sie die Stundenpläne aller Lehrer bereitstellen, so dass die Schüler wissen, wo sie einen bestimmten Lehrer höchstwahrscheinlich antreffen können.

Die bereitgestellten Daten sollen kontinuierlich und zeitnah aktualisiert werden. In den beiden Projektwochen vor den Sommerferien sollen dann Schüler verschiedener Jahrgangsstufen mit den Rohdaten arbeiten und praktische Anwendungen realisieren. Diese Idee stellt Frau Münkler im Lehrerkollegium vor, und sie trifft auf große Zustimmung. Weiterhin wird vorgeschlagen, auch die Unterrichtsentwürfe für das neue Schuljahr zu veröffentlichen. Angesichts der unmittelbar bevorstehenden Projektwochen, aber auch aus Mangel an alternativen Themen, wird ihr Vorschlag mehrheitlich angenommen. Die Veröffentlichung der Pläne übernimmt das Sekretariat mit Unterstützung von einem der Informatik-Lehrer.

Die ersten Tage der Projektwoche sind regnerisch, was angesichts der Computerarbeit sogar von Vorteil ist. In der Projektwoche entstehen viele unterschiedliche Applikationen. Die Schüler aller Alterstufen beteiligen sich rege und in großer Anzahl. Eine Gruppe erstellt eine Webseite, die die Stundenpläne für jede Klasse anzeigt. Alle Pläne sind über die Webseite durchsuchbar. Viele ältere Schüler besitzen moderne Smartphones und haben zudem Zugriff auf die schuleigenen Tablets. Sie programmieren eine mobile Anwendung, mit der man seinen Stundenplan einsehen oder Lehrer im Gebäude finden kann. Sie erinnert an den Beginn einer Unterrichtstunde und zeigt den kürzesten Weg durch das Gebäude. Dank der vom Kollegium ständig aktualisierten Schuldaten kann man in der Anwendung auch sehen, wann sich ein Lehrer krank gemeldet hat oder auf Weiterbildung ist. Schüler der Informatik-AG verbinden die Stundenzeiten mit den ebenfalls als »Open Data« vorliegenden Verkehrsinformationen des öffentlichen Personennahverkehrs.

Frau Münkler freut sich über den Verlauf und die Ergebnisse der Projektwochen und geht zufrieden in die Sommerferien. Im neuen Schuljahr sollen die umgesetzten Anwendungen beweisen, welchen Nutzen sie für Schüler und Lehrer im Alltag haben.

Das neue Schuljahr beginnt verspielt: Viele Schüler sind oft schon eine Viertelstunde vor Unterrichtsbeginn an der Schule, um eines der Geländespiele auszuprobieren, die im Rahmen der Projektwoche entwickelt wurden. Die neuen Fünftklässler schauen gebannt auf die Whiteboardprojektionen mit den hereinschwebenden Stundenplänen und freuen sich sogar auf Mathematik.

Das neue Schuljahr bringt aber auch einige unangenehme Überraschungen mit sich. Sämtliche im Rahmen der Projektwoche entwickelten Anwendungen sind ganz offiziell für jeden Internetnutzer online verfügbar. Nachdem bekannt wurde, dass einzelne Anwendungen bereits über fünfhundert Mal heruntergeladen wurden, äußern einige Lehrer ihre Bedenken. Sie fühlen sich in ihrem Schulalltag überwacht und befürchten eine Nachverfolgung von Krankheitsmeldungen. Auch Eltern melden sich beim Direktorat. Sie sind empört über die vielen Ausfallstunden, die sie über die Webseite einsehen können. Zudem kritisieren sie die Unterrichtsentwürfe für das neue Schulhalbjahr.

Zu allem Überfluss wird in den nächsten Wochen bekannt, dass sich Schüler in einem Forum im Internet über Schreibfehler in den Entwürfen lustig machen und Lehrer dafür benoten. Auf einer anderen Website werden die Informationen über Ausfallstunden dazu benutzt, Ranglisten zu erstellen. Häufig erkrankte oder verspätete Lehrer bekommen mehr »lazy points« als Lehrer, die ständig anwesend sind.

Frau Münkler ist verzweifelt. Sie ist sich nicht mehr so sicher, ob »Open Data« eine gute Idee für ihre Schule war.

Fragen

  • Wie ist die Bereitstellung von Stundenplänen und Raumbelegungen zu werten? Ist die Veröffentlichung der Schuldaten per se ein ethisches Problem?
  • Inwieweit ist es ethisch bedenklich, die Ausfallstunden bzw. Krankeitsmeldungen öffentlich bekanntzugeben? Einerseits sollen Schüler zeitnah Informationen zu Ausfallstunden bekommen, andererseits sind diese Informationen direkt an die Lehrpersonen gebunden. Würden Sie sich für oder gegen die Veröffentlichung der Daten entscheiden und warum?
  • Sehen Sie weitere potentielle Schwierigkeiten, die durch die Veröffentlichung der Schuldaten entstehen könnten? Können diese vermieden werden? Wenn ja, wie?
  • Darf eine Schulleitung einfach verlangen, dass Lehrpersonen Ihre Unterrichtsentwürfe öffentlich machen?
  • Sehen Sie Gefahren in einer freien Nutzung der Daten? Hat die Schuldirektorin alle Eventualitäten bedacht?
  • Bei »Open Data« handelt es sich in der Regel um anonymisierte Informationen, die nicht auf einzelne Personen zurückzuführen sind. Wie könnte das oben beschriebene System entsprechend abgeändert werden und funktional bleiben?
  • Die entwickelten Anwendungen erlauben eine rein auf Zahlen beruhende Bewertung von Lehrpersonen: Anzahl der Fehlstunden, Anzahl der Rechtschreibfehler in den Entwürfen etc. Wird eine solche Metrik den Lehrpersonen gerecht?

Erschienen in Informatik Spektrum 36(1), 2013, S. 115–116

Veranstaltungshinweis: Öffentlichkeit im Netz

Öffentlichkeit im Netz – the digital public
13.+14. Dezember 2012, Berlin-Adlershof

Das aktuelle Zeitungssterben belegt es. Wir sind mitten in einem sehr tiefgreifenden Wandel der medialen Öffentlichkeit. Die gedruckte Zeitung als Basis einer Öffentlichkeit, die einst als vierte Gewalt verdächtigt wurde, hat sich schon lange dem Fernsehen ergeben, aber auch dessen Strahlkraft lässt nach. Das Internet, obwohl erst seit gut fünfzehn Jahren kommerziell und öffentlich zugänglich, scheint zur medialen Basis der Selbstverständigung der politischen und kulturellen Öffentlichkeit oder besser Öffentlichkeiten zu werden. Digitale Medien sind zeitnah, stets und überall griffbereit – nicht nur zur Information und Rezeption, sondern auch, um sich zu Wort und Foto und Video zu melden, auch wenn die einzelnen Stimmen im allgemeinen Murmeln unterzugehen scheinen.

Mit Beiträgen von: Wolfgang Coy, Michael Eldred, Jörg Kantel, Dieter Klumpp, Sebastian Köhler, Anne Roth, Angel Tchorbadjiiski, Stefan Ullrich, Debora Weber-Wulff.

Die Teilnahme ist kostenlos, wir erbitten eine formlose Anmeldung per E-Mail an stiftung@hu-berlin.net bis Anfang Dezember.

Das Programm und weitere Informationen finden sich hier:
http://waste.informatik.hu-berlin.de/tagungen/digitalpublic/

Verantwortung übernehmen

Informatiksysteme sind keine rein technischen, sie müssen in ihren gesellschaftlichen Kontexten geplant, entworfen und konstruiert werden. Es liegt in der Verantwortung der Informatik, sich mit den Zielen, Wirkungen und Folgen der von ihr gebauten Systeme auseinanderzusetzen. Das gilt insbesondere im Hinblick auf die technisierte Gesellschaft in der Turing-Galaxis.

Der Fachbereich Informatik und Gesellschaft der Gesellschaft für Informatik (GI) und deren Fachgruppe „Informatik und Ethik“ lädt mit Unterstützung der Alcatel-Lucent-Stiftung am 2. und 3. November zu einem zweitägigen Symposion ein, um über gesellschaftliche Dimensionen von Informatiksystemen und ihre Bedeutung für die Disziplin Informatik zu sprechen.

Angeboten werden Workshops zu den Themen der einzelnen Fachgruppen und Arbeitskreise. Die Veranstaltung richtet sich ausdrücklich an Informatikerinnen und Informatiker, die ihre Tätigkeit als gesellschaftliche Aufgabe verstehen und eines möchten: Verantwortung übernehmen.

Weitere Informationen zum Symposion, den Workshops und dem Gastvortrag von Sebastian Sattler und Madlen Preuß finden sich auf der Webseite Verantwortung übernehmen – Mitten in der Turing-Galaxis.

Veranstaltungsort:
Malzfabrik Berlin, Bessemerstraße 2-14, Berlin-Südkreuz

Programm am Freitag:

  • 10 Uhr Informatik und Ethik: Eröffnung
  • 10:30-13:30 Uhr Workshops Panel 1
  • 14:30-17:30 Uhr Workshops Panel 2
  • 18 Uhr Führung durch die Ausstellung
  • ab 19 Uhr Abend-Buffet und Gastvortrag, Musik und Kultur

Programm am Samstag:

  • 10 Uhr Begrüßung mit starkem Kaffee
  • 10:30-13:30 Uhr Vorstellung der Workshop-Ergebnisse, Podiumsdiskussion zum Tagungsthema
  • gegen 14:30 Uhr Abschluss der Veranstaltung

Die Teilnahme an den Workshops tagsüber ist kostenlos. Es gibt ein Restaurant im Gebäude der Maschinenhalle für die Workshop-Teilnehmer. Bitte melden Sie sich bei Fragen per E-Mail an: verantwortung [at] turing-galaxis.de

malzfabrik
Foto von tristessedeluxe.

Fallbeispiel: Planungen

Debora Weber-Wulff & Christina B. Class

Michaela arbeitet in der örtlichen Polizeidienststelle vom Neustatt. Auf Grund der sinkenden Steuereinnahmen und Kürzungen der Zuschüsse des Bundeslandes, stehen in den kommenden Jahren deutlich weniger finanzielle Mittel für die Polizeiarbeit zur Verfügung. Die natürlichen Abgänge durch Pensionierungen werden wohl nicht ersetzt werden können. Insbesondere die Polizeipräsenz in der Stadt muss neu organisiert werden. Dies stellt ein großes Problem dar, da Kleinkriminalität, Diebstähle und Einbrüche in den letzten Monaten stark zugenommen haben. Nachdem einige Touristen beraubt wurden, die das bekannte Stadtzentrum und das Museum für moderne Kunst besucht haben, machen Fremdenverkehrsverein und Hotel- und Gaststättengewerbe zusätzlichen Druck auf die Polizeiabteilung und fordern eine Erhöhung der Polizeipräsenz.

Michaelas Freundin Sandra ist in einem interdisziplinären Forschungsprojekt beteiligt, in dem es darum geht, Methoden des Data Mining und der Künstlichen Intelligenz mit Erkenntnissen der Soziologie zu verbinden, um einen neuen Ansatz der Stadtentwicklung zu entwickeln. Die aktuellen Ergebnisse legen nahe, dass der entwickelte Prototyp verbesserte Prognosen über zu erwartende kriminelle Aktivitäten in bestimmten Gebieten erstellen kann. Daher wurde vorgeschlagen, in der nun beginnenden zweiten Projektphase einige Gemeinden einzubeziehen, um diese Annahme mit Hilfe detaillierter, wenn auch anonymisierter, Informationen zur Kriminalität sowie zu Tätern überprüfen zu können.

Michaela vereinbart für einen gemeinsamen Termin mit Sandra beim Bürgermeister. Dieser hört Sandra sehr aufmerksam zu und ist an einer Zusammenarbeit im Rahmen des Projektes interessiert. Er lädt Sandra zur nächsten Gemeinderatssitzung ein. Nach Sandras Vortrag beginnt eine engagierte Diskussion. Einige Gemeinderatsmitglieder melden Bedenken in Bezug auf den Datenschutz an. Sandra erläutert die Maßnahmen, die zur Anonymisierung und zum Schutz personenbezogener Daten ergriffen werden. Peter wendet ein, dass Personen, die zu kleinen Gruppen gehören, dennoch praktisch identifizierbar wären.  Daraufhin meldet sich Anton zu Wort: Gerade im Zusammenhang mit Kriminalität gäbe es verschiedene Faktoren, die häufig zusammenkommen, wie z.B. Armut, Arbeitslosigkeit, Ausbildung, etc. Er habe gehört, dass der am Projekt beteiligte Soziologieprofessor sich sehr stark auf die ethnische Herkunft bezieht und andere Faktoren gar nicht in die Untersuchungen einbezieht – das sei diskriminierend. Werner, Inhaber eines großen Gastronomiebetriebs, wirft dagegen ein, dass es wichtig ist, die Polizei sinnvoll einzusetzen und die Menschen und Betriebe vor der zunehmenden Kriminalität zu schützen.

Michaela ist verwirrt: sie sieht das Potential des Ansatzes, um die Ressourcen der Polizei sinnvoll einzusetzen. Allerdings versteht sie auch die Bedenken. Aber werden wir in unserer Gesellschaft nicht immer schon, und seit der elektronischen Auswertung von Datensätzen immer mehr, bestimmten Kategorien zugeordnet? Letztens wurden ihre Autoversicherungsbeiträge wieder erhöht, weil ihre Kategorie der Versicherten vermehrt Unfälle hatte. Das ist doch auch unfair…

Fragen

  • Wie stark ist das Problem, Menschen in Kategorien einzuteilen, in unserer Gesellschaft wirklich? Wurde es durch die Informatik verstärkt?
  • Sollte es Gemeinden erlaubt sein, sensible personenbezogene Daten anonymisiert für Forschungsprojekte herauszugeben? Welche ethischen Probleme könnten sich hierbei ergeben? Wie sehr vertrauen Sie Methoden der Anonymisierung von Daten?
  • Die Einsatzplanung von verstärkter Polizeipräsenz in bestimmten Gebieten kann dem Schutz der Bevölkerung vor Verbrechen dienen. Kommt sie aber gleichzeitig einer gewissen Vorverurteilung der Menschen in diesen Gebieten gleich? Wann ist eine solche gerechtfertigt?
  • Sollte das Forschungsprojekt und der Prototyp abgelehnt werden, weil eine beteiligte Person zweifelhafte Kriterien für die Klassifizierung verwendet?
  • Die Auswahl relevanter Variablen für die Analyse ist von zentraler Bedeutung. Wie kann man sicherstellen, sich hierbei nicht durch Vorurteile leiten zu lassen?
  • Wie kann verhindert werden, dass aus Korrelationen plötzlich ursächliche Zusammenhänge hergestellt werden? Wie groß ist die Gefahr im Zusammenhang mit der Analyse von personenbezogenen Daten?

Erschienen im Informatik-Spektrum 35(3), 2012, S. 236–237

Fallbeispiel: Der Assistent

Constanze Kurz & Stefan Ullrich

Felipe hat in seiner Firma nach einer mehrmonatigen Beratung eines Spezialisten für Optimierung der Geschäftsprozesse nun mit allerhand neuen IT-Systemen zu kämpfen. Er und seine Kollegen nutzen seit wenigen Tagen gemeinsame digitale Kalender für den besseren Überblick in die Terminlage. Ihre neuen Smartphones haben speziell konfigurierte Anwendungen, die vieles an Kommunikation zwischen den Kollegen, aber auch mit Kunden selbständig übernehmen.

Anfangs läuft alles noch etwas holprig, aber schon nach ein paar Tagen Übung und mehreren Anpassungen in der Konfiguration stellt sich heraus, dass das in die Arbeitsprozesse integrierte System nutzbringend ist und besonders die häufig sehr ähnlichen Nachrichten korrekt an die Adressaten sendet. Das spart Zeit und langweilige Arbeiten, die nun automatisiert im Hintergrund ablaufen.

Das System wird von der Firma Golemmata AG geliefert, die bereits seit vielen Jahren solche digitalen Assistenzsysteme herstellt. Mit dem »Life Integration Smart Assistant« ist der Durchbruch gelungen. Die Software reagiert auf Spracheingaben, synchronisiert automatisch sämtliche Termin- und Adressbucheinträge mit einer zentralen Datenbank und kann sogar geplante Veranstaltungen koordinieren, natürlich mit Hilfe von mehreren anderen Assistenzsystemen, die für die Smartphones von berufstätigen Menschen angeboten werden.

Felipes Freund Marco findet das System auch sehr praktisch, da er sich in seinem Beruf als freischaffender Künstler manchmal nicht gründlich genug um Termine kümmert. Felipes Smartphone haben sie gemeinsam so konfiguriert, dass es auch automatisch Marcos Kalender füllt, sie verabreden sich sogar mit Hilfe der Software. Marco hat für sein eigenes Telefon ebenfalls die Software von Golemmata gekauft, um den vernetzten Kalender von Felipe einsehen zu können. Beide sind erfreut über die automatischen Botschaften, die versendet werden, wenn Felipe auf dem Heimweg im Stau steht. Sein Smartphone schickt schon bei einer Verspätung von zehn Minuten eine freundliche Warnung an Marco.

In Felipes Firma wird das »Life Integration Smart Assistant«-System, das wegen seiner Sprachausgabe mit der weiblichen Stimme schon bald den zärtlichen Namen „Lisa“ erhält, zur unersetzlichen Stütze. Es hilft bei der Organisation des alltäglichen Arbeitens wie eine vorausschauende Sekretärin: Lisa bucht Reisen und Hotels, plant Reiserouten und ordert dafür die Tickets. Sie koordiniert zudem die beiden Schreibkräfte, die sich Felipe und seine Kollegen teilen: Nach jeweiligem Arbeitsbedarf werden sie automatisch gebucht.

In der neuesten Version kann Lisa auch den Standort genauer einbeziehen, um beispielsweise Reiserouten für die Abrechnung aufzuzeichnen oder bestimmte Zugangsberechtigungen für besonders gesicherte Gebäude bei Bedarf freizuschalten. Sie sagt auch automatisch Termine ab, falls sich der Besitzer des Handys noch zu weit vom Zielort entfernt aufhält, um ihn wahrnehmen zu können. Selbst die Zeiten im betriebseigenen Kindergarten werden mit Hilfe von Lisa koordiniert.

Marco freut sich anfangs mit Felipe über das oft zeitsparende System, das auch Spaß bei der Arbeit bringt durch manchmal lustige Formulierungen oder, seltener, auch durch Fehler wegen Namens- oder Ortsverwechslungen. Da die Software aber bei weitreichenden Kommunikations- oder Buchungsvorhaben zur Sicherheit an die Nutzer Nachfragen stellt, sind bisher keine groben Fehler passiert.

Doch Marco wird das Gefühl nicht los, dass die Software mit der Zeit die Tendenz von Felipe registriert hat, bei konfligierenden Terminen oft das Geschäftliche vorzuziehen. Er möchte eben Karriere machen und scheut auch Überstunden nicht. Er fragt eines Tages Felipe beiläufig, ob Lisa auch selbstlernende Komponenten hat. Stolz bejaht Felipe und erklärt, dass diese Lernfähigkeit das System noch nutzbringender gemacht hätte, als es bereits anfangs gewesen war.

Lisa leitet aus den Prioritäten und Zeitabläufen, die von Felipe und den Kollegen gesetzt werden, bestimmte Vorhersagen für anfallende Entscheidungen ab. So muss die Software nicht mehr bei jeder Kleinigkeit nachfragen und arbeitet entlang bereits bekannter und täglich neu hinzukommender Entscheidungsmuster. Marco kann sich des Eindrucks nicht erwehren, dass er bei privaten Verabredungen immer häufiger Lisas freundliche Absagenachrichten im Namen von Felipe erhält. Kino-Abende mit Freunden bestreitet er immer häufiger allein. Marcos entwickelt eine gewisse Abneigung gegen Lisa, mit dem System verbindet er dauernde Absagen und Rückweisungen. Er hat keine Lust mehr auf dieses halbautomatisiert organisierte Leben.

Felipe hingegen kann sich ein Leben ohne Lisa gar nicht mehr vorstellen. Es ist so ungemein praktisch, nicht mehr jede SMS oder E-Mail selbst schreiben, sich nicht mehr um Reisepläne kümmern zu müssen. Sein Leben ist viel effizienter, er hat kaum noch Zeitverluste bei Organisation und Logistik.

FRAGEN

  • Wie ist es ethisch zu bewerten, dass Lisa selbständig Entscheidungen trifft?
  • Ist es bereits ein Problem, wenn Lisa lediglich »Kleinigkeiten« selbständig entscheidet?
  • Wie sieht es mit der Herstellerfirma Golemmata aus – hat sie ethische Verpflichtungen bei der Programmierung oder Implementierung des Systems? Wie viel Entscheidungsfreiheit darf der Hersteller Lisa geben?
  • Würden sich ethische Fragestellungen ergeben, wenn die Daten für das lernende System bei der Firma Golemmata gespeichert würden? Welchen Unterschied machte das?
  • Felipe nutzt das System sowohl geschäftlich als auch privat. Macht es einen Unterschied, ob geschäftsinterne Termin nach außen, beispielsweise für Marco, sichtbar werden? Kann das ein ethisches Problem sein?
  • Wie ist es zu bewerten, wenn zwischenmenschliche Interaktionen und Kommunikation nach Effizienzkriterien optimiert werden?
  • Wie sollte sich Marco verhalten, wenn er das Gefühl hat, von Lisa benachteiligt zu werden?
  • Ist Marcos Abneigung dem System gegenüber nicht eher dem Verhalten von Felipe zuzurechnen? Lisa unterstützt doch lediglich die Planungen, sie trifft doch keine größeren Entscheidungen allein.

Erschienen in Informatik Spektrum 35(4), 2012, 315–316

Roboterträume

robot without colour
Nachdem Kriegsroboter schon viele Jahre kontroverse ethische Fragen aufwerfen, halten immer mehr zivile Roboter Einzug in die Gesellschaft. Und wie bei allen technischen Systemen stellen sich Fragen der Konsequenzen und der Verantwortung, die wir beispielsweise in unserem Fallbeispiel über zivile Drohnen angesprochen haben.

Vor ein paar Tagen gab es Berichte über Regulierungsansätze für zivile autonome Roboterautos auf öffentlichen Straßen im US-Bundesstaat Nevada. Dazu soll etwa die Vorschrift gehören, eine Blackbox zur Speicherung der Sensordaten einzubauen, beispielsweise für den Fall eines Unfalls oder Versicherungsschadens. Ob man Roboter in Zukunft als juristische Personen ansehen sollte, wird schon länger diskutiert. Klaus Schilling, Professor für „Robotics and Telematics“ in Würzburg, beantwortete die Frage 2010 so: „Bei uns arbeiten Techniker und Juristen mit Experten anderer Gebiete daran, fundierte Antworten auf solche Fragen zu finden. Denkbar ist es zum Beispiel, analog zu Schäden zu verfahren, die Kinder oder Haustiere verursacht haben. Für Versicherungen öffnet sich hier ein interessanter Bereich, innovative Produkte anzubieten.“ In Deutschland ist die damit angestrebte Rechtssicherheit allerdings bis heute nicht in die Tat umgesetzt worden.

Die Entwicklung von autonomen oder halbautonomen Robotern aller Art schreitet jedoch schnell und in verschiedene Richtungen voran, die Fertigung wird zunehmend automatisiert. Heute werden längst nur millimetergroße Mikroroboter gebaut, die Flügelschläge von Insekten vollführen können, Flugroboter oder menschenähnliche Roboter, die komplexe Aufgaben wie ein Ping-Pong-Spiel meistern, oder mobile autonome Hilfsroboter für viele Zwecke. Mittlerweile berühmt ist auch dieser beeindruckende zweibeinige Fahrradroboter oder der PETMAN von Boston Dynamics.

Es ist also an der Zeit, sich mehr Gedanken zu machen. Anregen lassen kann man sich dabei durch Rafael Capurro and Michael Nagenborg, die 2009 in Ethics and Robotics bereits viele Fragen zusammengetragen haben (Heidelberg: Akademische Verlagsgesellschaft).

Graphik „Add your own colours!“ von Enokson

Fallbeispiel: Plagiatssoftware-Opfer

Constanze Kurz & Stefan Ulrich (ohne Autorenvermerk erschienen)

Professorin Claudia Wolke kommt gutgelaunt aus der Prüfungskommissionssitzung zurück. Der von ihr eingebrachte Vorschlag zum Einsatz einer Plagiatserkennungssoftware war ein voller Erfolg, der Anbieter hatte nicht zuviel versprochen. Die sich häufenden Fälle von plagiierten Arbeiten an der Universität und nicht zuletzt die öffentliche Diskussion um prominente Fälle wissenschaftlichen Fehlverhaltens hatten das Gremium umgestimmt. Einmütig beschloss die Runde, das Softwareprodukt nun routinemäßig einzusetzen.

Professorin Wolke selbst setzt die Software »PlagParser« nun schon seit vier Semestern ein. Seitdem sind die eingereichten Plagiate deutlich zurückgegangen. Auf den Fachschaftsseiten wird ausdrücklich vor dem Einreichen einer kopierten Arbeit bei dieser Dozentin gewarnt.

Das Praktische an der Software ist der vollständige Automatismus. Professorin Wolke muss die Arbeit nicht selbst durch die Software »jagen«, da sie ein Teil des Studentenportals ist. Die Studenten reichen dort die Arbeiten in einem uniweit eingesetzten System ein. PlagParser überprüft sie automatisch auf verdächtige Stellen und verschickt gegebenenfalls selbständig eine E-Mail mit den Ergebnissen an den jeweiligen Dozenten. Falls kein Plagiat von der Software erkannt worden ist, wird die Arbeit zur weiteren Bewertung dem Dozenten vorgelegt, der innerhalb des Systems die »Credit Points« für die Studenten vergeben kann.

Felix erreicht kurz vor der Prüfungsphase am Ende des Semesters eine unangenehme E-Mail. Er hatte ein Seminar bei Professorin Wolke besucht und vor drei Wochen seine Hausarbeit abgegeben. Die E-Mail von ihr ist knapp gehalten und besteht aus nur vier Sätzen: »Die von Ihnen eingereichte Seminararbeit wurde von unserer Erkennungssoftware ›PlagParser‹ als Plagiat erkannt. Eine eigenständige Leistung für das Seminar ist damit nicht erbracht worden, einen Schein kann ich Ihnen daher nicht ausstellen. Sie können diesen Kurs leider nicht erneut besuchen. Diese E-Mail geht in Kopie an den Prüfungsausschuss.«

Felix ist am Boden zerstört, dieser Kurs war der letzte, der ihm noch zum Abschluss des Bachelor-Studiums fehlte. Er glaubt zunächst an eine Verwechslung, denn die Frage, ob er ein Plagiat abgegeben haben könnte, stellt sich ihm gar nicht. Er hatte die Arbeit schließlich geschrieben. Das Seminar der Professorin hatte Felix ohnehin nicht viel Freude gemacht, er hatte kein gutes Verhältnis zu ihr aufbauen können. Daher beschließt er, auf die E-Mail gar nicht zu reagieren. Der Streit mit der Professorin ist ihm zu mühselig, er ärgert sich zwar, belegt jedoch lieber einen Kurs bei einem anderen Seminarleiter.

Professorin Wolke stellt einige Zeit später die Software im Kollegenkreis vor. Die Kollegen, die sie bisher nicht nutzen, sollen so einen guten Überblick über die Bewertungen bekommen. Sie wählt dazu zufällig ein paar Arbeiten aus, sowohl solche, die als Plagiat erkannt wurden, als auch als einwandfrei gekennzeichnete Texte. Bei der Live-Demonstration wird die Seminararbeit von Felix plötzlich als plagiatsfrei (Kategorie AAA: Alles Astrein Ausgearbeitet) eingestuft. Professorin Wolke ist irritiert, sie hatte der Software vertraut und dem Studenten aufgrund des Ergebnisses keinen Seminarschein ausgestellt.

Im Anschluss an ihre Präsentation sieht sie sich den Text und die Software-Bewertung genauer an. Es stellt sich heraus, dass eine frühere Version der Software die französischen Anführungszeichen in der Seminararbeit nicht als solche erkannt und daher alle Zitate fälschlicherweise als plagiierte Stellen gezählt hatte. Dieser Fehler wurde mittlerweile behoben, erklärt Professorin Wolke ihren Kollegen. Die Anwesenden verlassen den Sitzungsraum dennoch mit einem unguten Gefühl. Am Einsatz der Software möchte die Universitätsleitung jedoch weiterhin festhalten, zumal jeder Seminarleiter im Einzelfall entscheiden kann, in welchem Maße er der Software vertraut.

Fragen

  • Welche ethischen Probleme sehen Sie beim automatisierten Einsatz von Plagiatserkennungssoftware?
  • Ist es auch ein ethisches Problem, dass zumindest frühere Versionen der Software technisch unzureichend waren, aber entscheidend die Scheinvergabe beeinflussten?
  • Besteht ein Unterschied darin, ob die Professorin eigenhändig prüft, ob die Standards wissenschaftlichen Arbeitens erfüllt wurden, oder dies mit Hilfe der Software teilautomatisiert?
  • Wer ist für den Schaden verantwortlich, wenn Felix aufgrund der fälschlichen Ausgabe der Software Nachteile (Zeitverzug) in seinem Studium enstanden sind?
  • Hat Professorin Wolke die Pflicht zu handeln, als sie entdeckt, dass die Software in älteren Versionen strukturelle Fehler aufweist? Muss sie ältere Seminararbeiten nun erneut prüfen?
  • Gesetzt den Fall, Professorin Wolke überprüft alte Seminararbeiten erneut – wie muss sie reagieren, wenn sie eine plagiierte Arbeit vorfindet, die sie damals jedoch als eigenständige Leistung akzeptiert hat?
  • Ist der so beschriebene Automatismus als Generalverdacht zu werten? Wenn ja, ist er ethisch vertretbar?
  • Ist die Benutzung einer solchen Software angesichts der Zunahme von Plagiaten moralisch gar geboten?
  • Hätte die Universitätsleitung den Einsatz kritischer prüfen müssen? Ist es vertretbar, die Verantwortung für eventuell fehlerhafte Bewertungen durch die Software an die Seminarleiter abzugeben?

Erschienen in Informatik Spektrum 35(1), 2012, S. 61–62

Fallbeispiel: Bewerbungsportal

Die Job Hunting GmbH ist eine renommierte Personalvermittlungsgesellschaft mit mittlerweile 50 Büros im gesamten deutschsprachigen Raum. Im Gegensatz zu vielen anderen Unternehmen hat sich Job Hunting nicht auf ein Klientel oder eine Branche festgelegt. Um ihre Dienstleistung zu gewährleisten werden neben Recherchen auch elektronische Analysen der erfassten Daten der Stellensuchenden durchgeführt. Die Daten werden entweder manuell auf Grundlage von Bewerbungen und geführten Bewerbungsgesprächen erfasst oder sie gelangen direkt durch das Internet-basierte Bewerbungsportal in das System.

Nach längerer Arbeitslosigkeit in Folge der Rezession wurde Jens, ein erfahrener Softwarearchitekt, vor kurzem in der Informatikabteilung angestellt und ist nun zuständig für das Bewerbungsportal, das komplett überarbeitet werden soll.

Jens‘ Vorgänger ist auf Grund eines Burnouts kurzfristig ausgeschieden und Jens ist noch damit beschäftigt, sich in die schlecht dokumentierte Software einzuarbeiten und die Anforderungen für eine Verbesserung zu überprüfen.

Jens stellt erstaunt fest, dass die Bewerber sowohl online als auch auf den schriftlichen Bewerbungsunterlagen automatisch einer Speicherung ihrer Daten für 5 Jahre zustimmen, sofern Sie nicht eine, sehr leicht zu übersehende, Widerspruchsregelung unterzeichnen. Er findet dies bedenklich. Die Informationen der Bewerber werden stark strukturiert abgelegt und numerisch bewertet; wobei auch Ausbildungsfirmen, Ausbildungsinstitute und Hochschulen eine Punktzahl erhalten. Es ist nicht klar, wie diese Punkte zustande kommen. Bei den Hochschulen fließen auch umstrittene Rankings in die Bewertung ein. Die Bewertung von Firmen und Institutionen ist vollkommen intransparent. Ein simpler Korrekturalgorithmus wird eingesetzt, um auf Grund der Rückmeldungen von Betrieben, welche Bewerber eingestellt haben, die Firmenbewertungen anzupassen. Für jede Negativbewertung wird der Punktestand um 3% nach unten, für jede Positivbewertung um 3% nach oben korrigiert. Die Anpassungen erfolgen in Einzelschritten basierend auf den eingegebenen Bewertungen ohne das Feedback zu überprüfen.

Qualifikationen, welche nicht in die vorgegebene Struktur der Datenbank passen, sowie Qualifikationen, die an nicht bekannten Hochschulen, Firmen oder Institutionen erworben wurden (hier vornehmlich im Ausland) werden einfach ignoriert. Das Portal, welches den Benutzern die Möglichkeit lässt, in Textfeldern diverse Zusatzqualifikationen und zusätzliche Informationen anzugeben, vermittelt den Bewerbern dagegen einen anderen Eindruck.

Die abschließenden Rankings der in Frage kommenden Bewerber werden einfach basierend auf der Gesamtsumme der Punkte eines Bewerbers erstellt.

Jens studiert die skizzierten neuen Anforderungen, die im nächsten Quartal umgesetzt werden sollen. Er soll eine soziale Suchmaschine einbinden, um auch Informationen in den Bewertungsprozess einfließen zu lassen, die sich in den einschlägigen Social Networks finden. Basierend auf Schlagworten in Postings der Bewerber oder über die Bewerber sollen positive bzw. negative Werte ohne weitere Prüfung vergeben werden. Das Ergebnis soll summarisch zusammen mit den Profilen gespeichert werden.

Jens sitzt lange an seinem Schreibtisch und überlegt. Er hatte endlich einen passenden Job gefunden, aber das Bewerbungsportal sowie die neuen Pläne werfen viele Fragen auf. Wie soll er vorgehen? Soll er die Probleme ansprechen? Auf die Anwendung komplexerer (und vielleicht genauerer) Verfahren zu sprechen kommen? Soll er sich erkundigen, ob die Verwendung der Daten in dieser Form rechtens ist? Andererseits sind Unternehmen und Bewerber nicht gezwungen, sich an Job Hunting zu wenden. Sieht er die Sache vielleicht etwas zu schwarz?

Fragen

  • Ist es legitim, dass Daten erfasst werden, die intransparent aus einem Gespräch „extrahiert“ werden?
  • Darf man in einer Eingabemaske vorgaukeln, dass die Angabe vieler Daten sich positiv auf eine Anwendung auswirkt? Oder sollte nur erfasst werden, was wirklich Auswirkungen auf die verwendeten Algorithmen hat?
  • Muss der Nutzer über den Bewertungsalgorithmus aufgeklärt werden? Wenn ja, umfasst dies auch die Feedback-Mechanismen, auf die er keinen Einfluss hat?
  • Ist es legitim, Daten Dritter (Hochschulrankings oder Social Networks) zusammenzuführen? Ist es überhaupt ethisch vertretbar, solche Daten unklaren Ursprungs in ein Gesamtprodukt zu überführen, welches sich nach außen hin als korrekt arbeitend darstellt?
  • Sind aggregierte Datensätze, deren Herkunft und Zusammensetzung unklar sind, überhaupt für die Entscheidungsfindung nutzbar? Wer trägt die Verantwortung bei Fehlentscheidungen? Dies ist insbesondere interessant, da die Fehler durch alle Beteiligten (auch die, deren Datenbestände nur abgeschöpft werden) hervorgerufen werden können.
  • Computer stellen für viele Anwender eine objektive Instanz dar. Betrügt Job Hunting hier nicht auch seine Kunden, da es vorgibt, den „perfekten“ Bewerber zu finden?
  • Liegt es in der Verantwortung von Job Hunting, Bewerber und Betriebe über den verwendeten Algorithmus aufzuklären? Oder fällt dies in die Sorgfaltspflicht der Bewerber und Betriebe?