|
Im Geheimdienstbefugnisklärungsausschuss des Deutschen Bundestags taucht am Rande immer wieder auf, was der Ex-Geheimdienstler Michael Hayden so drastisch ausdrückte: Wir töten Menschen auf der Basis von Meta-Daten. Der nicht mehr ganz so geheime Drohnenkrieg der militärisch stärksten Staaten zeigt in erschreckender Weise, welch zentrale Rolle Technikerinnen und Techniker in der Schönen Neuen (Gewalt-)Welt einnehmen.
Algorithmen entscheiden in autonomen Systemen über Wohl und Wehe einer Person, weisen dem inkommensurablen Menschen einen Wert zu, der Vergleiche, Optimierungen und im Zweifel eben: Auslöschungen erlaubt.
Unsere Fachgruppe lädt Sie und Euch ein, mit uns erneut über die Verantwortung der Informatikerinnen und Informatiker zu diskutieren.
Verkörperung von Algorithmen: Drohnen
15. Oktober, 14 Uhr bis 16. Oktober 2015, 16 Uhr
Humboldt-Universität zu Berlin
Senatssaal, Unter den Linden 6, 10099 Berlin
Die Teilnahme ist kostenlos, um Anmeldung unter drohnen@turing-galaxis.de wird freundlich gebeten.
Beiträge und Programmänderungen können der Tagungs-Website entnommen werden.
Wie würden Sie entscheiden?« – Dieser Satz bezieht sich, wie Sie im Anriss gerade gelesen haben, normalerweise auf ethische Fallbeispiele, die zu moralischer Reflexion und angeregter Diskussion anregen sollen. Die Beispiele sind fiktiver Natur, sie spielen mit Möglichkeiten, sie sind mit der Einleitung »was wäre, wenn…?« zu lesen. Was uns als Autoren zunächst amüsiert hat, inzwischen aber nachhaltig schockiert: Egal wie zugespitzt wir die Geschichten formulieren, so finden sich in der Presse stets sehr ähnliche Ereignisse oder Skandale, die tatsächlich wider Erwarten eingetreten sind. Im Netz gibt es das schöne Bonmot: »Orwells 1984 war nicht als Blaupause für die Wirklichkeit gedacht«.
»Wie würden Sie entscheiden?« würden wir diesmal gern als Grundsatzfrage stellen. Rufen Sie sich in Erinnerung: Sie sind die Architekten der Informationsgesellschaft, Sie stellen die Bauelemente der Turing’schen Galaxis her, Sie riefen die informationstechnischen Geister, die wir nun nicht mehr los werden (können oder wollen). Würden Sie sich noch einmal so entscheiden und beispielsweise Software programmieren?
Die jung und verspielt wirkende Informatik ist längst erwachsen geworden – und doch handeln viele ihrer Vertreter wie digital Naive, da hilft es auch nichts, dass in Sonntagsreden und Nachrufen auf Informatikpioniere immer wieder auf die Verantwortung des Technikwissenschaftlers hingewiesen wird. Das Erschreckende hierbei: Bereits vor dreißig Jahren warnten weitsichtige Informatiker wie Klaus Brunnstein, Joseph Weizenbaum oder Andreas Pfitzmann vor den nun zu beobachteten Fehlentwicklungen der Informatik. »Big Data« degradiert die Wissenschaft Informatik zu einer Korrelationssuchmaschine; »Biometrie« weist dem inkommensurablen Menschen plötzlich eine Prozentzahl zu; die als »Robotik« getarnte Kriegsbegeisterung ist einfach nur noch erschreckend. Doch nicht nur das Individuum, auch die offene Gesellschaft wird massiv mit Hilfe von informationstechnischen Systemen angegriffen, beispielsweise durch die vollständige Unterminierung der Mündigkeit des Nutzers, der schon längst Benutzter ist. Nicht zuletzt sollte auf die Beihilfe zu Drohnen-Morden hingewiesen werden, etwa durch Bilderkennungsalgorithmen oder unfreiwillig bereitgestellte Verkehrs- und andere Log-Daten, die als Zielkoordinaten dienen können.
Versuchen Sie, wenn es Ihnen möglich ist, diese Zeilen nicht als kulturkritische Verfallsgeschichte oder Technophobie zu lesen, sondern als erneuten Anreiz, Ihr eigenes Handeln zu hinterfragen. Insofern sind die üblicherweise an dieser Stelle gedruckten Fallbeispiele bequemer, weil Sie die aufgeworfenen Probleme aus sicherer Distanz betrachten können. Doch es sind nun einmal Techniker wie Sie, die Stück für Stück dazu beitragen, die Welt im Wortsinn berechenbarer zu gestalten, sei es als Nutzer oder insbesondere als Entwickler informationstechnischer Systeme.
Fragen an Sie als Nutzer informationstechnischer Systeme
- Ist Ihr (Arbeits-)Gerät sozial verträglich hergestellt?
- Haben Sie in den Quelltext der von Ihnen verwendeten Software geschaut?
- Geben Sie URLs direkt ein oder suchen Sie in einer Suchmaschine (oder Omnibox) danach?
- Kennen Sie den Stromverbrauch eines kleineren Rechenzentrums?
- Haben Sie von Ihrem Gewährleistungsrecht auf integre und vertrauliche informationstechnische Systeme Gebrauch gemacht?
Fragen an Sie als Entwickler
- Trägt die von Ihnen entwickelte Systemkomponente dazu bei, dass Menschen zu Schaden kommen?
- Haben Sie die obige Frage ehrlich beantwortet?
- Wie können Sie Ihre Aussage belegen?
- Finden Sie, dass dieser Text zu undifferenziert ist?
- Wenn Sie sich nicht angesprochen fühlen, warum ärgert Sie dieser Text?
Die Fachgruppe Informatik und Ethik der Gesellschaft für Informatik (@gewissensbits) und das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (fiff.de) missbilligen das juristische Vorgehen von Verfassungsschutz, Generalbundesanwalt und Bundesjustizministerium gegen ein Presseorgan. Sie fordern klare Stellungnahmen und Positionierungen von allen Regierungsministerien. Die Mitglieder beider Vereinigungen sehen sich verpflichtet, allgemeine moralische Prinzipien, wie sie in der Allgemeinen Deklaration der Menschenrechte formuliert sind, zu wahren. Zu diesen essentiellen Rechten gehören die Meinungs- und Pressefreiheit sowie die Freiheit, mit Zivilcourage gegen offenkundige Missstände einzutreten. »Die Geschichtsvergessenheit ist mit das Erschreckendste am Verfahren gegen netzpolitik.org«, empört sich der Sprecher der GI-Fachgruppe Informatik und Ethik, Stefan Ullrich. »Als die Wochenzeitschrift Weltbühne die heimliche, rechtswidrige Aufrüstung der Deutschen Luftwaffe 1929 öffentlich machte, wurden Herausgeber und Informanten wegen Landesverrats verurteilt. Nun erleben wir, wie mit der Berichterstattung an einem heimlichen, moralisch fragwürdigen Wettrüsten im Cyberspace umgegangen wird: Mit einer Ermittlung wegen Landesverrats.«
Die Informationsgesellschaft erwartet von Informatikerinnen und Informatikern, eine ihrer Gestaltungsmacht angemessene individuelle und gemeinschaftliche Verantwortung zu tragen. Für die Herausbildung der dazu notwendigen Urteilkraft jedoch ist eine unabhängige, engagierte Presse unabdingbar, eine Presse, die schon längst nicht mehr mit Bleilettern hantiert, sondern vorwiegend digitale Medien nutzt. Das FIfF-Vorstandsmitglied Rainer Rehak kritisiert: »Die Integrität und Vertraulichkeit informationstechnischer Systeme wird systematisch und mit voller Absicht von geheim operierenden Diensten im Auftrag verschiedener Staaten unterminiert; doch nicht gegen die für die Grundrechtsverletzungen Verantwortlichen, sondern gegen die darüber berichtenden Journalisten wird ermittelt.«
Das Ermittlungsverfahren des Generalbundesanwalts wurde aufgrund der Berichterstattung von netzpolitik.org angestoßen, die wir hier prominent noch einmal verlinken wollen:
(Die von netzpolitik veröffentlichten Dokumente werden unter http://landesverrat.org/ gespiegelt.)
Die Fachgruppe Informatik und Ethik der Gesellschaft für Informatik und das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung rufen die politisch Verantwortlichen zur Raison sowie ihre Mitglieder zur erneuten Lektüre der höchstrichterlichen Grundsatzurteile auf.
Berlin, den 3. August 2015
Carsten Trinitis & Ursula Münch
Maria ist als wissenschaftliche Mitarbeiterin in einem befristeten Projekt, das an ihrer Universität eingeworben wurde, beschäftigt und arbeitet dort seit eineinhalb Jahren an ihrer Promotion im Fach Informatik. Da das Forschungsprojekt in einem Monat ausläuft, muss Maria, um ihre Promotion erfolgreich abschließen zu können, über ein anderes Projekt finanziert werden. Maria ist eigentlich fest liiert mit einer Frau, Anna. Sie möchte Anna nicht so lange alleine lassen, da Anna Diabetikerin ist. Und sie ist sich sicher, nicht mit Anna zusammen dorthin fahren zu können.
Im vergangenen Jahr ist ihre Universität eine neue Kooperation eingegangen, und zwar mit einer neu aus der Taufe gehobenen Universität in einem mit Ölvorkommen gesegneten fernöstlichen Land. Das Gute daran: Damit stehen ausreichend finanzielle Mittel zur Verfügung, aus denen auch Marias Stelle bis zum erfolgreichen Abschluss ihrer Promotion gesichert werden könnte. Auch in fachlicher Hinsicht decken sich die Projektziele sehr gut mit denen ihres Promotionsthemas.
Die entsprechende Kooperation ist aber an Bedingungen geknüpft: Die Projektmitarbeiter müssen regelmäßig zum ausländischen Kooperationspartner reisen, mindestens zwei von ihnen sogar für mehrere Monate am Stück innerhalb von drei Jahren. Der Campus der neu errichteten Universität verfügt neben modernster technischer Ausstattung auch über zahlreiche Freizeitmöglichkeiten und kostenlose Verpflegung – kurzum: Geld spielt keine Rolle, um hier ideale Forschungsbedingungen zu schaffen. Auf diese Weise will die dortige Regierung Vorsorge für die Zeit „nach dem Öl“ treffen und Spitzenforscher aus aller Welt anlocken.
Das Land, in dem die neue Universität entsteht, ist neben seinem Reichtum jedoch auch dafür bekannt, dass dort elementare Menschenrechte missachtet werden. Die Meinungsfreiheit ist in letzter Zeit massiv eingeschränkt worden. Eine sogenannte Religionspolizei wacht streng über die Einhaltung der Gesetze. Auf tatsächliche oder vermeintliche Vergehen wie Ehebruch, Verschwörung, Sabotage, Hexerei oder Abfall vom Glauben steht die Todesstrafe, die häufig als öffentliche Enthauptung vollstreckt wird. Frauen dürfen ohne Zustimmung eines Mannes weder arbeiten noch Verträge unterzeichnen. Auch Auto fahren oder ohne Begleitung eines männlichen Verwandten ins Ausland zu reisen, ist Frauen untersagt. Sogar Vergewaltigungen in Ehegemeinschaften sind per Gesetz erlaubt.
Dagegen gelten gleichgeschlechtliche Partnerschaften als kriminelle Handlung und werden mit drakonischen Strafen geahndet. Da das Land über sehr hohe Finanzmittel verfügt, entstehen überall repräsentative Bauten, die von billigen Leiharbeitern – meist aus Drittweltländern – errichtet werden. Diese Leiharbeiter verfügen über so gut wie keinerlei Rechte und werden mehr oder weniger wie Leibeigene der Bauherren behandelt.
Doch innerhalb des Campus der neuen Universität gelten diese nach westlichen Maßstäben mittelalterlich anmutenden Gesetze nicht. Schließlich will man ja die besten Forscher (womöglich sogar Forscherinnen) aus dem Westen anzulocken und vor Ort eine liberale Atmosphäre zu schaffen.
Maria hat Skrupel, die Stelle anzunehmen. Da man normalerweise nur in Begleitung eines Mannes in das Land einreisen darf, ist nicht daran zu denken, dass Maria jemals mit Anna dorthin reisen kann. Die Situation vor Ort erscheint ihr unerträglich, und sie fürchtet, als Frau vor Ort massiv in ihren Freiheiten eingeschränkt zu sein. Wie soll sie ihren eigenen persönlichen Nutzen, den ihr das neue Projekt zweifelsohne bringen würde, mit ihrem Gewissen vereinbaren: Schließlich würde sie durch ihre Arbeit, in gewisser Weise doch auch das Regime vor Ort unterstützen und damit auch dessen Ablehnung rechtsstaatlicher Prinzipien.
Marias Kollege Josef, mit dem sie seit Beginn ihrer Promotion intensiv zusammenarbeitet und die gemeinsamen Ergebnisse veröffentlicht, sieht dies anders. Josefs Stelle ist bereits über das neue Projekt verlängert worden, der erfolgreiche Abschluss seiner Promotion hängt jedoch davon ab, ob Maria beim neuen Projekt zusagt und für einige Monate dort hingeht. Josef kann Marias Bedenken nicht nachvollziehen: Zum einen hat er noch nie auch nur annähernd so gute Forschungsbedingungen vorgefunden. Zum anderen, so versucht er Maria zu beruhigen, kann man das Projekt mit der neuen Universität doch auch als wichtigen Schritt in die richtige Richtung interpretieren: Durch die Präsenz von Forschern aus westlichen Kulturen werde es, das ist seine feste Überzeugung, eine Initialzündung zur Liberalisierung des in Sachen Menschenrechte noch immer rückständigen Landes geben.
Fragen:
In diesem Szenario geht es um eine grundsätzliche ethische Fragestellung, die häufig in technischen Berufen und besonders in der Informatik auftritt.
- Für Maria und Josef hängt der erfolgreiche Abschluss ihrer Promotionen von der Mitarbeit in dem Projekt ab. Die Finanzierung des Projektes kommt von der Regierung eines Staates, der elementare Menschenrechte eklatant missachtet. Soll Maria, um ihre Promotion erfolgreich abzuschließen, diese Tatsache ignorieren, oder soll sie ihrem Gewissen folgen und damit ihre und auch Josefs Promotion aufs Spiel setzen?
- Soll Maria ihrer Karriere zuliebe die Beziehung zu ihrer Partnerin Anna aufs Spiel setzen, in dem sie alleine in ein Land reist, in dem ihre Neigungen als verbrechen betrachtet werden und sie Anna alleine zurücklässt?
- Wird durch das Errichten neuer Großprojekte wie der Universität nicht auch noch die Ausbeutung der Leiharbeiter weiter vorangetrieben?
- Ist es überhaupt vertretbar, wenn Maria und Josef mit ihrer Expertise dazu beitragen, Regierungen, die die Menschenrechte missachten, zu unterstützen? Oder zementiert Maria, wenn sie sich dem Projekt verweigert, die Isolation das Landes, da sie verhindert, dass dort mehr Einfluss ausgeübt werden kann?
Erscheinen in Informatik-Spektrum 38(3), 2015, S. 249–250
Christina Class & Rainer Rehak
Antonia hat Computerlinguistik studiert und vor einem Jahr ihre Dissertation im Bereich maschineller Übersetzung abgeschlossen. Für ihre Arbeit verwendete sie Text, der von einer Spracherkennungssoftware erzeugt wurde. Der Schwerpunkt ihrer Arbeit bestand in der Erstellung und Implementierung eines Modells, das anhand der Wortwahl positive wie negative Gefühle und Assoziationen erkennen und in der Übersetzung wiederzugeben sollte, was auch recht passabel gelang. Nach einer kleinen Auszeit hat sie dann vor sieben Monaten bei der Firma SpeechTranslate in der Entwicklungsabteilung angefangen.
 First Year Creative Interests – CC BY-NC-ND Irish Typepad
SpeechTranslate wurde vor vier Jahren als Spin-Off von Antonias Doktorvater gegründet. Ein mittlerweile 14-köpfiges Team unter der Leitung ihrer Kollegin Franziska entwickelt im Auftrag verschiedener Kunden spezialisierte Übersetzungsmodule. Ein weiteres Team arbeitet an der Optimierung von Sprach- und Themenerkennung.
Antonia arbeitet in Franziskas Team daran, die bestehenden Übersetzungsmodule mit Spracherkennungsmodulen zu verbinden. Antonias Aufgabe ist es außerdem, ihr Assoziationsmodul produktreif weiterzuentwickeln und in das Übersetzungsmodul einzubinden.
SmartPhony ist ein neuer Anbieter von Smartphones, die sich laut Werbung durch eine einfache Bedienung auszeichnen. Die große Handelskette Bundle AG entwickelt gerade in Kooperation mit SmartPhony und dem Mobilfunkanbieter Violet einen neuen, innovativen Handyvertrag. Auf den Smartphones sollen spezielle kostenlose Apps vorinstalliert sein, die die Kunden regelmäßig über Sonderangebote und Preisnachlässe bei Unternehmen der Bundle AG informieren. Der Clou des Handyvertrag soll jedoch werden, dass keine Kommunikationskosten anfallen. Die Deinstallation der Bundle-AG-Apps ist zwar schwierig, soll aber dennoch ohne Folgen für den Vertrag möglich sein.
Ursprünglich hatte sich SmartPhoney von SpeechTranslate nur ein Angebot für die Entwicklung einer normalen Spracherkennungsapp für ihre Smartphonepalette erstellen lassen. Als Martin, der schneidige Produktportfoliomanager von SpeechTranslate, in einem ersten Meeting jedoch das Modul zur automatischen Erkennung von Assoziationen und Stimmungen erwähnte, war SmartPhoney gleich begeistert und initiierte, SpeechTranslate einen größeren Auftrag zu geben, der direkt mit dem neuen Handyvertrag in Zusammenhang stehen soll.
Heute findet ein erstes technisches Projektmeeting zwischen SmartPhoney und SpeechTranslate statt. Als großer Kooperationspartner ist auch Peter, ein Produktmanager der Bundle AG zugegen.
Zu Beginn des Meetings stellt Franziska die aktuellen Übersetzungs- sowie Sprachmodule vor und beschreibt deren Funktionalität im Detail. Zu beiden Modulen stellen die Vertreter von SmartPhoney und der Bundle AG einige Fragen. Insbesondere möchten sie wissen, ob es möglich ist, die Spracherkennung dauerhaft im Hintergrund laufen zu lassen und wie viele Ressourcen (Akku, Prozessorauslastung) das benötigen würde. Im Anschluss bitten sie Antonia, ihr Modul vorzustellen, wobei ihr danach sehr viele detaillierte Fragen gestellt werden. Frank, der verantwortliche Produktleiter bei SmartPhoney möchte z. B. wissen, ob es möglich wäre, nach gezielten Begriffen zu filtern und die im Zusammenhang mit diesen Begriffen auftretenden Assoziationen der gesprochenen Sprache zu erkennen und zu speichern. Franziska antwortet sichtlich interessiert, dass dies technisch durchaus möglich sei, dafür aber sicherlich einige zusätzliche Entwicklungen notwendig wären.
Nach den Diskussionen findet eine längere Pause statt. Antonia holt sich etwas Obst aus ihrem Büro, nimmt sich einen Kaffee und geht dann auf den Raucherbalkon. Der ist meistens recht leer und sie möchte nach all den Diskussionen etwas frische Luft schnappen.
Als sie sich an die Wand neben der Balkontür lehnt, hört sie die Stimme Franks, des Vertreters von SmartPhoney. „Peter, warum wolltest Du heute eigentlich mit? Die Marketingfragen hatten wir doch geklärt! Und warum sollte ich so viel über das Assoziationsmodul in Erfahrung bringen?“ Die Antwort folgt prompt: „Das ist noch sehr vertraulich, aber wir möchten gerne herausfinden, wie oft bestimmte Produkte in Telefongesprächen genannt werden – und ob dies in einem positiven oder negativen Kontext geschieht. Wir wollen das nutzen, um die Produktpalette und Preise anzupassen. Auch können wir, wenn wir die Informationen intern weitergeben, vielleicht die Preise von Lieferung und Einkauf drücken. Aber das weißt Du nicht von mir!“ Antonia hört deutlich, wie Frank scharf Luft einzieht, bevor er nach dem Schutz der Privatsphäre der Kunden fragt. Doch Peter wischt den Einwand locker beiseite; erstens würden die Kunden beim Kauf des Smartphones und Abschluss des Vertrages ja einwilligen, dass Daten durch Bundle AG erhoben und gespeichert werden. Zudem steht es den Kunden ja frei, die Apps zu deinstallieren. Außerdem würden die personalisierten Daten ja nur innerhalb der Bundle AG verwendet, wobei die Lieferanten die Daten wahrscheinlich nur in aggregierter Form erhalten sollen.
Erschrocken verlässt Antonia den Balkon und geht leise zurück in den Konferenzsaal. Sie setzt sich auf ihren Stuhl, atmet tief durch und kann trotzdem kaum einen klaren Gedanken fassen. Was sie soeben gehört hat, passt überhaupt nicht in die Firmenphilosohie von SpeechTranslate. Aber sie hat es ja nur per Zufall mitbekommen und kann es jetzt im Meeting wohl kaum ansprechen. Ob Martin ihr später überhaupt glauben würde? Und wenn schon, er hatte ihr schon mehrmals seine Ansicht mitgeteilt, dass man es sich im realen Leben nicht immer aussuchen könne, mit wem man gute Geschäfte macht.
Frage:
- Ist es vertretbar, eine Anwendungen wie Spracherkennung immer laufen zu lassen?
- Eine solche Anwendung würde es jemanden, der durch einen Sturz oder eine andere Situation hilflos geworden ist, ermöglichen, einfach nach Hilfe zu rufen, sofern die Software an ein Alarmsystem gekoppelt ist. Wenn die Software dies leisten könnte, wäre es dann ethisch vertretbar, eine permanente Spracherkennung durchzuführen? Wie müsste eine Aufklärung und Einwilligung von Nutzern und nahen Betroffenen aussehen?
- Im vorliegenden Fall soll die Anwendung kommerziell genutzt werden. Ergeben sich für den Kunden hierdurch Vorteile? Welche? Welche Risiken ergeben sich; ggf. auch für Dritte?
- Welche Möglichkeiten des Missbrauchs beinhaltet die vorgeschlagene Anwendung?
- Welche Möglichkeiten hat Antonia, das Wissen, dass sie durch zufälliges Belauschen eines Gespräches erlangt hat, zu verwenden? Welche ethischen Probleme ergeben sich hier?
- Gibt es eine Verpflichtung von Bundle AG, den geplanten Gebrauch des Projektes offenzulegen? Können Sie sich Kriterien für eine solche Verpflichtung vorstellen?
- Sollte Antonia das Thema sofort im Meeting ansprechen? Warum oder warum nicht?
Erschienen in Informatik-Spektrum 38(2), 2015, S. 160–162
Constanze Kurz & Debora Weber-Wulff
Elisabeth arbeitet als Informatikerin für eine Firma, die Spracherkennungssoftware entwickelt, anbietet und im Einsatz bei Vertragskunden betreut. Typisch sind Produkte, die Anrufe von Menschen entgegennehmen, deren Wünsche oder Fragen herausfinden, um sie gezielt einem geeigneten Mitarbeiter zum Gespräch zuzuführen oder durch Standardansagen ohne menschliche Intervention zu erledigen. Dazu analysiert die Spracherkennung die am Telefon gesprochenen Wörter und versucht, sie entsprechend vorgegebener Entscheidungsbäume zu interpretieren. Üblich ist, dass die Richtigkeit der Erkennung ab und an durch Gegenfragen getestet wird.
Zur Zeit werden einige der Produkte erweitert, um Menschen durch natürlich klingende Sprache zu simulieren. Wird das Produkt erfolgreich in Deutschland sein, ist eine Expansion in andere europäische Ländern geplant.
Das Produkt, das Elisabeth mitentwickelt hat, springt nach dem ersten Klingelton an, nimmt die Anrufe computergestützt entgegen und wickelt sie entlang der Entscheidungsbäume ab. Als erstes wird in der Datenbank nachgeschaut, ob Erfahrungen mit diesem Kunden vorliegen. Es wird auch versucht, die Adresse des Anrufers zu ermitteln, denn je nach Wohnlage können unterschiedliche Entscheidungen angesteuert werden.
In der Regel wird der Anrufer nach wenigen Fragen zu einem passenden Mitarbeiter geleitet, ein Teil der Wünsche und Fragen wird sogar vollständig ohne menschliche telefonische Interaktion erledigt. Für den Fall, dass jemand von der Software überwiegend oder überhaupt nicht verstanden wird oder die Software feststellt, dass die Stimme sehr ärgerlich und laut geworden ist, gibt es zusätzlich ein Ansageband, das den Anrufer bittet, auf den nächsten freien Mitarbeiter zu warten. Die Firmen, die das Softwaresystem einsetzen, können sogar eine Mindestverweildauer in dieser Warteschleife angeben, denn es können verschiedene aktuelle Angebote dazugeschaltet werden.
Der Weg zur telefonischen Problemlösung soll jedoch möglichst kurz sein, denn Untersuchungen haben gezeigt, dass die Kunden ungeduldig werden, wenn sie viele verschiedene Fragen beantworten müssen, jedoch durchaus einige Minuten in einer Warteschleife ausharren. Softwareseitig ist definiert, dass nach durchschnittlich zwanzig Sekunden eine Entscheidung getroffen sein soll, ob die Sprache des Anrufers verstanden und eingeordnet werden kann oder direkt zu einem Menschen weitergeleitet wird.
In Elisabeths Firma ist als neue Kundin eine mittelgroße deutsche Stadt akquiriert worden, die bereits seit sechs Monaten erfolgreich Spracherkennungssysteme einsetzt, um Bürgeranfragen zu bearbeiten und beantworten. Als Teamleiter Frank mit Elisabeth und ihren Kollegen die neuen Aufträge der Stadt diskutiert, erfährt das Team, dass ab dem nächsten Jahr auch die Notrufzentrale mit der Erkennungssoftware ausgestattet werden soll. Es kostet einfach viel Geld, die Notrufzentrale rund um die Uhr mit bis zu zehn Disponenten auszustatten.
Die Notrufentgegennahme orientiert sich an den sogenannten „sechs Ws“: Wer meldet den Notfall? Was geschah? Wo geschah es? Wieviele Verletzte gibt es? Welche Art der Verletzung liegt vor? Warten auf Rückfragen!
Diese sechs Informationen können sehr einfach durch ein Spracherkennungssystem unterstützt werden, besonders mit einer guten Datenbankanknüpfung. So können auch häufige Scherzanrufer schnell identifiziert und der Standort des Anrufers schnell und zuverlässig bestimmt werden.
Frank stellt sich das so vor, dass die Anrufer gar nicht merken, dass sie mit einem Computer sprechen, damit sie nicht übermäßig hektisch werden. Sie sind in der Regel sowieso aufgeregt, wenn sie den Notruf anwählen. Elisabeths Team ist begeistert von der technischen Herausforderung, nicht nur viele verschiedene Dialekte erkennen zu müssen, sondern die Stimmen auch in Stress-Situationen korrekt auswerten zu können. Es wird auch viel spannender sein, die Entscheidungsbäume für dieses Anwendungsgebiet zu erstellen als für den Customer Support beim örtlichen Computermarkt.
Elisabeth besucht die Leitstelle an einem Freitag, um ein Gefühl dafür zu bekommen, was für Gespräche ankommen, um dann die Entscheidungsbäume zu konzipieren. Sie ist überrascht zu sehen, dass es zwanzig Arbeitsplätze gibt. Es stellt sich heraus, dass bei großen Veranstaltungen oder an Silvester regelmäßig alle Plätze belegt sind. Und als es vor fünfzehn Jahren einmal einen Unfall bei einer Flugshow gab, wurden alle irgendwie verfügbaren Disponenten einbestellt, dennoch kamen etliche Personen nicht beim Notruf durch, und die Krankenwagen waren nicht schnell genug vor Ort. Danach war die Platzanzahl auf zwanzig Personen angehoben worden.

Während sie mit einem Disponenten plaudert, gehen plötzlich alle Telefone an. Eine Explosion hat sich mitten in der Stadt ereignet. Der Schichtleiter ruft weitere Disponenten hinzu. Ein Krankenhaus mitten in der Stadt ist von der Explosion betroffen, die Patienten müssen auch noch in umliegende Krankenhäuser verteilt werden. Elisabeth ist komplett überfordert, sie kann gar nicht mitschreiben, was alles gefragt und entschieden wird. Wie soll sie hieraus Entscheidungsbäume erstellen?
Was soll Elisabeth tun?
FRAGEN
In diesem Szenario sind einige ethische Fragestellungen aufgeworfen. Die Hauptfrage ist die der Bewertung von automatisierter Bearbeitung menschlicher Meldungen in Notfallsituationen:
- Ist es überhaupt denkbar, in einem Notfall mit einer Maschine zu sprechen? Was ist, wenn etwas Katastrophenartiges passiert (Vulkanausbruch, Massenpanik), was nicht in den Entscheidungsbäumen abgebildet ist?
- Bei Spitzenbelastungszeiten könnten einige Anrufer direkt in die Warteschleife umgeleitet werden müssen, da alle Plätze bereits belegt sind. Ist das ein Problem?
- Menschen sprechen anders, wenn sie Angst haben oder in Panik sind. Kann man maschinell damit umgehen?
- Ist es möglich, ein System so zu bauen, dass es skaliert für Spitzenzeiten?
- Was ist, wenn das System ausfällt, weil es zum Beispiel gehackt wurde oder die Software fehlerhaft ist? Ist es ein ethisches Problem, wenn Software in seltenen Situationen technisch unzureichend sein kann, aber im Regelfall die Abwicklung von Notrufen positiv beeinflusst?
- Welche weiteren ethischen Probleme sehen Sie beim Einsatz der Spracherkennungssoftware?
- Besteht ein prinzipieller Unterschied, ob ein Mensch oder ein Computer mit Hilfe einer Software einen Notruf annimmt? Ändert sich diese Bewertung, wenn die Notrufannahme nur teilautomatisiert ist?
- Wer ist für den Schaden verantwortlich, wenn ein Verletzter aufgrund einer fälschlichen Ausgabe der Software Nachteile (etwa durch Zeitverzug) hat oder gar stirbt?
- Hat Elisabeth die Pflicht zu handeln, als sie erkennt, dass die Entscheidungsbäume der Software nur für den Normalbetrieb, strukturell jedoch nicht für Ausnahmesituationen geeignet sind? Ist es ethisch vertretbar, dass sie dennoch zum Einsatz kommen?
- Ist die Benutzung einer solchen Software angesichts der Fehleranfälligkeit des Menschen gar geboten, wenn sie im Regelfall solide arbeitet?
Erschienen in Informatik Spektrum 37(6), 2014, S. 608f.
Bild von gracey.
Constanze Kurz & Stefan Ullrich
Manfred ist trotz seines für Online-Verhältnisse hohen Alters von den neuen Möglichkeiten, die das »Web 2.0« bietet, begeistert. Es fing alles mit »Mindbook« an, einer Mischung von Tagebuch, Notizblock und Poesie-Album für Freunde. Inzwischen verbringt er seine Abende gern bei Formspring. Diese Plattform erlaubt das Interagieren mit Bekannten und Fremden nicht nur über das eigene Profil, sondern auch mit Hilfe eines Frage-Antwort-Spiels, das durchaus eingehend sein kann. »Welche Whisky-Destillerie würdest Du gern besichtigen?«, »Welche Wim-Wenders-Filme magst Du?«; manchmal werden auch religiöse und politische Weltanschauungen thematisiert, oft ist Formspring aber einfach ein Flirt-Forum.
Manfred hat seine Freundin Franziska selbstverständlich über Formspring kennengelernt. Die beiden nutzen die neuen Möglichkeiten ausgiebig, aber haben schon von Anfang an grundsätzlich geklärt, was über ihre Beziehung im Netz stehen soll – und was nicht. Die beiden posten Urlaubsfotos, Berichte über langweilige Familienessen und Links zu Webseiten, die sie toll finden – und bekommen regelmäßig Kommentare von einer stetig wachsenden Zahl von »Freunden«. Zu den Freunden zählen auch Karsten, der leibliche Sohn von Manfred sowie die Verwandten von Franziska, die sich neuerdings ein Netbook zugelegt haben.
Karsten hat soeben eine Stelle als Sachgebietsleiter des örtlichen Finanzamtes angetreten. Bei seiner ersten Betriebsfeier sprechen ihn plötzlich mehrere Kollegen auf seinen letzten Urlaub an. »Na, wie war es in Malé?«, fragt ihn die Stellvertreterin des Vorstehers und spricht ihm Glückwünsche aus. Karsten ist irritiert, er hat von seinem Kurzurlaub auf den Malediven nie im Amt erzählt, es war eine luxuriöse Reise, die er sich zum fünften Jubiläum ihrer Hochzeit mit seiner Frau Linda gegönnt hat. Und was sollen die Glückwünsche? Er fragt aber nicht nach, sondern antwortet einsilbig und lenkt dann vom Thema ab.
Am Montag nach der Feier spricht Karsten in der Kaffeepause mit seinem Freund und Kollegen Dirk, dem er vertraut, und fragt ihn unverblümt, woher die Kollegen von seinem Maledivenurlaub gewusst hätten. Ein wenig hat er Dirk im Verdacht, es ausgeplaudert zu haben. Dirk gesteht Karsten, er habe vermutlich indirekt dazu beigetragen. In Dirks Freundesliste bei Mindbook seien jetzt immer öfter auch Kollegen zu finden. Da sei es nur verständlich, dass sie auch Karstens Mindbook-Profil finden würden, da sie ja gegenseitig auf ihren Freundeslisten seien.
Karsten stutzt, er hat über den Urlaub absichtlich nichts auf seiner Mindbook-Pinnwand verlautbart, er wollte die Luxus-Tour nicht breittreten. Jedoch hatten Karsten und Linda im Urlaub ein paar Fotos mit ihren Mobiltelefonen an die Eltern verschickt, die sie als zufriedene Urlauber unter Palmen und bei Sonnenuntergang am Meer zeigen. Karsten eilt mit einer bösen Vorahnung in sein Büro an den Rechner. Sein Vater Manfred und dessen Freundin Franziska haben tatsächlich eines der Bilder nicht nur auf ihren Mindbook-Pinnwänden veröffentlicht, Franziska hatte als stolze zukünftige Großmutter auch eine kleine Bildunterschrift hinzugefügt: »Wenn man genau hinsieht, erkennt man schon die kleine Rundung, die die Ankunft unseres Enkelchens verrät.« Bei Formspring unterhält sie sich seit Neuestem über die Pflichten einer »Vorbild-Oma«.
Karsten ist entsetzt, was fällt seiner Stiefmutter ein? Was geht das die Welt an, dass er und seine Frau ein Kind erwarten? Und was soll das mit dem Foto, sie hätte wenigstens mal fragen können. Es ist ihm peinlich, dass diese privaten Details jetzt Thema unter den Kollegen sind.
Als Franziska mit den Vorwürfen konfrontiert wird, versteht sie die Aufregung nicht. Auch Manfred findet, dass sein Sohn überreagiert habe, da sei doch nun wirklich nichts dabei, das sei doch die natürlichste Sache der Welt, die man nicht geheim halten müsse. Die Kollegen würden doch viel verständnisvoller reagieren, wo sie doch jetzt von der Schwangerschaft wüssten. Außerdem hätten sie es sowieso erfahren, wenn Karsten Elternzeit beantragt hätte.
Fragen:
- Franziska und Manfred haben die Bilder für alle Nutzer sichtbar auf ihre Pinnwand gestellt. Macht es einen Unterschied, wenn sie den Lesezugriff nur »Freunden« und »Freundes-Freunden« gestattet hätten?
- Sollten Anbieter von »social media« hier irgendwelche Vorkehrungen treffen, so dass es schwieriger ist, ein Foto für »alle« einsehbar zu machen als beispielsweise für »Freunde«?
- Wie ist es ethisch zu bewerten, dass Dirk seinen Kollegen den Hinweis auf die öffentlich einsehbaren Fotos gegeben hat? Ist nicht hauptsächlich Dirk sogar schuld daran, dass die Bilder im Kollegenkreis verteilt wurden?
- Haben Karsten und seine Frau Linda die Verpflichtung, den Empfänger über etwaiges Stillschweigen zu informieren?
- Karsten und Linda nutzen selbst »social media«. Wäre die Situation eine andere, wenn die beiden nicht bei »Mindbook« wären?
- Sollte man höflicherweise Informationen, die man online über eine Person erfahren hat, diese im Gespräch besser nicht erwähnen?
- Wenn Bereichsleitung und Kollegen von privaten Umständen Kenntnis erlangen: Was könnten mögliche Folgen sein und wie sind diese moralisch zu bewerten?
Erschienen in Informatik Spektrum 35 (2), 2012, S. 156–157
Wir wünschen unseren Leserinnen und Lesern ein gesundes neues Jahr 2015, in dem Ada Lovelace und George Boole zweihundert Jahre alt geworden wären.
Unsere Fachgruppe hat es (bislang) auf stattliche zehn Jahre gebracht, ein kleiner Artikel dazu ist im Informatik-Spektrum und auf der GI-Website zu lesen:
In den letzten zehn Jahren haben wir festgestellt, wie die gesellschaftliche Bedeutung der in unserer Gruppe diskutierten Themen zugenommen hat, wenn auch nur in den Sonntagsausgaben der Zeitungen und den entsprechenden Reden der Politiker. Aktuelle technische Entwicklungen – wie Drohnen, Wearable Computing oder Biometrie (um nur mal einige wenige zu nennen) – werfen stets moralische Fragen auf. Bislang wurden diese Fragen im akademischen Kontext vor allem von Philosophen mit unterschiedlicher technischer Expertise geführt. Wir wollen die Fragen aus der Informatik mitten in die Gesellschaft hinein tragen. Daher freuen wir uns auf die Zukunft und auf spannende Diskussionen – mit neuen Mitgliedern der Fachgruppe bei unseren Treffen oder auch virtuell mit Hilfe von Kommentaren in unserem Blog.
Ach ja: Das nächste Fachgruppen-Treffen findet bereits in wenigen Tagen, am 16. Januar 2015 um 10:30 Uhr in Berlin-Mitte statt. Interessierte sind herzlich eingeladen, Details gibt es auf Nachfrage an stefan.ullrich (Klammeraffe) hu-berlin (Punkt) de.
Der Fachbereich »Informatik und Gesellschaft« der GI veranstaltet dieses Jahr keine eigene Tagung, wir möchten am Thema Interessierte stattdessen einladen, mit unseren Freunden vom Forum Informatikerinnen und Informatiker für Frieden und gesellschaftliche Verantwortung (FIfF e.V.) zu diskutieren:
Der Fall des Geheimen. Von Prism bis Eikonal: Ein Blick unter den eigenen Teppich. 7.+8. November 2014 an der TU Berlin.
Anmeldung, Programm und weitere Informationen unter http://fiffkon.de
|
|
Kommentare