Archive

Fallbeispiel: Das selbstfahrende Auto

Sie haben sich seit Jahren darauf vorbereitet. Visionen der 50er Jahre eines selbstfahrenden Autos werden wirklich wahr. Galene, haben sie ihre Entwicklung, das selbstfahrende Auto, getauft, und es ist auf dem Testgelände fantastisch gefahren. Auch bei Testfahrten in Amerika – dazu musste Galene verschifft werden – lief alles prima. In den USA gibt es nicht so viele Vorschriften, und es gibt unendlich weite Straßen, auf denen man gute Sicht hat und viel ausprobieren kann.

In Deutschland war alles komplizierter und es hat länger gedauert, um die Genehmigung für Testfahrten im Straßenverkehr zu erhalten, aber diese lag nun vor. Morgen war die Presse für die breit angekündigte „Jungfernfahrt“ eingeladen. Jürgen, einer der stolzen „Eltern“ von Galene, will sie nach Absprache mit dem Teamleiter erst einmal so ohne Pressetrubel auf der geplanten Strecke fahren lassen, um sicher zu sein, dass alles klappt. Als guter Ingenieur hat er die Strecke mit Bedacht ausgewählt. Es ist Sonntagnachmittag, da ist auf diesen Straßen wenig Verkehr. Und er selber sitzt ja auch hinterm Steuer undkannnotfalls eingreifen, wenn etwas sein sollte. Er ist sich sicher, dass er nicht auffallen und evtl. andere Autofahrer oder Passanten irritieren wird.

Er gibt das Ziel mündlich im Sprachcomputer ein. Galene bestätigt das Ziel, und berechnet den Weg unter Berücksichtigung der aktuellen Verkehrsnachrichten, den bekannten Baustellen und der Wettervorhersage. Alles ist ruhig, keine Baustellen im Weg, kein Regen oder Nebel aber etwas Wind: ein sonniger Herbsttag und der perfekte Tag für eine erste Testfahrt!

Jürgen genießt die Fahrt auf der ihm wohl bekannten Strecke. Es ist schon ein tolles Gefühl, sich fahren zu lassen, obwohl es immer noch sehr ungewohnt ist, kein Gas zu geben, nicht zu bremsen und nicht zu steuern. Galene fädelt auf der Stadtautobahn perfekt ein, überholt einen Oldtimer, und fährt an der nächste Ausfahrt wieder raus, sanft an der Ampel anhaltend. Galene hält dabei immer genügend Abstand zum Vordermann ein. Die Steuerung ist so präzise, dass sie bis auf einen Zentimeter heranfahren könnte, um hinter dem Vordermann anzuhalten. Aber das macht andere Verkehrsteilnehmer unnötig nervös, und so haben sie Galene auf 40 cm Abstand programmiert.

Jürgen würde gerne mit seinem Handy filmen, wie er die grüne Welle bekommt und dann an der dritten Ampel links abbiegt – er war sich nicht ganz sicher, ob Galene das alles korrekt berechnen würde, aber es hat perfekt geklappt. Da er für die anderen Autofahrer den Anschein aufrecht halten muss als fahre er das Auto, kann er schlecht mit dem Handy filmen. Sie kommen in ein neueres Wohnviertel und Galene bremst auf die vorgeschriebenen 30 km/h runter. Links ist eine Schule, auf beiden Seiten befinden sich Bushaltestellen für die Schulbusse. Sie haben viel Zeit darauf verwendet, Galene auf solche Verkehrssituationen vorzubereiten.

Aber zum Glück sind je gerade Herbstferien. Rechts kommen sie an einem Park mit großen Rasenflächen vorbei. Er hört Kindergeschrei und blickt nach rechts. Jürgen sieht Hunde tollen, bunte Bälle auf der Wiese und noch buntere Drachen in der Luft fliegen. Sie bewegen sich mit dem Wind in seine Richtung. Jürgen greift instinktiv zum Steuer, er ist sich bewusst, dass Kinder beim Spielen nicht auf den Verkehr achten.

Gerade zu Beginn hat er das öfter erlebt: er wurde nervös, griff zum Steuer und drückte den Knopf, um die Kontrolle zu übernehmen. Aber es war nie notwendig und so lernte er, entspannt zu bleiben und Galene die Kontrolle zu überlassen. Und plötzlich passiert es: Ein Kind rennt mit seinem Drachen zwischen zwei parkenden Autos auf die Straße und wird von Galene erfasst. Es stürzt bewusstlos zu Boden.

Galene bremst sofort, da die Sensoren den Aufprall erfasst haben. Jürgen zieht gleichzeitig den Nothaltknopf. Galene steht, der Warnblinker ist eingeschaltet. Jürgen steigt aus und rennt zum Kind, die Mutter kommt dazu und schreit Jürgen an. Eine junge Frau steigt aus dem Auto, das hinter Jürgen gefahren ist und leistet erste Hilfe. Sie sagt, sie sei Krankenschwester.

Ein Hundebesitzer aus dem Park hat schon den Notruf abgesetzt, der Krankenwagen ist schnell da und fährt das Kind mit seiner Mutter mit Blaulicht in das nächstgelegene Krankenhaus. Auch die Polizei ist da, um den Unfall aufzunehmen. Jürgen steht ziemlich unter Schock. Die junge Frau, die erste Hilfe geleistet hat, wendet sich sofort an die Polizei, noch bevor diese Jürgen befragen kann. Ihr Name sei Sabine und sie
sei hinter dem Unfallauto gefahren. Ihrer Meinung nach sei es zu schnell gefahren. Sie selber sei viel langsamer als 30 gefahren, bei all dem Kindergeschrei aus dem Park, den Hunden,
Bällen und Drachen musste man ja mit sowas rechnen!

Die Polizisten bitten Jürgen, sich auszuweisen. Er gibt ihnen den Personalausweis, Führerschein, sowie die Betriebserlaubnis für Testfahrten. Die Polizisten sind erstaunt und stellen einige Fragen zum Auto, sie sind neugierig. Da es sich um Testfahrten handelt und das Auto nicht generell zugelassen ist, wollen sie Galene in jedem Fall abschleppen lassen, umgenauere Untersuchungen anzustellen, insbesondere auch um Daten für die Auswertung auszulesen. Jürgen weiß, dass Galene korrekt gefahren ist, aber der Vorwurf der Zeugin Sabine macht ihn trotzdem nachdenklich. Die Probefahrt und Pressekonferenz am nächsten Nachmittag sind gefährdet. Ein PR Desaster, vor allen Dingen nach diesem Unfall!

Fragen

– Das Auto hatte eine offizielle Betriebserlaubnis für Testfahrten. War es in Ordnung, vor der offiziellen Probefahrt, eine Testfahrt durchzuführen?

– Flugzeugpiloten müssen immer wieder ein Training absolvieren, um im Notfall schnell genug zu reagieren und die Kontrolle vom Autopiloten zu übernehmen. Wird ein solches Training auch bei selbstfahrenden Autos notwendig sein? Durfte Jürgen sich während der Probefahrt so entspannt zurücklehnen?

– Als Jürgen die Kinder im Park sah, griff er instinktiv zum Lenkrad. Müsste er als Fahrer in einer solchen Situation, in der er mit auf die Straße rennenden Kindern rechnete, die Kontrolle über das Fahrzeug übernehmen?

– Galene fuhr die vorgeschriebene Geschwindigkeit von 30 km/h. Die Zeugin machte denVorwurf, das sei bei den vielen Kindern im Park zu schnell gewesen. Inwiefern kann und soll eine Anpassung der Geschwindigkeit an Gegebenheiten, die neben der Straße stattfinden, in Algorithmen abgebildet werden?

– Es kann immer wieder zu Unfällen kommen, weil Unvorhergesehenes passiert: ein Kind rennt auf die Straße, Wildwechsel, ein Ast stürzt auf die Fahrbahn. Oft ist es das schnelle Reaktionsvermögen des Fahrers oder ein instinktives Zögern, das Schlimmeres verhindert. Sollten Algorithmen versuchen, eine Art Instinkt abzubilden? Inwiefern können selbstlernende Systeme hilfreich sein?

– Manchmal kommt es auch zu Auffahrunfällen, wenn sich ein Fahrer „zu korrekt“ verhält, z. B. an einer viel befahrene Straße bei gelb an der Ampel hält oder bei einer unübersichtlichen Kurve nach einer Schnellstraßenausfahrt die Geschwindigkeitsbegrenzung exakt einhält. Sollten man in selbstfahrende Autos, die darauf programmiert sind, sich so korrekt zu verhalten, eine gewisse Unschärfe im Umgang mit Verkehrsregeln einbauen, je nachdem wie sich die vorausfahrenden bzw. hinterherfahrenden Autos verhalten?

– Es wird kaum möglich sein, in Tests alle möglichen Fälle abzudecken. Daher kann es vorkommen, dass die Software von selbstfahrenden Autos falsch reagiert.Wer ist dann zur Verantwortung zu ziehen? Die Entwickler? Die Hersteller? Der Fahrer, der für den Fall der Fälle im Auto sitzt? Oder werden wir solche Fälle hinnehmen, da die Autos in anderen Fällen größere Sicherheit versprechen? Wo können dann aber die Grenzen gezogen werden?

– Wie und wann werden Software Updates bei selbstfahrenden Autos durchgeführt? Nur in der Werkstatt, oder wenn das Auto gerade steht? Wer kontrolliert, ob und wann ein Update durchgeführt werden soll? Und wie sieht die Situation aus, wenn ein Unfall durch ein nicht durchgeführtes Update wahrscheinlich hätte verhindert werden können? Wer übernimmt dann die Verantwortung?


Das Fallbeispiel ist im Informatik Spektrum erschienen, Band 38, Heft 6, Dezember 2015, S. 575-577.

Der irreführende „Cyberspace“ – wenn Begriffe Verantwortlichkeiten verschleiern

Cyberspace

openDemocracy – cyberspace – CC-BY-SA

In zahlreichen netzpolitischen Konferenzen, Dialogen und Diskussionen wird derzeit die Thematik „neue Regeln für den Cyberspace“ angegangen. Es geht dort den Umgang mit Beleidigung, Immaterialgüterrechten bis hin zum „Cyberkrieg im Netz“. Dabei zeugt die Begriffswahl „Cyberspace“ von grundsätzlichem Unverständnis der Materie und sie erschwert fruchtbare Debatten sogar noch.

Der Begriff „Cyberspace“ tauchte erstmals in den 1980er Jahren in der Science-Fiction-Literatur auf und wurde in den 1990ern – zur Zeit der Kommerzialisierung des Internet – auch darüber hinaus geläufig. Gemeint war immer ein von der echten Welt verschiedener, virtueller Raum, in dem andere Regeln galten. Mit Peter Steiner gesprochen: „On the internet, nobody knows you’re a dog“. Nun, zwanzig Jahre danach, bemerken wir jedoch, dass es diese zweite Welt gar nicht gibt, sondern dass das Digitale einfach Teil unserer normalen Welt wurde. Niemand ist mehr „online“ oder „offline“, weil auch unsere mobilen Geräte nun per default verbunden, ja ohne Netzverbindung teilweise völlig nutzlos sind. Weder die elektronisch übermittelte Steuererklärung noch die digitalen Videoüberwachungssysteme oder soziale Netzwerke sind auch nur ansatzweise virtuell. Es geht immer um reale Aktion und reale Konsequenz. Menschen werden wegen ihrer Äußerungen in sozialen Netzwerken auf echte „No-Fly“-Listen gesetzt; Personen bekommen echte Hausdurchsuchungen, weil sie bestimmte Daten veröffentlicht haben; wenn wir online etwas bestellen, kommt es tatsächlich zu uns in den Briefkasten; neue Autos sind immer mit dem Netz verbunden und das Internet bringt uns Filme, Telefon und Fernsehen ins Haus. Auch die Kommunikationsinfrastruktur selbst ist keineswegs virtuell: Router, Kabel, Netzknoten, Server – die Komponenten des Internet sind physisch existent und territorial verortbar. Von einem rechts- und regierungsfreien „Cyberspace“ kann also keine Rede sein, denn niemand lebt, arbeitet, kommuniziert oder leidet in diesem Cyberspace.

Wir stehen ohne Zweifel vor riesigen Herausforderungen, die Digitalisierung der Gesellschaft vernünftig zu gestalten, vorhandene Regelungen der vordigitalen Zeit zu aktualisieren und nötigenfalls zu erweitern. Aber Beleidigung, Erpressung, Datenklau und Spionage finden nicht im „Cyberspace“ statt, sondern sie werden von realen Tätern an realen Opfern begangen. Zuletzt muss darauf hingewiesen werden, dass in der öffentlichen Debatte meist nur dann von „Cyber-“ gesprochen wird, wenn es um undefinierte Gefahren geht (Cyberkriminalität, Cyberabwehrzentrum, Cyberkrieg). Positiv spricht man dagegen von der „digitalen Agenda“, „Onlinehandel“, „Internet Governance“ oder „e-government“, denn da geht es um spezifische informationstechnische Aspekte unserer echten vernetzten Welt, nicht um ein (fernes) Land. Insgesamt ergibt sich, dass die Cyberspacemetapher nicht hilfreich ist, wenn man über konkrete Gestaltung sprechen will – ganz im Gegenteil, denn sie blendet reale Machtverhältnisse aus und verhindert so Chancen echter Veränderung.

Folglich gilt es, den Fokus auf die prägenden Akteure zu richten und darauf, welche Regeln sie befolgen. Wenn mächtige Geheimdienste ganz genau wissen, wo sich jedes ans Internet angeschlossene Gerät befindet und zu welcher Person es gehört, so ist das politisch gewollt und kein Versehen. Wenn globale Konzerne Daten global verknüpfen, so ist das oftmals rechtlich erlaubt oder wird bewusst nicht geahndet. Wenn westliche Hersteller Überwachungssoftware an beliebige Drittstaaten liefern, so geschieht das vielfach nicht ungeregelt, sondern von Exportgesetzen gedeckt. Die aktuelle Situation entstand folglich nicht aus zufälliger „Wildwest“-Regellosigkeit, sondern aus den durchgesetzten, handfesten Interessen der jeweiligen Profiteure, egal ob es um Kriegsaktivitäten oder Datenhandel geht. Möchte man also ernsthaft über die Gestaltung der digitalen Welt nachdenken, muss man über Interessen und Macht sprechen, nicht über den „Cyberspace“ der 1980er.

3.-4. Juni 2016, Tutzing: »Mündig in der smarten Welt«

Die Bedeutungsmacht der Informationstechnologien ist immens. Sie reicht vom privaten Alltag bis in die Weltpolitik. Um zu einem angemessenen Umgang mit ihnen zu gelangen, reichen technische, juristische oder moralphilosophische Kenntnisse allein nicht aus. Vielmehr gilt es, technische Expertise mit der politisch-gesellschaftlichen Dimension zu verknüpfen.

Die Akademie für Politische Bildung und die Gesellschaft für Informatik eröffnen durch diese Tagung einen Diskussionsraum, in dem sich Informatiker und Nicht-Informatiker über die Selbstbestimmung im Informationszeitalter verständigen. Ziel ist es, einerseits Nichtinformatikern ein besseres Verständnis der Materie zu vermitteln, andererseits mit Informatikern
über deren gesellschaftliche Verantwortung zu diskutieren. Neben Vorträgen und Diskussionen werden einzelne Fragestellungen in Workshops vertieft.

Wir laden Sie herzlich zu unseren Diskussionen nach Tutzing ein.

Den Einladungs-Flyer finden Sie auf den Seiten der Regionalgruppe München der GI, das Anmeldungsformular stellt die Akademie für Politische Bildung Tutzing bereit.

Die Ausbildung der „Eliten der Automation“

Für die FAZ habe ich mir ein paar Gedanken zum Informatik-Studium, zur Ausbildung von Schülern und zum micro:bit-Projekt der BBC gemacht:

Wenn man ehrlich auf die bundesdeutsche MINT-Realität an Schulen blickt, wird sowohl Informatik als auch Technik de facto kaum unterrichtet, erst recht zu wenig mit spannenden Projekten, die das Zeug hätten, mehr Studenten in die technischen Fächer der Universitäten zu locken. Vielerorts wird allen Ernstes in den Schulen nur der Umgang mit gängiger Office-Software gelehrt, nicht aber grundlegendes Informatik-Verständnis.

bbc micro:bitMich hat das micro:bit-Projekt auch deswegen begeistert, weil es auf so einfache Weise Zugang zu informatischen Welten eröffnet. Wer ein wenig mehr über micro:bit erfahren möchte, das die BBC in Zusammenarbeit mit Google, Microsoft, Samsung, der British Computing Society und weiteren Unterstützern auf den Weg gebracht hat: hier entlang, mit weiteren Links.

Es geht mir in dem Artikel auch um die Wahrnehmung der universitären Informatik und darum, ob ein angehender Informatiker im Studium eigentlich angeleitet wird, technische Projekte und Entwicklungen kritisch zu beurteilen, um sein Handeln später in verantwortungsvoller Weise ausführen zu können. Es wird wohl wenig überraschen, dass ich finde, dass das im Studium zu kurz kommt.

Bildlizenz: CC BY-SA 2.0, via flickr/Les Pounder

Man kann nicht so schräg denken, wie es kommt

Im Fallbeispiel „Data Mining für Public Health“ haben wir rumgesponnen, was die Krankenkassen so alles mit unsere Daten anstellen können. Die Apotheker haben sich wohl inspirieren lasen: Weitergabe von Rezeptdaten.

 

Informationelle Mü(n)digkeit

Über die unbequeme Selbstbestimmung. Beitrag von Stefan Ullrich in der Zeitschrift Datenschutz und Datensicherheit 10/2014. Ein Jahr nach seinem Erscheinen nun hier im Volltext verfügbar.

Die technische Umsetzung sowie die politische Einforderung der informationellen Selbstbestimmung sind mühsam, die Nutzung informationstechnischer Artefakte hingegen bequem. Den Technikern fällt somit eine gesellschaftliche Verantwortung zu, die sie stärker als je zuvor wahrnehmen müssen.

Informationelle Mü(n)digkeit – Stefan Ullrich (PDF, 352 KB)

Drohnen – Jahrestagung 15.-16. 10. 2015 in Berlin

Im Geheimdienstbefugnisklärungsausschuss des Deutschen Bundestags taucht am Rande immer wieder auf, was der Ex-Geheimdienstler Michael Hayden so drastisch ausdrückte: Wir töten Menschen auf der Basis von Meta-Daten. Der nicht mehr ganz so geheime Drohnenkrieg der militärisch stärksten Staaten zeigt in erschreckender Weise, welch zentrale Rolle Technikerinnen und Techniker in der Schönen Neuen (Gewalt-)Welt einnehmen.

Algorithmen entscheiden in autonomen Systemen über Wohl und Wehe einer Person, weisen dem inkommensurablen Menschen einen Wert zu, der Vergleiche, Optimierungen und im Zweifel eben: Auslöschungen erlaubt.

Unsere Fachgruppe lädt Sie und Euch ein, mit uns erneut über die Verantwortung der Informatikerinnen und Informatiker zu diskutieren.

Verkörperung von Algorithmen: Drohnen
15. Oktober, 14 Uhr bis 16. Oktober 2015, 16 Uhr
Humboldt-Universität zu Berlin
Senatssaal, Unter den Linden 6, 10099 Berlin

Die Teilnahme ist kostenlos, um Anmeldung unter drohnen@turing-galaxis.de wird freundlich gebeten.

Beiträge und Programmänderungen können der Tagungs-Website entnommen werden.

Gemeinsame Pressemitteilung der Fachgruppe Informatik und Ethik der Gesellschaft für Informatik (GI e.V.) und des Forums InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF e.V.) zum Ermittlungsverfahren gegen netzpolitik.org

Die Fachgruppe Informatik und Ethik der Gesellschaft für Informatik (@gewissensbits) und das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (fiff.de) missbilligen das juristische Vorgehen von Verfassungsschutz, Generalbundesanwalt und Bundesjustizministerium gegen ein Presseorgan. Sie fordern klare Stellungnahmen und Positionierungen von allen Regierungsministerien. Die Mitglieder beider Vereinigungen sehen sich verpflichtet, allgemeine moralische Prinzipien, wie sie in der Allgemeinen Deklaration der Menschenrechte formuliert sind, zu wahren. Zu diesen essentiellen Rechten gehören die Meinungs- und Pressefreiheit sowie die Freiheit, mit Zivilcourage gegen offenkundige Missstände einzutreten. »Die Geschichtsvergessenheit ist mit das Erschreckendste am Verfahren gegen netzpolitik.org«, empört sich der Sprecher der GI-Fachgruppe Informatik und Ethik, Stefan Ullrich. »Als die Wochenzeitschrift Weltbühne die heimliche, rechtswidrige Aufrüstung der Deutschen Luftwaffe 1929 öffentlich machte, wurden Herausgeber und Informanten wegen Landesverrats verurteilt. Nun erleben wir, wie mit der Berichterstattung an einem heimlichen, moralisch fragwürdigen Wettrüsten im Cyberspace umgegangen wird: Mit einer Ermittlung wegen Landesverrats.«

Die Informationsgesellschaft erwartet von Informatikerinnen und Informatikern, eine ihrer Gestaltungsmacht angemessene individuelle und gemeinschaftliche Verantwortung zu tragen. Für die Herausbildung der dazu notwendigen Urteilkraft jedoch ist eine unabhängige, engagierte Presse unabdingbar, eine Presse, die schon längst nicht mehr mit Bleilettern hantiert, sondern vorwiegend digitale Medien nutzt. Das FIfF-Vorstandsmitglied Rainer Rehak kritisiert: »Die Integrität und Vertraulichkeit informationstechnischer Systeme wird systematisch und mit voller Absicht von geheim operierenden Diensten im Auftrag verschiedener Staaten unterminiert; doch nicht gegen die für die Grundrechtsverletzungen Verantwortlichen, sondern gegen die darüber berichtenden Journalisten wird ermittelt.«

Das Ermittlungsverfahren des Generalbundesanwalts wurde aufgrund der Berichterstattung von netzpolitik.org angestoßen, die wir hier prominent noch einmal verlinken wollen:

(Die von netzpolitik veröffentlichten Dokumente werden unter http://landesverrat.org/ gespiegelt.)

Die Fachgruppe Informatik und Ethik der Gesellschaft für Informatik und das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung rufen die politisch Verantwortlichen zur Raison sowie ihre Mitglieder zur erneuten Lektüre der höchstrichterlichen Grundsatzurteile auf.

Berlin, den 3. August 2015

Fallbeispiel: Das Assoziationsmodul

Antonia hat Computerlinguistik studiert und vor einem Jahr ihre Dissertation im Bereich maschineller Übersetzung abgeschlossen. Für ihre Arbeit verwendete sie Text, der von einer Spracherkennungssoftware erzeugt wurde. Der Schwerpunkt ihrer Arbeit bestand in der Erstellung und Implementierung eines Modells, das anhand der Wortwahl positive wie negative Gefühle und Assoziationen erkennen und in der Übersetzung wiederzugeben sollte, was auch recht passabel gelang. Nach einer kleinen Auszeit hat sie dann vor sieben Monaten bei der Firma SpeechTranslate in der Entwicklungsabteilung angefangen.

SpeechTranslate wurde vor vier Jahren als Spin-Off von Antonias Doktorvater gegründet. Ein mittlerweile 14-köpfiges Team unter der Leitung ihrer Kollegin Franziska entwickelt im Auftrag verschiedener Kunden spezialisierte Übersetzungsmodule. Ein weiteres Team arbeitet an der Optimierung von Sprach- und Themenerkennung.

Antonia arbeitet in Franziskas Team daran, die bestehenden Übersetzungsmodule mit Spracherkennungsmodulen zu verbinden. Antonias Aufgabe ist es außerdem, ihr Assoziationsmodul produktreif weiterzuentwickeln und in das Übersetzungsmodul einzubinden.

SmartPhony ist ein neuer Anbieter von Smartphones, die sich laut Werbung durch eine einfache Bedienung auszeichnen. Die große Handelskette Bundle AG entwickelt gerade in Kooperation mit SmartPhony und dem Mobilfunkanbieter Violet einen neuen, innovativen Handyvertrag. Auf den Smartphones sollen spezielle kostenlose Apps vorinstalliert sein, die die Kunden regelmäßig über Sonderangebote und Preisnachlässe bei Unternehmen der Bundle AG informieren. Der Clou des Handyvertrag soll jedoch werden, dass keine Kommunikationskosten anfallen. Die Deinstallation der Bundle-AG-Apps ist zwar schwierig, soll aber dennoch ohne Folgen für den Vertrag möglich sein.

Ursprünglich hatte sich SmartPhoney von SpeechTranslate nur ein Angebot für die Entwicklung einer normalen Spracherkennungsapp für ihre Smartphonepalette erstellen lassen. Als Martin, der schneidige Produktportfoliomanager von SpeechTranslate, in einem ersten Meeting jedoch das Modul zur automatischen Erkennung von Assoziationen und Stimmungen erwähnte, war SmartPhoney gleich begeistert und initiierte, SpeechTranslate einen größeren Auftrag zu geben, der direkt mit dem neuen Handyvertrag in Zusammenhang stehen soll.

Heute findet ein erstes technisches Projektmeeting zwischen SmartPhoney und SpeechTranslate statt. Als großer Kooperationspartner ist auch Peter, ein Produktmanager der Bundle AG zugegen.

Zu Beginn des Meetings stellt Franziska die aktuellen Übersetzungs- sowie Sprachmodule vor und beschreibt deren Funktionalität im Detail. Zu beiden Modulen stellen die Vertreter von SmartPhoney und der Bundle AG einige Fragen. Insbesondere möchten sie wissen, ob es möglich ist, die Spracherkennung dauerhaft im Hintergrund laufen zu lassen und wie viele Ressourcen (Akku, Prozessorauslastung) das benötigen würde. Im Anschluss bitten sie Antonia, ihr Modul vorzustellen, wobei ihr danach sehr viele detaillierte Fragen gestellt werden. Frank, der verantwortliche Produktleiter bei SmartPhoney möchte z. B. wissen, ob es möglich wäre, nach gezielten Begriffen zu filtern und die im Zusammenhang mit diesen Begriffen auftretenden Assoziationen der gesprochenen Sprache zu erkennen und zu speichern. Franziska antwortet sichtlich interessiert, dass dies technisch durchaus möglich sei, dafür aber sicherlich einige zusätzliche Entwicklungen notwendig wären.

Nach den Diskussionen findet eine längere Pause statt. Antonia holt sich etwas Obst aus ihrem Büro, nimmt sich einen Kaffee und geht dann auf den Raucherbalkon. Der ist meistens recht leer und sie möchte nach all den Diskussionen etwas frische Luft schnappen.

Als sie sich an die Wand neben der Balkontür lehnt, hört sie die Stimme Franks, des Vertreters von SmartPhoney. „Peter, warum wolltest Du heute eigentlich mit? Die Marketingfragen hatten wir doch geklärt! Und warum sollte ich so viel über das Assoziationsmodul in Erfahrung bringen?“ Die Antwort folgt prompt: „Das ist noch sehr vertraulich, aber wir möchten gerne herausfinden, wie oft bestimmte Produkte in Telefongesprächen genannt werden – und ob dies in einem positiven oder negativen Kontext geschieht. Wir wollen das nutzen, um die Produktpalette und Preise anzupassen. Auch können wir, wenn wir die Informationen intern weitergeben, vielleicht die Preise von Lieferung und Einkauf drücken. Aber das weißt Du nicht von mir!“ Antonia hört deutlich, wie Frank scharf Luft einzieht, bevor er nach dem Schutz der Privatsphäre der Kunden fragt. Doch Peter wischt den Einwand locker beiseite; erstens würden die Kunden beim Kauf des Smartphones und Abschluss des Vertrages ja einwilligen, dass Daten durch Bundle AG erhoben und gespeichert werden. Zudem steht es den Kunden ja frei, die Apps zu deinstallieren. Außerdem würden die personalisierten Daten ja nur innerhalb der Bundle AG verwendet, wobei die Lieferanten die Daten wahrscheinlich nur in aggregierter Form erhalten sollen.

Erschrocken verlässt Antonia den Balkon und geht leise zurück in den Konferenzsaal. Sie setzt sich auf ihren Stuhl, atmet tief durch und kann trotzdem kaum einen klaren Gedanken fassen. Was sie soeben gehört hat, passt überhaupt nicht in die Firmenphilosohie von SpeechTranslate. Aber sie hat es ja nur per Zufall mitbekommen und kann es jetzt im Meeting wohl kaum ansprechen. Ob Martin ihr später überhaupt glauben würde? Und wenn schon, er hatte ihr schon mehrmals seine Ansicht mitgeteilt, dass man es sich im realen Leben nicht immer aussuchen könne, mit wem man gute Geschäfte macht.

Frage:

  • Ist es vertretbar, eine Anwendungen wie Spracherkennung immer laufen zu lassen?
  • Eine solche Anwendung würde es jemanden, der durch einen Sturz oder eine andere Situation hilflos geworden ist, ermöglichen, einfach nach Hilfe zu rufen, sofern die Software an ein Alarmsystem gekoppelt ist. Wenn die Software dies leisten könnte, wäre es dann ethisch vertretbar, eine permanente Spracherkennung durchzuführen? Wie müsste eine Aufklärung und Einwilligung von Nutzern und nahen Betroffenen aussehen?
  • Im vorliegenden Fall soll die Anwendung kommerziell genutzt werden. Ergeben sich für den Kunden hierdurch Vorteile? Welche? Welche Risiken ergeben sich; ggf. auch für Dritte?
  • Welche Möglichkeiten des Missbrauchs beinhaltet die vorgeschlagene Anwendung?
  • Welche Möglichkeiten hat Antonia, das Wissen, dass sie durch zufälliges Belauschen eines Gespräches erlangt hat, zu verwenden? Welche ethischen Probleme ergeben sich hier?
  • Gibt es eine Verpflichtung von Bundle AG, den geplanten Gebrauch des Projektes offenzulegen? Können Sie sich Kriterien für eine solche Verpflichtung vorstellen?
  • Sollte Antonia das Thema sofort im Meeting ansprechen? Warum oder warum nicht?

Fallbeispiel: Zeitkritisch

Elisabeth arbeitet als Informatikerin für eine Firma, die Spracherkennungssoftware entwickelt, anbietet und im Einsatz bei Vertragskunden betreut. Typisch sind Produkte, die Anrufe von Menschen entgegennehmen, deren Wünsche oder Fragen herausfinden, um sie gezielt einem geeigneten Mitarbeiter zum Gespräch zuzuführen oder durch Standardansagen ohne menschliche Intervention zu erledigen. Dazu analysiert die Spracherkennung die am Telefon gesprochenen Wörter und versucht, sie entsprechend vorgegebener Entscheidungsbäume zu interpretieren. Üblich ist, dass die Richtigkeit der Erkennung ab und an durch Gegenfragen getestet wird.

Zur Zeit werden einige der Produkte erweitert, um Menschen durch natürlich klingende Sprache zu simulieren. Wird das Produkt erfolgreich in Deutschland sein, ist eine Expansion in andere europäische Ländern geplant.

Das Produkt, das Elisabeth mitentwickelt hat, springt nach dem ersten Klingelton an, nimmt die Anrufe computergestützt entgegen und wickelt sie entlang der Entscheidungsbäume ab. Als erstes wird in der Datenbank nachgeschaut, ob Erfahrungen mit diesem Kunden vorliegen. Es wird auch versucht, die Adresse des Anrufers zu ermitteln, denn je nach Wohnlage können unterschiedliche Entscheidungen angesteuert werden.

In der Regel wird der Anrufer nach wenigen Fragen zu einem passenden Mitarbeiter geleitet, ein Teil der Wünsche und Fragen wird sogar vollständig ohne menschliche telefonische Interaktion erledigt. Für den Fall, dass jemand von der Software überwiegend oder überhaupt nicht verstanden wird oder die Software feststellt, dass die Stimme sehr ärgerlich und laut geworden ist, gibt es zusätzlich ein Ansageband, das den Anrufer bittet, auf den nächsten freien Mitarbeiter zu warten. Die Firmen, die das Softwaresystem einsetzen, können sogar eine Mindestverweildauer in dieser Warteschleife angeben, denn es können verschiedene aktuelle Angebote dazugeschaltet werden.

Der Weg zur telefonischen Problemlösung soll jedoch möglichst kurz sein, denn Untersuchungen haben gezeigt, dass die Kunden ungeduldig werden, wenn sie viele verschiedene Fragen beantworten müssen, jedoch durchaus einige Minuten in einer Warteschleife ausharren. Softwareseitig ist definiert, dass nach durchschnittlich zwanzig Sekunden eine Entscheidung getroffen sein soll, ob die Sprache des Anrufers verstanden und eingeordnet werden kann oder direkt zu einem Menschen weitergeleitet wird.

In Elisabeths Firma ist als neue Kundin eine mittelgroße deutsche Stadt akquiriert worden, die bereits seit sechs Monaten erfolgreich Spracherkennungssysteme einsetzt, um Bürgeranfragen zu bearbeiten und beantworten. Als Teamleiter Frank mit Elisabeth und ihren Kollegen die neuen Aufträge der Stadt diskutiert, erfährt das Team, dass ab dem nächsten Jahr auch die Notrufzentrale mit der Erkennungssoftware ausgestattet werden soll. Es kostet einfach viel Geld, die Notrufzentrale rund um die Uhr mit bis zu zehn Disponenten auszustatten.

Die Notrufentgegennahme orientiert sich an den sogenannten „sechs Ws“: Wer meldet den Notfall? Was geschah? Wo geschah es? Wieviele Verletzte gibt es? Welche Art der Verletzung liegt vor? Warten auf Rückfragen!
Diese sechs Informationen können sehr einfach durch ein Spracherkennungssystem unterstützt werden, besonders mit einer guten Datenbankanknüpfung. So können auch häufige Scherzanrufer schnell identifiziert und der Standort des Anrufers schnell und zuverlässig bestimmt werden.

Frank stellt sich das so vor, dass die Anrufer gar nicht merken, dass sie mit einem Computer sprechen, damit sie nicht übermäßig hektisch werden. Sie sind in der Regel sowieso aufgeregt, wenn sie den Notruf anwählen. Elisabeths Team ist begeistert von der technischen Herausforderung, nicht nur viele verschiedene Dialekte erkennen zu müssen, sondern die Stimmen auch in Stress-Situationen korrekt auswerten zu können. Es wird auch viel spannender sein, die Entscheidungsbäume für dieses Anwendungsgebiet zu erstellen als für den Customer Support beim örtlichen Computermarkt.

Elisabeth besucht die Leitstelle an einem Freitag, um ein Gefühl dafür zu bekommen, was für Gespräche ankommen, um dann die Entscheidungsbäume zu konzipieren. Sie ist überrascht zu sehen, dass es zwanzig Arbeitsplätze gibt. Es stellt sich heraus, dass bei großen Veranstaltungen oder an Silvester regelmäßig alle Plätze belegt sind. Und als es vor fünfzehn Jahren einmal einen Unfall bei einer Flugshow gab, wurden alle irgendwie verfügbaren Disponenten einbestellt, dennoch kamen etliche Personen nicht beim Notruf durch, und die Krankenwagen waren nicht schnell genug vor Ort. Danach war die Platzanzahl auf zwanzig Personen angehoben worden.
emergency
Während sie mit einem Disponenten plaudert, gehen plötzlich alle Telefone an. Eine Explosion hat sich mitten in der Stadt ereignet. Der Schichtleiter ruft weitere Disponenten hinzu. Ein Krankenhaus mitten in der Stadt ist von der Explosion betroffen, die Patienten müssen auch noch in umliegende Krankenhäuser verteilt werden. Elisabeth ist komplett überfordert, sie kann gar nicht mitschreiben, was alles gefragt und entschieden wird. Wie soll sie hieraus Entscheidungsbäume erstellen?

Was soll Elisabeth tun?

FRAGEN

In diesem Szenario sind einige ethische Fragestellungen aufgeworfen. Die Hauptfrage ist die der Bewertung von automatisierter Bearbeitung menschlicher Meldungen in Notfallsituationen:

  • Ist es überhaupt denkbar, in einem Notfall mit einer Maschine zu sprechen? Was ist, wenn etwas Katastrophenartiges passiert (Vulkanausbruch, Massenpanik), was nicht in den Entscheidungsbäumen abgebildet ist?
  • Bei Spitzenbelastungszeiten könnten einige Anrufer direkt in die Warteschleife umgeleitet werden müssen, da alle Plätze bereits belegt sind. Ist das ein Problem?
  • Menschen sprechen anders, wenn sie Angst haben oder in Panik sind. Kann man maschinell damit umgehen?
  • Ist es möglich, ein System so zu bauen, dass es skaliert für Spitzenzeiten?
  • Was ist, wenn das System ausfällt, weil es zum Beispiel gehackt wurde oder die Software fehlerhaft ist? Ist es ein ethisches Problem, wenn Software in seltenen Situationen technisch unzureichend sein kann, aber im Regelfall die Abwicklung von Notrufen positiv beeinflusst?
  • Welche weiteren ethischen Probleme sehen Sie beim Einsatz der Spracherkennungssoftware?
  • Besteht ein prinzipieller Unterschied, ob ein Mensch oder ein Computer mit Hilfe einer Software einen Notruf annimmt? Ändert sich diese Bewertung, wenn die Notrufannahme nur teilautomatisiert ist?
  • Wer ist für den Schaden verantwortlich, wenn ein Verletzter aufgrund einer fälschlichen Ausgabe der Software Nachteile (etwa durch Zeitverzug) hat oder gar stirbt?
  • Hat Elisabeth die Pflicht zu handeln, als sie erkennt, dass die Entscheidungsbäume der Software nur für den Normalbetrieb, strukturell jedoch nicht für Ausnahmesituationen geeignet sind? Ist es ethisch vertretbar, dass sie dennoch zum Einsatz kommen?
  • Ist die Benutzung einer solchen Software angesichts der Fehleranfälligkeit des Menschen gar geboten, wenn sie im Regelfall solide arbeitet?

Das Fallbeispiel ist im Informatik Spektrum erschienen, Band 37, Heft 6, Dezember 2014, S. 608f.

Bild von gracey.