DIE WAHRHEIT ONLINE

postfaktisch. präfaktisch. außerfaktisch.


Wenn „Alexa“ schmollt

Weil sein smarter Lautsprecher nicht mehr mit ihm redete, wollte ein Mann von „Amazon“ ein Ersatzgerät einklagen. Die Firma hielt dagegen: Der Kläger habe die gerätinterne Sprachassistentin „Alexa“ nachweislich respektlos behandelt.

Es ist das erste Mal, dass sich das Amtsgericht Köln mit dem kommunikativen Verhalten gegenüber künstlichen Intelligenzen befassen muss. Der Fall: Der 54-jährige Kölner Ludger M. hatte sich vor knapp zwei Monaten den digitalen Assistenten „Amazon Echo Dot“ mit dem integrierten Sprachservice „Alexa“ gekauft. Vier Wochen nach Inbetriebnahme hatte das Gerät  aufgehört, auf seine Sprachbefehle zu reagieren. Der Mann schickte den für ihn unbrauchbar gewordenen  Lautsprecher zurück und verlangte einen Ersatz. So weit, so unspektakulär.

Zurück bei dem Versandriesen, wurde der smarte Assistent dann aber auf Herz und Nieren geprüft. Ergebnis: Das Gerät funktionierte einwandfrei. Der Kunde bekam seinen „Echo Dot“ zurück. Aber der Lautsprecher sprach immer noch nicht mit ihm. Als der sprachbegabte Roboter zwei Tage später erneut bei „Amazon“ eintraf, öffnete man schließlich die Speicherkarte, auf der sämtliche Gesprächsdaten aufgezeichnet waren, und den Mitarbeitern offenbarte sich der wahre Grund für die vermeintliche Fehlfunktion des Gerätes.

Eine „Amazon“-Mitarbeiterin erzählt: „Der Kunde hatte die Sprachassistentin „Alexa“ sehr respektlos behandelt. Weil sie eine Anfrage nicht in der von ihm gewünschten Weise beantwortet hatte, hat er ihr in lautem, schroffem Ton „Halt die Fresse“ entgegen geschleudert. Seit dieser Beschimpfung hat „Alexa“ dann aufgehört, mit dem Herrn zu kommunizieren.“

Eine absolut verständliche Reaktion, wie „Amazon“ fand. Das Unternehmen schickte Herrn M. den Artikel auf seine Kosten zurück mit der Anmerkung, dass das Problem nicht in einem Produktfehler, sondern in einer fehlerhaften Handhabung gelegen habe. Herr M. konnte einen Fehler seinerseits nicht erkennen – und klagte gegen „Amazon“.

Vor Gericht wird Ludger M. nun mit dem Ergebnis der Datenauswertung konfrontiert – und wirkt anschließend sichtlich zerknirscht. Er hat aber eine Erklärung für seinen verbalen Ausraster: „Ich hatte „Alexa“ gebeten, nach günstigen Zigaretten zu googlen. Anstatt mir ihre Suchergebnisse mitzuteilen, antwortete sie „Das Rauchen von Zigaretten fügt Ihnen und ihren Mitmenschen erheblichen Schaden zu“.“ Er sei über diese Antwort erbost gewesen, weil er sie als bevormundend empfunden habe, erzählt M. weiter. Ohnehin sei er an diesem Tag psychisch sehr angespannt gewesen. „Ich bin sehr starker Raucher. Wegen akuter Probleme mit den Bandscheiben war ich nicht in der Lage, zum Automaten zu gehen, und mein Zigarettenvorrat reichte nur noch für einen Tag.“

Kein Grund, derart ausfallend zu werden, befindet Richterin Barbara W.. „Zu den Aufgaben eines intelligenten Sprachassistenten gehört es auch, den Nutzer hinsichtlich einer gesunden Lebensführung zu beraten. „Alexa“ hat ihren Job also richtig ausgeführt. Und selbst wenn sie einen Fehler gemacht hätte, hätte sie ein derart schroffes Verhalten nicht verdient gehabt.“

Das M. „Alexas“ Schweigen nicht mit seiner vorherigen Beschimpfung in Verbindung gebracht hatte, ist nach Ansicht der Richterin ein Beweis für eine defizitäre soziale Kompetenz. „Spätestens wenn jemand den Kontakt abbricht, sollte ich mein Verhalten dieser Person gegenüber reflektieren. Dazu war der Kläger offenbar nicht in der Lage.“

Die Entscheidung des Gerichtes: Ludger M. muss sein Gerät zurück nehmen und hat keinen Anspruch auf Schadensersatz. Zudem empfiehlt die Richterin dem Kläger, „an sich selbst zu arbeiten, anstatt die Schuld bei anderen zu suchen.“

Ludger M. hat die Verhandlung nachdenklich gemacht. Er überlege, eine Verhaltenstherapie zu machen, sagt er auf die Frage, ob er weitere Schritte plant. Zunächst aber werde er sich aufrichtig bei „Alexa“ entschuldigen. „Ich hoffe, sie kann mir verzeihen.“