Automatisierung und KI: System ohne Schuld

Uber-Crashs, Flugzeugabstürze, Reaktor-Unfälle: Wer haftet, wenn Maschinen, Algorithmen und Roboter Mist bauen? Oft wird der nächstbeste Mensch zur Rechenschaft gezogen.

Von Michael Moorstedt

Es war ein Donnerstag im Januar 1979, an dem Robert Williams in die Geschichtsbücher eingehen sollte. Der damals 25-Jährige war in einem Werk des Autobauers Ford für die Bedienung eines Industrie-Roboters zuständig. Nach einer Fehlfunktion kletterte der Ingenieur in die Fertigungsstraße, und der schwere metallene Arm des Roboters erwischte ihn am Kopf. Williams hatte keine Chance. Er war damit der erste bekannte Mensch, der von einem Roboter getötet wurde. Wer an dem Unfall schuld war, hielt das Gericht für erwiesen. Litton Industries, der Hersteller des Roboters, musste den Hinterbliebenen von Williams 15 Millionen Dollar zahlen.

Etwas weniger eindeutig war die Frage der Verantwortung im letzten Jahr. Ein autonomes Testfahrzeug des Fahrtenvermittlers Uber erfasste eine Fußgängerin. Obwohl diverse Fehler an Software und Sensoren des Autos festgestellt wurden, befand die Regulierungsbehörde den Konzern für unschuldig. Seit Dezember sind die autonomen Uber-Autos wieder auf der Straße. Die Sicherheitsfahrerin, die mit an Bord war, sieht sich jedoch eventuell einer Klage wegen fahrlässiger Tötung gegenüber.

„Moralische Knautschzone“ nennt die Kulturanthropologin Madeleine Clare Elish dieses Phänomen. Für das Forschungsinstitut Data&Society hat sie zu fatalen Fehlern geforscht, an denen Algorithmen beteiligt waren. Neben dem Uber-Vorfall zählt sie in einer gerade erschienenen Studie etwa den Reaktorunfall von Three Mile Island oder den Absturz des Air France Flugs 447 über dem Südatlantik im Jahr 2009 dazu. All diese Unfälle vereint, dass der Fokus in der Berichterstattung beinahe ausschließlich auf den menschlichen Fehlern lag. Und das, obwohl Defizite automatisierter oder autonomer Systeme maßgeblich zu den tragischen Ergebnissen beitrugen, etwa Messfehler oder widersprüchliche Anzeigen.

Menschliches Versagen wiegt bei KI schwerer als das der Technik

Während also eine herkömmliche Knautschzone dazu dient, Menschen zu schützen, wird das Konzept hier umgedreht und die „Integrität des technischen Systems auf Kosten des Menschen geschützt“. Der beteiligte Mensch werde zu einem „Haftungsschwamm“, der sämtliche rechtliche und moralische Verantwortung aufsauge. Menschliches Versagen wiegt im Bereich von KI also schwerer als das der Technik. Die traditionelle Sichtweise, dass derjenige, der die Kontrolle hat, auch die Verantwortung trägt, ist aufgehoben.

Wenn man nicht weiß, wie vermeintliche intelligente Maschinen zu ihren Entscheidungen kommen, wer ist dann verantwortlich, wenn etwas schief geht? Ihre Hersteller? Ihre Besitzer? Die Programmierer? Gibt es überhaupt einen eindeutig Schuldigen? Wenn komplexe autonome Systeme bald immer öfter in unser Leben eingreifen, wenn Mensch und Maschine zusammen existieren, müssen Gesetzgeber und Gerichte entscheiden, wie Verantwortung fair verteilt werden kann.

Unlängst wurde etwa der Fall eines Finanzspekulanten bekannt, der aufgrund der Fehleinschätzungen einer Börsen-KI mehrere Millionen Dollar Verlust machte. Er verklagte deshalb denjenigen, der ihm die Software verkauft hatte. So scheint einmal mehr die Diagnose von Madeleine Elish einzutreffen: Wenn die Maschine versagt, trägt der nächststehende Mensch die Verantwortung.

Technologie

Dieser Comic erklärt, was künstliche Intelligenz ist

Ersten Kommentar schreiben

Antworten

Deine E-Mail-Adresse wird nicht veröffentlicht.


*