Teslafahren mit ethischer Software

Welche Regeln gelten für fahrerlose Fahrzeuge wenn es zum Unfall kommt? Diese Frage warfen einige Vorfälle mit Teslas auf. Kürzlich hat der Regulator die Diskussion aufgenommen. In einem vom Europaparlament veröffentlichten Briefing wird das Zusammenspiel von Ethik und Artificial Intelligence (AI) besprochen. 

Die EU bescheinigt die Binsenwahrheit das grosse Potential von AI um einige zentrale Herausforderungen des 21. Jahrhunderts zu lösen. Als Beispiele werden der Gesundheitssektor, Prävention von Umweltrisiken oder die Steuerung der Wirtschaft angeführt.

Doch was ist die ethische Richtlinie für künstliche Intelligenz? Als quasi ersten Schritt zu einer ethischen AI kommt das Briefing zum Schluss, dass Vertrauen in AI aufgebaut werden muss.

It is an undeniably powerful tool. And like all powerful tools, great care must be taken in its development and deployment. However, to reap the societal benefits of AI systems, we will first need to trust it. The right level of trust will be earned through repeated experience, in the same way we learn to trust that an ATM will register a deposit, or that an automobile will stop when the brake is applied.

Dazu schlägt das EU-Parlament eine hohe Transparenz vor. Menschen müssen fähig sein, die Algorithmen von AI zu verstehen und dessen Handlungsoptionen interpretieren zu können. Ein hoher Anspruch.

Anschaulich für die Diskussion ist das „Driverless-Car-Dilemma“. Welches sind die ethischen Instanzen, welche künstlicher Intelligenz beibringen, ob die Gruppe wohlbetuchter Senioren oder die alleinerziehende Mama dem Tesla über den Haufen gefahren werden soll? Man spricht in diesem Zusammenhang auch von „Algorithmic Responsibility“.

Um das Vertrauen in künstliche Intelligenz zu fördern schlägt die EU vor, dass AI nach den Werten von Menschen handeln sollte, bleibt aber unspezifisch.

AI systems should function according to values that are aligned to those of humans, so that they are accepted by our societies and by the environment in which they are intended to function. This is essential not just in autonomous systems, but also in systems based on human-machine collaboration, since value misalignment could preclude or impede effective teamwork.

Was aber umfassen diese ethischen Module, welche in AI eingebaut werden sollen? Wie können Modelle einer integeren künstlichen Intelligenz entwickelt werden?

Es braucht ein Regelwerk, damit Computerprogramme mit einem ethischen Raster lernen und entscheiden können. Ethik definiere ich in diesem Zusammenhang als die Leitplanken für legitimes Handeln von künstlicher Intelligenz. Als geeignete Lösung erachte ich die Ansätze der Diskursethik (siehe Habermas). Diese hilft bei der Klärung was ein legitimes Vorgehen ist. Die Diskursethik hat den Vorteil, dass ein Problem durch möglichst transparente Kommunikation gelöst werden muss. Es bräuchte folglich einen öffentlichen Dialog über legitimes Handeln von AI.

Wie hingegen ethische Software regional unterschieden und rechtlich geregelt wird steht auf einem anderen Blatt.