Zusammenfassung: Ethik der künstlichen Intelligenz (1)

So wie die Digitalisierung in pervasives Phänomen ist, welches nahezu alle Bereiche unseres Alltags und unserer Lebenswelt betrifft, so wird gerade auch künstliche Intelligenz immer mehr Teil unserer Lebenswelt. Ebenso wie wir zunächst den ontologischen und epistemologischen Status des Internets klären müssen, bevor wir seine ethischen Probleme diskutieren können, müssen wir zunächst untersuchen, was eigentlich künstliche Intelligenz ist, bevor wir ihre moralphilosophische Bedeutung behandeln. Wir müssen uns fragen, was „künstlich“ im Zusammenhang mit „Intelligenz“ bedeutet, und wir müssen diskutieren, ob KI ein Subjekt, ein Objekt, ein Medium, eine Maschine, ein Prozess oder eine Struktur ist. Es lassen sich zwei verschiedene Ansätze bezüglich KI unterscheiden, nämlich die klassische symbolverarbeitende und die neuere konnektionistische KI, die häufig auch mit dem Begriff der „künstlichen neuronalen Netze“ in Verbindung gebracht wird. Die symbolverarbeitende KI verfährt so, dass sie nach logischen Regeln und Schlüsseln Informationen verarbeitet, und dies mit einer sehr hohen Geschwindigkeit, die die Fähigkeiten des Menschen weit übertreffen. Beispiele sind hierfür herkömmliche Computer, aber auch Taschenrechner. Die konnektionistische KI operiert hingegen so, dass sie nicht von Regeln und logischen Schlüssen ausgeht, sondern gewissermaßen empiristisch auf Basis von großen Datenmengen Muster erlernt und diese dann auch in neuen Zusammenhängen erkennt. Sie ist der Verfahrensweise unseres Gehirns nachgebildet. Beispiele hierfür sind Spracherkennungsprogramme.

Der amerikanische Philosoph John Searle hat insbesondere den Ansatz symbolverarbeitender KI kritisiert. Seiner Auffassung nach vermag diese nur die logisch-syntaktischen Regeln zu befolgen, jedoch keine Bedeutung von syntaktischen Strukturen zu erfassen oder zu generieren. Hubert Dreyfus wiederum hat kritisiert, dass neuronale Netze immer noch viel zu wenig vernetzt seien, um menschliche Intelligenz duplizieren zu können, da sie hierfür einen lebendigen Körper und eine kulturelle Umwelt bräuchten.

Es lassen sich verschiedene Positionen bezüglich der Beurteilung von KI unterscheiden:

(i) Die Ideologisierung von KI im Rahmen einer transhumanistisch-futorologischen „Silicon Valley-Ideologie“;

(ii) die Anthropomorphisierung von KI / Robotik, die diese als eine lebendige Person versteht.

(iii) die Banalisierung von KI als bloßes Hilfsmittel, d.h. als technologische Reduktion;

(iv) die Dramatisierung von KI als zu bekämpfende Gefahr der Moderne, d.h. als ideologische Gegenposition zu (i).

Neuerdings hat sich der Ansatz einer „Maschinenethik“ etabliert, der nicht nur aus ethischer Sicht über KI sprechen will, sondern diese selbst moralisch sensibel konstruieren möchte. Inwiefern aber können Maschinen wirklich als „moralisch“ und als „autonom“ verstanden werden. Problematisch ist dabei jedoch, dass wir hier Maschinen anthropomorphisierend zu verstehen scheinen, ihnen also menschliche Eigenschaften zuschreiben, die ihnen eigentlich gar nicht zukommen. Unser Verhältnis zu noch so intelligenten künstlichen Systemen ist daher im Grunde immer ein Selbstverhältnis zu uns als Menschen.

Wenn künstliche Intelligenz immer mehr Teil unserer Lebenswelt wird, dann scheint der Begriff der „Mensch-Maschine-Interaktion“ dafür nicht mehr angemessen zu sein. Wir sollten KI nicht im Sinne eines Subjekts oder Objekts verstehen, sondern als Prozess und Intelligenzleistung. Diese Intelligenzleistung lässt sich in unsere Lebenswelt integrieren und mit anderen (menschlichen) Operationen vernetzen. Eine Ethik künstlicher Intelligenz bemisst sich dann an dieser lebensweltlichen Integration und Vernetzung. Die ethische Frage lautet insofern: Trägt künstliche Intelligenz zur Erweiterung des virtuellen Raumes bei, indem sie unsere Ziele und Interessen mit anderen Personen vernetzt und auf Basis von bisherigen Erfahrungen neu realisiert, oder beschränkt sie diesen, indem sie uns ökonomischen Interessen unterwirft und uns so zu bloßen Auswertungsobjekten macht?

Durch KI wird die Verantwortungszuschreibung ihrer Prozesse immer schwieriger. Nehmen wir an, ein „autonom“ fahrendes Auto verursache einen Unfall. Wer trägt nun die Verantwortung: die Hersteller von KI, die Nutzer, oder KI selbst? Wir sehen, dass im Falle von neuronalen Netzen viele Faktoren miteinander verbunden sind. Denn KI wird auf gewaltigen Datenmengen trainiert, in welche auch unser Fahrverhalten mit einfließt. Wir sind insofern immer selbst auch Teil des Verantwortungszusammenhangs. Wir sollten deshalb KI als eine Erweiterung unseres virtuellen Handlungsspielraums verstehen. Unsere virtuellen Handlungen sind viel vernetzter, als es unsere physischen Handlungen sind. Deswegen ist die Frage nach der Verantwortungszuschreibung von KI ebenfalls komplexer.