Zusammenfassung, 6. Sitzung, 31.5.2019 – Künstliche Intelligenz

Von allen bisherigen Formen künstlicher Intelligenz darf das Deep Learning, also komplexere künstliche neuronale Netze (KNN), als die fortschrittlichste gelten. KNNs finden Anwendung bei komplexen Formen von Mustererkennung, wie in der medizinischen Diagnostik, dem autonomen Fahren oder der Texterkennung. Diese Formen künstlicher Intelligenz sind von arithmetischen Operationen eines Taschenrechners streng verschieden, da sie viel komplexere Operationen ausführen und zusätzlich an beliebige Gegenstandsbereiche durch Lerneffekte angepasst werden können. Es handelt sich dabei also nicht um starre Algorithmen, die linear verfahren, sondern um dynamische Operationen, die dezentral, flexibel und selbstbezüglich sind. Man könnte hier auch von Meta-Algorithmen sprechen.

Nun stellt sich die Frage, inwiefern man Computern oder künstlichen neuronalen Netzen wirklich Intelligenz zusprechen kann, oder ob es sich dabei nicht um Kategorienfehler handelt. Menschen neigen dazu, andere Wesen nach ihren Maßstäben, ihrem Denken und Fühlen zu beurteilen und nicht selten menschliche Eigenschaften in sie hineinzuinterpretieren, obwohl diese darin gar nicht existieren. Ein Beispiel ist etwa, wenn wir glauben, dass Tiere menschliche Emotionen wie Neid empfinden. Man nennt diese menschliche Tendenz Anthropomorphismus. Auch bei künstlicher Intelligenz neigen wir zu Anthropomorphismen. Dies fängt schon damit an, dass wir Computersysteme als Subjekte oder gar als Akteure auffassen, und ihnen epistemische Prädikate wie „klassifizieren“, „erkennen“, „lernen“, „merken“, „vernetzen“, „erinnern“, „wissen“ oder gar „verstehen“, „denken“, „begreifen“, „vorstellen“, „entscheiden“, „wollen“ und „handeln“ zusprechen.

Intelligenz kann ganz allgemein als Problemlösungskompetenz- oder -Fähigkeit verstanden werden. Künstliche neuronale Netze lösen jedoch nur Probleme, die ihnen von außen („heteronom“) gegeben werden, und sie sind auf eine Datengrundlage angewiesen, mit denen man sie ‚füttern‘ muss. Auch sind künstliche neuronale Netze nicht von selbst („autonom“) auf Probleme gerichtet (was man als Intentionalität beschreibt), sondern sie müssen erst von außen auf etwas Bestimmtes ausgerichtet werden. Solange künstliche neuronale Netze nicht von selbst aus beginnen, etwas als ein Problem zu erkennen und dieses entsprechend zu lösen, kann man ihnen deswegen nicht im vollen Sinne die oben genannten epistemischen Prädikate zuschreiben. Man könnte sie ihnen aber vorbehaltlich, gewissermaßen hypothetisch zuschreiben. Künstliche neuronale Netze sind demnach hypothetisch intelligent; sie erkennen nur unter den Bedingungen der heteronomen Vorgaben von Kategorien, Sollwerten und Datengrundlagen bestimmte Dinge. Im Falle der Mustererkennung könnte man ihnen durchaus so etwas wie eine „bestimmende Urteilskraft“ zuschreiben, die Kant als „das Vermögen, das Besondere als enthalten unter dem Allgemeinen zu denken“ bezeichnet hat: „Ist das Allgemeine (die Regel, das Prinzip, das Gesetz) gegeben, so ist die Urteilskraft, welche das Besondere darunter subsumiert […] bestimmend.“ (Kritik der Urteilskraft, AA V, 179) Doch sind künstliche neuronale Netze wie gesagt nur schwer als Subjekte oder als Akteure zu verstehen, da sie eben nicht autonom, sondern nur hypothetisch agieren. Eher noch könnte man ihre Wirkungsweise modular verstehen, also als ein separates Vermögen, welches losgelöst von einem Subjekt existiert und deswegen auf dessen Vorgaben angewiesen ist. Künstliche neuronale Netze sind keine Lebewesen, die eigene individuelle Interessen verfolgen können (oder so etwas wie einen Überlebenstrieb zeigen). Entnimmt man ihnen Neuronen, so wachsen diese nicht nach oder regenerieren sich. Dennoch weisen neuronale Netze eine strukturelle Gemeinsamkeit mit Lebewesen auf, und zwar dadurch, dass sie durch Feedbackschleifen selbstbezüglich sind.

Künstliche neuronale Netze funktionieren und lernen nach dem Prinzip „Versuch und Irrtum“. Die richtige Lösung kann nur indirekt und mittelbar bestimmt werden, was in einem gewissen Kontrast zu klassischen direkten algorithmischen Verfahren steht. Der Lernprozess von KNNs scheint prinzipiell unabschließbar zu sein. Je mehr Daten („Erfahrung“) ihnen zugrunde liegen, umso feiner wird ihre Kategorisierungsleistung ausfallen. Darin ähneln sie ganz abstrakt auch der menschlichen Intelligenz, die empirisch durch Erfahrung sukzessiv zu Ergebnissen gelangt.

Versteht das künstliche neuronale Netz die Bedeutung einer Kategorie, unter die es treffend eine Information subsumiert hat? Dies scheint nicht der Fall zu sein. Dennoch hat das KNN das hochabstrakte Muster einer Kategorie ‚verinnerlicht‘, was man als eine rudimentäre Form von Bedeutung verstehen könnte. Der Prozess dieser ‚Verinnerlichung‘ ist auf einer abstrakten Ebene strukturanalog mit dem menschlichen Prozess des Erlernens von Bedeutung. Denn auch wir erlernen Bedeutungen und Begriffe durch Abstraktion und empirische Annäherung. Ist ein KNN so präzise auf ein Muster eingestellt, wird es Gegenstände in ihren verschiedenen Abschattungen korrekt klassifizieren. Es wird diese Klassifizierung so vornehmen, dass es die jenigen Informationen von jenen unterscheidet, die nicht unter die Kategorie fallen. Indem Muster durch Vergleich und Abgrenzung „empirisch“ gewonnen werden, ähnelt das Verfahren dem Begriffserwerb durch Versuch und Irrtum sowie einer holistischen Bedeutungstheorie, die Bedeutung nur durch Abgrenzung konstituiert. Ein maximal gut trainiertes KNN könnte insofern durchaus die „Bedeutung“ eines Gegenstandes erfassen.