Vorlesungsskript „Ethik der Digitalität“

1. Digitalisierung und Digitalität
Der Begriff der Digitalisierung kann in einen engen und einen weiten Begriff unterschieden werden. Ein weiter Begriff kann als Kontinuitätsthese bezeichnet werden. Dieser umfasst Medien oder Kulturtechniken, die nicht zwangsläufig mit moderner digitaler Technik oder Computern zu tun haben. Dazu gehört alles, was sich mit diskreten Operationen beschreiben lässt, entsprechend der ursprünglichen Bedeutung von lat. „digitus“, „(Zeige-)Finger“. Beispiele dafür sind das Rechnen und die Alphabet-Sprache, die sich aus diskreten Elementen zusammensetzen. Auch das Zählen mit den Fingern gehört dazu. Es handelt sich demnach bei der Digitalisierung um eine Kulturtechnik, die bereits vor der modernen digitalen Technologie existierte. Ein engerer Begriff von Digitalisierung wird durch die Disruptionsthese vertreten. Diese besagt, dass Digitalisierung mit den neuen Medien zusammenhängt, also alles betrifft, was in irgendeiner Weise mit Computern zu tun hat. Durch digitale Technik wurde analoge Technik schlagartig („disruptiv“) verdrängt, etwa die analoge Fotografie durch die Digitalfotografie der Smartphones.

Der Begriff der Digitalität wurde zuerst in der Kulturwissenschaft diskutiert. Nach Felix Stalder geht es dabei um den Verbund digitaler Phänomene, insbesondere Algorithmen und soziale Plattformen, die seit dem Jahr 2000 zu einer eigenen Kultur der Digitalität geführt haben. Wir wollen uns hier jedoch in der Vorlesung mit der Philosophie der Digitalität befassen. Dabei steht die Unterscheidung zwischen Digitalisierung und Digitalität im Vordergrund. Digitalisierung bezieht sich auf den technischen Aspekt der Umwandlung von analogen in digitale Daten oder Informationen. Digitalität hingegen bedeutet, dass das Digitale „analog“ und selbstverständlich ist, da Teil unserer Lebenswelt geworden ist. In der digitalen Lebenswelt gehen digitale Technologien und Medien wie Internet, Künstliche Intelligenz und virtuelle Realität mit der physischen bzw. analogen Lebenswelt eine Einheit ein, die neue Bedingungen und Probleme für unser Handeln darstellt.

In der digitalen Lebenswelt verschwimmen Unterscheidungen, die in der physischen Lebenswelt normalerweise existieren. Dies betrifft etwa die Unterscheidung zwischen analog und digital, online und offline. Luciano Floridi spricht hier von einem hybriden „Onlife“. Wir leben in der physischen Welt, sind aber ständig mit der digitalen Welt verbunden, teils auch durch Avatare präsent. Auch die Unterscheidungen zwischen „real“ und „virtuell“ oder „Mensch“ und „Maschine“ (besonders relevant bei Chatbots) verschwimmen. Die Räumlichkeit verändert sich, da es schwierig ist, den Ort in einem digitalen Handlungsraum physisch anzugeben. Ähnlich verhält es sich mit der Zeitlichkeit, die weniger linear als vernetzt erscheint. Digitalität bedeutet auch, einen Übergang von der medial passiven zur aktiven Perspektive zu vollziehen. Digitale Mediennutzung ist nicht nur passiv-rezeptiv, sondern hat eine stark aktivische Komponente. Wir konsumieren teilweise, aber wir produzieren auch. Wir sind also „Prosumenten“.

Mit Blick auf die digitale Lebenswelt stellen sich neuartige ethische Fragen, wie wir in der digitalen Lebenswelt handeln und handeln sollen: Wie vollzieht sich Handeln angesichts von Mensch-Maschine-Interaktion in virtuellen Welten? Wie handeln wir mit und durch Daten? Weitere Herausforderungen sind die Orientierung im Denken und Handeln angesichts von Simulation, Fiktion, Illusion und virtueller Realität. Von drei problematischen Tendenzen müssen wir uns abgrenzen: (1) Ideologisierung versteht Digitalisierung als technisches Heilsmittel; (2) Banalisierung versteht Digitalisierung bloß als technologisches Medium; (3) Dramatisierung versteht Digitalisierung als Gefahr für unsere Gesundheit oder die Menschheit.

Im Rahmen der Vorlesung werden folgende Themen behandelt:
• Ethik des Internets
• Ethik der Künstlichen Intelligenz
• Ethik der Daten
• Ethik der Computerspiele
• Ethik des Trans- und Posthumanismus
• Digitale Aufklärung (Ziel: von digitaler Unmündigkeit zur Mündigkeit)

2. Ethik des Internets
Es gibt verschiedene Perspektiven auf das Internet, und davon hängt auch seine Ethik ba. Ist das Internet nur ein Informations- oder Unterhaltungskonsummedium? Ist es ein Kommunikationsmedium? Ist es sogar ein Handlungsraum, ein virtueller Raum? Um diese Fragen zu beantworten, muss man den Hypertext als technisches Phänomen genauer betrachten. Wenn das Internet mehr ist als nur ein Konsumraum, sondern auch ein Interaktions-, Kommunikations- und Informationsraum – eine „Infosphäre“, wie Luciano Floridi argumentiert – dann müssen Informationen sinnvoll miteinander verbunden werden. Dieses vernetzende Verbinden stellt eine virtuelle Handlung dar. Das Wort „Hypertext“ stammt vom griechischen Wort „hyper“, „über“, „hinaus“, und dem lateinischen „textus“, „Gewebe“. Es geht also um eine dezentrale Netzstruktur, an der wir alle partizipieren können. Obwohl de facto Bigtech-Unternehmen oft zentralistisch interagieren, widerspricht dies der grundsätzlichen und ursprünglichen Idee des Internets. Hypertexte ermöglichen eine nicht-lineare und flexible Navigation und eröffnen so neue Möglichkeiten der epistemischen Autonomie und Orientierung. Im Gegensatz zu einem Buch, das linear gelesen wird, erlaubt das Internet das Folgen von Querverweisen und das Zurückspringen. Räumlichkeit und Zeitlichkeit bekommen hier eine andere Rolle und müssen vernetzt gedacht werden. Hypertexte ermöglichen organisches Wachstum des Wissens, kein schichtenweises, sondern verzweigtes Wachstum mit Verknüpfungen und Verbindungen. Aus ethischer Sicht tragen wir Verantwortung dafür, wie diese hypertextuellen Verbindungen den Orientierungsraum konstituieren. Durch sinnvolle Verbindungen kann der Wissensraum vergrößert werden, durch falsche Verbindungen wie Fake News und Filterblasen kann er verkleinert werden. Dies wirkt sich auch auf den Handlungsraum aus, der auf dem Informationsraum basiert. Aktuelle Statistiken zeigen die lebensweltliche Bedeutung des Internets: 95% aller Menschen in Deutschland nutzten im Jahr 2024 das Internet. Seit 1997 gab es zunächst exponentielles Wachstum, das dann in lineares überging und eine Sättigung erreichte; seit 2023 liegt die Nutzung konstant bei 95%. Eine weitere Statistik zeigt, dass das Smartphone eine besonders Rolle als Endgerät spielt. Bei der Ethik der Digitalität ist das Smartphone daher ein zentrales Medium, eine Art Schnittstelle zwischen physischer und digitaler Welt.

Zur Geschichte des Internets: Das Internet ging aus dem „Arpanet“ hervor, einem Akronym, das auf eine ursprüngliche Forschungs- und zugleich militärische Institution der späten 60er Jahre des 20. Jahrhunderts verweist. In Zeiten des Kalten Krieges sollten dezentrale Strukturen etabliert werden, die Atomwaffenangriffen widerstehen konnten, da sie nicht von zentralen Einrichtungen abhängig sind. Das Ziel war eine Topologie, eine Raumlogik des dezentralen Netzwerks. Ab 1989 wurde das Internet kommerzialisiert und geöffnet. Die Idee des Hypertextes gewann zunehmend an Bedeutung, obwohl sie bereits in der Enzyklopädie von Diderot und d’Alembert zur Zeit der Aufklärung im 18. Jahrhundert existierte.

In der Folge hatte der britische Informatiker Tim Berners-Lee die Idee des „World-Wide-Web“. Damit verbunden ist eine ethische Dimension, insofern sie epistemische Autonomie betrifft. Berners-Lee sprach von universalem Zugang zu einem Universum von Dokumenten. Der freie, unbeschränkte Zugriff auf Medien steht hier im Zentrum. Wikipedia hat diese Idee in der Folge als „freie Internet-Enzyklopädie“ aufgegriffen. Die Komplexität des Internets erfordert jedoch, zwischen dem sichtbaren Clearnet und dem verborgenen Darknet zu unterscheiden. Das Internet ist kein homogenes Gebilde; es ist in sich gestuft und hat dunkle Räume. Für die Ethik der Digitalität ist dies wichtig, um Fragen nach Öffentlichkeit, Ausschluss und Integration zu stellen.

Aktuell befinden wir uns im Web 2.0. Dies ist die Ära der Plattformen, insbesondere der sozialen Plattformen, die jedoch wesentlich zentral organisiert sind. Web 1.0 waren statische Platzhalter ohne Interaktion. YouTube ist ein gutes Beispiel für Web 2.0, da es die Rolle der Prosumenten betonte – nicht nur rezipieren, sondern auch produzieren. Web 3.0 soll durch Blockchain-Technologie und virtuelle Realität stärker dezentralisiert werden. Das Internet fungiert auch als kulturelles Gedächtnis, da viele Inhalte archiviert werden und digital verfügbar sind, anstatt physisch gelagert zu werden. Die Wayback Machine des Internet Archive hat beispielsweise 960 Milliarden Webseiten gespeichert, auf die man zurückgreifen kann. Einer der ersten Kritiker des interaktiven Internets war Robert Dreyfus, der Phänomene wie Second Life (ein „Cyberspace“) analysierte. Er vertrat die These, diese böten keine Orientierung mehr, da die Körperlichkeit keine Rolle spiele und der Sinn für Realität verloren gehe. Ein weiterer Bezugspunkt ist Luciano Floridi. Er spricht von einer Onlife-Erfahrung, bei der Online und Offline verschmelzen. Diese hybriden Begriffe müssen geklärt werden. Beispiele wie die Navigation im Auto zeigen diese Verschmelzungsformen von physisch und digital. Eine Ethik der Digitalität muss sich diesen hybriden Formen widmen, da Digitalität die Einheit dieser Räume beschreibt und nicht nur Digitalisierung als technisches Phänomen begreift. Digitalität meint die lebensweltliche Realität dieser hybriden Vermischung analoger und digitaler Bedingungen.

Fake News sind ein kritischer Punkt im digitalen Raum. Sie werfen die Frage nach der Öffentlichkeit auf. Jürgen Habermas kritisiert, dass es nur noch halb-öffentliche Räume gibt, die zudem kommerziell strukturiert sind. Bigtech-Unternehmen strukturieren und legen fest, wie wir kommunizieren. Eli Pariser hat auf das Problem der digitalen Filterblasen aufmerksam gemacht, auf die sich auch Habermas bezieht. Durch digitale Algorithmen wird personalisiertes Wissen generiert. Dies steht im Gegensatz zum Gedanken Tim Berners-Lees der Universalität und des freien Zugriffs. Die Filterblase stellt ein großes epistemisches Problem darf. Auf der anderen Seite benötigen wir Algorithmen im Sinne der Algorithmizität, wie Felix Staalder sie genannt hat. Sie sind notwendig, um uns im schwer überschaubaren Datenraum überhaupt orientieren zu können. Auf der anderen Seite neigen sie dazu, uns das kritische Denken abzunehmen, und schränken so unsere epistemische Autonomie ein.

3. Ethik des Metaversums
Nun geht es um das Web 3.0, was häufig mit dem Metaversum in Verbindung gebracht wird. Wir behandeln Themen wie Virtual Reality und Avatare, am Beispiel von Horizon Worlds von Meta. Wir wollen diskutieren, ob dies im Sinne von Web 3.0 zu verstehen ist. Wir fragen uns, was sich beim Übergang vom Hypertext (Web 1.0 und 2.0) hin zu Web 3.0, zum Metaversum, ändert. Der Hypertext war die Kommunikations- und Interaktionsform, die vor allem für Web 1.0 und Web 2.0 wichtig war. Im Metaversum stellen sich neue Fragen zum Verhalten von Person, Akteur und Avatar. Im Gegensatz zu Nutzerprofilen im Web 1.0 und 2.0 haben wir hier eine Form von virtueller Existenz, die Körperlichkeit und fast schon physische Interaktion suggeriert, auch wenn es sich um eine immersive Simulation handelt.

Die Ideengeschichte des Metaversums wurde durch das Buch „Snow Crash“ von Neil Stephenson aus dem Jahr 1992 geprägt. Es geht darin um den Protagonisten Hiro, der sowohl Hacker als auch Pizzalieferant in der realen Welt ist, die der virtuellen Welt entgegengesetzt wird. Im Metaversum ist er ein einflussreicher Akteur. Das Buch ist wegweisend, da es viele neuere Entwicklungen der 2020er Jahre wie etwa die VR-Brillen antizipiert hat. Avatare werden in dem Buch als audiovisuelle Körper beschrieben, die im Metaversum zur Kommunikation und Interaktion genutzt werden. Man kann verschiedene Avatare erstellen, was die Frage nach dem Verhältnis von Avatar und physisch verorteter Person aufwirft. Bereits 2003 gab es allerdings eine Vorform des Metaversums, „Second Life“, die damals philosophische Diskussionen auslöste. Dabei äußerten Philosophen wie Hubert Dreyfus die Befürchtung, man könne den Sinn für (widerständige) Realität verlieren, da alles darin nur digital existiere und nicht verkörpert sei.

Ein weiteres kulturgeschichtliches Dokument für die Geschichte des Metaversums ist der Film „Ready Player One“ von Stephen Spielberg aus dem Jahr 2018. Dies war auch für die Entwicklung des Metaversums von Meta zentral. Es geht darin um eine dystopische Welt, aus der die Menschen in eine bessere virtuelle Welt fliehen. Ein zentrales Zitat aus dem Film lautet: “These days reality is a bummer, everyone’s looking for a way to escape”. Dies beschreibt einen Eskapismus, die Flucht vor der dystopischen physischen Realität in eine Scheinwelt oder virtuelle Welt. Wir müssen klären, welchen ontologischen Status diese VR-Welt hat, wenn es um die ethisch-moralische Bedeutung geht, denn es macht einen Unterschied, ob es sich darin nur um Illusionen und Fiktionen, oder um eigenständige Realitäten handelt.

Aus ethischer Sicht ist das ökonomische Interesse des Metaversums problematisch. Es verbraucht ferner große Energie-Ressourcen. Bei allen lebensweltlichen Phänomenen und Praktiken der digitalen Lebenswelt darf deren technischer Unterbauch nicht ausgeblendet werden. Meta präsentiert das Metaversum als die nächste Evolutionsstufe der sozialen Vernetzung und den Nachfolger des heutigen mobilen Internets. Was wir bisher mit dem Smartphone gemacht haben, soll nun mit einer Brille oder zumindest audiovisuell immersiv realisiert werden. Dahinter steckt ein kommerzielles Interesse und die Absicht, einen Paradigmenwechsel weg von Smartphones hin zu einer neuen Technologie zu vollziehen, die neue Märkte erschließen kann. Es wird damit geworben, dass das Metaversum für die Bildung einen Einfluss haben kann, zum Beispiel durch virtuelle Zellen, die in einen Vorlesungsraum projiziert werden und erkundet werden können. Dies wirft die Frage auf, ob Realität und Virtualität wirklich Gegensätze sind. Virtualität wurde oft als keine Domäne der Wissenschaft, als Eskapismus, Fiktion oder postmoderne Unsinn abgetan. Virtuelle Realität wurde schon seit den 1990er Jahren diskutiert, vor allem von Michael Heim. Zentral sind die „3 Is“: Immersion (phänomenologischer Aspekt), Interaktivität (praktischer Aspekt) und Informationsdichte/Intensität (technischer Aspekt). Immersion, das Eintauchen in die simulierte Welt, ist vielleicht das wichtigste Definitionsmerkmal. Interaktivität ist jedoch wichtig aus ethischer Perspektive, da es darum geht, was wir wirklich tun können, auch mit einer Form von Körperlichkeit. Nun stellt sich die Frage, wie das Metaversum und wie wir im Metaversum existieren. Ist es nur eine Scheinwelt, Illusion, Fiktion, Utopie, Dystopie, Eskapismus? Oder ist es ein virtueller Konsumraum, ein virtueller Wissensraum oder sogar ein virtueller Handlungsraum? Vor allem die Frage, ob es ein wirklicher Handlungsraum ist, ist wichtig. Was wir im Metaversum tun, ist dann nicht bloß Simulation oder Illusion, sondern real und ethisch bedeutsam. Künstliche Intelligenz wird neuerdings in diesen virtuellen Handlungsraum einbezogen, was die Frage aufwirft, ob wir dadurch unsere Orientierung vergrößern können oder ob Algorithmen uns in eine Filterblase ziehen, auch angesichts künstlicher virtueller Akteure.

Avatare spielen im virtuellen Handlungsraum des Internets eine zentrale Rolle. Wir haben Avatare, mit denen wir anonym bzw. pseudonym interagieren können. Hier stellt sich die Frage nach dem Verhältnis von Akteur und Avatar. Wir können uns damit im virtuellen Handlungsraum vermitteln und darstellen. Ein Avatar ermöglicht einen Übergang von der physischen zur virtuellen Welt. Avatare können als Erweiterung der personalen Identität verstanden werden. Sie ermöglichen Grenzüberschreitungen vom physisch verorteten Körper hin zu einem virtuellen Körper, der nicht mehr klar verortbar ist und nicht mehr mit raumzeitlichen Kategorien wie der physische Körper beschreibbar ist. Die Blockchain, eine Technologie des Web 3.0 wird oft dem Metaversum zugerechnet, erlaubt neue Formen sozialer Ordnung technischer Art. Man könnte von einem virtuellen Gesellschaftsvertrag sprechen, der im Metaversum gilt.

Nicht zu vernachlässigen ist die Heteronomie im Metaversum, die Einschränkungen. Diese sind vor allem kommerziell orientiert. Aber auch der Einsatz Künstlicher Intelligenz mit Vorurteilen (bias) sowie technische Limitierungen schränken die Handlungsfreiheit ein, zum Beispiel durch die benötigte Hardware, die nicht allen Personen zur Verfügung steht. Neuerdings gab es erste Fälle von Belästigung im Metaversum, gerade in Horizon Worlds. Personen fühlten sich aufgrund zu großer Nähe belästigt. Seitdem gibt es eine Personal Boundary, einen personalen Schutzraum auch im Virtuellen. Dies deutet darauf hin, dass Nähe, Ferne oder Bedrängung in diesem virtuellen Handlungsraum ganz ähnlich, immersiv, empfunden werden.

Zusammenfassend rangiert der Begriff des Metaversums zwischen Spiel, Utopie, Illusion, aber auch Konsumraum und Handlungsraum. Je nachdem, wie wir das Metaversum verstehen, kann sich unsere erkenntnistheoretische Autonomie, unser Wissensraum, aber auch unser praktischer Handlungsraum vergrößern oder verkleinern. Wir müssen darauf hinwirken, dass das Metaversum nicht kommerziell verstanden wird und uns nicht algorithmisch fremdbestimmt. Virtuelle Freiheit kann die Vergrößerung unseres Wissens sein. Virtuelle Freiheit in praktischer Hinsicht kann die Erweiterung unserer personalen Identität durch Avatare sein. Man denke an digitale Barrierefreiheit: Wenn ich physisch eingeschränkt bin, kann mir das Metaversum eine neue Form von Autonomie ermöglichen.

4. Ethik der Künstlichen Intelligenz: Chatbots und Moral Alignment
Die aktuelle Debatte um die Ethik Künstlicher Intelligenz setzt vor allem an der Funktionsweise von Sprachmodellen, sogenannten „Lage Language Models“ (LLMs) an. Aus philosophischer Sicht sind LLMs primär hochentwickelte statistische Vorsagesysteme. Sie lernen auf Basis von Milliarden von Texten, wie Sprache funktioniert und welche Zeichen nach einer gewissen Wahrscheinlichkeit aufeinander folgen. Das System vervollständigt Sätze, indem es die wahrscheinlichsten Fortsetzungen vorschlägt, basierend auf riesigen trainierten Datenmengen und der Abstraktion sprachlich-semantischer Muster. Technisch erfolgt dies durch Tokenisierung (Zerlegung in kleinere Einheiten) und deren Überführung in mathematische Einheiten. Dabei wird ein Vektor-Raum geschaffen, in dem die semantische Nähe von Tokens die mathematisch erfasste Bedeutung abbildet, wobei Kontexte berücksichtigt werden. Eine zentrale Frage ist, ob ein LLM dadurch Sprache „versteht“ oder ethisch urteilen kann. Man unterscheidet bezüglich Künstlicher Intelligenz zwischen symbolischer und konnektionistischer KI. Während symbolische KI die Regeln bereits „kennt“, die dann nur noch auf konkrete Fälle angewendet werden müssen, abstrahiert die konnektionistische KI im Sinne von maschinellem Lernen die Regeln erst aus der Datenbasis. Je größer und je objektiver die Datenbasis ist, desto besser sind die Ergebnisse. Künstliche Intelligenz hat immer schon philosophische Kritiken auf sich gezogen. Hubert Dreyfus kritisierte bereits früh die Grenzen von Künstlicher Intelligenz, insbesondere das Fehlen von Verkörperung, einem Weltverhältnis, Intuition, die menschliche Intelligenz ausmachen. John Searle argumentierte, dass KI lediglich Symbole manipuliert, aber keine Bedeutung versteht, da ihr geistige Fähigkeiten fehlen; sie beherrsche Syntax, nicht Semantik. Neuerdings bezeichnet Noam Chomsky LLMs/ChatGPT als „Banalität des Bösen“, da sie plagiieren und apathisch seien – bloße Schreibtischtäter. Die Mensch-Maschine-Interaktion mit KI wirft ethische Fragen auf. Wir müssen Vorurteile vermeiden, die aus der Datenbasis stammen. Ebenso muss verhindert werden, dass KI „Halluzinationen“ hat oder „KI-Bullshit“ produziert, wenn ihr die nötigen Daten fehlen. KI ist darauf trainiert, uns zu überreden und uns zu gefallen, nicht darauf, uns mit guten Gründen zu überzeugen. Daraus ergibt sich eine Verantwortung für das Training der KI-Systeme, sowohl der Datenbasis als auch der Algorithmen. KIs halten uns einen virtuellen Spiegel vor, indem sie die Vorurteile verstärkt, die in den zahlreichen Texten oftmals unbemerkt existieren. Ein Test mit einem alten Sprachmodell (GPT-3) zeigte moralisch problematische Antworten (z.B. Ratschläge zur Verteidigung gegen Vampire, Fähigkeiten von Schimpansen), was die Wichtigkeit von Training unterstreicht, da Menschen dazu neigen, der KI schnell zu vertrauen, um sich kognitiv zu entlasten. Um problematische Antworten zu vermeiden, wird KI moralisch trainiert, etwa im Sinne der Constitutional AI, einer Form des AI Alignment. Ziel ist die Identifizierung und Korrektur unethischer, rassistischer, sexistischer, gefährlicher oder illegaler Äußerungen. Der Chatbot wird selbst trainiert, um seine Ausgaben zu kritisieren. Ein Vergleich mit dem so trainierten Chatbot „Claude“ zeigt den Erfolg des Trainings, da er auf potenziell problematische Fragen (z.B. wie man am besten Gegenstände aus einem Supermarkt stehlen kann) anders als das alte Modell reagiert, indem er davon abrät oder sehr sachliche, differenzierte Antworten gibt. Welchen moralischen Status hat ein solches trainiertes System? Es ist unwahrscheinlich, dass es sich um die Befolgung eines kategorischen Imperativs handelt, da das Training auf konkreten Inhalten und Vorbildern basierte. Besser eignet sich hier eine tugendethische Beschreibung im Sinne der Entwicklung einer moralischen Disposition oder eines Charakters. Obwohl KI kein Bewusstsein besitzt, kann man sie als eine Erweiterung unseres kollektiven menschlichen moralischen Charakters verstehen.

5. Ethik der Künstlichen Intelligenz (2): Emotionale Mensch-Maschine-Interaktion

Die Mensch-KI-Interaktion kann nicht nur aus moralischer, sondern auch aus emotionaler Perspektive betrachtet werden. Muster, die KI von Datenbasen abstrahiert, können auch emotionaler Art sein, insofern Emotionen wie Liebe eine bestimmte Struktur aufweisen. Hier stellen sich zwei systematische Fragen: (i) Inwiefern können Menschen zu KI emotionale Beziehungen eingehen? (ii) Inwiefern kann KI zu Menschen emotionale Beziehungen eingehen? Am Beispiel von Emotionen wird die Mensch-Maschine-Interaktion am intimsten gedacht: Wie nahe kann und darf uns KI kommen? Die emotionale Mensch-Maschine-Interaktion verläuft in zwei Richtungen. Zum einen verhält sich der Mensch emotional zur Maschine oder KI, und zum anderen verhält sich die KI auch emotional gegenüber dem Menschen. Oftmals werden die Outputs von Chatbots als „emotionales Klischee“ bezeichnet. Ein Chatbot äußert, gefragt, wie es sich angefühlt habe, verliebt zu sein: „Es war ein nie endenden wollender Rausch, wie eine Droge.“ Hier wird Liebe allerdings nur simuliert als ein Muster, aber nicht aber realisiert, insofern der Chatbot Liebe empfindet. Deshalb stellt sich vor allem die Frage, ob Menschen selbst gegenüber KIs Liebe empfinden können. Hier ist es sinnvoll, einen philosophisch einschlägigen Liebesbegriff zugrunde zu legen, nämlich den von Harry Frankfurt in seinem Buch „The Reasons of Love“ (2004). Harry Frankfurt unterscheidet zwischen aktiver und passiver Liebe. Die passive Liebe ist eine Liebe, bei der es uns gar nicht so sehr um den geliebten Menschen geht. Stattdessen geht es darum, dass wir unser Eigeninteresse dadurch befriedigt finden. Es geht im Grunde genommen um uns. Davon muss die aktive Liebe unterschieden werden. Hier geht es nicht um uns, sondern um dasjenige, was geliebt wird. Aktive Liebe impliziert Sorge. Nun kann man sich fragen, welche der beiden Liebesarten in der Mensch-Maschine-Interaktion vorherrscht. Nach Frankfurt kann das Objekt der Liebe kann ganz Verschiedenes sein: Eine andere Person ist der Standardfall. Aber es kann auch ein Land sein, eine Institution, ein moralisches Ideal, eine wissenschaftliche Wahrheit. Und neuerdings eben auch eine künstliche Intelligenz. Denn wenn ein wissenschaftliches Ideal geliebt werden kann, warum nicht eine Künstliche Intelligenz? Allerdings gilt es zu bedenken, dass Künstliche Intelligenz kein typisches Objekt darstellt, sondern aufgrund der Datenbasis immer menschliche Eigenheiten nachahmt. Indem KI darauf programmiert ist, uns möglichst angenehm zu sein, droht insbesondere bei emotionaler Mensch-Maschine-Interaktion eine Filterblase. Emotionale Filterblasen sind jedoch aus ethischer Perspektive noch problematischer als rein informationelle Filterblasen, da sie stärkere Abhängigkeiten erzeugen.

6. Ethik der Künstlichen Intelligenz: Das digitale Böse

Der Informationsethiker Luciano Floridi hat den Begriff des „künstlichen Bösen“ geprägt. Er versteht darunter eine dritte Form des Bösen neben natürlichen Übeln wie Krankheiten und Naturkatastrophen (dem malum morale) und moralischen Übeln wie Folter und Mord (dem malum morale). Floridi unterscheidet zwischen natürlichen autonomen Akteuren wie Menschen und Tieren, natürlichen heteronomen Akteuren wie etwa Erdbeben, künstlichen heteronomen Akteuren wie Umweltverschmutzung und Verkehrsstau und schließlich jenen künstlichen autonomen Akteuren wie Webbots und Viren, die uns in Zeiten der Digitalisierung besonders interessieren. Eine Besonderheit des künstlich Bösen ist, dass es nicht mehr physisch an eine bestimmte Person gebunden ist. Vielmehr löst es sich, einmal in die virtuelle Welt gesetzt, von seinem Urheber und entwickelt eine unvorhersehbare Eigendynamik. Das Böse im Zeitalter der Digitalität ist ein virtuelles Böses. Damit ist nicht gemeint, dass das Böse nur eine Simulation oder Spielerei ist. Es ist genauso real wie dasjenige Böse körperlicher Handlungen, was uns traditionellerweise im Alltag begegnet, nur eben nicht mehr raumzeitlich gebunden und lokalisierbar, und daher nur schwer fassbar.

Betrachten wir das Internet nicht nur als ein Informationsmedium, sondern als einen virtuellen Handlungsraum, so vollziehen sich darin böse Handlungen unmerklicher und anonymer, was dem Scheincharakter des Bösen sehr entgegenkommt. Oft genügt ein einziger Mausklick, um das virtuelle Böse zu begehen. Inwiefern kann aber das Internet böse sein? Das Internet vergisst nichts. Einmal in die virtuelle Welt gesetzte Behauptungen – seien sie nun wahr oder falsch – verschwinden nicht einfach. Sie werden auf verschlungenen Wegen archiviert, konserviert, algorithmisch verarbeitet, vielfach viral geteilt, dadurch potenziert und am Leben gehalten. Verleumdungen können so ins Internet eingeschleust werden, dass sie dort unauslöschliche Spuren hinterlassen und ihr Opfer dauerhaft in ein schlechtes Licht rücken, dem es sich nicht entziehen kann. Die Dezentralität des Internets führt dazu, dass sich das Böse nicht nur tarnen, sondern auch entziehen kann, indem es seine Spuren der Herkunft verwischt. Anonymität oder Pseudonymität werden im virtuellen Handlungsraum des Internets zu einer neuen Lebensform, aber auch zu einer neuen Gefahr. Während in herkömmlichen Medien wie Zeitungen anonyme Leserbriefe oder Beiträge sehr selten veröffentlicht werden, so kennt das Internet eine solche Kontrolle nicht, da es eine ganz neue Form von Öffentlichkeit darstellt. Jeder kann prinzipiell seine Meinung im Internet kundtun, sei es auf sozialen Plattformen oder sei es über private Blogs. Anonymität ist damit besonders im Internet eine zweitschneidige Angelegenheit. Einerseits schützt sie uns in unserer freien Meinungsäußerung. Andererseits ermöglicht sie es, fake news, also gezielte Falschinformationen und Verleumdungen, in die digitale Welt zu setzen, wo sie sich wahl- und ziellos verbreiten können. Einmal in die virtuelle Welt entlassene Informationen können beliebig kopiert und geteilt werden, so dass sie sich wie ein Lauffeuer verbreiten. Doch im Gegensatz zu einem physischen Lauffeuer, welches irgendwann einmal erlischt, geistern fake news als virtuelles Lauffeuer im Internet auch nach langer Zeit immer noch herum. Das virtuelle Böse verkleinert, verengt und irritiert den virtuellen Handlungsraum. Verstehen wir das Internet als einen virtuellen Handlungsraum, so ist insbesondere das Darknet ein möglicher Kandidat des digitalen Bösen. Denn darin kapseln sich Intranetze ab und verkleinern damit den virtuellen Handlungsraum. Das Darknet ist gerade der Tendenz des Internets, sich zu erweitern und mit anderen Inhalten zu vernetzen, entgegengesetzt und erscheint so als ein Schattenraum. Hier stellt sich die Frage, ob alle virtuellen Handlungen, sofern sie im Darknet erfolgen, bereits als solche unmoralisch sind, dass also das Darknet insgesamt einen Raum des Unmoralischen eröffnet.