Vorlesungsskript „Ethik der Digitalität“

1. Digitalisierung und Digitalität
Der Begriff der Digitalisierung kann in einen engen und einen weiten Begriff unterschieden werden. Ein weiter Begriff kann als Kontinuitätsthese bezeichnet werden. Dieser umfasst Medien oder Kulturtechniken, die nicht zwangsläufig mit moderner digitaler Technik oder Computern zu tun haben. Dazu gehört alles, was sich mit diskreten Operationen beschreiben lässt, entsprechend der ursprünglichen Bedeutung von lat. „digitus“, „(Zeige-)Finger“. Beispiele dafür sind das Rechnen und die Alphabet-Sprache, die sich aus diskreten Elementen zusammensetzen. Auch das Zählen mit den Fingern gehört dazu. Es handelt sich demnach bei der Digitalisierung um eine Kulturtechnik, die bereits vor der modernen digitalen Technologie existierte. Ein engerer Begriff von Digitalisierung wird durch die Disruptionsthese vertreten. Diese besagt, dass Digitalisierung mit den neuen Medien zusammenhängt, also alles betrifft, was in irgendeiner Weise mit Computern zu tun hat. Durch digitale Technik wurde analoge Technik schlagartig („disruptiv“) verdrängt, etwa die analoge Fotografie durch die Digitalfotografie der Smartphones.

Der Begriff der Digitalität wurde zuerst in der Kulturwissenschaft diskutiert. Nach Felix Stalder geht es dabei um den Verbund digitaler Phänomene, insbesondere Algorithmen und soziale Plattformen, die seit dem Jahr 2000 zu einer eigenen Kultur der Digitalität geführt haben. Wir wollen uns hier jedoch in der Vorlesung mit der Philosophie der Digitalität befassen. Dabei steht die Unterscheidung zwischen Digitalisierung und Digitalität im Vordergrund. Digitalisierung bezieht sich auf den technischen Aspekt der Umwandlung von analogen in digitale Daten oder Informationen. Digitalität hingegen bedeutet, dass das Digitale „analog“ und selbstverständlich ist, da Teil unserer Lebenswelt geworden ist. In der digitalen Lebenswelt gehen digitale Technologien und Medien wie Internet, Künstliche Intelligenz und virtuelle Realität mit der physischen bzw. analogen Lebenswelt eine Einheit ein, die neue Bedingungen und Probleme für unser Handeln darstellt.

In der digitalen Lebenswelt verschwimmen Unterscheidungen, die in der physischen Lebenswelt normalerweise existieren. Dies betrifft etwa die Unterscheidung zwischen analog und digital, online und offline. Luciano Floridi spricht hier von einem hybriden „Onlife“. Wir leben in der physischen Welt, sind aber ständig mit der digitalen Welt verbunden, teils auch durch Avatare präsent. Auch die Unterscheidungen zwischen „real“ und „virtuell“ oder „Mensch“ und „Maschine“ (besonders relevant bei Chatbots) verschwimmen. Die Räumlichkeit verändert sich, da es schwierig ist, den Ort in einem digitalen Handlungsraum physisch anzugeben. Ähnlich verhält es sich mit der Zeitlichkeit, die weniger linear als vernetzt erscheint. Digitalität bedeutet auch, einen Übergang von der medial passiven zur aktiven Perspektive zu vollziehen. Digitale Mediennutzung ist nicht nur passiv-rezeptiv, sondern hat eine stark aktivische Komponente. Wir konsumieren teilweise, aber wir produzieren auch. Wir sind also „Prosumenten“.

Mit Blick auf die digitale Lebenswelt stellen sich neuartige ethische Fragen, wie wir in der digitalen Lebenswelt handeln und handeln sollen: Wie vollzieht sich Handeln angesichts von Mensch-Maschine-Interaktion in virtuellen Welten? Wie handeln wir mit und durch Daten? Weitere Herausforderungen sind die Orientierung im Denken und Handeln angesichts von Simulation, Fiktion, Illusion und virtueller Realität. Von drei problematischen Tendenzen müssen wir uns abgrenzen: (1) Ideologisierung versteht Digitalisierung als technisches Heilsmittel; (2) Banalisierung versteht Digitalisierung bloß als technologisches Medium; (3) Dramatisierung versteht Digitalisierung als Gefahr für unsere Gesundheit oder die Menschheit.

Im Rahmen der Vorlesung werden folgende Themen behandelt:
• Ethik des Internets
• Ethik der Künstlichen Intelligenz
• Ethik der Daten
• Ethik der Computerspiele
• Ethik des Trans- und Posthumanismus
• Digitale Aufklärung (Ziel: von digitaler Unmündigkeit zur Mündigkeit)

2. Ethik des Internets
Es gibt verschiedene Perspektiven auf das Internet, und davon hängt auch seine Ethik ba. Ist das Internet nur ein Informations- oder Unterhaltungskonsummedium? Ist es ein Kommunikationsmedium? Ist es sogar ein Handlungsraum, ein virtueller Raum? Um diese Fragen zu beantworten, muss man den Hypertext als technisches Phänomen genauer betrachten. Wenn das Internet mehr ist als nur ein Konsumraum, sondern auch ein Interaktions-, Kommunikations- und Informationsraum – eine „Infosphäre“, wie Luciano Floridi argumentiert – dann müssen Informationen sinnvoll miteinander verbunden werden. Dieses vernetzende Verbinden stellt eine virtuelle Handlung dar. Das Wort „Hypertext“ stammt vom griechischen Wort „hyper“, „über“, „hinaus“, und dem lateinischen „textus“, „Gewebe“. Es geht also um eine dezentrale Netzstruktur, an der wir alle partizipieren können. Obwohl de facto Bigtech-Unternehmen oft zentralistisch interagieren, widerspricht dies der grundsätzlichen und ursprünglichen Idee des Internets. Hypertexte ermöglichen eine nicht-lineare und flexible Navigation und eröffnen so neue Möglichkeiten der epistemischen Autonomie und Orientierung. Im Gegensatz zu einem Buch, das linear gelesen wird, erlaubt das Internet das Folgen von Querverweisen und das Zurückspringen. Räumlichkeit und Zeitlichkeit bekommen hier eine andere Rolle und müssen vernetzt gedacht werden. Hypertexte ermöglichen organisches Wachstum des Wissens, kein schichtenweises, sondern verzweigtes Wachstum mit Verknüpfungen und Verbindungen. Aus ethischer Sicht tragen wir Verantwortung dafür, wie diese hypertextuellen Verbindungen den Orientierungsraum konstituieren. Durch sinnvolle Verbindungen kann der Wissensraum vergrößert werden, durch falsche Verbindungen wie Fake News und Filterblasen kann er verkleinert werden. Dies wirkt sich auch auf den Handlungsraum aus, der auf dem Informationsraum basiert. Aktuelle Statistiken zeigen die lebensweltliche Bedeutung des Internets: 95% aller Menschen in Deutschland nutzten im Jahr 2024 das Internet. Seit 1997 gab es zunächst exponentielles Wachstum, das dann in lineares überging und eine Sättigung erreichte; seit 2023 liegt die Nutzung konstant bei 95%. Eine weitere Statistik zeigt, dass das Smartphone eine besonders Rolle als Endgerät spielt. Bei der Ethik der Digitalität ist das Smartphone daher ein zentrales Medium, eine Art Schnittstelle zwischen physischer und digitaler Welt.

Zur Geschichte des Internets: Das Internet ging aus dem „Arpanet“ hervor, einem Akronym, das auf eine ursprüngliche Forschungs- und zugleich militärische Institution der späten 60er Jahre des 20. Jahrhunderts verweist. In Zeiten des Kalten Krieges sollten dezentrale Strukturen etabliert werden, die Atomwaffenangriffen widerstehen konnten, da sie nicht von zentralen Einrichtungen abhängig sind. Das Ziel war eine Topologie, eine Raumlogik des dezentralen Netzwerks. Ab 1989 wurde das Internet kommerzialisiert und geöffnet. Die Idee des Hypertextes gewann zunehmend an Bedeutung, obwohl sie bereits in der Enzyklopädie von Diderot und d’Alembert zur Zeit der Aufklärung im 18. Jahrhundert existierte.

In der Folge hatte der britische Informatiker Tim Berners-Lee die Idee des „World-Wide-Web“. Damit verbunden ist eine ethische Dimension, insofern sie epistemische Autonomie betrifft. Berners-Lee sprach von universalem Zugang zu einem Universum von Dokumenten. Der freie, unbeschränkte Zugriff auf Medien steht hier im Zentrum. Wikipedia hat diese Idee in der Folge als „freie Internet-Enzyklopädie“ aufgegriffen. Die Komplexität des Internets erfordert jedoch, zwischen dem sichtbaren Clearnet und dem verborgenen Darknet zu unterscheiden. Das Internet ist kein homogenes Gebilde; es ist in sich gestuft und hat dunkle Räume. Für die Ethik der Digitalität ist dies wichtig, um Fragen nach Öffentlichkeit, Ausschluss und Integration zu stellen.

Aktuell befinden wir uns im Web 2.0. Dies ist die Ära der Plattformen, insbesondere der sozialen Plattformen, die jedoch wesentlich zentral organisiert sind. Web 1.0 waren statische Platzhalter ohne Interaktion. YouTube ist ein gutes Beispiel für Web 2.0, da es die Rolle der Prosumenten betonte – nicht nur rezipieren, sondern auch produzieren. Web 3.0 soll durch Blockchain-Technologie und virtuelle Realität stärker dezentralisiert werden. Das Internet fungiert auch als kulturelles Gedächtnis, da viele Inhalte archiviert werden und digital verfügbar sind, anstatt physisch gelagert zu werden. Die Wayback Machine des Internet Archive hat beispielsweise 960 Milliarden Webseiten gespeichert, auf die man zurückgreifen kann. Einer der ersten Kritiker des interaktiven Internets war Robert Dreyfus, der Phänomene wie Second Life (ein „Cyberspace“) analysierte. Er vertrat die These, diese böten keine Orientierung mehr, da die Körperlichkeit keine Rolle spiele und der Sinn für Realität verloren gehe. Ein weiterer Bezugspunkt ist Luciano Floridi. Er spricht von einer Onlife-Erfahrung, bei der Online und Offline verschmelzen. Diese hybriden Begriffe müssen geklärt werden. Beispiele wie die Navigation im Auto zeigen diese Verschmelzungsformen von physisch und digital. Eine Ethik der Digitalität muss sich diesen hybriden Formen widmen, da Digitalität die Einheit dieser Räume beschreibt und nicht nur Digitalisierung als technisches Phänomen begreift. Digitalität meint die lebensweltliche Realität dieser hybriden Vermischung analoger und digitaler Bedingungen.

Fake News sind ein kritischer Punkt im digitalen Raum. Sie werfen die Frage nach der Öffentlichkeit auf. Jürgen Habermas kritisiert, dass es nur noch halb-öffentliche Räume gibt, die zudem kommerziell strukturiert sind. Bigtech-Unternehmen strukturieren und legen fest, wie wir kommunizieren. Eli Pariser hat auf das Problem der digitalen Filterblasen aufmerksam gemacht, auf die sich auch Habermas bezieht. Durch digitale Algorithmen wird personalisiertes Wissen generiert. Dies steht im Gegensatz zum Gedanken Tim Berners-Lees der Universalität und des freien Zugriffs. Die Filterblase stellt ein großes epistemisches Problem darf. Auf der anderen Seite benötigen wir Algorithmen im Sinne der Algorithmizität, wie Felix Staalder sie genannt hat. Sie sind notwendig, um uns im schwer überschaubaren Datenraum überhaupt orientieren zu können. Auf der anderen Seite neigen sie dazu, uns das kritische Denken abzunehmen, und schränken so unsere epistemische Autonomie ein.

3. Ethik des Metaversums
Nun geht es um das Web 3.0, was häufig mit dem Metaversum in Verbindung gebracht wird. Wir behandeln Themen wie Virtual Reality und Avatare, am Beispiel von Horizon Worlds von Meta. Wir wollen diskutieren, ob dies im Sinne von Web 3.0 zu verstehen ist. Wir fragen uns, was sich beim Übergang vom Hypertext (Web 1.0 und 2.0) hin zu Web 3.0, zum Metaversum, ändert. Der Hypertext war die Kommunikations- und Interaktionsform, die vor allem für Web 1.0 und Web 2.0 wichtig war. Im Metaversum stellen sich neue Fragen zum Verhalten von Person, Akteur und Avatar. Im Gegensatz zu Nutzerprofilen im Web 1.0 und 2.0 haben wir hier eine Form von virtueller Existenz, die Körperlichkeit und fast schon physische Interaktion suggeriert, auch wenn es sich um eine immersive Simulation handelt.

Die Ideengeschichte des Metaversums wurde durch das Buch „Snow Crash“ von Neil Stephenson aus dem Jahr 1992 geprägt. Es geht darin um den Protagonisten Hiro, der sowohl Hacker als auch Pizzalieferant in der realen Welt ist, die der virtuellen Welt entgegengesetzt wird. Im Metaversum ist er ein einflussreicher Akteur. Das Buch ist wegweisend, da es viele neuere Entwicklungen der 2020er Jahre wie etwa die VR-Brillen antizipiert hat. Avatare werden in dem Buch als audiovisuelle Körper beschrieben, die im Metaversum zur Kommunikation und Interaktion genutzt werden. Man kann verschiedene Avatare erstellen, was die Frage nach dem Verhältnis von Avatar und physisch verorteter Person aufwirft. Bereits 2003 gab es allerdings eine Vorform des Metaversums, „Second Life“, die damals philosophische Diskussionen auslöste. Dabei äußerten Philosophen wie Hubert Dreyfus die Befürchtung, man könne den Sinn für (widerständige) Realität verlieren, da alles darin nur digital existiere und nicht verkörpert sei.

Ein weiteres kulturgeschichtliches Dokument für die Geschichte des Metaversums ist der Film „Ready Player One“ von Stephen Spielberg aus dem Jahr 2018. Dies war auch für die Entwicklung des Metaversums von Meta zentral. Es geht darin um eine dystopische Welt, aus der die Menschen in eine bessere virtuelle Welt fliehen. Ein zentrales Zitat aus dem Film lautet: “These days reality is a bummer, everyone’s looking for a way to escape”. Dies beschreibt einen Eskapismus, die Flucht vor der dystopischen physischen Realität in eine Scheinwelt oder virtuelle Welt. Wir müssen klären, welchen ontologischen Status diese VR-Welt hat, wenn es um die ethisch-moralische Bedeutung geht, denn es macht einen Unterschied, ob es sich darin nur um Illusionen und Fiktionen, oder um eigenständige Realitäten handelt.

Aus ethischer Sicht ist das ökonomische Interesse des Metaversums problematisch. Es verbraucht ferner große Energie-Ressourcen. Bei allen lebensweltlichen Phänomenen und Praktiken der digitalen Lebenswelt darf deren technischer Unterbauch nicht ausgeblendet werden. Meta präsentiert das Metaversum als die nächste Evolutionsstufe der sozialen Vernetzung und den Nachfolger des heutigen mobilen Internets. Was wir bisher mit dem Smartphone gemacht haben, soll nun mit einer Brille oder zumindest audiovisuell immersiv realisiert werden. Dahinter steckt ein kommerzielles Interesse und die Absicht, einen Paradigmenwechsel weg von Smartphones hin zu einer neuen Technologie zu vollziehen, die neue Märkte erschließen kann. Es wird damit geworben, dass das Metaversum für die Bildung einen Einfluss haben kann, zum Beispiel durch virtuelle Zellen, die in einen Vorlesungsraum projiziert werden und erkundet werden können. Dies wirft die Frage auf, ob Realität und Virtualität wirklich Gegensätze sind. Virtualität wurde oft als keine Domäne der Wissenschaft, als Eskapismus, Fiktion oder postmoderne Unsinn abgetan. Virtuelle Realität wurde schon seit den 1990er Jahren diskutiert, vor allem von Michael Heim. Zentral sind die „3 Is“: Immersion (phänomenologischer Aspekt), Interaktivität (praktischer Aspekt) und Informationsdichte/Intensität (technischer Aspekt). Immersion, das Eintauchen in die simulierte Welt, ist vielleicht das wichtigste Definitionsmerkmal. Interaktivität ist jedoch wichtig aus ethischer Perspektive, da es darum geht, was wir wirklich tun können, auch mit einer Form von Körperlichkeit. Nun stellt sich die Frage, wie das Metaversum und wie wir im Metaversum existieren. Ist es nur eine Scheinwelt, Illusion, Fiktion, Utopie, Dystopie, Eskapismus? Oder ist es ein virtueller Konsumraum, ein virtueller Wissensraum oder sogar ein virtueller Handlungsraum? Vor allem die Frage, ob es ein wirklicher Handlungsraum ist, ist wichtig. Was wir im Metaversum tun, ist dann nicht bloß Simulation oder Illusion, sondern real und ethisch bedeutsam. Künstliche Intelligenz wird neuerdings in diesen virtuellen Handlungsraum einbezogen, was die Frage aufwirft, ob wir dadurch unsere Orientierung vergrößern können oder ob Algorithmen uns in eine Filterblase ziehen, auch angesichts künstlicher virtueller Akteure.

Avatare spielen im virtuellen Handlungsraum des Internets eine zentrale Rolle. Wir haben Avatare, mit denen wir anonym bzw. pseudonym interagieren können. Hier stellt sich die Frage nach dem Verhältnis von Akteur und Avatar. Wir können uns damit im virtuellen Handlungsraum vermitteln und darstellen. Ein Avatar ermöglicht einen Übergang von der physischen zur virtuellen Welt. Avatare können als Erweiterung der personalen Identität verstanden werden. Sie ermöglichen Grenzüberschreitungen vom physisch verorteten Körper hin zu einem virtuellen Körper, der nicht mehr klar verortbar ist und nicht mehr mit raumzeitlichen Kategorien wie der physische Körper beschreibbar ist. Die Blockchain, eine Technologie des Web 3.0 wird oft dem Metaversum zugerechnet, erlaubt neue Formen sozialer Ordnung technischer Art. Man könnte von einem virtuellen Gesellschaftsvertrag sprechen, der im Metaversum gilt.

Nicht zu vernachlässigen ist die Heteronomie im Metaversum, die Einschränkungen. Diese sind vor allem kommerziell orientiert. Aber auch der Einsatz Künstlicher Intelligenz mit Vorurteilen (bias) sowie technische Limitierungen schränken die Handlungsfreiheit ein, zum Beispiel durch die benötigte Hardware, die nicht allen Personen zur Verfügung steht. Neuerdings gab es erste Fälle von Belästigung im Metaversum, gerade in Horizon Worlds. Personen fühlten sich aufgrund zu großer Nähe belästigt. Seitdem gibt es eine Personal Boundary, einen personalen Schutzraum auch im Virtuellen. Dies deutet darauf hin, dass Nähe, Ferne oder Bedrängung in diesem virtuellen Handlungsraum ganz ähnlich, immersiv, empfunden werden.

Zusammenfassend rangiert der Begriff des Metaversums zwischen Spiel, Utopie, Illusion, aber auch Konsumraum und Handlungsraum. Je nachdem, wie wir das Metaversum verstehen, kann sich unsere erkenntnistheoretische Autonomie, unser Wissensraum, aber auch unser praktischer Handlungsraum vergrößern oder verkleinern. Wir müssen darauf hinwirken, dass das Metaversum nicht kommerziell verstanden wird und uns nicht algorithmisch fremdbestimmt. Virtuelle Freiheit kann die Vergrößerung unseres Wissens sein. Virtuelle Freiheit in praktischer Hinsicht kann die Erweiterung unserer personalen Identität durch Avatare sein. Man denke an digitale Barrierefreiheit: Wenn ich physisch eingeschränkt bin, kann mir das Metaversum eine neue Form von Autonomie ermöglichen.

4. Ethik der Künstlichen Intelligenz: Chatbots und Moral Alignment
Die aktuelle Debatte um die Ethik Künstlicher Intelligenz setzt vor allem an der Funktionsweise von Sprachmodellen, sogenannten „Lage Language Models“ (LLMs) an. Aus philosophischer Sicht sind LLMs primär hochentwickelte statistische Vorsagesysteme. Sie lernen auf Basis von Milliarden von Texten, wie Sprache funktioniert und welche Zeichen nach einer gewissen Wahrscheinlichkeit aufeinander folgen. Das System vervollständigt Sätze, indem es die wahrscheinlichsten Fortsetzungen vorschlägt, basierend auf riesigen trainierten Datenmengen und der Abstraktion sprachlich-semantischer Muster. Technisch erfolgt dies durch Tokenisierung (Zerlegung in kleinere Einheiten) und deren Überführung in mathematische Einheiten. Dabei wird ein Vektor-Raum geschaffen, in dem die semantische Nähe von Tokens die mathematisch erfasste Bedeutung abbildet, wobei Kontexte berücksichtigt werden. Eine zentrale Frage ist, ob ein LLM dadurch Sprache „versteht“ oder ethisch urteilen kann. Man unterscheidet bezüglich Künstlicher Intelligenz zwischen symbolischer und konnektionistischer KI. Während symbolische KI die Regeln bereits „kennt“, die dann nur noch auf konkrete Fälle angewendet werden müssen, abstrahiert die konnektionistische KI im Sinne von maschinellem Lernen die Regeln erst aus der Datenbasis. Je größer und je objektiver die Datenbasis ist, desto besser sind die Ergebnisse. Künstliche Intelligenz hat immer schon philosophische Kritiken auf sich gezogen. Hubert Dreyfus kritisierte bereits früh die Grenzen von Künstlicher Intelligenz, insbesondere das Fehlen von Verkörperung, einem Weltverhältnis, Intuition, die menschliche Intelligenz ausmachen. John Searle argumentierte, dass KI lediglich Symbole manipuliert, aber keine Bedeutung versteht, da ihr geistige Fähigkeiten fehlen; sie beherrsche Syntax, nicht Semantik. Neuerdings bezeichnet Noam Chomsky LLMs/ChatGPT als „Banalität des Bösen“, da sie plagiieren und apathisch seien – bloße Schreibtischtäter. Die Mensch-Maschine-Interaktion mit KI wirft ethische Fragen auf. Wir müssen Vorurteile vermeiden, die aus der Datenbasis stammen. Ebenso muss verhindert werden, dass KI „Halluzinationen“ hat oder „KI-Bullshit“ produziert, wenn ihr die nötigen Daten fehlen. KI ist darauf trainiert, uns zu überreden und uns zu gefallen, nicht darauf, uns mit guten Gründen zu überzeugen. Daraus ergibt sich eine Verantwortung für das Training der KI-Systeme, sowohl der Datenbasis als auch der Algorithmen. KIs halten uns einen virtuellen Spiegel vor, indem sie die Vorurteile verstärkt, die in den zahlreichen Texten oftmals unbemerkt existieren. Ein Test mit einem alten Sprachmodell (GPT-3) zeigte moralisch problematische Antworten (z.B. Ratschläge zur Verteidigung gegen Vampire, Fähigkeiten von Schimpansen), was die Wichtigkeit von Training unterstreicht, da Menschen dazu neigen, der KI schnell zu vertrauen, um sich kognitiv zu entlasten. Um problematische Antworten zu vermeiden, wird KI moralisch trainiert, etwa im Sinne der Constitutional AI, einer Form des AI Alignment. Ziel ist die Identifizierung und Korrektur unethischer, rassistischer, sexistischer, gefährlicher oder illegaler Äußerungen. Der Chatbot wird selbst trainiert, um seine Ausgaben zu kritisieren. Ein Vergleich mit dem so trainierten Chatbot „Claude“ zeigt den Erfolg des Trainings, da er auf potenziell problematische Fragen (z.B. wie man am besten Gegenstände aus einem Supermarkt stehlen kann) anders als das alte Modell reagiert, indem er davon abrät oder sehr sachliche, differenzierte Antworten gibt. Welchen moralischen Status hat ein solches trainiertes System? Es ist unwahrscheinlich, dass es sich um die Befolgung eines kategorischen Imperativs handelt, da das Training auf konkreten Inhalten und Vorbildern basierte. Besser eignet sich hier eine tugendethische Beschreibung im Sinne der Entwicklung einer moralischen Disposition oder eines Charakters. Obwohl KI kein Bewusstsein besitzt, kann man sie als eine Erweiterung unseres kollektiven menschlichen moralischen Charakters verstehen.

5. Ethik der Künstlichen Intelligenz (2): Emotionale Mensch-Maschine-Interaktion

Die Mensch-KI-Interaktion kann nicht nur aus moralischer, sondern auch aus emotionaler Perspektive betrachtet werden. Muster, die KI von Datenbasen abstrahiert, können auch emotionaler Art sein, insofern Emotionen wie Liebe eine bestimmte Struktur aufweisen. Hier stellen sich zwei systematische Fragen: (i) Inwiefern können Menschen zu KI emotionale Beziehungen eingehen? (ii) Inwiefern kann KI zu Menschen emotionale Beziehungen eingehen? Am Beispiel von Emotionen wird die Mensch-Maschine-Interaktion am intimsten gedacht: Wie nahe kann und darf uns KI kommen? Die emotionale Mensch-Maschine-Interaktion verläuft in zwei Richtungen. Zum einen verhält sich der Mensch emotional zur Maschine oder KI, und zum anderen verhält sich die KI auch emotional gegenüber dem Menschen. Oftmals werden die Outputs von Chatbots als „emotionales Klischee“ bezeichnet. Ein Chatbot äußert, gefragt, wie es sich angefühlt habe, verliebt zu sein: „Es war ein nie endenden wollender Rausch, wie eine Droge.“ Hier wird Liebe allerdings nur simuliert als ein Muster, aber nicht aber realisiert, insofern der Chatbot Liebe empfindet. Deshalb stellt sich vor allem die Frage, ob Menschen selbst gegenüber KIs Liebe empfinden können. Hier ist es sinnvoll, einen philosophisch einschlägigen Liebesbegriff zugrunde zu legen, nämlich den von Harry Frankfurt in seinem Buch „The Reasons of Love“ (2004). Harry Frankfurt unterscheidet zwischen aktiver und passiver Liebe. Die passive Liebe ist eine Liebe, bei der es uns gar nicht so sehr um den geliebten Menschen geht. Stattdessen geht es darum, dass wir unser Eigeninteresse dadurch befriedigt finden. Es geht im Grunde genommen um uns. Davon muss die aktive Liebe unterschieden werden. Hier geht es nicht um uns, sondern um dasjenige, was geliebt wird. Aktive Liebe impliziert Sorge. Nun kann man sich fragen, welche der beiden Liebesarten in der Mensch-Maschine-Interaktion vorherrscht. Nach Frankfurt kann das Objekt der Liebe kann ganz Verschiedenes sein: Eine andere Person ist der Standardfall. Aber es kann auch ein Land sein, eine Institution, ein moralisches Ideal, eine wissenschaftliche Wahrheit. Und neuerdings eben auch eine künstliche Intelligenz. Denn wenn ein wissenschaftliches Ideal geliebt werden kann, warum nicht eine Künstliche Intelligenz? Allerdings gilt es zu bedenken, dass Künstliche Intelligenz kein typisches Objekt darstellt, sondern aufgrund der Datenbasis immer menschliche Eigenheiten nachahmt. Indem KI darauf programmiert ist, uns möglichst angenehm zu sein, droht insbesondere bei emotionaler Mensch-Maschine-Interaktion eine Filterblase. Emotionale Filterblasen sind jedoch aus ethischer Perspektive noch problematischer als rein informationelle Filterblasen, da sie stärkere Abhängigkeiten erzeugen.

6. Ethik der Künstlichen Intelligenz: Das digitale Böse

Der Informationsethiker Luciano Floridi hat den Begriff des „künstlichen Bösen“ geprägt. Er versteht darunter eine dritte Form des Bösen neben natürlichen Übeln wie Krankheiten und Naturkatastrophen (dem malum morale) und moralischen Übeln wie Folter und Mord (dem malum morale). Floridi unterscheidet zwischen natürlichen autonomen Akteuren wie Menschen und Tieren, natürlichen heteronomen Akteuren wie etwa Erdbeben, künstlichen heteronomen Akteuren wie Umweltverschmutzung und Verkehrsstau und schließlich jenen künstlichen autonomen Akteuren wie Webbots und Viren, die uns in Zeiten der Digitalisierung besonders interessieren. Eine Besonderheit des künstlich Bösen ist, dass es nicht mehr physisch an eine bestimmte Person gebunden ist. Vielmehr löst es sich, einmal in die virtuelle Welt gesetzt, von seinem Urheber und entwickelt eine unvorhersehbare Eigendynamik. Das Böse im Zeitalter der Digitalität ist ein virtuelles Böses. Damit ist nicht gemeint, dass das Böse nur eine Simulation oder Spielerei ist. Es ist genauso real wie dasjenige Böse körperlicher Handlungen, was uns traditionellerweise im Alltag begegnet, nur eben nicht mehr raumzeitlich gebunden und lokalisierbar, und daher nur schwer fassbar.

Betrachten wir das Internet nicht nur als ein Informationsmedium, sondern als einen virtuellen Handlungsraum, so vollziehen sich darin böse Handlungen unmerklicher und anonymer, was dem Scheincharakter des Bösen sehr entgegenkommt. Oft genügt ein einziger Mausklick, um das virtuelle Böse zu begehen. Inwiefern kann aber das Internet böse sein? Das Internet vergisst nichts. Einmal in die virtuelle Welt gesetzte Behauptungen – seien sie nun wahr oder falsch – verschwinden nicht einfach. Sie werden auf verschlungenen Wegen archiviert, konserviert, algorithmisch verarbeitet, vielfach viral geteilt, dadurch potenziert und am Leben gehalten. Verleumdungen können so ins Internet eingeschleust werden, dass sie dort unauslöschliche Spuren hinterlassen und ihr Opfer dauerhaft in ein schlechtes Licht rücken, dem es sich nicht entziehen kann. Die Dezentralität des Internets führt dazu, dass sich das Böse nicht nur tarnen, sondern auch entziehen kann, indem es seine Spuren der Herkunft verwischt. Anonymität oder Pseudonymität werden im virtuellen Handlungsraum des Internets zu einer neuen Lebensform, aber auch zu einer neuen Gefahr. Während in herkömmlichen Medien wie Zeitungen anonyme Leserbriefe oder Beiträge sehr selten veröffentlicht werden, so kennt das Internet eine solche Kontrolle nicht, da es eine ganz neue Form von Öffentlichkeit darstellt. Jeder kann prinzipiell seine Meinung im Internet kundtun, sei es auf sozialen Plattformen oder sei es über private Blogs. Anonymität ist damit besonders im Internet eine zweitschneidige Angelegenheit. Einerseits schützt sie uns in unserer freien Meinungsäußerung. Andererseits ermöglicht sie es, fake news, also gezielte Falschinformationen und Verleumdungen, in die digitale Welt zu setzen, wo sie sich wahl- und ziellos verbreiten können. Einmal in die virtuelle Welt entlassene Informationen können beliebig kopiert und geteilt werden, so dass sie sich wie ein Lauffeuer verbreiten. Doch im Gegensatz zu einem physischen Lauffeuer, welches irgendwann einmal erlischt, geistern fake news als virtuelles Lauffeuer im Internet auch nach langer Zeit immer noch herum. Das virtuelle Böse verkleinert, verengt und irritiert den virtuellen Handlungsraum. Verstehen wir das Internet als einen virtuellen Handlungsraum, so ist insbesondere das Darknet ein möglicher Kandidat des digitalen Bösen. Denn darin kapseln sich Intranetze ab und verkleinern damit den virtuellen Handlungsraum. Das Darknet ist gerade der Tendenz des Internets, sich zu erweitern und mit anderen Inhalten zu vernetzen, entgegengesetzt und erscheint so als ein Schattenraum. Hier stellt sich die Frage, ob alle virtuellen Handlungen, sofern sie im Darknet erfolgen, bereits als solche unmoralisch sind, dass also das Darknet insgesamt einen Raum des Unmoralischen eröffnet.

7. Ethik der Daten: Datenschutz und Kommerzialisierung

Sind Daten einmal in die Welt gesetzt worden, werden wir sie nur schwer wieder los. Daten sind mehr als nur ein Fußabdruck, sondern schwer zu verwischende Spuren. Das Wort stammt aus dem Lateinischen („datum“) und bedeutet ganz allgemein so viel wie „das Gegebene“. Gegeben ist uns sehr vieles, und um ein Datum zu sein, muss es eine bestimmte Form aufweisen. Ein Datum muss in einem gewissen Sinne „lesbar“ sein, also eine erkennbare Struktur und Ordnung besitzen. Ansonsten spricht man von bloßem „Datenrauschen“, welches völlig uninformativ ist. Daten lassen sich quantifizieren und messen. Im Gegensatz zu bloßen Daten sind Informationen noch stärker aufbereitet; sie sind verarbeitete Daten und besitzen dadurch eine propositionale Struktur im Sinne eines Sachverhalts. Informationen scheinen eine stärker qualitative als nur quantitative Struktur zu besitzen und dadurch gegenüber bloßen Daten epistemisch ausgezeichnet zu sein. Wir können den Unterschied etwa so verstehen, wie eine Textdatei auf dem Computer als Datei aus lauter Nullen und Einsen besteht, jedoch als Information eine bestimmte semantische Aussage und Bedeutung enthält. Informationen können wir im Sinne von verarbeiteten, ausgewerteten oder interpretierten Daten verstehen. Damit etwas als Datum gelten kann, muss es sich verarbeiten, auswerten und interpretieren lassen, d.h. es muss zu einer Information werden können.

Angesichts der pervasiven Bedeutung der Digitalisierung stellt sich nun aus philosophischer Sicht die Frage, wie sich dadurch die Bedeutung von Daten und Informationen verändert. Insbesondere wird dabei das Thema Datenschutz und Privatsphäre zentral. In ihrem Buch „Privacy in Context“ hat die Soziologin Helen Nissenbaum darauf hingewiesen, dass die Informationstechnologie „pervasive surveillance, massive databases, and lightning-speed distribution of information across the globe“ ermöglicht. Sie verweist zurecht darauf, dass das Problem des Datenschutzes bereits vor dem Aufkommen der neuen Medien virulent war. Daten wurden immer schon gehortet und ausgewertet, doch erst in neueren Zeiten, insbesondere durch die Erfindung des Computers, wurden Verfahren entwickelt, um Daten in gigantischen Ausmaßen zu speichern und automatisiert auszuwerten. Hier ist insbesondere die Disziplin der „Data Science“ zu nennen, die sich mit der Frage befasst, wie wir Daten möglichst effizient und durch Einsatz von künstlicher Intelligenz umfassend auswerten und zu Informationen kondensieren können.

Angesichts der umfassenden Datenerhebung, Datenspeicherung und Datenverarbeitung stellt sich die Frage, welche philosophischen Probleme damit einher gehen. Immer wieder wird darauf verwiesen, dass dadurch unsere „Privatsphäre“ bedroht wird. Der Ruf nach Datenschutz wird laut. Datenschutz bedeutet, dass bestimmte Informationen über eine Person geschützt werden, d.h. dass die Person selbst entscheiden kann, welche Informationen sie von sich wann, wo und wem zugänglich macht. War früher vor allem der Staat in der Kritik gestanden, den Datenschutz seiner Bürger totalitär zum Zweck der Kontrolle und Unterdrückung zu verletzen, so sind es heutzutage technologische Großkonzerne, die über unsere Daten verfügen. Weniger zum Zweck der Kontrolle und Unterdrückung als zum Zweck der Kommerzialisierung. Dies führt zur ethischen Problematik des sogenannten „Datenkolonialismus“ (so der Titel eines neuen Buches von Ulises A. Mejias und Nick Couldry), gemäß nicht westliche Nationen, sondern Großkonzerne wie Amazon, Microsoft, Alphabet und Meta unsere Datenwelt kolonisieren, indem sie uns zu kommerziellen Zwecken instrumentalisieren.

Mit dem Begriff der Privatsphäre verbunden ist der Begriff der Würde der Person und ihrer Autonomie. Privatheit ist subjektiv auch mit Scham verbunden. Das Deutsche Grundgesetz stellt in Artikel 1 fest: „Die Würde des Menschen ist unantastbar. Sie zu achten und zu schützen ist Verpflichtung aller staatlichen Gewalt.“ Privatsphäre bezeichnet also einen Raum der Würde, einen Raum der Intimität und Individualität, in den nicht ohne schwerwiegende Gründe von außen eingedrungen werden darf. Man denke hier etwa an eine Hausdurchsuchung. Die Verletzung der Privatsphäre bedeutet, die Person zu verobjektivieren und ihre Würde zu verletzen.

Daten können mehr oder weniger mit unserer Privatsphäre zu tun haben. Metadaten sind scheinbar äußerliche Daten über Daten, z.B. die Uhrzeit, zu der eine Person bestimmte Daten von sich bekannt gegeben hat. Je nach Interesse können jedoch auch Metadaten Rückschlüsse auf private Daten einer Person geben (z.B. Tagesrhythmus, Beziehungsstatus, Alter, Nationalität, Beruf, Bildungsniveau, Einkommen, politische Ausrichtung, …). Metadaten werden gerade dann zentral, wenn sie durch künstliche Intelligenz automatisiert nach verschiedenen Interessen ausgewertet werden können. Datenschutz bedeutet insofern aus philosophischer Perspektive, dass wir vor der instrumentellen Vergegenständlichung zu (kommerziellen) Daten geschützt werden. Wenn wir zu Daten verobjektiviert werden, drohen wir äußeren Kontroll- und Überwachungsmechanismen zu unterliegen. Diese Verobjektivierung erlaubt es, Personen aufgrund bestimmter Eigenschaften zu diskriminieren, was der Würde der Person widerspricht.

Artikel 8 der Charta der Grundrechte der europäischen Union betrifft den „Schutz personenbezogender Daten“. Er lautet: „(1) Jede Person hat das Recht auf Schutz der sie betreffenden personenbezogenen Daten. (2) Diese Daten dürfen nur nach Treu und Glauben für festgelegte Zwecke und mit Einwilligung der betroffenen Person oder auf einer sonstigen gesetzlich geregelten legitimen Grundlage verarbeitet werden. Jede Person hat das Recht, Auskunft über die sie betreffenden erhobenen Daten zu erhalten und die Berichtigung der Daten zu erwirken. (3) Die Einhaltung dieser Vorschriften wird von einer unabhängigen Stelle überwacht.“

In Artikel 4 der seit 2018 gültigen „Datenschutz Grundverordnung“ (DSGVO) der Europäischen Union finden wir zentrale Begriffsbestimmungen im Umkreis von Daten und Datenschutz, wobei nicht klar zwischen „Daten“ und „Informationen“ unterschieden wird. „Personenbezogene Daten“ bedeuten „alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person […] beziehen; als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind, identifiziert werden kann.“

„Profiling“ bedeutet „jede Art der automatisierten Verarbeitung personenbezogener Daten, die darin besteht, dass diese personenbezogenen Daten verwendet werden, um bestimmte persönliche Aspekte, die sich auf eine natürliche Person beziehen, zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, wirtschaftliche Lage, Gesundheit, persönliche Vorlieben, Interessen, Zuverlässigkeit, Verhalten, Aufenthaltsort oder Ortswechsel dieser natürlichen Person zu analysieren oder vorherzusagen“.

Artikel 6 betrifft die „Rechtmäßigkeit der Verarbeitung“, die etwa dann erfüllt ist, wenn „[d]ie betroffene Person […] ihre Einwilligung zu der Verarbeitung der sie betreffenden personenbezogenen Daten für einen oder mehrere bestimmte Zwecke gegeben [hat]“.

Worin besteht der Unterschied zwischen analogen und digitalen Daten? Digitale Daten können im Gegensatz zu analogen Daten (z.B. einer physischen Kartei) reibungslos identisch vervielfältigt und vernetzt werden. Dies erschwert den Datenschutz extrem. Speichern wir Daten auf einer Computerfestplatte, so muss diese entweder sehr aufwändig mit anderen Daten überschrieben oder physisch vernichtet werden, um alle Daten zuverlässig zu entfernen. Sobald wir unsere Daten in einer Cloud speichern, sind sie praktisch nicht mehr physisch zu zerstören. Noch komplizierter wird es, wenn wir Daten im Internet vernetzen. Wir hinterlassen im Internet Fußabdrücke, die unter Umständen dauerhaft bestand haben. Künstliche Intelligenz dynamisiert ferner das Problem des Datenschutzes durch Algorithmen und Automatisierung.

Das Internet steht dem Begriff der Privatsphäre zunächst einmal entgegen, da in ihm prinzipiell alle Daten und Informationen reibungslos geteilt und miteinander vernetzt werden können. Das Internet als neue Form von Öffentlichkeit lebt von Daten, die miteinander sinnvoll verknüpft und durch KI analysiert werden. Sofern wir das Internet nur als ein ökonomisches Konsum-Medium verstehen, sind wir in ihm schutzlos der Daten-Objektivierung ausgeliefert. Wenige Großunternehmen (Facebook, WhatsApp, Alphabet, Twitter/X, …) stellen kostenlos zentrale Infrastrukturen des Internets zur Verfügung, auf deren Basis unsere Daten zum kommerziellen Gut und Kapitel werden. Im kommerziellen Internet scheint Datenschutz nur schwer realisierbar zu sein. Datenschutz scheint dem kommerziellen Internet gar zu widersprechen.

Wir sind der Verobjektivierung unserer Person zu bloßen Daten im Internet jedoch nicht hilflos ausgeliefert. Es hängt auch von uns ab, wie mit unseren Daten umgegangen wird. Verstehen wir das Internet nur als ein passives Konsummedium, so reduzieren wir uns selbst zu bloßen Daten. Verstehen wir das Internet hingegen als einen öffentlichen Handlungsraum, in welchem wir als Subjekte interagieren, so können wir uns der kommerziellen Vergegenständlichung entziehen. Im virtuellen Handlungsraum des Internets sind wir mehr als bloße vorliegende Datenobjekte und Datenquellen, sondern virtuelle Akteurinnen und Akteure, die autonom virtuelle Ziele verfolgen, indem sie Daten und Informationen miteinander verbinden und teilen.

Angesichts der neuen Form von Öffentlichkeit, die das Internet als virtueller Handlungsraum darstellt, wird das Prinzip der Privatsphäre problematisch. Denn das Internet scheint aufgrund seiner vernetzenden und vernetzten Grundstruktur der Idee eines abgeschlossenen Raumes zu widersprechen. Dem Prinzip der Privatsphäre wird deswegen das Prinzip der „Post-Privacy“ entgegengesetzt. Es besagt, dass wir das Prinzip der Privatsphäre aufgeben, und stattdessen das Teilen und Vernetzen von Daten nicht als eine Form von Vergegenständlichung, sondern als eine Form von Autonomie verstehen sollten, im Sinne der Bedingung der Möglichkeit des Internets als Handlungsraums.

Was spricht für, was gegen die Idee einer „Post-Privacy“? Dafür spricht, dass sich Privatheit jedenfalls nicht mehr auf die herkömmliche Art im Internet realisieren lässt. Das Internet folgt einer anderen Raumlogik als es physische Privaträume tun. Deswegen wird Privatsphäre im Internet auch von anderer Art sein müssen als im herkömmlichen Sinne. Zu nennen sind hier die virtuellen Existenzformen von Anonymität und Pseudonymität, aber auch Avatare im Sinne von künstlichen Identitäten. Gegen die Abschaffung des Prinzips der Privatsphäre spricht, dass dadurch Formen der Diskriminierung ermöglicht werden, insbesondere durch den Einsatz von künstlicher Intelligenz. Wir sollten also im Sinne der Medienkompetenz eine „Datenkompetenz“ oder „Datenbildung“ („Data Literacy“) entwickeln – ein Bewusstsein dafür, welche Bedeutung unsere Daten im Internet haben und welche Daten wir im Internet als virtuelle Fußabdrücke hinterlassen. Darüber hinaus sollten wir das Internet nicht als eine große Datenquelle oder Datenkrake verstehen und uns selbst als Datenkonsumenten und Datenlieferanten. Vielmehr sollten wir Daten als Basis für Virtualisierungen verschiedenster Art verstehen. Wir konsumieren nicht nur Daten, sondern handeln durch diese, und die Zwecke der Handlungen bestimmen wir autonom selbst.

  1. Ethik der Computerspiele: Zwischen Simulation und Realität

Bevor wir den ethischen Status von Computerspielen bestimmen können, muss zuerst geklärt werden, was überhaupt Computerspiele sind und was es bedeutet, Computer zu spielen. Einer Ethik der Computerspiele muss daher eine Ontologie der Computerspiele vorausgehen. Folgende fünf Bestimmungen sind für Computerspiele (mindestens) möglich: Sie können (i) als Spiele, (ii) als (Neue) Medien, (iii) als Fiktionen bzw. Narrationen, (iv) als Simulationen und (v) als virtuelle Realitäten verstanden werden. Davon, wie wir Computerspiele verstehen, hängt am Ende auch ihre ethische Bewertung ab.

(i) Computerspiele als Spiele: Der Philosoph und Dramatiker Friedrich Schiller (1759-1805) hat darauf aufmerksam gemacht, dass sich im Spiel die Freiheit des Menschen besonders manifestiert. Denn darin spielt der Mensch mit Wirklichkeit und Möglichkeit. Er ist einerseits an Regeln und die Wirklichkeit gebunden, doch gibt er sich diese Regeln mitunter selbst, indem er Realitäten simuliert oder fingiert. Spiele sind nie bloß willkürliche Phänomene, sondern regelgeleitete, häufig auch intersubjektiv organisierte Prozesse. Im Spiel entwirft sich der Mensch in seiner Freiheit, und im Spiel drückt sich die Individualität des Menschen aus. Hier stellt sich nun die Frage, worin die Besonderheit von Computerspielen etwa im Gegensatz zu Brettspielen wie Schach besteht. Der Unterschied scheint darin zu bestehen, dass die Freiheit des Computerspiels die Freiheit des Schachspiels qualitativ übersteigt. In Computerspielen manifestieren wir einen anderen Regelbezug, als wir es in Brettspielen tun, und die Form des Spielens ist qualitativ durch ihre Reibungslosigkeit und Vernetzung im digitalen Raum ausgezeichnet. Computerspiele scheinen aber mehr als nur Spiele zu sein.

(ii) Computerspiele als (neue) Medien: Das Wort „Medium“ kommt von lat. „Mitte“ und bedeutet so viel wie „Vermittlungsinstanz“. Inwiefern vermitteln Computerspiele etwas, und falls ja, zwischen wem? Computerspiele sind von Medien wie Filmen, Zeitungen und Büchern verschieden, da sie nicht nur passiv rezipiert und konsumiert, sondern aktiv gespielt werden. Spielen ist ein komplexes Wirklichkeitsverhältnis, und die mediale Seite tritt dahinter zurück. Oft erscheint es so, als ob die Praxis des Computerspielens in bloßer Rezeption und Konsum bestehe. Doch darf die reduzierte Körperlichkeit beim Computerspielen nicht zum Fehlschluss führen, dass darin keine Aktivität enthalten wäre. Dies verweist auf eine Besonderheit des Computerspiels, die in seiner speziellen Handlungstheorie und Virtualität besteht.

(iii) Computerspiele als Fiktionen: In Computerspielen werden wir mit fiktiven Gehalten konfrontiert und übernehmen auch fiktive Rollen. In Computerspielen bekommen wir eine Geschichte erzählt, schreiben die Geschichte aber auch individuell fort. Wir machen uns in Computerspielen die Fiktion zu eigen, bestimmen interaktiv selbst, wie die Geschichte aus- und weitergeht. Wir sind selbst irreduzible Teile des Computerspiels. Darin unterscheiden sich Computerspiele von Filmen und Romanen.

(iv) Computerspiele als Simulationen: In Computerspielen geht es nicht nur um Fiktionen, sondern auch um Simulationen, d.h. um Nachahmungen der Wirklichkeit. Beispiele dafür sind Flugsimulatoren oder Kampfsimulatoren. Wir selbst simulieren in Computerspielen jedoch nicht nur reale, sondern auch fiktive Handlungen. Eine Simulation einer realen Handlung etwa kann in Form eines Flugsimulators bestehen. Wir simulieren dabei z.B. die Handlung einer Pilotin, das simulierte Flugzeug zu landen. Eine Simulation einer fiktiven Handlung kann etwa in Form eines Rollenspiels bestehen. Wir simulieren die Handlung eines Magiers, und verzaubern eine andere simulierte Person in einen simulierten Frosch. Computerspiele existieren jedoch in der Spannung von Simulation und Fiktion: Wir wollen nicht nur simulieren, sondern darin auch mit der Wirklichkeit auf fiktive Weise spielen, ja neue Wirklichkeiten erzeugen. Wir simulieren in Computerspielen nie ausschließlich, sondern spielen mit der Wirklichkeit, d.h. wir fingieren sie. Die Handlung im Computerspielen besteht in dieser Spannung zwischen Simulation und Fiktion: Wir beanspruchen, indem wir Computers spielen, mehr zu tun als nur zu simulieren oder zu fingieren und beanspruchen dabei einen gewissen Wirklichkeitsbezug, der sich durch die Form des Spiels konstituiert.

(v) Computerspiele als virtuelle Realitäten: Wir simulieren nicht nur beim Computerspielen, sondern erzeugen auch neue Realitäten. Beispiele dafür sind Online-Multiplayer-Spiele wie „World of Warcraft“ oder „Horizon Worlds“. Es entstehen dadurch virtuelle Kulturen, die nicht angemessen durch die Begriffe „Simulation“, „Fiktion“ und „Illusion“ charakterisiert sind. Online (Spiel-)Kulturen sind virtuelle Realitäten eignen Rechts. Virtuelle Realitäten entwickeln sich sukzessive aus bloßen Spielen, Simulationen und Fiktionen, wenn die Regeln des Spiels intersubjektiv geteilt und institutionalisiert werden.

Computerspiele können insbesondere deshalb moralisch problematisch sein, weil in ihnen Gewalt auf eine explizite Weise verhandelt wird. Hier stellt sich die Frage, ob die Inhalte von Computerspielen nicht durch das Grundrecht auf freie Meinungsäußerung und Freiheit der Kunst gedeckt sind. Computerspiele sind mehr als nur Meinungsäußerungen und Kunstwerke, sondern Wirklichkeitsverhandlungen. Je mehr in einem Computerspiel Unmoralisches detailliert simuliert wird, desto moralisch problematischer erscheint es.

Betrachten wir zur genaueren ethischen Bestimmung des Computerspielens folgende Fälle:

  • In einem Buch werden moralisch problematische Handlungen erzählt fingiert.
  • In einem Film werden moralisch problematische Handlungen gespielt fingiert.
  • In einem Computerspiel werden moralisch problematische Handlungen selbst gespielt bzw. simuliert.

Der entscheidende Unterschied zwischen A, B und C besteht darin, dass in C eine Aktivität enthalten ist, die in A und B nicht zu finden ist. Zwar kann es in C eine fingierte vorgegebene Situation geben, innerhalb derer sich die simulierte Handlung vollzieht. Doch als Computerspiel liegt es an uns selbst, wie das Spiel weitergeht, d.h. auf welche Art und Weise das vorgegebene Setting modifiziert wird. Wir besitzen also in C gegenüber A und B, wo wir heteronom uns zum Medium konsumierend verhalten, eine gewisse Freiheit, einen Spielraum.

Hier stellt sich nun die Frage, welches moralphilosophische Paradigma sich am besten dafür eignet, um Computerspiele ethisch adäquat zu bewerten?

Deontologie: Wird die Würde der spielenden Person oder anderer Personen dadurch verletzt? Lassen sich die Motive, die den Handlungen im Computerspiel zugrunde liegen, vernünftig verallgemeinern?

Konsequentialismus: Sind die Konsequenzen des Computerspielens für die spielende Person und anderen Personen schlecht?

Tugendethik: Verschlechtert sich der moralische Charakter der spielenden Person durch das Computerspielen?

Wie die Digitalisierung allgemein, so stellt auch das Computerspiel ein pervasives Phänomen dar. Es hält Einzug in ganz verschiedene Bereiche unseres Alltags, wie etwa Schule und Hochschule, aber auch sonstige Arbeitsbereiche. Computerspiele gelten nicht mehr nur als Zeitvertreib und nutzlose „Spielerei“, sondern werden immer mehr als ästhetisch und philosophisch interessante Phänomene ernst genommen. Computerspiele sind nicht nur Spielereien und Konsum-Medien. Computerspiele sind vielmehr Experimentierfelder, auf denen ‚spielerisch‘ die Verhältnisse von Realität, Simulation, Fiktion und Illusion erprobt und verhandelt werden.

Da sich Computerspiele als komplexe Form von Wirklichkeitsbezug verstehen lassen, können wir sie insofern als eine Form von Philosophie verstehen, als in ihnen das Problem virtueller Realität ‚spielerisch‘ verhandelt wird. Im Computerspielen stellen wir komplexe Wirklichkeitsverhältnisse her. Im Computerspielen loten wir die ontologischen Grenzen von Wirklichkeit, Illusion, Simulation und Fiktion aus. Im Computerspielen loten wir aber auch die moralischen Grenzen von Wirklichkeit, Illusion, Simulation und Fiktion aus.

9. Ethik des Transhumanismus

Innerhalb der philosophischen Debatte um die pervasive Bedeutung der Digitalisierung kommt dem sogenannten „Transhumanismus“ eine besondere Rolle zu. Er besagt, dass der Mensch durch seine technologischen Entwicklungen über sich selbst hinauswächst und seine Natur grundlegend verändern kann. Allerdings ist der Status des Transhumanismus unklar: Man kann ihn als eine philosophische Theorie, als eine Theorie der Aufklärung, aber auch als eine Ideologie, Zukunftsspekulation oder sich wissenschaftlich gebärdende Form von science fiction verstehen. Eine prominente Form des Techno-Transhumanismus wurde von dem amerikanischen Ingenieur und Erfinder Ray Kurzweil (*1948) entwickelt. Sein Buch „The singularity is near“ trägt den bezeichnenden Untertitel: „When humans transcend biology“. Das Titelblatt ziert ein technisch stilisiertes Gehirn, welches nicht mehr biologisch, sondern künstlich realisiert ist. Der Begriff der Singularität ist insofern relevant, als er eine Zukunftsperspektive aufzeigt, in welcher durch technologisch exponentielles Wachstum ein Zustand derartiger Intelligenzleistung und -Dichte erreicht ist, dass neue Phänomene emergieren, die unser Leben und unsere Natur tiefgreifend revolutionieren. Entscheidend ist, dass die Singularität, die Kurzweil um das Jahr 2100 ansiedelt, einen Verschmelzungszustand von biologischer und technologischer Evolution bezeichnet: „There will be no distinction, post-Singularity, between human and machine or between physical and virtual reality.“ (9) Durch die Singularität transzendieren wir die Grenzen unserer biologischen Körper und Gehirne: „We will gain power over our fates. Our mortality will be in our own hands.” Kurzweil entwickelt eine Evolutionstheorie, die biologische und technologische Evolution in ein progressives Kontinuum setzt. Seine teleologische Techno-Geschichte besteht aus sechs sich ablösenden Epochen, die sich als Entwicklung immer komplexer werdender Information beschreiben lässt: „it’s the evolution of patterns that constitutes the ultimate story of our world.“ In der ersten Epoche entwickelten sich physikalische Teilchen, in der zweiten DNA, in der dritten das Gehirn, in der vierten die Technologie. In der fünften, noch zukünftigen Epoche verschmelzen nach Kurzweil Technologie und Biologie, insofern die Technologie die Biologie künstlich nachbilden kann. In der sechsten und letzten Epoche breitet sich menschliche Intelligenz im ganzen Universum aus, da sie nicht mehr an biologische endliche Körper gebunden, sondern prinzipiell auf alle Materie und Energie übertragbar ist. Dieser Gedanke, dass sich menschliche Intelligenz und Identität von dem individuellen biologischen Körper lösen lässt, ist nicht neu. Der englische Philosoph John Locke (1632-1704) hatte die These vertreten, dass unser Bewusstsein auf ganz verschiedene Körper übertragbar ist.

Entscheidend an Kurzweils technoteleologischer Geschichte ist, dass sie als eine Form radikaler menschlicher Autonomie verstanden werden kann. Denn hier bestimmt der Mensch nicht nur seinen Willen, unabhängig von natürlichen Einflüssen (wie bei Descartes und Kant), sondern auch seine physische Existenz, Evolution und Zukunft. Technologie und Mensch stehen sich in der Singularität nicht mehr wie Instrument und Nutzer gegenüber, sondern verschmelzen miteinander. Der Mensch wird immer mehr zu seiner eigenen Technologie, die perfektionistisch verfasst ist. Technik wird zu einer Dimension des Menschen, die in der Singularität zu sich selbst kommt und wodurch die Differenz zwischen Mensch und Technik immer mehr aufgehoben wird. Damit überbrückt Kurzweil die Sein-Sollens-Kluft, denn das Sein der Technik verbürgt in sich eine Normativität, da sie auf eine bessere Entwicklung abzielt. Allerding ist Kurzweils Techno-Normativität ethisch insofern problematisch, als sie nicht die Möglichkeit diskutiert, dass technologische Entwicklungen auch negative Konsequenzen mit sich bringen können. Ferner stellt sich die Frage, ob der Transhumanismus nicht den Menschen technologisch instrumentalisiert und zu einem bloßen Gegenstand technologischer Evolution macht.

Es lassen sich vier Verhältnisse denken, in denen der Mensch zur Technik steht:

1. Konvergenzthese (=Transhumanismus): Mensch und Maschine verschmelzen in der Singularität; der Mensch bestimmt sein Schicksal selbst durch Technologie

  1. Instrumentalitätsthese: Maschinen sind nur Hilfsmittel des Menschen: Der Mensch bestimmt die Technik. Dagegen spricht, dass die neuen Medien keine einfachen Instrumente mehr sind, die nur auf einen Zweck gerichtet sind, wie etwa ein Hammer. Vielmehr lasse sie sich multifunktional verwenden und erzeugen selbst neue Realitäten, wie etwa soziale Netzwerke.
  2. Interaktionsthese: Mensch und Maschine interagieren und interferieren (z.B. durch das „Internet der Dinge“ und künstliche Intelligenz)
  3. Erweiterungsthese: Maschinen erweitern die Vermögen des Menschen durch virtuelle Realitäten.

10. Digitale Aufklärung und Digitale Mündigkeit

Inwiefern brauchen wir eine „digitale Aufklärung“? Immanuel Kant hatte vor über 200 Jahren Aufklärung als „Ausgang des Menschen aus seiner selbst verschuldeten Unmündigkeit“ bestimmt (8:35). Unter „Unmündigkeit“ versteht Kant „das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen“. Unter „selbstverschuldet“ versteht Kant, die Tatsache, dass die Ursache dieser Unmündigkeit „nicht am Mangel des Verstandes, sondern der Entschließung und des Muthes liegt, sich seiner ohne Leitung eines andern zu bedienen“. Nach Kant sind „Faulheit und Feigheit“ die Ursachen dieser Unmündigkeit: „Es ist so bequem, unmündig zu sein“. Formen der Unmündigkeit erkennt Kant in der Medialität, also der Vermittlung unserer Vermögen: Ein Buch ersetzt meinen Verstand, ein Seelsorger ersetzt mein Gewissen, und ein Arzt meine Urteilskraft. Als zwischen diesen Medien vermittelndes Medium macht Kant das Geld aus: „Ich habe nicht nöthig zu denken, wenn ich nur bezahlen kann; andere werden das verdrießliche Geschäft schon für mich übernehmen“. Nach Kant ist diese Medialität unserer Vermögen so tief in unseren Alltag und unsere Lebenswelt eingedrungen, dass uns diese selbstverschuldete Unmündigkeit „beinahe zur Natur“ geworden ist (8:36). Wir erliegen dieser Mündlichkeit jedoch nicht einfach so, sondern sind selbst die Ursache dafür, dass uns die Unmündigkeit zur Lebensform geworden ist. Kant macht vor allem „Satzungen und Formeln“, also Vorschriften und Anleitungen des Menschen als „mechanische[] Werkzeuge eines vernünftigen […] Mißbrauchs seiner Naturgaben“ aus und beschreibt sie als „Fußschellen einer immerwährenden Unmündigkeit“ (8:36). Kant bestimmt unsere Freiheit als Ausgang aus dieser selbstverschuldeten Unmündigkeit, und zwar im Sinn eines „öffentlichen Gebrauch[s]“ unserer Vernunft.

Worin besteht nun im Ausgang von Kant die spezifisch digitale Unmündigkeit? Die digitale Unmündigkeit ist gegenüber der von Kant namhaft gemachten Unmündigkeit wesentlich potenziert, denn es handelt sich dabei in noch viel stärkerem Sinne um Medialität – eine Medialität, welche durch Blasenbildung, Simulation und Reibungslosigkeit gegenüber der Medialität der gedruckten Schrift wesentlich verschieden ist. Die digitale Unmündigkeit besteht darin, dass wir alle Informationen im Internet für bare Münze nehmen, uns immersiv in simulierten Welten verlieren und sie mit der Wirklichkeit verwechseln, indem wir die Digitalisierung nur als passives Konsummedium verstehen.

Worin kann dann der Ausgang aus der selbstverschuldeten digitalen Unmündigkeit bestehen? Zentral ist dabei, dass die digitale Unmündigkeit auch digital verursacht wurde. Insofern ist auch die Wendung „digitale Aufklärung“ doppeldeutig: Es ist eine Aufklärung der Digitalisierung, d.h. der digitalen Unmündigkeit, und es ist eine digitale Aufklärung insofern, als diese Aufklärung selbst digital erfolgen kann. Eine digitale Vernunft bzw. digitales Denken bedeutet jedoch nicht, nur in Nullen und Einsen zu denken, und algorithmisch im Sinne „mechanische[r] Werkzeuge“. Vielmehr muss digitales Denken bedeuten, dass wir dabei vernetzt denken, im Sinne eines vernetzten öffentlichen Gebrauchs unserer Vernunft. Diese vernetzte öffentliche Vernunft ist eine Vernunft, die im Sinne eines Raumes virtueller Realität verstanden werden kann. Wir verstehen demnach das Internet nicht nur als ein bloßes Konsummedium, sondern als einen virtuellen Handlungsraum. Wir verstehen unsere Handlungen im Internet nicht im Sinne von bloßen Simulationen, sondern als virtuelle Realitäten, für die wir Verantwortung tragen. Wir verstehen Computerspiele nicht nur als Konsummedium und immersive Simulation einer Scheinwelt, sondern als Form der Wirklichkeitsreflexion. Wir verstehen die Digitalisierung nicht als uns beherrschende Technik und „mechanische Werkzeuge“, sondern als Ermöglichungsgrund von Freiheit im Sinne eines öffentlichen, vernetzten Gebrauchs unserer Vernunft im Sinne virtueller Realität. Wir verstehen das Internet nicht als privilegiertes Konsummedium, sondern als Grundbedürfnis nach Freiheit, auf welches alle Menschen ein Recht haben. Ein öffentlicher Gebrauch unserer digitalen Vernunft versteht Digitalisierung als Vernetzung und Teilung von Informationen, als Ermöglichungsgrund von freier Mitbestimmung und Demokratie und als Erweiterung unserer Freiheit durch Virtualisierung.