Aus ethischer Hinsicht erweisen sich vor allem „Letale autonome Waffensysteme“ (LAWS) als problematisch. Denn hier stehen nicht mehr menschliche Entscheidungen unmittelbar hinter Tötungshandlungen, wie im Falle von ferngesteuerten Drohnen, sondern das Waffensystem ‚entscheidet‘ selbständig, wen es wann und wie tötet. Neuronale Netze lassen sich auch auf Muster in Kriegssituationen anwenden, etwa dann, wenn zwischen feindlichen Soldaten oder Zivilisten unterschieden werden soll. In Art. 36 des Zusatzprotokolls zu den Genfer Konventionen aus dem Jahr 1977 werden explizit die Neuen Waffen“ thematisiert. Darin heißt es: „Jede Hohe Vertragspartei ist verpflichtet, bei der Prüfung, Entwicklung, Beschaffung oder Einführung neuer Waffen oder neuer Mittel oder Methoden der Kriegführung festzustellen, ob ihre Verwendung stets oder unter bestimmten Umständen durch dieses Protokoll oder durch eine andere auf die Hohe Vertragspartei anwendbare Regel des Völkerrechts verboten wäre.“
Eine ethische Bewertung dieser neuen Waffensysteme hängt von dem zugrundeliegenden ethischen Paradigma ab, also der Frage, ob wir eine deontologisch, konsequentialistische oder Tugendethik vertreten. Nach der Deontologie bemisst sich der Wert einer Handlung an der Motivation und der Frage, inwiefern die Würde der Person dadurch gewahrt bleibt. Die Konsequenzen einer Handlung sind nebensächlich, sondern der Fokus liegt auf der Struktur des Willens. Das Problem der Deontologie besteht darin, dass wir einer Handlung nicht ihre Motivation ansehen können, und dass die Wirkung einer Handlung nur nebensächlich ist. Nach dem Konsequentialismus bemisst sich der Wert einer Handlung sich an ihren Folgen, die quantifiziert werden können. Weniger interessiert dabei die Motivation einer Handlung. Das Problem des Konsequentialismus ist der unklare Begriff von „Nutzen“ und „Konsequenz“. Außerdem scheint die moralische Quantifizierung einer Handlung unserer Intuition einer absoluten Geltung des moralisch Guten entgegenzustehen. Nach der Tugendethik bemisst sich der moralische Wert einer Handlung daran, ob sie einer Tugend entsprungen ist, d.h. ob sie auf bestimmte tugendhafte Charaktereigenschaften und Haltungen schließen lässt, die eine ausgewogene Mitte zwischen moralisch problematischen Extremen darstellen. Im Gegensatz zur Deontologie ist die Tugendethik lebensweltlich verortet, so dass sie einerseits konkreter, andererseits aber weniger prinzipiell verfasst ist.
Ethik hat es nicht nur mit der Vergangenheit und Gegenwart, sondern auch mit der (möglichen) Zukunft zu tun. Sie betrifft nicht nur die Notwendigkeit und Wirklichkeit, sondern auch die Möglichkeit der Bewertung von möglichen Handlungen. In Fiktionen zeigen sich also neue ethische Dimensionen, die früher oder später real werden können, so dass dadurch der ethische Denk- und Handlungsraum erweitert und ausgetestet werden kann.
Die Zukunft der Ethik zeigt sich insbesondere am Beispiel von autonomen Robotern. Der russisch-amerikanische Science-Fiction-Autor Isaac Asimov (1920-1992) entwickelte in seinem Buch „Ich, der Roboter“ aus dem Jahr 1950 sogenannte „Robotergesetze“:
„DAS NULLTE GESETZ: Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass der Menschheit Schaden zugefügt wird. DAS ERSTE GESETZ: Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird, es sei denn, dies würde das nullte Gesetz der Robotik verletzen. DAS ZWEITE GESETZ: Ein Roboter muss dem ihm von einem menschlichen Wesen gegebenen Befehl gehorchen, es sei denn, dies würde das nullte oder das erste Gesetz der Robotik verletzen. DAS DRITTE GESETZ: Ein Roboter muss seine Existenz beschützen, es sei denn, dies würde das nullte, das erste oder das zweite Gesetz der Robotik verletzen.“
Aus diesen Gesetzen wird deutlich, dass der Roboter in seinem Handeln den menschlichen Interessen in jedem Fall untergeordnet ist. Er darf selbst nicht dafür von einem Menschen instrumentalisiert werden, einem anderen Menschen zu schaden. Kriegsroboter wären damit unmöglich. Das dritte Gesetz betrifft die Identität des Roboters. Sollte ihn ein Mensch angreifen, dürfte er sich dagegen nicht zur Wehr setzen. Allerdings dürfte er sich gegenüber nichtmenschlichen Tieren oder anderen Robotern verteidigen.
Während bei „Robotized Military Systems“ (RMS) immer Menschen in den Entscheidungsprozess (unmittelbar) involviert sind, wie etwa im Falle von Drohnen, so sind bei „Lethal Autonomous Weapons Systems“ (LAWS) keine Menschen mehr in den Entscheidungsprozess (unmittelbar) involviert. LAWS handeln hypothetisch autonom, indem sie in einem ihnen überlassenen Bereich ohne menschliche Intervention entscheiden, welche Ziele angegriffen werden sollen und welche nicht. Dies kann insbesondere in unübersichtlichen Situationen von Vorteil sein. Hier stellt sich nun aus deontologischer Perspektive die Frage, ob es inhärent falsch ist, wenn LAWS im Krieg andere Soldaten töten, weil sie dadurch instrumentalisiert und zu bloßen Objekten degradiert werden. Ändert sich also der moralische Status einer Handlung, wenn Menschen durch RMS oder LAWS getötet werden? Aus konsequentialistischer Sicht wären LAWS in jedem Fall RMS vorzuziehen, wenn sie eine signifikant niedrigere Quote an verletzten Zivilisten mit sich bringen.