Die Entwicklung der künstlichen Intelligenz und die Zukunft der nationalen Sicherheit

Künstliche Intelligenz ist heutzutage in aller Munde. In den populären Medien scheinen normale Cybersysteme fast passe zu sein, da sich die Autoren auf KI konzentrieren und Bilder von allem heraufbeschwören, von echten Terminator-Robotern bis hin zu freundlicheren Gefährten. In Geheimdienstkreisen deutet Chinas Einsatz von Videoüberwachung, Gesichtserkennungstechnologie und anderen Überwachungssystemen auf die Ankunft von Big Brother hin – wenn nicht ganz 1984, dann erst etwa vierzig Jahre später. Im Pentagon sprechen Legionen von Offizieren und Analysten über den KI-Wettlauf mit China, oft mit der Vorahnung, dass die Vereinigten Staaten es sich nicht leisten können, in diesem aufstrebenden Bereich der Technologie an zweiter Stelle zu stehen. In politischen Kreisen fragen sich die Leute über die Ethik der KI – zum Beispiel, ob wir die Fähigkeit, tödliche Gewalt gegen Amerikas Feinde anzuwenden, wirklich an Roboter delegieren können, so schlimm sie auch sein mögen. Ein neuer Bericht des Defence Innovation Board legt grobe Grundsätze für die zukünftige Ethik der KI dar, jedoch nur in allgemeiner Form, die noch viel zu tun bleibt.





Welche der folgenden Veranstaltungen findet zur Wintersonnenwende nicht statt?

Was bedeutet das alles wirklich und ist KI wahrscheinlich alles, was es sein soll? Wir denken, dass die Antwort komplex ist und dass eine bescheidene Dosis kaltes Wasser auf dieses Thema geworfen werden sollte. Tatsächlich wird die Entwicklung vieler der heute ins Auge gefassten KI-Systeme Jahrzehnte dauern. Darüber hinaus wird KI oft mit Dingen verwechselt, die sie nicht ist. Eine genaue konzeptionelle Auslegung ist unabdingbar, wenn wir in den kommenden Jahren intelligente Diskussionen über die Erforschung, Entwicklung und Regulierung von KI führen wollen.



KI-Systeme sind im Grunde Computer, die lernen können, Dinge durch einen Prozess von Versuch und Irrtum zu tun, mit einem Mechanismus, der ihnen sagt, wann sie Recht haben und wann sie falsch liegen – wie zum Beispiel Raketen auf Fotos oder Menschen in Menschenmengen zu erkennen das Projekt Maven des Pentagons – und dann das Gelernte anzuwenden, um zukünftige Daten zu diagnostizieren. Mit anderen Worten, bei der KI wird die Software praktisch von der Maschine selbst erstellt. Der breite rechnerische Ansatz für ein bestimmtes Problem wird im Voraus von echten altmodischen Menschen bestimmt, aber der eigentliche Algorithmus wird durch einen Prozess von Versuch und Irrtum vom Computer erstellt, der riesige Datenmengen aufnimmt und verarbeitet. Der Denkprozess der Maschine ist wirklich nicht so ausgefeilt. Es entwickelt mehr künstliche Instinkte als Intelligenz – es untersucht riesige Mengen an Rohdaten und findet heraus, wie man eine Katze auf einem Foto oder einen Raketenwerfer auf einer überfüllten Autobahn erkennt, anstatt sich (zumindest auf absehbare Zeit) tief Gedanken zu machen.



Diese Definition ermöglicht es uns, schnell einige Arten von Computersystemen zu identifizieren, die in Wirklichkeit keine KI sind. Sie mögen wichtig, beeindruckend und entscheidend für den Kriegsjäger sein, aber sie sind keine künstliche Intelligenz, da sie keine eigenen Algorithmen aus Daten und mehreren Iterationen erstellen. Es gibt kein maschinelles Lernen, um es anders auszudrücken. Wie unser Kollege Tom Stefanick betont, gibt es einen grundlegenden Unterschied zwischen fortschrittlichen Algorithmen, die es seit Jahrzehnten gibt (obwohl sie sich ständig verbessern, da Computer schneller werden) und künstlicher Intelligenz. Es gibt auch einen Unterschied zwischen einem autonomen Waffensystem und KI-gesteuerter Robotik.



Beispielsweise zeigen die Computer, die einen Marschflugkörper oder eine Drohne steuern, keine KI an. Sie folgen einem ausgeklügelten, aber vorherbestimmten Skript, bei dem Sensoren verwendet werden, um Daten aufzunehmen und diese dann in Computer einzugeben, die dann mithilfe einer (von Menschen im Voraus entwickelten) Software den richtigen nächsten Schritt und den richtigen Ort zum Detonieren von Waffen bestimmen. Das ist Autonomie. Es ist keine KI.



Oder, um ein für die meisten Menschen näheres Beispiel zu verwenden, wenn Ihr Smartphone eine App wie Google Maps oder Waze verwendet, um die schnellste Route zwischen zwei Punkten zu empfehlen, ist dies auch nicht unbedingt KI. Es gibt nur so viele mögliche Routen zwischen zwei Orten. Ja, es können Dutzende oder Hunderte sein – aber die Zahl ist endlich. Daher kann der Computer in Ihrem Telefon im Wesentlichen jede vernünftige Möglichkeit separat prüfen und Daten aus dem breiteren Netzwerk aufnehmen, die die Telefone vieler anderer Personen dazu beitragen, die Verkehrsbedingungen in die Berechnung einzubeziehen. Aber die Art und Weise, wie die Mathematik tatsächlich gemacht wird, ist einfach und vorbestimmt.

Warum ist das wichtig? Zum einen sollte es uns gegenüber KI weniger atemlos machen und es als ein Element einer umfassenderen Computerrevolution betrachten, die in der zweiten Hälfte des 20. Jahrhunderts begann und in diesem Jahrhundert an Fahrt gewann. Außerdem sollte es uns helfen zu erkennen, was im Bereich der zukünftigen Kriegsführung realistisch und wünschenswert zu regulieren ist oder nicht.



Der ehemalige stellvertretende Vorsitzende der gemeinsamen Stabschefs, General Paul Selva, hat kürzlich argumentiert, dass die Vereinigten Staaten etwa ein Jahrzehnt davon entfernt sein könnten, einen autonomen Roboter zu bauen, der entscheiden könnte, wann sie schießen und wen sie töten – obwohl er behauptete auch, dass die Vereinigten Staaten keine Pläne hätten, eine solche Kreatur tatsächlich zu bauen. Aber wenn man es anders sieht, haben wir in gewisser Weise schon seit einer Generation autonome Tötungsmaschinen. Dieser Marschflugkörper, den wir oben besprochen haben, wird seit den 1970er Jahren eingesetzt. Es hat Anweisungen, eine bestimmte Route zu fliegen und dann seinen Sprengkopf zu zünden, ohne dass sich ein Mensch in der Schleife befindet. Und in den 1990er Jahren wussten wir, wie man Dinge wie Skeet-Submunition baut, die über einem Schlachtfeld herumlungern und nach warmen Objekten wie Panzern suchen können – mit Software, die entscheidet, wann sie dann zerstört werden soll. Die Killermaschine entschied also praktisch schon für sich selbst.

henry vii und elizabeth von york

Selbst wenn der Terminator von General Selva nicht gebaut wird, wird der Robotik in einigen Fällen wahrscheinlich eine größere Entscheidungsbefugnis eingeräumt, um zu entscheiden, wann Gewalt angewendet wird, da wir diese Schwelle faktisch bereits überschritten haben. Dieses hochbrisante Thema erfordert natürlich eine sorgfältige ethische und rechtliche Überwachung, und die damit verbundenen Risiken sind gravierend. Doch die Geschwindigkeit, mit der militärische Operationen durchgeführt werden müssen, wird in vielen taktischen Situationen Anreize schaffen, keine Person in die Entscheidungsschleife einzubeziehen. Was auch immer die Vereinigten Staaten bevorzugen mögen, angesichts des wahrscheinlichen Widerstands Russlands und möglicherweise anderer Nationen sowie der enormen Probleme bei der Verifizierung scheinen Beschränkungen für die automatisierte Anwendung gewaltsamer Gewalt auch relativ schwierig zu verhandeln (auch wenn dies wünschenswert wäre).



Zum Beispiel können kleine Roboter, die zu Lande, in der Luft oder im Wasser als Schwärme operieren können, einen gewissen Spielraum erhalten, um zu entscheiden, wann sie ihre tödlichen Fähigkeiten einsetzen. Indem sie miteinander kommunizieren und Informationen über den Feind in Echtzeit verarbeiten, könnten sie Angriffe dort konzentrieren, wo die Verteidigung am schwächsten ist, in einer Form des Kampfes, die John Allen und Amir Husain wegen seiner Geschwindigkeit und Intensität Hyperkrieg nennen. Andere Arten von Schwärmen könnten geparkte Flugzeuge angreifen; selbst kleine Sprengstoffe, die präzise gezündet werden, könnten Flügel oder Triebwerke lahmlegen oder sekundäre und viel größere Explosionen erzeugen. Viele Länder werden in den kommenden zwanzig Jahren die Kapazitäten haben, solche Dinge zu tun. Selbst wenn die Vereinigten Staaten versuchen, solche Schwärme zu vermeiden, um tödliche und offensive Zwecke zu nutzen, können sie sie als Verteidigungsschilde (vielleicht gegen nordkoreanische Artillerieangriffe auf Seoul) oder als Störhilfen zur Begleitung durchdringender Flugzeuge einsetzen. Da UAVs, die zehn Stunden und hundert Kilometer fliegen können, jetzt nur Hunderttausende von Dollar kosten, und Quadrocopter mit Reichweiten von einem Kilometer mehr oder weniger Hunderte von Dollar kosten, sind die Trendlinien klar – und die Erschwinglichkeit der Verwendung vieler Drohnen in einer organisierten Weise ist offensichtlich.



Wo eine Regulierung möglich und ethisch zwingend ist, wird der geografische und zeitliche Raum begrenzt, in dem von KI oder anderen komplexen Algorithmen gesteuerte Waffen tödliche Gewalt anwenden können. Zum Beispiel könnten die oben erwähnten Schwärme nur in der Nähe eines Schiffes oder am Himmel in der Nähe der DMZ in Korea oder in geringer Entfernung von einem Militärflugplatz aktiviert werden. Es kann auch klug sein, Maschinen zu verbieten, zu entscheiden, wann Menschen getötet werden. Es könnte verlockend sein, Gesichtserkennungstechnologie bei zukünftigen Robotern zu verwenden, damit sie in einer riesigen Stadt im Nahen Osten den nächsten bin Laden, Baghdadi oder Soleimani jagen. Aber das Potenzial für Fehler, Hacking und viele andere Fehlfunktionen kann zu groß sein, um so etwas zuzulassen. Vermutlich ist es auch sinnvoll, den Einsatz von KI zum Angriff auf die nukleare Führungs- und Kontrollinfrastruktur einer großen Atommacht zu verbieten. Solche Versuche könnten Anlass geben, sie in einer zukünftigen Krise zu nutzen oder ihnen Ängste zu nehmen und damit die Risiken eines Atomkriegs erhöhen.

Wir befinden uns in den Anfängen der KI. Wir können noch nicht absehen, wohin sie führt und was sie in zehn, zwanzig oder dreißig Jahren möglich machen wird. Aber wir können härter daran arbeiten, zu verstehen, was es eigentlich ist – und auch darüber nachdenken, wie wir seiner zukünftigen Entwicklung und Nutzung ethische Grenzen setzen können. Die Zukunft der Kriegsführung, zum Guten oder zum Schlechten, steht buchstäblich auf dem Spiel.