Sollten Algorithmen die Startcodes für Atomwaffen kontrollieren? Die Vereinigten Staaten sagen nein

letzten Donnerstag , Das US-Außenministerium hat eine neue Vision für die Entwicklung, Erprobung und Verifizierung von Militärsystemen – einschließlich Waffen – skizziert, die künstliche Intelligenz nutzen.

Die Politische Erklärung zur verantwortungsvollen militärischen Nutzung von KI und Autonomie stellt einen Versuch der Vereinigten Staaten dar, die Entwicklung der militärischen KI in einer für die Technologie kritischen Zeit zu steuern. Das Dokument bindet das US-Militär nicht rechtlich, aber die Hoffnung ist, dass verbündete Nationen seinen Prinzipien zustimmen und eine Art globalen Standard für den verantwortungsvollen Bau von KI-Systemen schaffen.

In der Erklärung heißt es unter anderem, dass die militärische künstliche Intelligenz im Einklang mit internationalen Gesetzen entwickelt werden muss, dass die Länder transparent über die ihrer Technologie zugrunde liegenden Prinzipien sein müssen und dass hohe Standards implementiert werden, um die Leistung von Systemen der künstlichen Intelligenz zu überprüfen. Es besagt auch, dass nur Menschen Entscheidungen über den Einsatz von Atomwaffen treffen sollten.

Wenn es um autonome Waffensysteme geht, wurde den US-Militärführern oft versichert, dass ein Mensch „auf dem Laufenden“ bleiben wird, um Entscheidungen über den Einsatz tödlicher Gewalt zu treffen. Aber die offizielle Richtlinie, die erstmals 2012 vom Verteidigungsministerium herausgegeben und in diesem Jahr aktualisiert wurde, verlangt dies nicht.

Versuche, ein internationales Verbot autonomer Waffen zu formulieren, blieben bislang erfolglos. Das Internationale Rote Kreuz und Kampagnengruppen wie Stop Killer Robots haben bei den Vereinten Nationen auf eine Einigung gedrängt, aber einige Großmächte – die Vereinigten Staaten, Russland, Israel, Südkorea und Australien – haben sich als nicht bereit erwiesen, sich zu verpflichten.

Ein Grund dafür ist, dass viele im Pentagon den verstärkten Einsatz von KI im gesamten Militär, einschließlich außerhalb von Nichtwaffensystemen, als lebenswichtig und unvermeidlich ansehen. Sie argumentieren, dass ein Verbot den Fortschritt der Vereinigten Staaten verlangsamen und ihre Technologie für Gegner wie China und Russland behindern würde. Der Krieg in der Ukraine hat gezeigt, wie schnell Autonomie in Form von billigen Wegwerfdrohnen, die dank maschineller Lernalgorithmen immer leistungsfähiger werden und ihnen beim Wahrnehmen und Handeln helfen, helfen kann, in Konflikten einen Vorteil zu verschaffen.

Anfang dieses Monats schrieb ich über die persönliche Mission von Google-CEO Eric Schmidt, künstliche Intelligenz im Pentagon zu entwickeln, um sicherzustellen, dass die Vereinigten Staaten nicht hinter China zurückfallen. Es war nur eine Geschichte, die aus meinen monatelangen Berichten über Bemühungen hervorging, KI in kritische Militärsysteme einzuführen und wie sie zu einem zentralen Bestandteil der US-Militärstrategie wurde – auch wenn viele der beteiligten Technologien in einer Krise noch im Entstehen begriffen und ungetestet blieben.

See also  Google kündigt neue Funktionen für Android und Wear OS an

Lauren Kahn, wissenschaftliche Mitarbeiterin beim Council on Foreign Relations, begrüßte die neue US-Ankündigung als potenziellen Baustein für einen verantwortungsvolleren Einsatz militärischer KI auf der ganzen Welt.

Twitter-Inhalte

Dieser Inhalt kann auch auf der Website eingesehen werden Entsteht aus.

Einige Nationen besitzen bereits Waffen, die unter begrenzten Umständen ohne direkte menschliche Kontrolle funktionieren, wie beispielsweise Raketenabwehrsysteme, die mit übermenschlicher Geschwindigkeit reagieren müssen, um effektiv zu sein. Ein stärkerer Einsatz von KI könnte mehr Szenarien bedeuten, in denen Systeme autonom arbeiten, beispielsweise wenn Drohnen außerhalb der Reichweite der Kommunikation oder in Schwärmen operieren, die für einen Menschen zu komplex sind.

Dennoch sind einige Aussagen über die Notwendigkeit von KI in Waffen, insbesondere von Unternehmen, die die Technologie entwickeln, etwas weit hergeholt. Es gab Berichte über den Einsatz vollständig autonomer Waffen in den jüngsten Konflikten und über die Unterstützung von KI bei gezielten Militärschlägen, aber dies wurde nicht bestätigt, und tatsächlich sind viele Soldaten möglicherweise misstrauisch gegenüber Systemen, die sich auf Algorithmen stützen, die alles andere als falsch sind.

Wenn autonome Waffen jedoch nicht verboten werden, wird ihre Entwicklung fortgesetzt. Daher muss unbedingt sichergestellt werden, dass sich die betreffende KI wie erwartet verhält – auch wenn die Technik, die zur vollständigen Operationalisierung von Absichten wie denen in der neuen US-Ankündigung erforderlich ist, noch perfektioniert werden muss.

error: Content is protected !!