Warnung vor autonomen Kriegsrobotern

Weltwirtschaftsforum in Davos: Experten fordern Bann für Waffen, die selbstständig töten

Teilen!

Von Hannes Koch

21. Jan. 2016 –

Kriegsmaschinen, die computerprogrammiert selbstständig kämpfen und töten, gibt es heute noch nicht. Aber werden sie entwickelt? Und dürften sie gebaut und eingesetzt werden? Auch mit diesen Fragen beschäftigte sich das Weltwirtschaftsforum in Davos. Die Podiumsdiskussion „Wenn Roboter Krieg führen“ war Teil der Debatte über den Stand und die Folgen künstlicher Intelligenz.

 

Anfangs gab Roger Carr, Vorstand des britischen Rüstungskonzerns BAE Systems, einen kleinen Überblick über die entsprechende Waffentechnik. Bereits heute setzen beispielsweise die USA kleine Flugzeuge ohne Piloten, sogenannte Drohnen, ein, die über tausende Kilometer ferngesteuert werden. Damit greifen die Militärs feindliche Kämpfer in Afghanistan, Pakistan und anderen Regionen an und töten sie. Diese Waffensysteme sind schon in der Lage aus ihren Erfahrungen zu lernen und den Soldaten am Steuerpult im heimatlichen Stützpunkt Vorschläge für den Angriff zu machen. Entscheidend ist hier aber, dass Menschen die Entscheidung über den tödlichen Schuss treffen müssen.

 

Die Frage ist allerdings, ob Waffen diese Entscheidung bald selbstständig treffen können und sollten. Die Experten waren sich darüber einig, dass Unternehmen in den USA und anderen entwickelten Staaten solche Kriegssysteme mit künstlicher Intelligenz grundsätzlich in wenigen Jahren werden bauen können. Stuart Russell, Computer-Professor der Universität Berkeley in Kalifornien, verwies auf den Entwicklungsstand autonom fahrender Autos. In dieser Technologie sei der Weg nicht mehr allzu weit, bis Fahrzeuge die meisten Verkehrssituationen selbstständig bewältigten. Deshalb sei es bald auch grundsätzlich machbar, Kampfdrohnen so zu programmieren, dass sie beispielsweise in einem bestimmten Gebiet alle Männer töten, die ungefähr zwischen 12 und 30 Jahren alt seien. Die Waffensysteme würden dann die Fähigkeit besitzen, die Zielpersonen nach einprogrammierten Parametern zu suchen, zu verfolgen und abzuschießen.

 

„Diese rote Linie dürfen wir nicht überschreiten“, mahnte Alan Winfield, Elektronik-Professor der Universität von Westengland in Bristol. Denn es sei nicht möglich, intelligente Waffensysteme zu bauen, die ethische Entscheidungen beherrschen. Zum Beispiel: Nach dem internationalen Kriegsrecht ist es verboten, Soldaten zu töten, die sich ergeben. Eine autonome Kampfmaschine kann jedoch nicht sicher erkennen, wann ein Kämpfer aufgibt oder davonläuft, um eine neue Stellung zu suchen. Sie würde in jedem Fall schießen. Maschinen solche ethischen Erwägungen beizubringen, dauere noch sehr lange, so Winfield. Deshalb dürfe man keine autonomen Kampfmaschinen entwickeln. Sonst riskiere man, dass das internationale Recht außer Kraft gesetzt werde und die Menschenrechte nicht mehr gälten.

 

Hunderte Wissenschaftler, die sich mit künstlicher Intelligenz beschäftigen, haben deshalb einen offenen Brief geschrieben. Sie fordern eine internationale Verständigung, die autonome Waffensysteme mit einem Bann belegt. „Wir müssen das internationale Recht weiterentwickeln, bevor es zu spät ist“, sagte Angela Kane vom Wien-Zentrum für Abrüstung. Denn schließlich bestehe die Gefahr, dass Kampfroboter, wenn sie erst einsetzbar seien, in die Hände von Diktaturen und Terroristen geraten.

 

« Zurück | Nachrichten »