Autonome Waffen Wissenschaftler wollen Kampfroboter verhindern

14. Mai 2019, 15:26 Uhr

Drohnen fliegen bereits selbstständig in ihr Einsatzgebiet, die Entscheidung über einen Angriff treffen aber noch Menschen. Das könnte bei komplett autonomen Waffensystemen mit künstlicher Intelligenz anders werden.

Die Reaktion kam schnell: In einem öffentlichen Schreiben hat die Südkoreanische Universität KAIST (Korea Advanced Institute of Science and Technology) versichert, keinerlei tödliche autonome Waffen zu entwickeln. Das Institut will damit einen Boykott der internationalen Wissenschaftswelt abwenden. Mit einem solchen Abbruch jeder Zusammenarbeit hatten Ende März 57 Forscher gedroht.

Hintergrund war die Entscheidung von KAIST, mit dem koreanischen Rüstungskonzern Hanwha ein Forschungszentrum zu gründen, das Einsatzmöglichkeiten von künstlicher Intelligenz für die Landesverteidigung entwickeln sollte. Die Professoren hatten kritisiert, KAIST behindere damit den Versuch, diese autonomen, tödlichen Waffensysteme international zu ächten. In dem Schreiben an die Wissenschaftler versicherte der Direktor des koreanischen Instituts nun ausdrücklich, dass es bei der Forschungszusammenarbeit "nur" um Aufgabestellungen im Bereich Logistik oder unbemannter Flug gehe.

Revolutionär wie Atomwaffen

Bereits seit mehreren Jahren streiten Experten darüber, inwiefern Systeme mit künstlicher Intelligenz die Kriegsführung so stark verändern, wie es zuvor durch die Entwicklung des Schießpulvers oder der Atomwaffen passiert ist. Könnten eines Tages Kampfroboter wie in der Science-Fiction Reihe "Terminator" auf die Jagd nach Menschen gehen und dabei von niemandem mehr kontrolliert werden, außer von ihrer Programmierung?

Die aktuellen Entwicklungen sehen zwar lange nicht so furchteinflößend aus. Optisch unterscheiden sich die Kanonen oder Flugzeuge kaum von konventionellen Waffen. Kritiker befürchten aber, dass solche autonomen Systeme künftig nicht nur selbstständig ihre Einsatzgebiete ansteuern, wie es Drohnen jetzt bereits tun. Sie könnten ihre Ziele auch selbstständig auswählen und bekämpfen, ohne das ein Mensch noch eine Entscheidung treffen muss. Das könnte einerseits die Hemmschwelle weiter senken, Waffengewalt gegen Gegner einzusetzen. Andererseits könnte die Kontrolle über tödliche Angriffe insgesamt verloren gehen.

Bereits heute gibt es Waffensysteme, die teilweise hochautomatisiert funktionieren, darunter das Abwehrsystem MANTIS der Bundeswehr, die Kampfdrohne X-47B der US-Streitkräfte oder die Selbstschussanlage SGR-A1 der koreanischen Armee. Bislang müssen bei diesen Waffen aber immer noch Menschen die Entscheidung treffen, ob gefeuert wird oder nicht. Experten sehen aber auch hier bereits Probleme, weil Maschinen die entscheidenden Stiuationen automatisiert vorbereiten und damit auch vorprägen, ob sich die menschlichen Steuermänner und -frauen dann für oder gegen einen Angriff entscheiden.

Dual-Use

Einer der Unterzeichner des offenen Briefs ist der Freiburger Informatik-Professor Wolfram Burgard. "Ich bin der Ansicht, dass wir eine so tolle Wissenschaft, wie die von der künstlichen Intelligenz, nicht für kriegerische Zwecke missbrauchen dürfen", sagt er.

Intelligente Algorithmen könnten das Leben der Menschen erheblich verbessern. Es müsse aber verhindert werden, dass diese Technologie als Waffe eingesetzt werden.

Alle Technologien künstlicher Intelligenz haben das sogenannte Dual-Use Problem. Vereinfacht gesagt: Was man für selbstfahrende Autos entwickelt, kann man auch für selbstfahrende Panzer nutzen. Deshalb wurde von den Vereinten Nationen ein Verfahren begonnen, diese Waffen genauso zu ächten, wie das mit Chemie- oder Atomwaffen schon passiert ist. Wir als Wissenschaftler wollten hier mit dem offenen Brief ein deutliches Zeichen setzen, dass wir eine solche Ächtung unterstützen.

Wolfram Burgard, Universität Freiburg

Ächtung Autonomer Waffen

Die Gruppe der Experten der UN-Konvention zur Kontrolle "bestimmter konventioneller Waffen" (CCW) hat im Herbst 2017 angefangen, über eine Ächtung Autonomer Waffensysteme zu beraten. Viele Beobachter hoffen, dass es gelingt, komplett selbstständige Kampfroboter zu verbieten, bevor sie fertig entwickelt sind. Das nächste Treffen der Gruppe soll jetzt im April stattfinden.

Dieses Thema im Programm: MDR KULTUR - Das Radio | 24. Januar 2018 | 18:00 Uhr