Skip to main content
17. April 2024

FPÖ – Reifenberger: „Künstliche Intelligenz hat in Waffensystemen nichts verloren“

„Künstliche Intelligenz (KI) ist sehr fehleranfällig und kann – so hilfreich sie auch sein kann – sehr gefährlich sein. Wenn KI autonome Waffeneinsätze herbeiführen kann, dann ist das brandgefährlich, umso mehr, wenn es sich dabei um Atomwaffen handelt. Die Algorithmen, die in der KI eine Entscheidungsgrundlage herbeiführen können, sind viel zu simpel und beruhen größtenteils auf im Internet frei verfügbaren Informationen“, erklärte heute der freiheitliche Wehrsprecher NAbg. Mag. Volker Reifenberger.

Als Beispiel führte Reifenberger an, dass zum Beispiel in einem Testversuch, die Grundlage zur Unterscheidung Wolf von Hund, der Hintergrund des Bildes war. „Das ernüchternde Ergebnis war, dass die KI beim Durchforsten des Internets Hunde- und Wolfsbilder verarbeitet hat und somit zum trügerischen Fehlschluss gekommen ist, denn wenn im Hintergrund des Tieres Schnee zu sehen ist, dann ist es mit hoher Wahrscheinlichkeit ein Wolf ohne Schnee ein Hund. Auch in der Hautkrebsforschung beruhte die KI mit Ja oder Nein auf der einfachen Tatsache, dass bei Ja-Bildern ein Lineal zu sehen war. Die Trefferquote war in beiden Fällen unglaublich gut, aber trügerisch!“, so Reifenberger.

„Und jetzt muss man sich vor Augen halten, dass es eine KI gibt, bei welcher man gar nicht mehr nachvollziehen kann, auf welcher Basis sie Entscheidungen trifft. Und solche in Wahrheit unintelligente Blackboxen, eingebaut in autonome Waffensysteme, über Tod oder Leben entscheiden zu lassen, muss unbedingt verhindert werden! Wir haben es hier mit einem Allparteienantrag zu tun, den wir Freiheitliche natürlich unterstützen“, betonte Reifenberger in weiterer Folge in seinem Debattenbeitrag zur internationalen Regulierung von tödlichen autonomen Waffensystemen sowie Risiken im Zusammenhang mit der Integration Künstlicher Intelligenz in Nuklearwaffensystemen.


© 2024 Freiheitliche Partei Österreichs. Alle Rechte vorbehalten.