Missbrauch Künstlicher Intelligenz: „Viel gefährlicher als Atomwaffen“

Teile die Wahrheit!

Experten warnen in einer neuen Studie vor dem Missbrauch Künstlicher Intelligenz durch Autokraten, Kriminelle und Terroristen. Die Technologie könne «neue Bedrohungen aufwerfen oder bestehende Bedrohungen verändern», sagte Seán Ó hÉigeartaigh von der Universität Cambridge am Mittwoch der Nachrichtenagentur AFP.

Die 100 Seiten umfassende Analyse entwirft verschiedene Bedrohungsszenarien, wie etwa ein Attentat mithilfe eines Staubsaugerroboters. In diesem Szenario wird ein solcher Roboter in das deutsche Finanzministerium geschleust und führt dort zunächst die üblichen Reinigungsprozesse durch.

Sobald seine Gesichtserkennungs-Software das Gesicht des Ministers erkennt, explodiert eine versteckte Sprengstoffvorrichtung. Die Studie zeige, «wie die Welt in den nächsten fünf bis zehn Jahren aussehen könnte», erklärte der irische Wissenschaftler Ó hÉigeartaigh.

Eine weitere mögliche Anwendung Künstlicher Intelligenz sei die Automatisierung personalisierter «Phishing»-Angriffe im Internet. So wird der Versuch Krimineller bezeichnet, über Mail-Kommunikation an wertvolle persönliche Daten der Adressaten – wie etwa Bankverbindungen – zu gelangen. In Zukunft könnte es deutlich schwieriger werden, «Phishing»-Mails als solche zu erkennen, sagte Ó hÉigeartaigh.

Autoren fordern absolut sichere Roboter-Software

In der Politik können nach Angaben der Studie bereits jetzt skrupellose oder autokratische Staats- und Regierungschefs die durch Überwachungsnetzwerke gesammelten Datenmengen nutzen, um ihr eigenes Volk auszuspionieren. Zusätzlich könne mithilfe billig, aber äusserst glaubwürdig gefälschter Videos die öffentliche Meinung in «einem zuvor unvorstellbaren Ausmass» manipuliert werden.

Er persönlich sei «besonders besorgt über die Verwendung autonomer Drohnen für Terror und automatisierte Cyberattacken durch kriminelle und staatliche Gruppen», sagte ein weiterer Autor der Studie, Miles Brundage von der Universität Oxford. Drohnen und Roboter könnten als Raketenträger genutzt werden, um autonome Fahrzeuge zu zerstören oder um wichtige Infrastruktur zu Lösegeldzwecken zu bedrohen.

Die mehr als zwei Dutzend Autoren forderten von politischen Entscheidungsträgern und Unternehmen, Roboter-Software absolut sicher («unhackable») zu machen und weitere Gesetze zur Steuerung der Erforschung Künstlicher Intelligenz zu erwägen.

Ob Künstliche Intelligenz langfristig als hilfreich oder schädlich erachtet werde, sei «ein Produkt dessen, was die Menschen entscheiden zu tun», sagte Brundage (34C3 zur Zukunft: Kontrolle der Gesellschaft durch Big Data und Künstliche Intelligenz).

Künstliche Intelligenz lernt Gedankenlesen

Einem japanischen Wissenschafterteam ist es gelungen, einer Künstlichen Intelligenz gleichsam das Lesen von Gedanken beizubringen. Ähnliche Experimente, bei denen Gehirnaktivitätsmuster von visuellen Eindrücken interpretiert wurden, haben schon in der Vergangenheit interessante Ergebnisse geliefert.

300x250

Wirklich spektakulär wurden die Resultate nun aber, als das Team um Yukiyasu Kamitani von der University of Kyoto einen selbstlernenden Algorithmus ins Spiel brachte und Gehirnscan-Daten zur Interpretation präsentierte.

Zuvor war die KI-Software mit den Daten einer umfangreichen Studie gefüttert worden, bei der drei Menschen zahlreiche unterschiedliche Abbildungen betrachtet haben und die dabei entstehende Hirnaktivität gemessen wurde (Künstliche Intelligenz: Die totale individuelle Kontrolltechnologie (Videos)).

Auf Basis dieser Werte war die Künstliche Intelligenz in der Lage, Magnetresonanztomographien von beliebigen Testpersonen, die sich zunächst geometrische Muster und in weiterer Folge auch viel komplexere Bilder angesehen hatten, äußerst akkurat zu interpretieren.

Auch wenn der Computer die gesehenen Bilder wohl nicht 1:1 wiedergeben konnte, so war es ihm dennoch sehr genau möglich, Farben, Formen, Struktur und einzelne wichtige Merkmale der Abbildungen aus den Gedankenmustern der Probanden zu rekonstruieren.

300x250 boxone

„Viel gefährlicher als Atomwaffen“

Bei einem überraschenden Auftritt auf dem Festival SXSW (South by South West) im texanischen Austin hat Elon Musk einmal mehr vor den Gefahren von Künstlicher Intelligenz gewarnt und für die Pläne seines Raumfahrtunternehmens SpaceX geworben. So versicherte er laut Engadget erneut, kein Freund von Regulierung zu sein, dass der Fall bei KI aber anders liege.

Es müsse eine öffentliche Stelle geben, die Einblick habe und dafür sorge, dass jeder nur sichere KI-Technik entwickle, denn: „KI ist viel gefährlicher als Atomwaffen.“ Dass es keine Aufsichtsbehörde gebe, sei verrückt. Schon vergangenes Jahr hatte Musk – der selbst in der KI-Forschung aktiv ist – mit drastischen Warnungen für eine solche Aufsicht geworben.

Musks düstere Warnungen vor den Gefahren durch KI und der Notwendigkeit einer außerirdischen Kolonie sind nicht neu, auf dem Festival für Technikoptimisten aber sicher ungewöhnlich.

Darüber hinaus versicherte er den enthusiastischen Zuhörern, dass er für sein Tunnelbohrunternehmen „The Boring Company“ zwar 20 Prozent seiner Tweets aufwende, aber nur 2 Prozent seiner Zeit.

 

„Wer die KI beherrscht, wird die Welt beherrschen!“

In seiner „offenen Lektion“ (russisch: „Открытый Урок“) mit dem Titel „Russlands Blick in die Zukunft“, gehalten vor Studenten der Universität Jaroslawl, fand Präsident Wladimir Putin 2017 starke Worte. Trotz Nordkorea-Krise, weltweitem Terrorismus und zunehmender Gefahren durch Klimawandel und Hunger sieht er die Hauptgefahr für die Menschheit in Künstlicher Intelligenz (KI).

Aktuell könne man die Gefahren noch nicht abschätzen, doch berge die KI „kolossale Möglichkeiten“ in sich. Eine Monopolstellung eines einzelnen Landes könne dazu führen, dass dieses Land die Welt beherrsche, so der Präsident (Vladimir Putin und Elon Musk warnen: „SkyNet“ wird zur Realität (Videos)).

Die „Machtübernahme“ der „Maschinen“ ist nicht mehr fern, nur dass sie keine Blechmonster sind wie in den Matrix-Filmen, sondern sich z. B. im „Internet of Things“, irgendwo in harmlos aussehender Haushaltselektronik, verstecken.

Anzeige

Literatur:

Zukunft ohne Menschen – Was kommt nach uns? Die komplette zweite Staffel [3 DVDs]

Robokratie: Google, das Silicon Valley und der Mensch als Auslaufmodell (Neue Kleine Bibliothek)

Nutzlose Esser: Die Menschheit wird in den nächsten Jahrzehnten massiv dezimiert! Was ist zu erwarten, was können wir tun – und wer steckt dahinter?

Digitale Herrschaft: Über das Zeitalter der globalen Kontrolle und wie Transhumanismus und Synthetische Biologie das Leben neu definieren

Quellen: PublicDomain/bluewin.ch/derstandard.at/heise.de/matrix3000.de am 13.03.2018

Weitere Artikel:

About aikos2309

2 comments on “Missbrauch Künstlicher Intelligenz: „Viel gefährlicher als Atomwaffen“

  1. Dieses Thema wird natürlich völlig falsch aufgerollt.
    Damit KI sinnvolle Ergebnisse bringen kann, braucht man eine Unmenge von Trainingsdaten.
    Diese Daten müssen natürlich erhoben und gesammelt werden. Wer tut das, wer bezahlt das?
    Das sind die wichtigen Fragen, die aber leider nicht primär gestellt werden.

    Vor allem Konzerne verschiedener Themengebiete sind die modernen Köpfe der Diktaturen.
    Danach kommen die Regierungen mit ihren Apparaten, Organisationen und Organen.

    Doch was zeigt uns die aktuelle Gegenwart?
    Die sich neu ermächtigte Merkel will Existenzen in Ministerpositionen, die bewießenermaßen Lobbyisten sind, die kein Interesse am Datenschutz der Bürger haben, deren gesamtheitlicher Gesundheitszustand nicht gegeben ist, die zum Beispiel Geisteskrank sind, die noch mehr Überwachung aufbauen wollen, die den Rechtsstaat völlig aushebeln, siehe Bayern.

    Diese Regierungen haben die Aufgabe dabei zu helfen, Schattenregierungen zu entwickeln, die völlig undemokratisch arbeiten und außerdem nur sehr schwer bzw. überhaupt nicht zu fassen sind. Genau dieses System haben wir schon heute. Es wird nur mehr und mehr ausgebaut und verfeinert.

    Wir leben bereits unter einer schrecklichen Tyrannei derNGOs.

    Genau das was ich als kleines Kind meinen Eltern gesagt habe und wofür ich ausgelacht wurde.

    KI ist so gefährlich oder ungefährlich wie ein Würfel.
    Den Würfel kann ich für ein harmloses Würfelspiel verwenden.
    Mit dem Würfel kann ich aber auch über Leben und Tod entscheiden.

    Die Debatte über die Gefährlichkeit von KI ist also in Teilen eine Debatte für nicht effektiv fachlich und sachlich richtig denkende Idioten und Dummköpfe,.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert