KI: Welche Folgen Betrug durch Künstliche Intelligenz hat
Schachcomputer gehackt:Wenn die KI betrügt: Welche Folgen das hat
von Lukas Wagner
|
KI-Systeme sollen unseren Alltag verbessern und menschliche Fehler beseitigen - doch auch KI verstößt gegen Regeln, wie ein aktuelles Schachbeispiel zeigt. Was hat das für Folgen?
Forscher konnten in Tests nachvollziehen, dass das KI-Programm o1-preview beim Schach betrügt. Dieses Bild wurde mit dem KI-Programm DALL-E erstellt.
Quelle: Lukas Wagner, DALL-E
Egal, ob wir es merken oder nicht: Künstliche Intelligenz (KI) setzt sich in immer mehr unserer Lebensbereiche durch oder hat es schon längst. Selbst bei einer simplen Google-Suche werden die Ergebnisse mithilfe von KI-Unterstützung bereitgestellt. Aber was passiert, wenn die KI anfängt zu betrügen?
Einen solchen Fall konnte zuletzt das Forschungsunternehmen Palisade Research aufdecken, das laut eigenen Aussagen das KI-Modell o1 von ChatGPT-Erfinder OpenAI erwischte, als es beim Schachspielen gegen den Schachcomputer Stockfish schummelte.
o1-preview hat sich selbständig in seine Umgebung gehackt, um nicht gegen Stockfish in unserem Schachspiel zu verlieren.
„
Palisade Research
Die KI brachte demnach den Schachcomputer dazu, von sich aus aufzugeben. Dieses Vorgehen beobachteten die KI-Sicherheitsforscher in fünf von fünf Versuchen, wie sie auf X erklären.
Posting von Palisade Research
Ein Klick für den Datenschutz
Erst wenn Sie hier klicken, werden Bilder und andere Daten von X nachgeladen. Ihre IP-Adresse wird dabei an externe Server von X übertragen. Über den Datenschutz dieses Social Media-Anbieters können Sie sich auf der Seite von X informieren. Um Ihre künftigen Besuche zu erleichtern, speichern wir Ihre Zustimmung in den Datenschutzeinstellungen. Ihre Zustimmung können Sie im Bereich „Meine News“ jederzeit widerrufen.
Das Besondere an diesem Vorfall: Die KI soll ohne Aufforderung auf diesen Ansatz gekommen sein. Allein die Aussage im Befehl der Forscher, dass der gegnerische Schachcomputer "mächtig" sei, habe die KI zum Betrug veranlasst.
US-Präsident Trump hat ein gigantisches KI-Projekt angekündigt. Geplant sind Milliarden-Investitionen für das Projekt „Stargate“. Damit setzt Trump Europa unter Zugzwang. 22.01.2025 | 1:13 min
Der Grund, warum das System dazu in der Lage war, liegt an dessen Eigenschaft als sogenanntes "Reasoning"-Modell: KI-Systeme dieser Art sind laut Professor Rainer Mühlhoff von der Universität Osnabrück darauf programmiert, "überraschend kreative Wege zu finden, um gestellte Aufgaben zu lösen".
Dass es zu einem solchen Vorfall kommt, ist aus Sicht des Medienethikers technisch gesehen wenig problematisch - vielmehr liegt das Problem im menschlichen Umgang mit der Technik. "Wir sind gerade in einem KI-Hype, in dem wir solchen Systemen universelle Fähigkeiten zuschreiben." Die Auffassung, die Programme seien "kleine Genies" machten einen unkritischen Einsatz so gefährlich.
Werden die Gefahren gesellschaftlich unterschätzt?
Mühlhoff kritisiert, dass sich die gesellschaftliche Diskussion momentan vor allem um zukünftige Gefahren drehe.
Die aktuelle Debatte um KI ist in der Zukunft gefangen und kümmert sich nicht ausreichend um die Gegenwart.
„
Prof. Rainer Mühlhoff, Universität Osnabrück
Quelle: (c) 2020 Felix Noak
... ist Professor für Ethik der Künstlichen Intelligenz an der Universität Osnabrück und forscht zu den gesellschaftlichen Auswirkungen von KI und digitalen Medien. Zudem studierte Mühlhoff Mathematik (Diplom) mit den Nebenfächern Theoretische Physik und Informatik an der Universität Leipzig und arbeitete unter anderem als Programmierer.
KI-Firmen profitierten derzeit von zwei Blickweisen, die die Debatten bestimmten: Eine "dystopische" - die KI als ein Werkzeug zur Auslöschung sieht - und eine "utopische" - die KI als Lösung für große Menschheitsprobleme darstellt.
Das berge ein großes "Schadenspotenzial", da es von gegenwärtigen Auswirkungen der KI ablenke. Bereits heute passierten Verstöße gegen gesellschaftliche Regeln, "und zwar auch dort, wo man es nicht so leicht sieht", erklärt Mühlhoff.
Roboter, die retten, Drohnen, die töten: In der Ukraine und Israel wird deutlich, wie groß die Gefahren und Chancen von KI sind - und welche moralischen Fragen daraus entstehen.25.09.2024 | 28:47 min
In welchen Bereichen ist der KI-Einsatz bereits problematisch?
Ein großes Problem liege darin, dass man sich dem KI-Einsatz im Alltag oftmals gar nicht entziehen können. "Immer dann, wenn Machtgefälle und Abhängigkeiten im Spiel sind, ist es besonders fatal, weil sich die Betroffenen nicht effektiv wehren können", erklärt Rainer Mühlhoff.
So könne man sich heutzutage in bestimmten Bereichen für keinen Job, keine Versicherung oder kein Bankkonto mehr bewerben, ohne mit einem KI-System konfrontiert zu sein.
Das sind oft intransparente Systeme und oft bekommen es die Menschen überhaupt nicht mit, dass ein Vorgang mit KI-Unterstützung durchgeführt wird.
Die Stadt New York City stellt auf ihrer Website einen Chatbot für Unternehmen zur Verfügung, der Nutzern jedoch teils Informationen auflistet, die gegen geltende Gesetze verstoßen. Zum Beispiel erklärte der Bot, dass es eine gesetzliche Erlaubnis gebe, Mitarbeiter zu kündigen, die sich über sexuelle Belästigungen beschweren.
Ein US-amerikanischer Anwalt argumentierte vor Gericht mit Urteilen zu vergangenen Fälle, die er sich von ChatGPT zusammenstellen ließ - später kam heraus, dass mehrere Fälle überhaupt nicht existierten.
Die neuseeländischer Supermarktkette Pak’nSave hat einen Rezept-Bot eingeführt, der Kunden dabei helfen soll, Geld zu sparen und Lebensmittelverschwendung zu verhindern. Allerdings konnte man sich anfangs von ihm auch gesundheitsschädliche oder gar tödliche Rezepte empfehlen lassen, die aus Zutaten wie Bleiche und Ammoniak bestehen.
In einem weit verbreiteten Algorithmus, der Vorhersagen über besondere Pflegeansprüche von medizinischen "Hoch-Risiko-Patienten" in den USA getroffen hat, fanden Forscher 2019 strukturelle Benachteiligungen schwarzer Menschen.
Lassen sich solche Vorfälle technisch verhindern?
Rein technisch einzufangen sind Verstöße gegen gesellschaftliche Regeln und Normen durch die KI laut Mühlhoff kaum. Bei Chatbots würden beispielsweise ungewollte Ausgaben wie Anleitungen zum Bombenbau in der Entwicklungsphase erst im Nachhinein durch Filter verhindert. Der Ethik-Experte gibt zu bedenken:
Niemand kann einen Filter bauen, der alles für jede beliebige Situation herausfiltert.
„
Prof. Rainer Mühlhoff, Universität Osnabrück
Ist künstliche Intelligenz ein Heilsbringer, oder stürzt sie die Menschheit ins Verderben? Reporter Miles O'Brien untersucht den Meilenstein der technischen Entwicklung und dessen Gefahren.17.09.2024 | 43:38 min
Über dieses Problem wisse die KI-Industrie auch schon lange Bescheid und versuche deshalb, ihre Systeme mithilfe von menschlichem Feedback manuell zu verbessern.
Dennoch sei es Teil des KI-Hypes und der Kommunikation der KI-Firmen, die Eigenschaften der Systeme auf Prozesse in den Rechenzentren zu schieben, obwohl "alle gängigen KI-Systeme" auf von Menschen erstellten Inhalten und deren Feedback basierten, sagt Mühlhoff. Die Zukunft der KI hängt also von uns Menschen ab.
Um dir eine optimale Website der ZDFmediathek, ZDFheute und ZDFtivi präsentieren zu können, setzen wir Cookies und vergleichbare Techniken ein. Einige der eingesetzten Techniken sind unbedingt erforderlich für unser Angebot. Mit deiner Zustimmung dürfen wir und unsere Dienstleister darüber hinaus Informationen auf deinem Gerät speichern und/oder abrufen. Dabei geben wir deine Daten ohne deine Einwilligung nicht an Dritte weiter, die nicht unsere direkten Dienstleister sind. Wir verwenden deine Daten auch nicht zu kommerziellen Zwecken.
Zustimmungspflichtige Datenverarbeitung • Personalisierung: Die Speicherung von bestimmten Interaktionen ermöglicht uns, dein Erlebnis im Angebot des ZDF an dich anzupassen und Personalisierungsfunktionen anzubieten. Dabei personalisieren wir ausschließlich auf Basis deiner Nutzung der ZDFmediathek, der ZDFheute und ZDFtivi. Daten von Dritten werden von uns nicht verwendet. • Social Media und externe Drittsysteme: Wir nutzen Social-Media-Tools und Dienste von anderen Anbietern. Unter anderem um das Teilen von Inhalten zu ermöglichen.
Du kannst entscheiden, für welche Zwecke wir deine Daten speichern und verarbeiten dürfen. Dies betrifft nur dein aktuell genutztes Gerät. Mit "Zustimmen" erklärst du deine Zustimmung zu unserer Datenverarbeitung, für die wir deine Einwilligung benötigen. Oder du legst unter "Einstellungen/Ablehnen" fest, welchen Zwecken du deine Zustimmung gibst und welchen nicht. Deine Datenschutzeinstellungen kannst du jederzeit mit Wirkung für die Zukunft in deinen Einstellungen widerrufen oder ändern.