Künstliche Intelligenz: Diese Regeln fordern Ethik-Experten

    FAQ

    Ethischer Umgang mit der Technik:Wie KI in Zukunft reguliert werden soll

    von Lukas Wagner
    |

    Durch immer leistungsfähigere KI-Systeme steigt der Bedarf an Regeln für verantwortungsvollen Umgang mit dieser Technik. Welche Pläne die EU hat und was Ethik-Experten fordern.

    Das Bild zeigt eine Künstliche Intelligenz in menschlicher Gestalt. (Symbolbild)
    Die EU plant weitreichende Regeln beim Einsatz Künstlicher Intelligenz. (Symbolbild)
    Quelle: imago

    Mit Künstlicher Intelligenz scheint in naher Zukunft so gut wie alles möglich zu werden - doch sollte es das auch? Die EU sagt angesichts diverser KI-Gefahren Nein und plant deshalb einen sogenannten Artificial Intelligence (AI) Act. Durch das Gesetz soll die Bereitstellung und Verwendung von KI durch private und öffentliche Akteure weitreichend reguliert werden.
    Ist der KI-Bereich aktuell also eine gesetzlose Zone, welche Regeln sieht der EU-Vorschlag vor und wo besteht dringender Handlungsbedarf? Das sagen Expertinnen.

    Wie ist der Umgang mit KI bisher geregelt?

    Die Medienethikerin Dr. Jessica Heesen von der Universität Tübingen erklärt, dass es in vielen Bereichen bereits Regeln zum Umgang mit KI gebe - zum Beispiel bei maschinellen Berechnungen an der Börse, beim autonomen Fahren oder in der Medizin und dort eingesetzten OP-Robotern.
    Dagegen sei das Feld der "Plattform-Ökonomie", in dem Firmen wie Meta oder Twitter agieren, bisher kaum reguliert. Dass sich die Unternehmen selbst reglementieren würden, bezweifelt Heesen. So habe Microsoft zuletzt einem großen Teil seiner KI-Ethik-Abteilung gekündigt.

    Welche Regeln will die EU einführen?

    Um dennoch einen verantwortungsvollen Umgang mit KI sicherzustellen, will die EU mit einem "risikobasierten Ansatz" verbindliche Regeln schaffen. Dabei soll zwischen Anwendungen unterschieden werden, die:
    • ein unannehmbares
    • ein hohes,
    • ein geringes oder
    • ein minimales Risiko darstellen.
    Wenn KI-Systeme in die risikoreichste Kategorie "unannehmbar" fallen, "weil sie Werte der Union, beispielsweise Grundrechte, verletzen", sollen sie verboten werden. Zu unerlaubten Praktiken gehören unter anderem Techniken, die Personen unterschwellig manipulieren und damit physischen oder psychischen Schaden verursachen können.

    Neben KI-Systemen mit "unannehmbarem Risiko" gibt es "Hochrisiko-KI-Systeme", die "ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen" und nur betrieben werden dürfen, wenn unter anderem:
    • eine durchgehende Risikoanalyse die bekannten und vorhersehbaren Risiken dokumentiert
    • Qualitätskriterien bei Trainingsdaten eingehalten werden
    • eine Aufzeichnung von KI-Vorgängen während des Betriebs stattfindet
    • eine Beaufsichtigung durch Menschen gewährleistet wird

    Zu "Hochrisiko-KI-Systemen" gehören solche, die zum Beispiel in den Bereichen der biometrischen Identifizierung (z.B. Gesichtserkennung), der kritischen Infrastruktur wie Straßenverkehr, Wasser-, Gas-, Wärme- und Stromversorgung oder in der Strafverfolgung verwendet werden.

    Für KI-Systeme, die ein "geringes" oder "minimales Risiko" aufweisen, will die EU Transparenzpflichten verankern, wenn Anwendungen mit Menschen interagieren, eingesetzt werden, um Emotionen zu erkennen oder Inhalte erzeugen oder manipulieren ("Deepfakes"). In diesen Fällen muss gewährleistet werden, dass Nutzer über den KI-Einsatz oder -Ursprung Bescheid wissen - davon ausgenommen sollen unter bestimmten Bedingungen jeweils KI-Systeme werden, die "gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassen" sind.

    Quelle: Europäische Kommission

    Wie bewerten Expertinnen den EU-Plan?

    Den Plan der Europäischen Union bewertet die Medienethikerin Heesen als "wirklich gut und weitreichend, da geht es ans Eingemachte". Entscheidend sei jedoch, wie das Gesetz am Ende konkret ausgestaltet werde, sagt sie. Umstritten ist laut Heesen unter anderem, was unter "manipulativen" KI-Systemen verstanden wird.

    In den sozialen Medien werden wir auch manipuliert, um zum Beispiel auf der Plattform gehalten zu werden.

    Jessica Heesen, Universität Tübingen

    Auch Claudia Paganini, Professorin für Medienethik an der Hochschule für Philosophie München, sieht den AI Act der EU grundsätzlich positiv. Damit versuche man voranzugehen, anstatt wie bei anderen Technologien erst im Nachhinein auf den technischen Fortschritt zu reagieren.
    Ein Roboter auf der Messe in Hannover, Hannover 16.04.2023
    Klimawandel, hohe Energiepreise, Fachkräftemangel – die Herausforderungen für die Industrie sind groß. Die Hannover Messe zeigt: Künstliche Intelligenz bietet innovative Lösungen. 16.04.2023 | 2:38 min
    Allerdings findet es Paganini problematisch, dass durch Ausnahmen mit Argumenten wie der "nationalen Sicherheit" Schlupflöcher für KI-Anwendungen entstünden, die potenziell antidemokratisch genutzt werden könnten. Als Beispiel nennt sie die Frage nach der Gesichtserkennung im öffentlichen Raum. "Damit werden Schutzräume in bestimmten Fällen wieder ausgehebelt."

    Wo besteht der dringendste Handlungsbedarf?

    Expertin Heesen fordert vor allem beim Einsatz von KI und Algorithmen in der Medienkommunikation, speziell im Social-Media-Bereich, mehr Regeln:

    Obwohl dieser Bereich essenziell für das demokratische Zusammenleben ist, überlassen wird dort mächtigen Unternehmen die Kontrolle.

    Jessica Heesen, Universität Tübingen

    Zudem zeigten KI-Systeme, mit denen täuschend echt aussehende Fake-Bilder leicht erstellt werden können, die bereits bestehenden Gefahren der Technologie, sagt Heesen. Das Problem: "Wenn wir nicht mehr wissen: Was ist real und was nicht?"
    Das Fake-Interview mit Michael Schuhmacher der Illustrierten "die aktuelle" verdeutliche, in welche Richtung es gehen könne. Deshalb sei eine verpflichtende Kennzeichung für KI-generierte Texte, Bildern oder Videos "extrem wichtig", betont Heesen.
    Besonders die automatisierte Kommunikation zwischen Maschinen sollte aus Sicht von Expertin Paganini reguliert werden. Hier fehle es an einer klaren Verantwortlichkeit in Fällen, in denen KI gegen Gesetze verstoße.
    Sogenanntes "Social Scoring" mithilfe von AI - also die Bewertung von Verhalten oder Merkmalen von Personen - könne dramatische Folgen für Betroffene haben, wenn falsche Daten eingespeist werden, sagt Paganini. Laut EU-Gesetzesentwurf soll ein solches Vorgehen verboten werden.

    Stecken in einer KI-Regulierung auch Gefahren?

    Trotz der Notwendigkeit für KI-Regulierung müsse aber verhindert werden, dass man dabei zu weit gehe, warnt Heesen. So mache China "sehr starke Vorschläge", um gegen die Verbreitung von Deepfakes vorzugehen. Allerdings bestehe dann auch die Gefahr, dass andere Inhalte leichter zu zensieren wären.
    Das Zeitalter der künstlichen Intelligenz
    Wie sieht ein verantwortungsvoller Umgang mit KI aus?06.04.2023 | 3:01 min
    Obwohl andere Akteure wie eben China - das von KI-Dienstleistern die Einhaltung sozialistischer Werte verlangt - eigene KI-Regelwerke planen, "entlastet uns das nicht davon, gute Regeln zu erstellen", sagt Heesen. Wer auf dem EU-Binnenmarkt handeln wolle, müsse sich schließlich auch an die dortigen Vorgaben halten. Und: "Bei ChatGPT wollen wir schließlich auch nicht, dass es uns erklärt, wie man Hunderttausende Menschen töten kann."
    Dass es klare Regeln brauche, sei unstrittig, sagt auch Claudia Paganini:

    Man kann sich nicht darauf verlassen, dass Menschen immer als moralische Helden auftreten.

    Claudia Paganini, Hochschule für Philosophie München

    So würde der Bot ChatGPT Künstliche Intelligenz reglementieren:

    Das folgende Gesetz soll den verantwortungsvollen Umgang mit Künstlicher Intelligenz regeln:

    §1 Anwendungsbereich
    Dieses Gesetz gilt für alle Personen und Unternehmen, die Künstliche Intelligenz (KI) entwickeln, einsetzen oder nutzen.

    §2 Grundsätze
    (1) Der Einsatz von KI muss den Grundsätzen der Rechtmäßigkeit, Transparenz, Sicherheit und Verantwortlichkeit entsprechen.
    (2) KI darf nicht diskriminieren oder Vorurteile verstärken.
    (3) KI muss so gestaltet sein, dass sie der Würde des Menschen und den Grundrechten entspricht.
    (4) Der Einsatz von KI muss ethischen Grundsätzen folgen.

    §3 Risikobewertung
    (1) Unternehmen, die KI einsetzen, müssen eine Risikobewertung durchführen, um potenzielle negative Auswirkungen auf die Gesellschaft und die Umwelt zu identifizieren.
    (2) Die Ergebnisse der Risikobewertung müssen öffentlich zugänglich gemacht werden.

    §4 Transparenz
    (1) Unternehmen, die KI entwickeln oder einsetzen, müssen die Entscheidungsfindung und die Funktionsweise ihrer KI-Systeme offenlegen.
    (2) KI-Systeme müssen so gestaltet sein, dass die Entscheidungen nachvollziehbar sind.
    (3) Der Einsatz von KI in automatisierten Entscheidungsprozessen muss transparent und nachvollziehbar sein.

    §5 Haftung
    (1) Unternehmen, die KI einsetzen, sind für potenzielle Schäden verantwortlich, die durch ihre KI-Systeme verursacht werden.
    (2) Bei Schäden, die durch KI-Systeme verursacht werden, muss die Haftung klar geregelt sein.
    (3) Es muss eine Versicherungspflicht für Unternehmen geben, die KI einsetzen.

    §6 Überwachung und Kontrolle
    (1) Die zuständigen Behörden müssen die Einhaltung dieses Gesetzes überwachen und bei Verstößen sanktionieren.
    (2) Unternehmen, die KI einsetzen, müssen regelmäßig Berichte über die Nutzung ihrer KI-Systeme vorlegen.
    (3) Die zuständigen Behörden müssen die Entwicklung von KI-Systemen und deren Auswirkungen auf die Gesellschaft und die Umwelt beobachten und gegebenenfalls regulieren.

    §7 Inkrafttreten
    Dieses Gesetz tritt am Tag nach seiner Verkündung in Kraft.

    Dieses Gesetz soll dazu beitragen, den verantwortungsvollen Umgang mit Künstlicher Intelligenz zu fördern und die potenziellen negativen Auswirkungen von KI-Systemen zu minimieren.

    Quelle: ChatGPT

    Mehr zu Künstlicher Intelligenz