Joe Biden will nach eigenen Angaben nicht den gleichen Fehler machen, wie Vorgänger-Regierungen bei der Einführung sozialer Medien: den Fehler mangelnder Kontrolle. Deshalb traf sich der US-Präsident mehrmals mit Vertretern sieben führender Tech-Konzerne zu Gesprächen über Künstliche Intelligenz (KI) und deren Risiken.
Zu den teilnehmenden Firmen gehörten unter anderem Google, Amazon, der Facebook-Konzern Meta und Microsoft. Dabei war auch die Firma OpenAI, deren Technologie hinter dem Chatbot ChatGPT steht. Am Freitag präsentierte Biden im Weißen Haus die Ergebnisse der Gespräche.
Welche Gefahren gibt es bei der Verwendung von KI?
Spätestens mit dem Erfolg des Chatbots ChatGPT hat die Sorge zugenommen, dass durch KI erzeugte Bild- oder Tonaufnahmen für Betrug und Fehlinformationen genutzt werden könnten.
In den USA wird auch mit Blick auf die Präsidentschaftswahl 2024 nach Möglichkeiten gesucht zu erkennen, ob Audio- oder Bildmaterial künstlich erzeugt wurde, um Täuschungen und Fälschungen zu verhindern.
Kritiker verweisen zusätzlich darauf, dass KI-Programme nicht frei von Vorurteilen und Diskriminierung seien. Außerdem streiken derzeit in Hollywood Drehbuch-Autoren und Schauspieler, die auch um ihre Jobs bangen, weil sie Angst haben, durch KI ersetzt zu werden.
Wozu haben sie die KI-Firmen verpflichtet?
Die Tech-Unternehmen haben unter anderem zugestimmt, Videos und Audios, die mithilfe Künstlicher Intelligenz produziert wurden, zu kennzeichnen. Zudem sollen KI-Produkte von internen und externen Experten getestet werden, bevor sie auf den Markt kommen. Außerdem sollen diskriminierende Algorithmen bekämpft und KI-Produkte vor Cyberangriffen geschützt werden.
Die Firmen erklärten sich auch bereit, Künstliche Intelligenz auf große Herausforderungen wie Krebsforschung und Klimawandel auszurichten.
Allerdings sind die Regularien bisher recht allgemein formuliert und die Verpflichtungen sind freiwillig. Es gibt also bei möglichen Verstößen dagegen keine Sanktionen.
Soll es auch gesetzliche Regeln geben?
Ja, die freiwillige Selbstverpflichtung der Unternehmen soll nur der erste Schritt sein. Nach den Vorstellungen der US-Regierung soll der Kongress möglichst bald ein Gesetz verabschieden, das bei Nichteinhaltung Strafen vorsieht. Biden stellte in Aussicht, über die Parteigrenzen hinweg mit dem Parlament an entsprechender Gesetzgebung arbeiten zu wollen.
Welche Regelung gibt es auf EU-Ebene?
Auf EU-Ebene wird derzeit eine weitgehende Kennzeichnungspflicht für KI-generierte Inhalte im Rahmen eines umfassenden KI-Gesetzes diskutiert.
Im April hatten sich die Verhandlungsführer des EU-Binnenmarkt- und Innenausschusses auf - eher vage - Eckpunkte für ein geplantes Gesetz geeinigt. Diese sehen vor, dass in Zukunft KI-Systeme nach ihrem Risikoniveau eingestuft werden: von "minimal" über "begrenzt" und "hoch" - bis hin zur höchsten Stufe: "inakzeptabel". Systeme mit hohem Risiko würden demnach nicht verboten, bei ihrem Einsatz wäre aber ein hohes Maß an Transparenz vorgeschrieben.
Was ist in Deutschland geplant?
Bundesdigitalminister Volker Wissing (FDP) fordert neben einer Kennzeichnung von Bild- und Tonaufnahmen auch die Einführung eines KI-Siegels für Texte.
In der Bundesregierung selbst gibt es bislang allerdings keine einheitliche Richtlinie zum Einsatz von Chatbots mit Künstlicher Intelligenz - wie etwas ChatGPT. Das ergab eine Anfrage des CDU-Bundestagsabgeordneten Thomas Jarzombek an das Bundesinnenministerium.
Der Beauftragte der Bundesregierung für Informationstechnik, Markus Richter, hatte kürzlich für Offenheit beim Einsatz von KI in der öffentlichen Verwaltung geworben. Dazu laufe derzeit eine Erhebung des Bedarfs bei den verschiedenen Ressorts der Bundesregierung. Es sei wichtig, dass Synergien genutzt und nicht in den einzelnen Ministerien Insellösungen vorangetrieben würden.