Künstliche Intelligenz: Viel Hype, wenig Regulierung


Kein Technologiethema wurde dieses Jahr so sehr gehypt wie die sogenannte „Künstliche Intelligenz“. Immer noch regieren seltsame Vorstellungen, während gute Regulierung auf sich warten lässt.

Wer wird von einer KI-gestützten Überwachungkamera erkannt? Und wessen Verhalten wird als „verdächtiges Bewegungsmuster“ eingestuft? (Bild: Comuzi / © BBC / Better Images of AI / Surveillance View B / CC-BY 4.0)

Wenn dieses Wochenende die Walfer Bicherdeeg über die Bühne gehen, muss wohl niemand fürchten, sich von Aktionskünstler*innen veräppeln zu lassen. Auf der Frankfurter Buchmesse war das im vergangenen Oktober nicht so: Das Kollektiv Peng hatte einen Stand für ein vermeintliches Start-up angemeldet. Die Künstler*innen gaben an, mittels sogenannter „Künstlicher Intelligenz“ Bücher zu generieren, die ganz auf die Leser*innen zugeschnitten waren. Mehrere Medien berichteten, ein großer Aufschrei von Autor*innen oder Verlagen blieb aus. Das zeigt nicht nur, dass die Fähigkeiten künstlicher Intelligenz überschätzt und die Gefahren oft falsch eingeschätzt werden.

Zumindest bei Letzteren schien es so, als ob sie auf internationaler Ebene ernst genommen würden. Der konservative britische Premierminister Rishi Sunak rief am 1. und 2. November zu einem „AI Saftey Summit“. Neben dem Vereinigten Königreich und der EU nahmen 27 Staaten, unter anderem auch die USA und China, an dem Gipfel über KI-Sicherheit teil. Außerdem waren Vertreter*innen wichtiger Technologiekonzerne wie Meta, Google, Amazon und sogar die Chefs von X (vormals Twitter) und OpenAI gekommen. Sunak lud nicht in irgendeine Hütte, sondern zum Landsitz Bletchley Park. Dorthin also, wo im Zweiten Weltkrieg tausende Menschen die verschlüsselten Nachrichten und Funksprüche der Nazis entzifferten.

Unter ihnen der Informatiker Alan Turing, der mit der „Bombe“ die entscheidende „Waffe“ gegen die deutsche Verschlüsselung lieferte. Er entwickelte außerdem den sogenannten „Turing Test“: Um künstliche Intelligenz erkennen zu können, müsse man das Kommunikationsverhalten einer solchen Intelligenz bewerten. Ist es nicht möglich, die Kommunikation einer Maschine von der eines Menschen zu unterscheiden, könne man laut Turing von maschineller Intelligenz sprechen. Turing wurde 1952 wegen seiner Homosexualität verfolgt, chemisch kastriert und starb schließlich an den Folgen.

Nach dem Gipfel auf dem historisch signifikanten Landsitz unterschrieben die vertretenen Länder die „Bletchley Declaration“, in der über Chancen und Gefahren von KI sinniert wird. Sunak hat es zwar geschafft, eine wichtige Gruppe von Staaten, die sich oft in vielen Themen nicht eins sind, zu einem Bekenntnis zum gemeinsamen Forschen und Diskutieren über KI zu bewegen, doch die Warnungen, die in dem Dokument enthalten sind, dürften vor allem jenen Technologieunternehmen, die KI-Systeme entwickeln, in die Karten spielen.

Ablenkungsmanöver

Gewarnt wird zwar auch vor Fake News und Menschenrechtsverletzungen, vor allem aber vor „hochgradig fähigen KI-Modellen für allgemeine Zwecke“, die risikobehaftet seien. Die Drohkulisse wird nicht genau beschrieben – die Angst vor der superintelligenten Maschine, die die Menschheit ausrotten will, ist wohl das, was in den Köpfen stecken bleiben soll. Damit reiht sich die Bletchley Declaration in eine Reihe von offenen Briefen – teilweise von den gleichen Protagonist*innen unterzeichnet – ein, in denen ein Moratorium für KI gefordert wird. Dieses Schreckgespenst hat gleich mehrere Zwecke: So werden die Produkte als viel „mächtiger“ dargestellt, als sie eigentlich sind. Natürlich kann es beeindruckend wirken, dass man sich mit ChatGPT oberflächlich betrachtet unterhalten kann. Das Programm schafft es recht überzeugend, Wörter und Sätze so aneinanderzureihen, dass der Eindruck entsteht, man habe es tatsächlich mit einer Art Bewusstsein zu tun. Doch davon sind diese „Large Language Models“ (LLMs) so weit entfernt wie ein Staubsauger von einem Raumschiff.

Viel wichtiger als der Hype sind für OpenAI und Co. aber zwei andere Faktoren: Ablenkung und die Frage der Verantwortung. Die Angst vor dem bösen Supercomputer, der die Menschheit à la Matrix unterjocht, verdeckt die bereits bestehenden Gefahren von KI-Programmen. Das sind etwa automatisierte Bewerbungsverfahren, bei denen der Computer die Vorauswahl trifft – made in Luxembourg (woxx 1628) – oder sogenanntes „Predictive Policing“, bei dem ein Computer der Polizei sagen soll, wo besonders viel Kriminalität zu erwarten ist. Auch Kamerasysteme, die angeblich verdächtige Bewegungsmuster erkennen sollen oder KI-Lügendetektoren, die über das Schicksal von Asylsuchenden bestimmen sollen, gibt es bereits. Diese Programme sind nicht neutral: Wie Forscher*innen und Aktivist*innen immer wieder zeigen, werden die Vorurteile der Mehrheitsgesellschaft in Computercode gegossen, es entsteht der sogenannte „Algorithmic Bias“ (woxx 1509).

Hier kommt die Frage der Verantwortung auf: Wenn es Firmen wie OpenAI gelingt, ihre Produkte als künstliche Intelligenzen zu verkaufen, die so etwas wie ein eigenes Bewusstsein haben, können sie sich aus dieser Frage herausziehen. Träfe ein hypothetischer Computer mit Bewusstsein eine Entscheidung, die sich später als falsch oder ethisch zweifelhaft herausstellt, würden die meisten von uns sicher diesen einen Computer als „schuldig“ sehen. Doch Schuld haben natürlich die Firmen, die die Software programmiert haben – vor allem, da es (noch) keine Computer mit Bewusstsein gibt. Bei Einstellungsverfahren, vor allem aber an Grenzen und in Situationen, wo die Polizei (nicht) eingreift, muss klar sein, wer für Fehlern haftet. Je stärker der Eindruck, dass künstliche Intelligenz mehr sei als nur etwas Software, umso mehr können sich Programmierer*innen aus der Verantwortung winden.

Finanzplatz: Wenig Interesse an Textgeneratoren

Der Hype um KI hat nicht nur auf britischen Landsitzen Einzug gefunden, sondern ist auch in Luxemburg angekommen. Der Thinktank der Handelskammer, die Fondation Idea, veröffentlichte vor Kurzem einen Sammelband mit Beiträgen unter dem Titel „L’ère de l’IA“. So sehr sich manche der Autor*innen auch bereits in der KI-Ära sehen, so ernüchternd ist die Broschüre an und für sich. Die meisten Beiträge sind eher oberflächlich. Dass sie so gut wie alle mit einem Absatz beginnen, der beschreibt, wie sehr ChatGPT die Gespräche über KI verändert habe, zeigt sehr gut, dass es leider noch keine KI gibt, die erfolgreich redaktionelle Aufgaben erledigen kann.

Doch nicht alle Firmen sind begeistert: Laurent Probst und Thierry Kremser von PricewaterhouseCoopers präsentieren in ihrem Text eine Studie, die ihre Arbeitgeberin bei Luxemburger Firmen durchgeführt hat. Demnach arbeitet knapp ein Drittel der befragten Firmen mit externen KI-Tools, während nur 27 Prozent bereits intern entwickelte KI-Anwendungen benutzen. Da die Studie auch Übersetzungsanwendungen wie „DeepL“ zu „KI“ zählt, ist die Zahl für externe Tools eigentlich erstaunlich niedrig.

Doch auch der ChatGPT-Hype ist in der Luxemburger Geschäftswelt nicht unendlich: Nur 27 Prozent der befragten Firmen hätten Interesse daran, Textgeneratoren zu verwenden. Dass vor allem der Finanzsektor hier vorsichtig ist, liegt vor allem an der Unsicherheit, mit der die generierten Texte behaftet sind. Der kritischste Beitrag der Veröffentlichung stammt von Jean-Jacques Rommes, der einige interessante Fragen aufwirft, die zum Teil jedoch schon von Forscher*innen, die sich kritisch mit KI sowie dem Verhältnis zwischen Technologie und Menschen auseinandersetzen, beantwortet wurden.

An einer EU-weiten KI-Verordnung wird zwar gerade gearbeitet, doch auch hier mehrt sich die Kritik, dass wichtige Aspekte wie zum Beispiel der Schutz von Verbraucher*innen, ausgespart würden. Luxemburg, das so sehr auf seinen Finanzplatz angewiesen ist, wird nicht darum herumkommen, sich ausführlicher mit dem Thema zu beschäftigen. Dazu muss jedoch mehr passieren als Pilotprojekte und Hochglanzbroschüren.


Cet article vous a plu ?
Nous offrons gratuitement nos articles avec leur regard résolument écologique, féministe et progressiste sur le monde. Sans pub ni offre premium ou paywall. Nous avons en effet la conviction que l’accès à l’information doit rester libre. Afin de pouvoir garantir qu’à l’avenir nos articles seront accessibles à quiconque s’y intéresse, nous avons besoin de votre soutien – à travers un abonnement ou un don : woxx.lu/support.

Hat Ihnen dieser Artikel gefallen?
Wir stellen unsere Artikel mit unserem einzigartigen, ökologischen, feministischen, gesellschaftskritischen und linkem Blick auf die Welt allen kostenlos zur Verfügung – ohne Werbung, ohne „Plus“-, „Premium“-Angebot oder eine Paywall. Denn wir sind der Meinung, dass der Zugang zu Informationen frei sein sollte. Um das auch in Zukunft gewährleisten zu können, benötigen wir Ihre Unterstützung; mit einem Abonnement oder einer Spende: woxx.lu/support.
Tagged , .Speichere in deinen Favoriten diesen permalink.

Kommentare sind geschlossen.