Künstliche Intelligenz: Regulierung statt Hype

Bild- und Textgeneratoren wie Midjourney oder ChatGPT werden als sogenannte „Künstliche Intelligenzen“ gehyped. Die realen Gefahren sind jedoch unsichtbarer – und bedürfen dringend politisches Handeln.

KIs könnten in verschiedensten Bereichen für Probleme sorgen, wenn sie nicht reguliert werden. (Illustration: Yasmin Dwiputri & Data Hazards Project/Better Images of AI/AI across industries/CC-BY 4.0)

Ende März sorgte ein offener Brief des „Future of Life Institute“ für Aufregung. Die Unterzeichner*innen forderten darin eine sechsmonatige Pause für die Weiterentwicklung sogenannter Künstlicher Intelligenzen. Unter ihnen war auch Milliardär Elon Musk – vermutlich der wichtigste Grund, weshalb das Schreiben so viel Aufmerksamkeit erhielt. Sämtliche Forschung an KI-Modellen, die „stärker“ als GPT-4 seien, so die Forderung, solle für ein halbes Jahr pausiert werden, um eine Gefahrenabschätzung machen zu können. Das klingt gefährlich. So, als würden die Maschinen demnächst die Macht ergreifen und die Menschheit unterjochen. Die Wahrheit ist natürlich eine andere.

Vier Wissenschaftler*innen des Distributed Artificial Intelligence Research Institute (Dair) veröffentlichten eine Antwort auf den Brief. Der Brief stelle zwar einige gute, unterstützenswerte Forderungen, wie etwa die Kennzeichnung von synthetischen Bildern, würde zum Großteil aber den Hype um KI fördern. Das Schüren der Angst vor Computerprogrammen, die so intelligent wie Menschen seien, lenke zudem von den echten Problemen KI-gestützter Systeme ab. Ein Phänomen, das auch in Luxemburg zu beobachten ist.

Ein Beispiel dafür lieferte Digitalisierungsminister Marc Hansen (DP) in einem Interview mit der Tageszeitung L’Essentiel. Man dürfe die Technologie nicht verbieten, denn Luxemburg sei ein offenes Land und habe gute Geschäftsmöglichkeiten, die es zu nutzen gelte. Indem er den Möglichkeitsraum auf „Verbieten“ und „Gelegenheiten nutzen“ begrenzt, blendet der liberale Minister die mögliche und nötige Regulierung komplett aus. Jedoch ging die KI-Strategie, die die Regierung 2019 veröffentlichte, einen winzigen Schritt weiter: Man wolle die „Ethics Guidelines for Trustworthy AI“ verbreiten und fördern.

Es gibt keinen Grund, warum die Entwicklung von KIs nur aus Profitmotiven passieren sollte.

Doch die KI-Branche arbeitet bereits jetzt alles andere als ethisch. Ein offensichtliches Beispiel dafür ist die Ausbeutung von Arbeiter*innen, die als menschliche „Filter“ funktionieren und sich für einen Hungerlohn problematische Inhalte ansehen müssen. Bild- und Textgeneratoren reproduzieren Vorurteile wie Schönheitsnormen und Diskriminierungen wie Rassismus und Sexismus. Das mag bei Bildern und Texten noch erkennbar und zum Teil steuerbar sein, doch wie gut lassen sich die algorithmischen Vorurteile nach- und beweisen, wenn die Software darüber entscheidet, wer zum Vorstellungsgespräch eingeladen wird?

Im Gegensatz zu der superintelligenten KI, vor der sich Musk angeblich fürchtet, ist das Programm, das CVs filtert, keine düstere Zukunftsvision, sondern Realität „made in Luxembourg“. Die KIs, vor denen wir uns fürchten müssen, sind keine Textgeneratoren, die New York Times-Redakteuren ihre Liebe gestehen – es sind Algorithmen, die ohne jede Transparenz heute schon über Jobchancen und morgen vielleicht über den Asylantrag entscheiden.

Immerhin wird auf EU-Ebene an einer Regulierung von KI-Systemen gearbeitet. Für Anwendungen mit hohem Risiko für Diskriminierung – wie zum Beispiel bei Bewerbungsprozeduren oder bei der Vergabe von Krediten – werden strenge Regeln vorgeschlagen. Der Teufel wird hier im Detail stecken. KI-Systeme, die mittels „Machine Learning“ trainiert werden, sind oft sogar für ihre Entwickler*innen nicht komplett transparent. Transparenz über Trainingsdaten und Algorithmen könnte allerdings das Geschäftsmodell der Entwickler*innen zerstören. Dennoch müssen maschinellen Entscheidungen nachvollziehbar werden, da KIs ansonsten nur den Reichen und Mächtigen dazu dienen werden, ihre Vormachtstellung in der Gesellschaft weiter auszubauen.

Aktuell wird die Entwicklung von KIs hauptsächlich durch Profitmotive getrieben. Es gibt keinen Grund, warum das weiterhin so bleiben sollte. Warum nicht eine KI entwickeln, die automatisiert den Ausbau erneuerbarer Energien plant oder Finanzkriminalität erkennt? Es gibt durchaus Gestaltungsmöglichkeiten wenn man nur will. Statt KI als rhetorischen Zucker zu verwenden, mit dem eine Rede oder ein Wahlprogramm überpudert wird, sollten die Luxemburger Politiker*innen die Gefahren und Chancen benennen und klare Ansagen machen, wie sie den Bereich in den nächsten fünf Jahren gestalten wollen.


Cet article vous a plu ?
Nous offrons gratuitement nos articles avec leur regard résolument écologique, féministe et progressiste sur le monde. Sans pub ni offre premium ou paywall. Nous avons en effet la conviction que l’accès à l’information doit rester libre. Afin de pouvoir garantir qu’à l’avenir nos articles seront accessibles à quiconque s’y intéresse, nous avons besoin de votre soutien – à travers un abonnement ou un don : woxx.lu/support.

Hat Ihnen dieser Artikel gefallen?
Wir stellen unsere Artikel mit unserem einzigartigen, ökologischen, feministischen, gesellschaftskritischen und linkem Blick auf die Welt allen kostenlos zur Verfügung – ohne Werbung, ohne „Plus“-, „Premium“-Angebot oder eine Paywall. Denn wir sind der Meinung, dass der Zugang zu Informationen frei sein sollte. Um das auch in Zukunft gewährleisten zu können, benötigen wir Ihre Unterstützung; mit einem Abonnement oder einer Spende: woxx.lu/support.
Tagged , , .Speichere in deinen Favoriten diesen permalink.

Kommentare sind geschlossen.