Künstliche Intelligenz: Hype mit Vorurteilen

Anwendungen, die mit künstlicher Intelligenz oder Machine Learning arbeiten, tauchen in vielen Bereichen auf. Um Algorithmic Bias machen sich jedoch die wenigsten Gedanken – auch in Luxemburg.

Automatisierte Gesichtserkennung basiert auch oft auf Machine Learning. Doch was, wenn der Computer auch Geschlecht, Alter und Emotionen erkennen soll? (Foto: Tumisu/Pixabay)

„Das einzig Magische an Machine Learning ist, dass keine Magie dahinter ist. Nur pure Mathematik, Logik und natürlich etwas Zufall und Glück …“ So beschreibt das Luxemburger Start-up DataThings Machine Learning die wichtigste Technik für Künstliche Intelligenz (KI) in seinem Firmenblog. Das Zitat zeigt, wie verdreht das Verständnis von vermeintlich objektiven KIs bei manchen Entwickler*innen ist: Einerseits soll pure, kalte Logik zum Einsatz kommen, andererseits muss man schon ein wenig Glück haben. KIs werden meistens mittels Machine Learning trainiert, was bedeutet, dass sie vorhandene Datensätze auf Gesetzmäßigkeiten überprüfen und diese fortan anwenden.

So entsteht auch der vielkritisierte Algorithmic Bias, über den die woxx bereits berichtet hat: Ist die Datengrundlage verzerrt, wird die KI die menschlichen Vorurteile übernehmen. Die Entscheidungen aus dem Computer sind weder objektiv noch nachvollziehbar. Es ist nämlich äußerst schwierig, im Nachhinein herauszufinden, warum eine KI zu einem bestimmten Schluss gekommen ist. Dennoch werden solche Algorithmen immer häufiger benutzt: In der Medizin, bei Bewerbungsprozessen, in der Finanzwelt und in der Justiz.

Ein anschauliches Beispiel, wie fehleranfällig eine vermeintlich objektive KI sein kann, zeigte die Künstlerin und Gamedesignerin Gwen C. Katz am 12. April auf Twitter. Katz untersuchte eine KI, die dazu benutzt wird, historische Schwarz-Weiß-Fotos nachträglich einzufärben. Dazu wandelte sie Farbfotos, die Anfang des 20. Jahrhunderts aufgenommen wurden, in Schwarz-Weiß-Fotos um und fütterte die KI damit. Das Resultat: Die KI kolorierte die Fotos vor allem in Brauntönen. Ein grünes Geländer wurde grau, aus knallig lila gefärbtem Stoff wurde rotbraun und eine bunte Moschee sah komplett verblasst aus. Die KI färbt die Vergangenheit also viel trister, als sie wirklich war. Das kann gefährliche Vorurteile über unsere Geschichte oder einzelne Kulturen bestärken – vor allem, wenn diese Bilder ohne Kontext verbreitet werden.

Computer, wer darf leben?

Manchmal kann es jedoch auch um Leben und Tod gehen. Zum Beispiel dann, wenn KI eingesetzt wird, um die sogenannte Triage in Krankenhäusern oder beim Notruf durchzuführen. Welche Patient*innen zuerst behandelt werden sollen, ist eine komplexe Entscheidung, die dennoch innerhalb kürzester Zeit getroffen werden muss. Kann eine KI hier helfen? In Deutschland gibt es bereits Forschungsprojekte, die sich damit beschäftigen – trotz großer Kritik von Ärzt*innen, wie Netzpolitik.org Ende März berichtete. In Luxemburg wird ein solches System noch nicht eingesetzt. In der Leitstelle des Notrufs 112 unterstützt zwar ein Algorithmus die Disponent*innen, schlussendlich trifft aber immer ein Mensch die Entscheidungen, wie Cédric Gantzer vom CGDIS auf Anfrage der woxx hin betonte. Den Namen der Software, die dafür verwendet wird, will man aus Sicherheitsgründen nicht nennen.

Ein anderes Projekt im Gesundheitsbereich stammt von dem Luxemburger Start-up LuxAI. Ein kleiner Roboter soll autistischen Kindern und Schlaganfall-Patient*innen dabei helfen, soziale Fähigkeiten aufzubauen. Gerade bei Menschen auf dem Autismus-Spektrum dürfte das Grundprinzip schon auf Kritik stoßen – immerhin werden sie bereits seit Langem dazu gezwungen, sich anzupassen. Der Roboter von LuxAI setzt KI für die Erkennung von Emotionen, Alter und Geschlecht ein. Alles Kriterien, bei denen Maschinen tendenziell Probleme haben, was zu Schwierigkeiten führen könnte. Wie die KI zum Beispiel trans oder nicht-binäre Personen einstuft, ist nicht ersichtlich. Im schlimmsten Fall könnte das dazu führen, dass der vorgeblich „objektive“ Roboter Menschen misgendert. Auf die Anfrage der woxx, welche Maßnahmen LuxAI setzt, um solche Probleme zu vermeiden, haben wir von der Firma keine Antwort erhalten.

„Keine menschlichen Vorurteile mehr bei der Personalbeschaffung“, lautet das Versprechen der luxemburgischen KI-Firma Skeeled. Das Unternehmen stellt ein Produkt zur Verfügung, das Personalabteilungen bei der Auswahl von Kandidat*innen unterstützen soll. Alle Bewerbungen werden von einer KI beurteilt. Die filtert gleich mal jene heraus, die nicht auf die Stellenausschreibung passen und bewertet alle anderen. Auch Persönlichkeitstests und Videointerviews zählen zum Repertoire von Skeeled.

Foto: CC-BY mikemacmarketing/wikimedia

Computer, wer darf arbeiten?

Vor wenigen Jahren stand Amazon in der Kritik, weil die Firma beim Rekrutierungsprozess eine Software eingesetzt hatte, die systematisch Frauen benachteiligte – die KI lernte von Menschen, und in der Arbeitswelt werden Frauen gerade bei der Jobsuche oft diskriminiert. Skeeled gibt zwar an, dass sie keinerlei demografische Daten für das Training ihrer KI benutzt haben, allerdings unterschlägt die Firma dabei, dass sie ja überhaupt nicht wissen kann, auf welche Faktoren die KI letzten Endes zurückgreift, um eine Entscheidung zu treffen. Immer wieder finden Forscher*innen heraus, dass eine KI beim Lernprozess auf sogenannte Proxydaten zurückgreift, die über Umwege demografische Daten verraten. Das könnte beispielsweise eine Postleitzahl, eine bestimmte Schule oder die Muttersprache sein.

Skeeled stellt für potenzielle Kund*innen Fallstudien zur Verfügung, die zeigen, wie sich die Bewerbungsprozesse bei Luxemburger Firmen wie Sales-Lenz, Losch oder LaLux durch den Einsatz der KI verändert haben. Die Personalabteilungen sind begeistert, teilweise hat die Software über die Hälfte der Bewerbungen gleich aussortiert. Welche Kriterien die KI dafür anwendet, verrät Skeeled nicht. Auf die Nachfrage der woxx, wie genau die Firma mit dem Problem des Algorithmic Bias umgeht, haben wir keine Antwort erhalten.

Auch am Finanzplatz gibt es einen regelrechten KI-Hype. Die Luxemburger Börse hat beispielsweise in das Start-up Tetrao investiert. Mittels KI sollen hier Routinetätigkeiten in der Finanzwirtschaft vereinfacht werden. So wird beispielsweise eine Automatisierung jener Prozesse versprochen, mit denen Finanzinstitute gegen das Weißwaschen von Schwarzgeld vorgehen, insbesondere den „Know your customer“-Prozess. Ein anderes Feld ist die Bewertung von Investmentfonds, die Tetrao ebenfalls mittels KI durchführen will. Laut einer Pressemitteilung vom Januar hat die KI von Tetrao innerhalb von drei Monaten 350.000 Datenpunkte zur Nachhaltigkeit von Fonds erhoben. Da die Einschätzung, welche Firmen und Fonds tatsächlich nachhaltig sind, bereits äußerst schwierig ist, wenn sie von Menschen vorgenommen wird, stellt sich die Frage, wie gut – und objektiv – eine KI darin überhaupt sein kann.

Computer, wer hat recht?

Und auch juristische Dokumente will Tetrao mit ihrer KI durchsuchen und analysieren können. Ein Feld, in dem es viel Konkurrenz gibt: KPMG, eine der „Big Four“ der Beratungsfirmen in der Finanzwelt, hat in Luxemburg ebenfalls eine KI entwickelt, die automatisch legale und regulatorische Bestimmungen analysiert und zusammenstellt. Anhand von Präzedenzfällen soll eine KI untersuchen und einschätzen, ob sich ein Gerichtsprozess lohnt. Dieser Anwendungsfall wird auch bei der luxemburgischen Beratungsfirma Arendt von einer KI übernommen, die von dem französischen Start-up Predictice entwickelt wurde. Für Außenstehende ist schwer zu beurteilen, wie weit sich bei diesen KIs ethische Probleme stellen – ob es in Zukunft jedoch noch so viele Arbeitsplätze in der luxemburgischen Finanzwelt geben wird, ist durch diese Automatisierungsbestrebungen jedoch zweifelhaft.

Während Akteure wie Digital Luxembourg, die Digitalisierungsinitiative der Regierung, KI-Anwendungen in den höchsten Tönen loben und Zukunftschancen sehen, sind andere staatliche Organe vorsichtiger. Im Februar veröffentlichte das Institut luxembourgeois de la normalisation, de l‘accréditation, de la sécurité et qualité des produits et services (Ilnas) ein Whitepaper über KI-Anwendungen, in dem auch auf ethische Aspekte eingegangen wird. So werden Prinzipien genannt, die für ethische KIs wichtig sind: Datenschutz und Sicherheit, Fairness und Nicht-Diskriminierung, Rechenschaft, Transparenz, robuste und nachvollziehbare Entscheidungen sowie Kontrolle durch Menschen.

Auf internationaler Ebene wird an Standards gearbeitet, die Richtlinien für ethische KIs festlegen sollen. Grundsätzlich fehlt jedoch ein gesetzlicher Rahmen, der verbindliche Regeln für KIs aufstellt und festlegt, wer letzten Endes die Rechenschaft für Entscheidungen, die durch Computer getroffen wurden, übernehmen muss. Sind es die Entwickler*innen der KI, die Firma, die sie einsetzt, oder die Person, die eine Entscheidung absegnet? Diese Fragen sind auch in Luxemburg unbeantwortet – und solange das so bleibt, können zweifelhafte KIs vermeintlich objektive Entscheidungen treffen, die Menschenleben verändern – ohne, dass sich jemand dagegen wehren könnte.

Samstag, 17. April: Filmvorführung „Coded Bias“ und Diskussion

Was heißt es, wenn künstliche Intelligenz mehr und mehr Bereiche unseres Lebens bestimmt? Was sind die Konsequenzen für jene Menschen, gegen die KI Vorurteile hat? Mit diesen und weiteren Fragen beschäftigt sich der Film „Coded Bias“, der am Samstagabend um 19.30 Uhr im Rahmen des Multiplica-Festivals in den Rotondes gezeigt wird. Am Anschluss wird der woxx-Journalist Joël Adami Beispiele luxemburgischer KI-Anwendungen vorstellen und auf Fragen des Publikums eingehen.


Cet article vous a plu ?
Nous offrons gratuitement nos articles avec leur regard résolument écologique, féministe et progressiste sur le monde. Sans pub ni offre premium ou paywall. Nous avons en effet la conviction que l’accès à l’information doit rester libre. Afin de pouvoir garantir qu’à l’avenir nos articles seront accessibles à quiconque s’y intéresse, nous avons besoin de votre soutien – à travers un abonnement ou un don : woxx.lu/support.

Hat Ihnen dieser Artikel gefallen?
Wir stellen unsere Artikel mit unserem einzigartigen, ökologischen, feministischen, gesellschaftskritischen und linkem Blick auf die Welt allen kostenlos zur Verfügung – ohne Werbung, ohne „Plus“-, „Premium“-Angebot oder eine Paywall. Denn wir sind der Meinung, dass der Zugang zu Informationen frei sein sollte. Um das auch in Zukunft gewährleisten zu können, benötigen wir Ihre Unterstützung; mit einem Abonnement oder einer Spende: woxx.lu/support.
Tagged , , .Speichere in deinen Favoriten diesen permalink.

Kommentare sind geschlossen.