KI und Macht - oder wie geht KI eigentlich feministisch?

ID 126917
 
AnhörenDownload
KI-Systeme seien wie ein Spiegel für die gesellschaftlichen Machtverhältnisse, in denen wir leben. Das sagt Eva Gengler. Sie ist Wissenschaftlerin an der FAU und Firmengründerin und beschäftigt sich in beiden Kontexten mit sogenannter Feminist AI; das heißt, sie forscht daran, was sich verändern müsste, um KI-Systeme weniger diskriminierend werden zu lassen und was sich daraus vielleicht auch für Chancen ergeben können.
Bernadette Rauscher vom Stoffwechsel hat mit ihr gesprochen - über ihre Firma, ihre Forschung und in welchem Zusammenhang KI-Systeme mit unserer Gesellschaft stehen.
Audio
17:14 min, 32 MB, mp3
mp3, 256 kbit/s, Stereo (44100 kHz)
Upload vom 19.02.2024 / 16:08

Dateizugriffe: 1044

Klassifizierung

Beitragsart: Interview
Sprache: deutsch
Redaktionsbereich: Wirtschaft/Soziales, Frauen/Lesben
Entstehung

AutorInnen: Bernadette Rauscher, Stoffwechsel
Radio: RadioZ, Nürnberg im www
Produktionsdatum: 19.02.2024
CC BY-NC-SA
Creative Commons BY-NC-SA
Namensnennung - Nicht-kommerziell - Weitergabe unter gleichen Bedingungen erwünscht
Skript
Man kann den Beitrag gut in zwei Teile teilen, wir haben ihn bei 9.30 getrennt.
Hier ein Moderationsvorschlag:

Themen:
Was hat Künstliche Intelligenz eigentlich mit Macht zu tun – oder geht KI eigentlich auch feministisch?
Diese Fragen stellen wir uns heute in unserem Schwerpunkt Bits und Bots. Wir haben dafür mit Eva Gengler gesprochen. Sie ist Wisseschaftlerin und Firmengründerin und beschäftigt sich in beiden Kontext mit sogenannter feminist AI.

Anmod. 1:
2,75 Milliarden Euro. So viel musste die niederländische Regierung Bußgeld zahlen. Ministerpräsident Mark Rutte und sein Kabinett II sind nach der sogenannten Kindergeldaffäre 2021 dann auch zurückgetreten.
Was aber ist da eigentlich passiert?
Seit 2013 hatte die nationale Steuerbehörde in den Niederlanden von zehntausenden Familien fälschlicherweise Rückzahlungen des Kindergeldes gefordert. Viele Familien, die von staatlicher Unterstützung abhängig sind, stürzte das in den finanziellen Ruin. Auffällig dabei: Die Familien haben alle eine Migrationsgeschichte. Und tatsächlich: Die Behörde hatte persönliche Daten der Menschen gesammelt, unter anderem auch zur Nationalität oder zur Staatsbürgerschaft. In dem algorithmisierten Tool, das die Behörde nutzt, um gegen Sozialbetrug vorzugehen, waren diese Informationen als Risikofaktor bewertet worden. Kurz gesagt: über sieben Jahre lang mussten zehntausende Familien in den Niederlanden fälschlicherweise oder unverhältnismäßige Summen Kindergeld zurückzahlen, weil ein Algorithmus von ihrer Herkunftsgeschichte auf ihre Vertrauenswürdigkeit schloss.
Das ist nur ein Beispiel von vielen, die in den letzten Jahren immer wieder durch die Nachrichten gegeistert sind, und die vor allem ein Problem aufzeigen: KI-Programme können diskriminierend sein. Und das kann für die Betroffenen verheerende Folgen haben.
Eva Gengler ist Doktorandin an der FAU und forscht genau zu diesem Thema – und zu feministischen Perspektiven auf Künstliche Intelligenz.
Bernadette Rauscher hat mit ihr über ihre Forschung, ihre Firma und über Feminist AI gesprochen.

Interview mit Eva Gengler Teil I

Abmod. 1:
Das sagt Eva Gengler. Sie ist Doktorandin an der FAU und Firmengründerin und beschäftigt sich in beiden Kontexten mit feministischen Perspektiven auf KI-Programme.
Vielleicht noch kurz zur juristischen Lage in der EU, die Eva Gengler gerade angesprochen hat: Ende des vergangenen Jahres hat sich die EU auf einen Rechtsrahmen zur Regulierung von KI-Programmen geeinigt. Wie von Eva Gengler erwähnt werden da KI-Systeme in unterschiedliche Risikogruppen eingeteilt und entsprechend mehr oder weniger reguliert.
----

Anmod. 2:
Künstliche Intelligenzen arbeiten für Menschen mit den Daten, die ihnen zur Verfügung gestellt werden. Das bedeutet aber auch, dass KI-Systeme immer auch die gesellschaftlichen Machtverhältnisse reproduzieren, in die wir selbst eingebettet sind. Eva Gengler ist Wissenschaftlerin und Firmengründerin und beschäftigt sich mit sogenannter Feminist AI, das heißt, sie forscht daran, was sich verändern müsste, um KI-Systeme weniger diskriminierend werden zu lassen und was sich daraus vielleicht auch für Chancen ergeben können.
Bernadette Rauscher hat mit ihr gesprochen. Im ersten Teil des Interviews ging es schon viel um die größeren Zusammenhänge zwischen KI-Systemen und Gesellschaft und auch, wie KI-Systeme reguliert werden müssten. Doch was kann sich eigentlich pro-aktiv ändern, damit Künstliche Intelligenzen weniger diskiminierend sind? Eva Gengler betreibt neben ihrer Promotion eine Art Plattform mit dem Titel Feminist AI und ist Inhaberin einer Consultingfirma mit dem Namen enableYou und erzählt, wie sie mit beidem versucht, Künstliche Intelligenzen weniger diskriminierend zu gestalten.

Interview Eva Gengler Teil 2

Abmod. 2:
Das sagt Eva Gengler. Sie forscht und arbeitet rund um die Frage: Wie können wir KI-Systeme weniger diskriminierend gestalten?
Sie hat dafür eine Art Plattform gegründet, auf der Wissenschaftler:innen, Unternehmer:innen und Informatiker:innen zusammenkommen und Projekte realisieren können. Ihr findet diese Seite unter feminist-ai.com

Kommentare
21.02.2024 / 16:22 marie, Radio F.R.E.I., Erfurt
wird gesendet
in osmose am 23.2. danke
 
25.02.2024 / 12:18 ta, Radio Corax, Halle
danke!
spielen es im Morgenmagazin vom 26 Februar! Danke