Eva Gengler ist Wirtschaftsinformatikerin und Autorin und untersucht KI aus einer feministischen Perspektive. Aber was macht überhaupt feministische KI aus? Im ARIC-Interview erklärt Eva Gengler, warum KI nicht neutral ist, welche Mythen kursieren und, wie Technologie gerechter gestaltet werden könnte.
ARIC Hamburg: Wer bist du und was machst du so in deiner Arbeit?
Dr. Eva Gengler: Ich bin Doktorin Eva Gengler und in meiner Arbeit beschäftige ich mich mit Künstlicher Intelligenz aus einer feministischen Perspektive und aus einer soziotechnischen Perspektive. Ich verstehe KI nicht nur als etwas Technisches, sondern als etwas, das sehr stark mit der Gesellschaft zusammenhängt. Gesellschaft hat einen starken Einfluss auf KI, aber KI hat wiederum auch Einfluss auf die Gesellschaft. In den letzten vier Jahren habe ich zu diesem Zusammenspiel promoviert. Ich habe mir angeschaut, wo KI am Ende zu Unterdrückung führen kann, warum das so ist, was das mit Machtstrukturen zu tun hat und wie man es verändern kann. Meine Perspektive ist ein intersektionaler Feminismus, es geht dabei nicht nur um Frauen.
Was ist dein persönlicher Hintergrund?
Ich habe in der Wirtschaftsinformatik promoviert und habe 2024 unsere feminist AI Community mitgegründet und bin seit vielen Jahren in einem Verein, der sich für Frauenrechte einsetzt.
Zur KI bin ich über meine Masterarbeit gekommen. Diese habe ich zu ethischen Implikationen von KI im Recruiting geschrieben. Dabei habe ich sehr schnell gemerkt, dass im Recruiting zum Beispiel Frauen aussortiert werden, wenn aus Daten gelernt wird, die zeigen, dass bisher mehrheitlich Männer eingestellt worden sind. Grundsätzlich zeigt sich, dass Bias und Vorurteile die in der Gesellschaft vorherrschen, von KI verstärkt werden können. Ich habe auch mehrere EU-geförderte Projekte geleitet und während dieser Arbeit wurde mir immer klarer, dass es eigentlich um Feminismus geht.
Was bedeutet feministische KI für dich genau?
Es bedeutet nicht, dass wir bestehende Ungerechtigkeiten, die es in unserer Gesellschaft gibt, mit KI verstärken, was tatsächlich viele KI-Systeme aktuell tun. Feministische KI ist für mich ein Ansatz, bei es darum geht, aus einer intersektional feministischen Perspektive heraus zu verstehen: Wer hat Macht? Wer hat Privilegien? Wie können wir technologische Systeme schaffen, die am Ende unsere Welt gerechter machen und Macht gerechter verteilen? Es geht darum, mit Hilfe von Künstlicher Intelligenz auch gesellschaftliche Probleme anzugehen.
„wir sehen eigentlich in verschiedensten Anwendungsbereichen, dass KI nicht neutral ist“
Kannst du noch ein paar weitere Beispiele nennen für so Fälle, wo KI Ungerechtigkeiten eher unterstützt?
Wir sehen es in der Bildgenerierung, wo verschiedenste Stereotype abgebildet werden, wo z.B. vor allem weiße Menschen, perfekte Menschen, mit sehr schöner Haut, sehr schlanke Menschen abgebildet werden, Frauen sehr stark sexualisiert werden.
Das ist natürlich auch bei Texten so, zum Beispiel, wenn ChatGPT für Empfehlungsschreiben eingesetzt wird. Aber KI wird auch in der Polizeiarbeit und in der Militärarbeit eingesetzt. Und zum Beispiel in der Polizeiarbeit diskriminiert KI oft gegenüber Personen mit dunklerer Hautfarbe, also rassistische Konnotationen werden abgebildet. Ebenso in der Werbung, es werden unterschiedliche Personen unterschiedliche Apps ausgespielt. Auch auf Social Media, was sehen wir ungerechte Tendenzen zum Beispiel in Bezug auf: was wird ausgespielt, wer hat Reichweite? Also wir sehen eigentlich in verschiedensten Anwendungsbereichen, dass KI nicht neutral ist und Ungerechtigkeit verstärkt, weil tatsächlich KI schon in unserem Leben sehr stark angekommen ist und eigentlich schon unser gesamtes Leben sehr stark prägt. Und eben längst nicht nur generative KI eine Rolle spielt, sondern KI auch in verschiedensten Prozessen drin steckt, die verschiedensten Entscheidungen mit beeinflusst.
Mit der Bildgenerierung habe ich auch meine Erlebnisse gehabt. Ich habe zum Beispiel versucht, eine realistisch aussehende ältere Frau zu generieren. Es war wirklich sehr viel Arbeit und die sieht immer noch nicht durchschnittlich aus, sondern hat Model-Gesichtszüge.
Ja, schlank und mit langen Haaren, wo man sich denkt: Ey, so viele Haare hab ich jetzt nicht mal in meinem Alter mehr.
Und immer total feminin, als gäbe es nicht auch andere Ausdrücke von Frausein…
Aber wo steckt da eigentlich die Verantwortung? Ist das ein Thema, was deiner Meinung nach eher bei Nutzenden von KI liegt oder eher bei bei den Entwickelnden?
Aktuell liegt tatsächlich viel Verantwortung bei den Nutzenden, aber ich würde sagen das ist ein Problem. Ja, wenn ich jetzt KI nutze und damit einen Text oder ein Bild erstelle, dann bin natürlich ein Stück weit verantwortlich, weil ich das gepromptet habe. Wenn ich das weiter verwende muss ich gucken, was darin steckt und was es zeigt.
Aber eigentlich liegt zu viel Verantwortung bei den Nutzenden. Anbieter:innen könnten uns auch mitgeben: Hey, vielleicht steckt da ein Bias drinnen, schau doch noch mal drauf. Überprüf doch mal das Ergebnis. Bist du wirklich zufrieden damit?
Da könnten ganz aktiv Hinweise kommen, die mich als Nutzende hinterfragen lassen. Aber das ist nicht gewollt, denke ich. Da könnte viel mehr gemacht: Transparenz über welche Daten wurden genutzt? Was hat alles im Entwicklungsprozess stattgefunden? Wer war eingebunden? Wer war nicht eingebunden? Wo kommen die Daten her? Sind die irgendwie im Globalen Süden bearbeitet worden? Ist das in prekären Bedingungen passiert oder zu fairen Konditionen?
Also da steckt ja so viel drinnen, wo eine Nutzerin keinen Einfluss drauf hat. Die, die wirklich einen Hebel haben, sind am Ende Anbieter:innen. Um das nochmal zu spezifizieren, ich würde sagen, die Verantwortung liegt auch hier eigentlich an der Spitze und nicht in Entwicklungsteams. Das sind die Personen, die sagen, welche Weltbilder eine Rolle spielen. Ich hatte gerade einen Vortrag gehalten, da haben wir auch über Grok gesprochen und das Entkleiden von Frauen und Kindern. Diese Funktionalität Spicy hat Grok letztes Jahr im August erhalten. Das haben explizit Personen freigegeben. Personen haben gesagt: Das wollen wir entwickeln, das soll Teil vom System sein.
Ich denke jetzt nicht, dass dann einfach irgendwelche Entwickler:innen ganz unten in einer Nahrungskette auf solch eine Idee kommen, sondern das Problem sitzt da schon viel weiter oben. Und diese Verantwortung tragen meines Erachtens nach die Personen, die im Management sitzen und die sowas entweder aktiv wollen oder nichts dagegen tun. Und das ist etwas, was viele Personen im Management überhaupt nicht begriffen haben.
Wenn ich jetzt nicht an die Anbieter:innen denke, sondern an die Unternehmen, die so eine KI einkaufen und nutzen. Auch hier ist das Management absolut wichtig. Das überlegt, wo gehen Budgets hin, wie viel Budget haben wir für was, welche KI möchten wir vielleicht nutzen? Mit wem arbeiten wir zusammen, wie viel Zeit geben wir ins Testen? und so weiter. Auch hier liegt meines Erachtens die größte Verantwortung ganz, ganz klar im Management und bei Nutzer:innen erst deutlich nachgelagert.
Was könnte man Managementabteilungen raten, wie sie das angehen sollen, einen Fauxpas zu verhindern und eine wirklich sinnvolle feministische KI-Nutzung hinzukriegen?
Wir müssen uns erst mal überlegen, warum setzen wir KI ein, also was ist das Ziel? Eine wichtige Frage, die ist wirklich ganz am Anfang vom Prozess. Wenn wir dann schon ein bisschen weiter sind, stellt sich die Frage, welche Werte haben wir in der Organisation und werden die eigentlich von der KI abgebildet oder werden die vielleicht eigentlich von der eher korrumpiert?
Ich denke auch an so etwas wie ökologische Nachhaltigkeit. KIs verbrauchen viele Ressourcen. Viele Anbieter:innen machen aber nicht öffentlich, was das genau bedeutet. Wenn ich jetzt aktuell mit Unternehmen gesprochen habe in meiner Forschung und Arbeit, war das Thema ökologische Nachhaltigkeit quasi nicht vorhanden.
Ein weiterer Punkt ist dann Diskriminierung versus Diversität. Wenn wir jetzt zum Beispiel sagen, Hey, wir wollen eigentlich unseren ökologischen Fußabdruck verringern, wir wollen mehr Frauen in Führung und so weiter. Aber wir setzen jetzt KI-Systeme ein, die eigentlich von ihrem Weltbild her oder von dem, wie sie funktionieren, das Gegenteil als Ergebnis haben. Das ist ein Problem.
Ich brauche meines Erachtens eine Person auf recht hoher Hierarchieebene, die wirklich für KI verantwortlich ist, die in Entscheidungen mit einbezogen ist, das Thema zu einem Chef:innenthema macht.
Und um das dann umzusetzen, ist es sehr wichtig, dass wir über KI-Governance sprechen. Das bedeutet, dass wir überlegen, welche Prozesse, welche Strukturen schaffen wir in einem Unternehmen, welche Qualitätsstandards musst du in der KI erfüllen, welche Quality Checks habe ich?
Es gibt ja eh Quality Checks und Compliance Checks in einer Lieferkette oder, wenn Systeme eingekauft werden. Hier sollte auch KI aus einem kritischen Blickwinkel betrachtet wird. Das brauchen wir eigentlich auch wegen der KI-Regulierung der EU.

Über die Interviewpartnerin
Eva Gengler ist Doktorin der Wirtschafts- und Sozialwissenschaften. Als Wirtschaftsinformatikerin forscht und wirkt sie intersektional-feministisch an der Schnittstelle von Macht und Künstlicher Intelligenz. An der FAU Erlangen-Nürnberg hat sie im Programm Business and Human Rights zu KI aus einer feministischen soziotechnischen Perspektive promoviert. Als Speakerin und Co-Founderin der feminist AI Community sowie von enableYou engagiert sie sich für eine gerechte und verantwortliche Technologiegestaltung. Sie ist Buchautorin von „Feministische KI“, das im März 2026 erschienen ist.
Im ARIC-Team hat Evas Buch großen Gefallen gefunden. Hier findet sich eine sehr fundierte Aufbereitung feministischer Sichtweisen auf Künstliche Intelligenz, die viele Aspekte abdeckt und zudem durch angenehme Lesbarkeit überzeugt.
Du hast in deinem Buch auch über KI-Realität und Mythen geschrieben. Welche Mythen beschäftigen dich?
- Der erste Mythos: KI wird die Weltherrschaft übernehmen. Aktuell habe ich davor überhaupt keine Angst davor. Das kommt aus Science-Fiction-Filmen. Es gibt Personen und Institutionen, die davor warnen, aber diesen Mythos halte ich aktuell für wirklich sehr unwahrscheinlich und für ein Ablenken von den eigentlichen Problemen. Ich hätte jetzt viel mehr Angst vor den Institutionen und Menschen hinter KI und, wofür die KI nutzen oder missbrauchen. Ich glaube schon, dass Mächtige mithilfe von KI auch mehr Macht haben, aber das ist nicht die KI von sich heraus, sondern das sind dann Menschen.
- Als zweitens: KI wird uns alle Jobs wegnehmen. Da denke ich, dass da schon ein Stück weit etwas Wahres dran ist, dass sich Jobs verändern, dass in manchen Bereichen weniger Personen arbeiten werden, langweilige Tätigkeiten wegfallen. Aber ich habe es erst heute wieder auf Instagram in einer Studie gesehen, dass neunzig Prozent der Firmen sagen, dass sie eigentlich nicht wirklich produktiver werden durch KI. Was ich aber auch sagen möchte, aus einer feministischen Perspektive heraus, dass Frauen und Männer unterschiedliche Effekte sehen werden, weil viele Frauen am Ende eher Assistenzjobs bekommen haben, vielleicht nicht die Führungsaufgabe, sondern eher vorbereitenden Tätigkeiten, Rechercheaufgaben und solche Dinge. Das sind Bereiche, die man teilweise leichter automatisieren kann. Deswegen erwarte ich hier unterschiedliche Effekte auf Frauen und Männer und das zeigen auch erste Studien.
Auf der anderen Seite sind viele Frauen dann ja in der Care-Arbeit tätig, zu Hause oder auch bezahlt. Und ist etwas, da automatisiert KI eher weniger wahrscheinlich. - Drittens: KI wird menschliche Kreativität ersetzen. Hier habe ich auch mit einem Illustrator zusammengearbeitet, Jan Hendrik Ax, der hat aus seiner Perspektive gesagt, dass er es schwierig findet, wenn jetzt Verlage oder Institutionen einfach sagen, okay, wir machen jetzt alles mit KI, weil es eigentlich nicht schön und ein Diebstahl von geistigem Eigentum ist, weil die KI mit Daten von Künstler:innen ohne deren Zustimmung trainiert worden ist.
- Dann: KI ist wie Magie. Weil, ich glaube, vielen Menschen kommt es am Ende so vor. Aber – leider – ist es am Ende nicht Magie, sondern Statistik.
Das ist die Mystifizierung selbst in Reinform.
Genau. Und es ist am Ende auch eine Überschätzung von KI.
Da hast du gefühlt Menschen, die der KI göttliche Kräfte zuzuschreiben. Oder halt teuflische…
Genau. Das ist das eine oder das andere. Entweder sie kann alles und ist göttlich, oder ist am Ende verteufelt, weil sie von sich heraus böse ist. So ist beides am Ende natürlich nicht richtig.
Nächster Mythos: KI ist intelligent und denkt, wie ein Mensch. Am Ende denkt und reflektiert KI nicht.
Letzter Punkt: KI ist objektiv und fehlerfrei. Ich glaube, das ist ein explizit schwieriger Mythos, weil viele Menschen, denken, wenn sie jetzt KI nutzen, zeige dieset Wahrheit. Sie nutzen Systeme wie ChatGPT anstatt von Ecosia und Google oder welche Suchmaschine auch immer. Auch Suchmaschinen zeigen natürlich nicht unbedingt die Wahrheit, aber immerhin verschiedene Perspektiven und deren Herkunft. Aber KI ist eben alles andere als objektiv. Sie spiegelt Muster aus Daten und Fehler macht sie natürlich auch.
Konsequenzen aus diesen Mythen waren dann genau darauf ansetzend, dass KI diskriminiert, benachteiligt, dass sie neo-liberal kapitalistische Tendenzen absolut verstärkt und dass sie am Ende zur Verstärkung der Klimakrise beiträgt.
Kennst du Beispiele, wo man sagen kann: Ja, das wurde gut gelöst oder es ist vielleicht wirklich eine feministische KI.
Ich würde wahrscheinlich eher von feministischerer KI sprechen. Eine wirklich feministische KI ist ein sehr hohes Ziel. Ein wirklich sehr cooles Beispiel war MissJourney, anstatt Midjourney, mit der konnte man Bilder generieren. Dieses Tool kam von einer Agentur, die viel mit Bildern zu tun hat und Kampagnen macht. Und die hat gesagt: Okay, wir merken gerade, dass es mit KI in der Bildgenerierung ganz viele Probleme mit der Repräsentation von Frauen gibt. Wir haben jetzt jahrelang dafür gekämpft, dass Frauen anders dargestellt werden. Und jetzt macht KI gefühlt innerhalb von einem Klick alles wieder zunichte.
Deswegen haben Sie Miss Journey entwickelt, die nur Bilder von Frauen erstellt hat und diese relativ divers. Frauen mit Kopftuch, Frauen mit unterschiedlichen Hautfarben. Es waren jetzt schon noch sehr schöne Frauen. Das System war nicht perfekt, aber die Idee war zu zeigen, okay, hier zum Beispiel, es fehlen Frauen, die Pilotinnen sind, die irgendwie CEOs sind und in ganz vielen verschiedenen Arbeitskontexten. Also wir haben weniger Pilotinnen als Piloten, aber wir haben noch weniger Bilder von ihnen. Bilder haben einen Einfluss auf unser Denken und deswegen brauchen wir da mehr Bilder von Frauen.
Dann gibt es Aymur AI, das ist eine KI, die wird in Lateinamerika entwickelt und zwar in Bezug auf genderspezifische Gewalt.
Diese KI ist tatsächlich von einer NGO und wurde unter anderem gefördert von einem kanadischen Ministerium. Die hatten nämlich tatsächlich schon 2021 Projekte zu feministischer KI gefördert – das finde ich total cool. Und da sind verschiedene Initiativen daraus entstanden. Dann gibt es zum Beispiel auch KI im Recruiting, die Matching macht. Anstatt von quasi wir wählen anhand der bisherigen Entscheidung die ‚besten‘ aus, sondern eher okay, wir fragen Frauen, wo sind sie denn eigentlich, wo wollen sie hin, wo sind Unternehmen und führen diese dann zusammen. Warum ist das wichtig? Wenn wir aufs aktuelle Recruiting gucken, dann wissen wir anhand von verschiedenen Studien – nicht genau, aber ungefähr, – dass sich Frauen weniger oft bewerben als Männer, wenn sie nicht die gesamte Liste an Anforderungen erfüllen. Weil Frauen eher denken, dass sie alle Anforderungen erfüllen müssen und Männer denken eher, Ich bin schon toll und ich mach’s einfach mal. Und das heißt, wir verlieren schon viele Frauen eigentlich in dem Schritt, bevor eine Bewerbung an ein Unternehmen geht. Frauen bewerben sich erst gar nicht. Und dann gibt es zum Beispiel auch KI-Systeme, die entwickelt werden, um ein Matching zu machen und quasi Stelle und Personen zu matchen. Das kann dazu führen, dass Frauen zu Stellen zu gematcht werden, auf die sie sich eigentlich selbst nicht beworben hätten.
Also es gibt ganz viele verschiedene Ideen oder feministische Zwecke, wo KI genutzt wird, um eben solche Ungerechtigkeiten in der Gesellschaft zu verändern. Es sind oft, eher kleinere Initiativen, wie von kleineren Firmen, sie kommen aus der Wissenschaft, sind wissenschaftliche Projekte oder wirklich im Bereich NGO angesiedelt. Wobei es auch gewisse Communities und Initiativen in größeren Unternehmen gibt. Aber viele dieser Initiativen, die wir sehen, kommen tatsächlich auch aus so einem aktivistischen Kontext heraus.
„Was feministische KI oft auszeichnet ist, dass es eher kontextspezifische Lösungen sind“
Warum kommen die Positivbeispiele eher aus einem aktivistischen Kontext heraus?
In vielen Projekten wird nicht explizit von feministischer KI gesprochen. Also zum Beispiel das Recruiting-Beispiel, was ich gebracht habe, ist eine Software von Chemistry und es wurde unter anderem von der herCAREER eingesetzt, die größte Leitmesse der weiblichen Karriere in der Dachregion. Die sprechen von guter KI. Ich würde trotzdem sagen, der Zweck ist eindeutig feministisch.
Warum sind größere Firmen teils weniger an feministischer KI interessiert? Ich glaube vielleicht denken sie eher gar nicht so an diese Möglichkeit. Was feministische KI oft auszeichnet ist, dass es eher kontextspezifische Lösungen sind und nicht so stark skalierte. Wenn ich jetzt an große Sprachmodelle denke, dann ist ja eigentlich da das Ziel dahinter, das sie für jede:n irgendwie funktionieren können sollen. Jede Person soll es nutzen können. Ich glaube, das stimmt nicht ganz, weil es funktioniert vermutlich besser für US amerikanische Person als Person in Afrika, weil es einfach viel mehr mit deren Weltbild und Daten gefüttert worden ist und am Ende besser auf Englisch funktioniert. Aber die Idee ist: Jede Person soll es nutzen können. Und bei vielen feministisch(er)en KI-Lösungen, glaube ich, geht es eher darum, in einem gewissen Kontext eine Ungerechtigkeit anzugehen.
Also ein anderes Beispiel ist Bentos AI. Das ist ein kleines gemeinnütziges KI-Startup aus Berlin, von einer Brasilianerin gegründet. Sie wollen mit Hilfe von KI-Lösungen in Küstenregionen, wo es eine hohe Biodiversität gibt, dort Klimaschutzprojekte unterstützen und zwar mit Menschen vor Ort. Und die Idee ist nicht, Ich gehe quasi dahin, ich nehme deren ganzen Daten, mache Datenextraktion und dann nutze ich das für mein Geschäftsmodell, sondern die Idee ist, dass da kleine Insellösungen entstehen, die die Personen selbst vor Ort nutzen können, wo sie sich untereinander in einem gewissen Kontext Informationen teilen – zum Beispiel schon zum Schutz von Mangroven Wäldern. Personen, die auch in solchen Kontexten sind, können dieses System dann nutzen. Aber es gibt verschiedene solche, kleinere, sage ich mal, Systemlösungen für verschiedene Kontexte. Die können zwar auch ein Stück weit untereinander kommunizieren, aber eigentlich sind diese Systeme erstmal für sich lokal klein und nicht skaliert. Und deswegen verbrauchen sie natürlich weniger Ressourcen und die Daten sind sicherer. Und ich glaube, das ist auch sehr typisch für feministische KI-Lösungen und erstmal vielleicht auf den ersten Blick deswegen nicht das größte Geschäftsmodell.
Vielleicht noch als letzter Punkt, was ich glaube, dass oft übersehen wird von großen Firmen, ist, dass sie oft denken, dass sie bisher schon sehr gute Entscheidungen treffen. Und das tun wir oft nicht, weil wir Menschen Bias – also Vorurteile und gedankliche Verzerrungen – haben. Wenn wir aber wir mit diesem Wissen an die Gestaltung und den Einsatz von KI herangehen, dann könnten wir KI sehr viel feministischer einsetzen. Natürlich ist das auch für Unternehmen und deren Business gut, weil wenn wir wenn wir mit KI bestehende Probleme und bestehende menschliche Fehler reproduzieren, ist das für niemanden gut. Deswegen glaube ich, dass vielleicht dieses Bewusstsein noch nicht genug da ist und der Schmerz, das Thema mit Wir wollen was verändern ist vermutlich dann einfach höher in aktivistischeren, kleineren Kontexten.
„Ich denke nicht, dass es leicht wäre aus ChatGPT ein feministisches System zu machen“
Gedankenspiel: Wir beide können ChatGPT übernehmen. Was machen wir da anders, damit das ein bisschen feministischer und gerechter ist?
Ich denke nicht, dass es leicht wäre aus ChatGPT ein feministisches System zu machen – einfach, weil diesem System so viele patriarchale, neo-liberal kapitalistische und neokoloniale Gedanken, Ziele und Praktiken zugrundeliegen. Aber wir könnten sicherlich einiges verändern.
Das Problem ist, dass da schon ganz viele Daten drinstecken, die nicht feministisch sind. Deswegen würde ich zum Einen dafür plädieren, dass wir neue Daten brauchen. Wir brauchen feministischere Daten und wir müssten uns sicherlich überlegen, wie können wir repräsentativerer, gerechtere, fairere, diversere und feministischee Daten erfassen. Vielleicht könnte man dann das bestehendes System weiter verwenden und mit solchen Daten feintunen.
Wir könnten auch hergehen über Systemprompts. Zum Beispiel soll ChatGPT ja in der Regel nett antworten, bestätigend agieren und so weiter. Hier könnten wir ran und zum Beispiel eher sagen:
So ein System soll Nutzer:innen in ihren eigenen Meinungen auch mal kitzeln und sagen: Hey, stimmt es wirklich? Denk noch mal um die Ecke! Hast du schon an das und das gedacht?
Was so ein KI-System ja eigentlich tut, ist ja auch eher eine Mehrheitsmeinung, eine statistische Wahrscheinlichkeit abbilden. Aber man könnte natürlich auch hergehen und sagen, dass man auch gewisse Randmeinungen versucht zu zeigen. Damit meine ich jetzt auf jeden Fall nicht rechtsextremen Content. Aber wenn wir jetzt in kleinere Gruppierungen gehen oder in verschiedene andere Kontexte bedenken, zu denen es einfach weniger Daten gibt, dann kommt es eigentlich als Antwort nicht vor. Und das könnten wir über Systemprompts verändern.
Für mich wäre es dann auch wirklich die Frage, wie schaffen wir es, dass wir solche Meinungen auch zeigen können und ein Stück weit eine Alternative zur „Norm“ darstellen.
Ganz wichtig würde ich finden, dass wir Informationen mitgeben an Nutzende: Was wir sagen, ist nicht die Wahrheit, sondern das ist Wahrscheinlichkeit. Geh damit verantwortungsvoll um, hinterfragt es vielleicht, klick auf die Links, schau, ob die funktionieren, schau, ob sie dahin führen, was das System ausgibt. Also ich würde sagen, Nutzer:innen unterstützen das System verantwortungsvoll zu nutzen, wäre für mich ganz zentral und eigentlich das von Anfang an, also ein Stück weit auch mehr zeigen, was steckt drinnen, welche Daten stecken drinnen und und und.
Der letzte Punkt wäre die ökologische Nachhaltigkeit. Wir müssen erfassen, was verbraucht das System, was hat es im Training verbraucht und das transparent machen. Man könnte zum Beispiel auch so eine Wasserflasche oder eine andere Verbildlichung am Rand abbilden und je nachdem, wie lange ich prompte, wird diese immer leerer. Also einfach zeigen, Hey, das macht was, denk darüber nach, wofür du es nutzt.
Mir ist aufgefallen, dass immer Leute über ChatGPT reden und dann sagen sie: ‚Er hat gesagt‘ und ‚Chatty hat gesagt‘, das ist irgendwie immer eine männliche Entität.
Wo du gerade gesagt hast, das ist immer so nett und zustimmend. Das ist ja im Grunde wie das, was man von so einer netten Frau erwartet. Dass die immer lächelt und sagt: „Ganz toll.“ Und da habe ich auch mal Studien darüber gelesen, dass Service-Bots immer weiblich gelesen sind.
Ja, auch so was wie Alexa. Das sind dann die Systeme, die uns assistieren sollen, die weibliche Namen und weibliche Stimmen haben. Da habe ich auch in meinem Buch kurz darauf Bezug genommen. Alexa hatte ja zum Beispiel auch mal eine Funktion für Dirty Talk. Das gibt es nicht mehr, aber man kann auf YouTube mal gucken. Sie sagt wirklich absolut weirde Sachen.
Aber trotzdem ist die Frage ja: Warum gibt es diese Funktion? Dann haben Personen irgendwelche unpassenden Dinge gesagt oder sexualisierte Beleidigungen, dann kam eher so was wie Danke fürs Feedback oder so. Es mag vielleicht im ersten Moment lustig wirken. Aber eigentlich ist es das überhaupt nicht. Wir sollten wirklich überlegen, wenn wir eine KI gendern und vermenschlichen, was grundsätzlich ein Problem ist, wie du auch sagst, Chatty,… manche haben ja auch wirklich Namen und eine ganze Beziehung mit diesen fiktiven Personen. Schwierig. Insbesondere, wenn wir das auch auf eine sexualisierte Art und Weise tun, dann kann das, glaube ich gravierende Folgen für menschliche Beziehungen haben und das sollten wir auf keinen Fall normalisieren.
„wir leben in Demokratien und wir haben eine politische Prägung“
Gibt es noch dein Thema in Zusammenhang mit KI, was du platzieren magst?
Ich glaube, die Politik hat hier eine große Verantwortung. Ein Stück weit wird diese auch wahrgenommen durch neue Regulierungen und so weiter. Aktuell weiß man aber nicht so ganz genau, wie weit die Regulierungen in der EU gegebenenfalls wieder aufgeweicht werden, wegen den „Bemühungen“ – dem Druck – aus USA. Politiker:innen müssen sich damit beschäftigen, was KI für unsere Demokratie und Gesellschaft bedeutet und müssen selbst ein Bewusstsein dafür haben. Und sie sollten ein Interesse daran haben, Menschenrechte, Frauenrechte und die Rechte anderer Gruppen zu schützen. Ich sehe das in der Politik viel zu wenig. Und auch hier fehlen meist gerade intersektionale Perspektiven, also nicht nur in Bezug auf Frau, Mann, sondern wie werden Personen mit verschiedenen Benachteiligungsstrukturen betroffen, so etwas in Regulierungen einbeziehen, findet eigentlich nicht statt. Das wäre wirklich was, was ich von der Politik erwarte.
Am Ende geht es nicht nur um die Wirtschaft, wir leben in Demokratien und wir haben eine politische Prägung. Wir haben Regulierungen. Wir setzen Anreize, zum Beispiel in Bezug auf Fördermittel. Was muss erfüllt werden für Fördermittel? Wenn ich ein Projekt ausschreiben möchte, könnte ich vorgeben, ihr müsst auf Daten achten, ihr müsst auf Intersektionalität achten, schaut auf Risiken. Also das sind so Punkte, wo die Politik positive Anreize setzen kann. Sie könnte auch sagen, es gibt explizit Fördermittel für KI-Systeme, die versuchen, gesellschaftliche Probleme mit zu lösen. Da kann die Politik auf beiden Seiten, durch Regeln und festgeschriebene Dinge in der Regulierung und eher positive finanzielle Anreize und Erleichterungen, die Möglichkeiten schaffen. Das ist auch eine wichtige Verantwortung, die wir nicht vergessen dürfen.
Interview: Sabrina Pohlmann
Mit unseren Interviews wollen wir euch verschiedenen Perspektiven und Akteure im Themenfeld KI vorstellen. Die Positionen unserer Interviewpartner:innen spiegeln nicht zwingend die Positionen des ARICs wider.
Weitere Interviews:


