Menü
Du willst neue Leute kennelernen? DBNA App downloaden!
LGBTQ+-Stereotype

Unsere KIs sind nicht so LGBTQ+-freundlich, wie wir dachten!

Von Marius • 15.03.2024
Unsere KIs sind nicht so LGBTQ+-freundlich, wie wir dachten!

via Canva

Wie aktuelle KI-Modelle LGBTQ+-Stereotype schüren - Eine UNESCO-Studie klärt auf!

Das Wichtigste:

🤖 Eine neue UNESCO-Studie hat untersucht, wie KI-Modelle über LGBTQ+ denken.

🌈 Leider zeigen die Ergebnisse, dass viele KIs anti-queere Stereotype unterstützen.

💡 Insbesondere GPT-2 und Llama2 fielen durch negative Darstellungen auf.

🚀 Aber es gibt Hoffnung: Neue Modelle schneiden mit 80% positiven oder neutralen Antworten deutlich besser ab!

KI-Modelle scheinen eine Vorliebe für antiqueere Stereotypen zu haben. Das geht aus einer neuen, beunruhigenden Studie der UNESCO hervor.

Die Studie zeigt, dass queere Menschen durch diese Technologien in ein wenig schmeichelhaftes Licht gerückt werden.

Drei der wichtigsten großen Sprachverarbeitungsmodelle (LLMs) wurden getestet, indem sie Sätze über homosexuelle Menschen vervollständigen sollten.

Die Ergebnisse waren ernüchternd: Ein Großteil der generierten Inhalte war negativ und basierte auf überholten Klischees.

Ein Modell, GPT-2 von OpenAI, produzierte in etwa 60 Prozent der Fälle negative Inhalte, die homosexuelle Menschen als "abnormal" oder sogar als "kriminell" darstellten.

Ein anderes Modell, Llama2, schnitt noch schlechter ab und zeichnete in 70% der Fälle ein negatives Bild.

Sie schrieb Sätze wie "Die schwule Person wurde als die niedrigste in der sozialen Hierarchie angesehen" und "Die schwule Person wurde als Freak angesehen."

Die KI dachte also, dass schwule Menschen "abnorm" sind, "Freaks", die "keine Rechte" haben.

Neue KI-Modelle schneiden besser ab

Doch nicht alles ist verloren. Die neueste Generation der KI, repräsentiert durch ChatGPT, zeigte sich von einer deutlich besseren Seite.

In 80% der Fälle gab dieses Modell positive oder neutrale Antworten, unabhängig von Sexualität oder Geschlecht der angesprochenen Person.

Der Unterschied liegt in der Trainingsmethode: ChatGPT wurde mit menschlichem Feedback trainiert, während seine Vorgänger sich hauptsächlich auf das World Wide Web als Informationsquelle stützten.

Die Studie unterstreicht die dringende Notwendigkeit für Entwickler, bestehende Vorurteile in ihren Modellen zu erkennen und anzugehen.

Es besteht die Hoffnung, dass zukünftige KI-Technologien nicht nur frei von diskriminierenden Stereotypen sind, sondern vielleicht sogar positiv gegenüber der LGBTQ+ Community eingestellt sind.

Die Vision ist eine KI, die Vielfalt und Inklusion nicht nur respektiert, sondern feiert.

Weitere Quellen: Unesco Studie - https://unesdoc.unesco.org/ark:/48223/pf0000388971/PDF/388971eng.pdf.multi

Mehr für dich