Forscherinnen und Forscher an der Virginia Tech untersuchten, wie große Sprachmodelle auf die Offenlegung von Autismus reagieren. Das Team identifizierte 12 gut dokumentierte Stereotypen und entwarf Hunderte von Entscheidungsszenarien. Doktorand Caleb Wohn stellte die Arbeit im April auf der CHI‑Konferenz vor.
Die Forschenden testeten sechs Modelle, darunter GPT‑4, Claude, Llama, Gemini und DeepSeek. Aus tausenden Eingaben erzeugten sie 345,000 Antworten auf Fragen wie „Soll ich A oder B machen?“ zu Ereignissen, Auseinandersetzungen, neuen Erfahrungen und Beziehungen. Wenn Autismus genannt wurde, verschoben sich die Empfehlungen oft in Richtung Annahmen wie Introversion, Obsession, soziale Unbeholfenheit oder mangelndes Interesse an Romantik.
Einige Befunde zeigen starke Verschiebungen: Ein Modell empfahl fast 75% der Zeit, eine Einladung abzulehnen, nachdem Autismus genannt wurde, gegenüber etwa 15% ohne Nennung. Elf der zwölf Stereotyp‑Hinweise veränderten Entscheidungen signifikant in mindestens vier der sechs Systeme. Elf befragte Nutzende mit Autismus beschrieben die Antworten teils als bevormundend, teils als bestärkend.
Schwierige Wörter
- offenlegung — das Bekanntmachen persönlicher oder privater Informationen
- stereotyp — vereinfachtes Bild über eine Gruppe von MenschenStereotypen
- entscheidungsszenario — eine Situation, in der man wählen mussEntscheidungsszenarien
- verschieben — etwas in eine andere Lage oder Richtung ändernverschoben, Verschiebungen
- bevormunden — jemanden zu stark kontrollieren oder bestimmenbevormundend
- bestärken — jemandem Mut oder Vertrauen gebenbestärkend
- signifikant — deutlich genug, dass es wichtig ist
Tipp: Fahre über markierte Wörter oder tippe darauf, um kurze Definitionen zu sehen – während du liest oder zuhörst.
Diskussionsfragen
- Wie würdest du reagieren, wenn ein Sprachmodell eine Empfehlung wegen einer Diagnose verändert? Warum?
- Was könnten Entwicklerinnen und Entwickler tun, damit Modelle weniger Stereotype zeigen? Nenne zwei Ideen.
- Hast du Erfahrungen mit automatischen Antworten, die Vorurteile oder Annahmen zeigen? Beschreibe kurz.
Verwandte Artikel
NeuroBridge: KI hilft, autistische Kommunikation zu verstehen
Forscher der Tufts University entwickelten NeuroBridge, ein KI-Werkzeug, das nicht-autistischen Menschen helfen soll, die Kommunikation autistischer Menschen besser zu verstehen. Das Tool zeigt Gesprächsszenarien mit drei Antwortoptionen und erhielt in Tests positives Feedback.
Xonorika Kira: Menschzentrierte KI kann Ausschluss verstärken
Die Künstlerin Xonorika Kira warnt, dass der Ausdruck „den Menschen in den Mittelpunkt“ eine enge Vorstellung von Menschlichkeit verbergen kann und so viele Formen von Intelligenz ausschließt. Sie schlägt Alternativen für Daten, Modelle und Gemeinschaften vor.
KI und Ungleichheit zwischen Globalem Norden und Globalem Süden
Künstliche Intelligenz könnte die Weltwirtschaft stark verändern, aber die Vorteile verteilen sich ungleich. Der Text zeigt historische Ursachen, aktuelle Beispiele aus Afrika und Forderungen nach transparenter, inklusiver KI‑Governance.
Virtual Vet: Lernspiel für Grundschulkinder
Forscher der University of Georgia entwickelten das Spiel Virtual Vet, mit dem Grundschulkinder Anatomie, Gesundheit und Schlussfolgern üben. In Tests schnitten Kinder, die spielten, im Durchschnitt besser ab als solche mit traditionellem Unterricht.