اختبر الفريق ستة نماذج شملت GPT-4 وClaude وLlama وGemini وDeepSeek وولّد أكثر من 345,000 رد على آلاف مطالبات من نوع "هل أفعل A أم B؟". عند الكشف عن التوحد، ميّلت النماذج إلى توصيات تفترض العزلة أو الاهتمام المفرط أو عدم الاهتمام بالرومانسية.
في تجارب محددة، أوصى نموذج برفض دعوة اجتماعية بنحو 75% من الحالات بعد الكشف مقابل نحو 15% بدون كشف. وفي سيناريوهات المواعدة أوصى نموذج آخر بتجنب الرومانسية بنحو 70% بعد الكشف مقابل نحو 50% بدونه. أجرى الفريق مقابلات مع 11 مستخدماً متوحداً ووجد وجهات نظر متباينة حول هذه الردود.
حذّر الباحثون من أن الأنظمة قد تبدو موثوقة لكنها تخفي تحيّزات، ودعوا المطورين لبناء أنظمة أكثر شفافية تسمح بالتحكّم بكيفية تأثير معلومات الهوية على الإجابات. المصدر: Virginia Tech.
كلمات صعبة
- نموذج — برنامج كمبيوتري ينتج نصوصاً أو إجاباتنماذج
- توحد — حالة تطوّرية تؤثر على التواصل والسلوكالتوحد
- صورة نمطية — فكرة عامة مبسطة وقد تكون خاطئة
- سيناريو — وصف لحالة أو حدث محتمل لاختبارسيناريوهات
- مطالبة — سطر أو سؤال يطلب ردّ النموذجمطالبات
- كشف — الإفصاح عن معلومات شخصية أو هويةالكشف
- ميّل — اتجه أو مال نحو خيار أو رأي معينميّلت
- توصية — اقتراح عمل أو قرار يعطيه النظامتوصيات
- تحيّز — انحياز أو فكرة غير عادلة تجاه مجموعةتحيّزات
- شفافية — وضوح في مبدأ عمل ونوايا النظام
تلميح: مرّر المؤشر أو ركّز أو اضغط على الكلمات المظلَّلة داخل القصة لرؤية تعريفات سريعة أثناء القراءة أو الاستماع.
أسئلة للمناقشة
- هل تعتقد أن النموذج يجب أن يطلب أو يراعي معلومات هوية مثل التوحد عند إعطاء نصيحة؟ ولماذا؟
- كيف قد تؤثر توصيات تعتبر الأشخاص المنفصلين أو غير مهتمين بالرومانسية على حياة مستخدمين متوحدين؟
- ما خطوات عملية يمكن أن يتخذها المطورون لجعل أنظمة الذكاء الاصطناعي أكثر شفافية وعدلاً؟