أضرار الذكاء الاصطناعي ودعوة للمساءلةCEFR B1
٢١ أبريل ٢٠٢٦
مقتبس من Guest Contributor, Global Voices • CC BY 3.0
صورة من Marija Zaric, Unsplash
تستعرض هِجا كامران موقفها الحذر من التقنيات الجديدة وتربط ذلك بكيفية عمل شركات التكنولوجيا. تقول إن التزام هذه الشركات غالباً موجّه نحو نماذج الأعمال وليس نحو الناس، وتذكر أمثلة عن ردود تقلّل من الشفافية والمساءلة.
تشرح الكاتبة أن الأنظمة ليست حيادية لأن من يصمّمها يحمل رؤى محددة، وبيانات التدريب المأخوذة من الإنترنت والسجلات العامة تعكس تواريخ من الإقصاء والعنصرية والتمييز الجنسي وعدم المساواة الاقتصادية. عندما يتعلّم الذكاء الاصطناعي من هذه البيانات، فإنه قد يشفّر ويضخّم الأذى القائم.
تشير كامران إلى مصطلح «أضرار جانبية» لوصف الأشخاص المتضررين، وتلفت الانتباه إلى خطر تجريد الناس من إنسانيتهم في سياقات مثل الاستخدام العسكري. تدعو إلى مقاربة حقوقية ومسؤولية من يملكون السلطة وطرْح أسئلة أساسية حول من يبني النظام ومن يستفيد.
كلمات صعبة
- شفافية — وضوح المعلومات وسهولة الاطلاع عليهاالشفافية
- مساءلة — مسؤولية الأشخاص عن أفعالهم ونتائجهاالمساءلة
- حيادية — غياب الانحياز في القرارات أو الأنظمة
- إقصاء — منع مجموعة من المشاركة أو من الفرصالإقصاء
- تمييز جنسي — معاملة سلبية بسبب جنس الشخصالتمييز الجنسي
- ضرر جانبي — آثار سلبية غير مقصودة على الناسأضرار جانبية
تلميح: مرّر المؤشر أو ركّز أو اضغط على الكلمات المظلَّلة داخل القصة لرؤية تعريفات سريعة أثناء القراءة أو الاستماع.
أسئلة للمناقشة
- هل توافق أن شركات التكنولوجيا تضع نماذج الأعمال قبل الناس؟ اذكر سببين.
- ما خطوات عملية يمكن أن تقترحها للحد من الأذى عندما يتعلم الذكاء الاصطناعي من بيانات متحيزة؟
- لماذا من المهم سؤال من يبني النظام ومن يستفيد منه؟
قصص ذات صلة
انتخابات هنغاريا وحملة سياسية باستخدام الذكاء الاصطناعي
تُجرى انتخابات برلمانية في هنغاريا في 12 أبريل مع تنافس بين FIDESZ بقيادة فيكتور أوربان والحزب الجديد TISZA بقيادة بيتر ماجيار. جذبت الحملة انتباهًا لأن الأحزاب استخدمت محتوى مولدًا بالذكاء الاصطناعي وتحقق مدققو الحقائق في ادعاءات كاذبة.