نقاش حول نماذج اللغة والذكاء الاصطناعيCEFR B2
١٦ أبريل ٢٠٢٦
مقتبس من Daria Dergacheva, Global Voices • CC BY 3.0
صورة من Brett Jordan, Unsplash
أثرت نماذج اللغة الكبيرة على النقاش العام منذ أن أتاحَت OpenAI خدمة ChatGPT لملايين المستخدمين في نوفمبر 2022، ويظل الموضوع محوريًا في 2026. ينتمي التقرير إلى سلسلة تعاونية بين منظمات مهتمة بالحقوق والسياسات الرقمية ويصف تطورات تقنية واجتماعية متعددة.
تولّد تقنيات التوليد فرقا متباينة: عطّلت أنظمة تعليمية، وزوّدت مبرمجين بأدوات جديدة، واستُخدمت في سياقات الحرب. رغم ذلك، لا تزال العديد من شركات الذكاء الاصطناعي تفتقر إلى نماذج عمل مربحة، ومع ذلك يواصل بعض قادتها تصوير نماذجهم بصيغ تشبه البشر ما يزيد الإرباك العام.
ينبع جزء كبير من الالتباس من لغة الوصف العلمي والتسويقي. وُصفت أخطاء النماذج بـ«الهلوسات» لكنها أخطاء إحصائية، ويقدّر بعض الباحثين معدل الخطأ بنحو 25–30٪. انتقدت وثيقة Claude’s Constitution بعض الممارسات، وتحذّر باحثة قانونية من أن هذا الإطار قد يمنح الذكاء الاصطناعي وضعًا أخلاقيًا أو قانونيًا مبالغًا فيه، بينما قالت مؤلفة الوثيقة إنها «تبنِي شخصية Claude».
يشير باحثون إلى أن النماذج مهيأة لكتابة بصيغة المتكلم وأن الأصوات الاصطناعية مصممة لتبدو بشرية، ما يمنح ردودًا لياقةً أحيانًا على حساب الفائدة الواقعية. يقترح الخبراء أن يتجنب الصحفيون وصانعو السياسات لغة تسويق الشركات وأن يركّزوا بدلاً من ذلك على السلامة والحقوق وتقدير الإبداع والصلات الإنسانية.
- شركات مرتبطة: Google تطور Gemini.
- Microsoft استثمرت في Anthropic وOpenAI.
- Meta طوّرت Llama، وإيلون موسك يقدم Grok.
- جيف بيزوس يستثمر في شركات من بينها Perplexity AI وToloka.
كلمات صعبة
- نموذج — برنامج ذكي يولد نصوصاً أو محتوىنماذج
- هلوسة — معلومات خاطئة تنتج عن النظام وليس واقعيةالهلوسات
- إرباك — حالة من الخلط أو عدم الوضوحالإرباك
- مهيأ — مستعد أو مُعدّ للعمل أو لأداء مهمةمهيأة
- ممارسة — فعل متكرر أو سلوك في سياق معينالممارسات
- سلامة — حماية الناس من خطر أو من ضررالسلامة
تلميح: مرّر المؤشر أو ركّز أو اضغط على الكلمات المظلَّلة داخل القصة لرؤية تعريفات سريعة أثناء القراءة أو الاستماع.
أسئلة للمناقشة
- كيف يؤثر استخدام لغة تسويقية تشبه الكلام البشري على ثقة الجمهور في معلومات النماذج؟ اشرح بأمثلة قصيرة.
- ما المخاطر والفوائد الممكنة من إعطاء نماذج الذكاء الاصطناعي مكانة أخلاقية أو قانونية كبيرة؟ قدّم حجتين مع مثال.
- ما الإجراءات التي يمكن أن يقترحها صانعو السياسات لتعزيز السلامة والحقوق أثناء تطوير هذه النماذج؟ اذكر ثلاث خطوات ممكنة.