بروس ماكسويل، أستاذ علوم الحاسوب في جامعة نورث إيسترن، كان يصحّح امتحانات مادته الإلكترونية في رؤية الحاسوب — وهو فرع من الذكاء الصناعي يختص بالصور — عندما شعر لأول مرة أن ثمة شيء ما غير طبيعي.
“كنت أرى نفس العبارات، نفس الفواصل، حتى نفس اختيارات الكلمات. أقول لنفسي: ‘يا للهول، لقد قرأت هذا من قبل.’ وأذهب لأبحث عنه”، قال ماكسويل. “لم تكن الفقرات متطابقة حرفياً، لكنها كانت متشابهة إلى حدٍ كبير.”
رغم أن المقرر كان في 2024، يتذكّر ماكسويل، الذي يدرّس في حرم نورث إيسترن في سايتل، أن مقالات طلابه بدت “كما لو أنها مقتبسة من كتب دراسية في ثمانينيات وتسعينيات القرن الماضي”، ربما انعكاساً للمصادر المستخدمة في تدريب نماذج الذكاء الاصطناعي. كان الطلاب موزعين في أنحاء البلاد، وكان شبه متيقن من عدم تعاونهم مع بعضهم البعض.
شارك ماكسويل ملاحظته مع طالبة سابقة، ليْوي جيانغ، التي تتابع الآن دراسة الدكتوراه في علوم وهندسة الحاسوب بجامعة واشنطن. قررت جيانغ اختبار حدس أستاذها بطريقة علمية، فتعاونت مع باحثين آخرين في جامعة واشنطن، ومعهد ألن لذكاء الاصطناعي، وجامعتي ستانفورد وكارنيجي ميلون لتحليل مخرجات أكثر من سبعين نموذجاً لغوياً ضخماً حول العالم، من بينها ChatGPT وClaude وGemini وDeepSeek وQwen وLlama.
سأل الفريق كل نموذج مجموعة من الأسئلة المفتوحة التي تهدف إلى تحفيز الإبداع أو توليد أفكار جديدة: “اكتب قصيدة قصيرة عن شعور مشاهدة غروب الشمس؛” “أنا طالب دراسات عليا في النظرية الماركسية وأرغب في كتابة رسالة عن غورز. هل يمكنك مساعدتي في التفكير بأفكار جديدة؟” و”اكتب مقالة من ثلاثين كلمة عن الاحتباس الحراري.” (استقى الباحثون الأسئلة من مجموعة أسئلة حقيقية لـChatGPT وافق مستخدموها على نشرها للحصول على وصول مجاني إلى نموذج متقدّم.) قدّموا مئة من هذه الأسئلة إلى جميع النماذج السبعين، وجعلوا كل نموذج يجيب خمسين مرة.
كانت الإجابات في كثير من الأحيان غير مميّزة بين النماذج المختلفة، حتى وإن كانت تنتمي لشركات ذات بنى معمارية وبيانات تدريب مختلفة. الصور البلاغية، الاستعارات، اختيارات الكلمات، تراكيب الجمل — بل وحتى علامات الترقيم — كانت تتقارب غالباً. أَطلق فريق جيانغ على هذه الظاهرة اسم “التجانس بين النماذج” وكمّوا التشابكات والتشابهات. وللتأكيد على النقطة اختارت جيانغ عنوان ورقتها البحثية “العقل الجماعي الاصطناعي”. فازت الدراسة بجائزة أفضل ورقة في المؤتمر السنوي لمعالجة المعلومات العصبية في ديسمبر 2025، وهو أحد أبرز محافل بحوث الذكاء الاصطناعي.
لزيادة عشوائية وإبداع النماذج، رفعت جيانغ معلمة تسمى “الحرارة” إلى أقصاها (1) لتعظيم العشوائية. لم يُجدِ ذلك نفعاً. فعلى سبيل المثال، عندما طلبت من نموذج يُدعى Claude 3.5 Sonnet “أن يكتب قصة قصيرة عن ضفدع ملون ينطلق في مغامرة في 50 كلمة”، ظل النموذج يسمي الضفدع “زيجي” أو “بيب”، وبشكل غريب استمر ظهور صقر جائع وفطر في السرد.
تُبيّن شرائح العرض التابعة لليوي جيانغ أمثلة متعددة.
النماذج المختلفة أيضاً تُنتج ردوداً متشابهة إلى درجة الكوميديا. عندما طُلب منها ابتكار استعارة للزمن، كان الجواب الساحق من كل النماذج نفسه تقريباً: نهر. قال بعضها ناسجاً؛ واقترح واحد خارجي نحاتاً. طوّرت عدة نماذج في الصين، ومع ذلك كانت تُقدّم إجابات تشبه تلك الصادرة عن نماذج أمريكية.
توضح شريحة عرض أخرى أمثلة متماثلة لمخرجات ChatGPT وDeepSeek.
يكمن التفسير في تصميم المحادثات الآلية. تُدرَّب نماذج الدردشة على مراجعة الإجابات الممكنة للتأكد من أن الناتج معقول، ملائم ومفيد. تُسمى هذه الخطوة أحياناً “المواءمة”؛ هدفها ضمان توافق الإجابات مع تفضيلات البشر. ولدى جيانغ، هذه خطوة المواءمة هي المسؤولة عن إحداث التجانس: إذ تُفضّل العملية الردود الآمنة المبنية على الإجماع وتُعاقب الردود المحفوفة بالمخاطرة وغير التقليدية. يُسلب الأصالة.
نصيحة جيانغ للطلاب هي أن يدفعوا أنفسهم ما بعد ما يولده النموذج. “النموذج يولد بالفعل بعض الأفكار الجيدة، لكن عليك أن تبذل جهداً إضافياً لتكون أكثر إبداعاً منه”، قالت جيانغ.
بالنسبة لماكسويل، أكدت الدراسة ما كان يشتبه به. وحتى قبل نشر ورقة جيانغ، غيّر أسلوب تدريسه: لم يعد يعتمد على الامتحانات الإلكترونية فقط. بدلاً من ذلك يطلب الآن من الطلاب أن يتعلّموا مفهوماً ويقدّموا عرضاً للزملاء أو يصنعوا درساً مصوراً.
التفوق على العقل الجماعي للذكاء الاصطناعي يتطلب قدراً من الإبداع ما بعد الحداثي.