المدونةعلوم وتكنولوجيا

حين تفشل مليارات الذكاء الاصطناعي في مهام بسيطة ينجح بها الأطفال

دراسة من "آبل" تكشف حدود التفكير المنطقي لنماذج الذكاء الاصطناعي الحديثة

نشرت شركة “آبل” ورقة بحثية أحدثت ضجة كبيرة في الأوساط التكنولوجية، كشفت من خلالها بشكل صريح عن حدود قدرات نماذج الذكاء الاصطناعي الحديثة، وخاصة “نماذج اللغة الكبيرة” (LLMs) وتحديدًا نسختها الأحدث “نماذج التفكير الكبيرة” (LRMs).

الورقة لم تكتفِ بانتقاد هذه النماذج، بل قدمت دلائل عملية على فشلها في اختبارات يمكن لأطفال صغار النجاح فيها بسهولة.

ضعف الأداء رغم الضجيج: الأرقام تفضح

أظهرت الدراسة أن نماذج مثل ChatGPT وClaude وDeepseek تبدو ذكية على السطح، لكنها تنهار أمام مسائل تتطلب تفكيرًا منطقيًا مثل لعبة “برج هانوي”، وهي لعبة ذهنية يمكن لطفل في السابعة من عمره إتقانها.

المدهش أن هذه النماذج فشلت في حل اللغز عندما زاد عدد الأقراص إلى ثمانية، بل إن النموذج الأفضل لم يتجاوز سبعة أقراص.

الفشل حتى مع الحل: أين المنطق؟

لم تقتصر الورقة على اختبار قدرة النماذج على حل الألغاز من تلقاء نفسها، بل زُوّدت هذه النماذج بالخوارزميات الصحيحة للحل، ومع ذلك استمرت في الفشل.

وعلّق أحد مؤلفي الدراسة، إيمان ميرزاده، بأن النماذج لم تستطع اتباع خطوات منطقية حتى بعد تقديم الحل، مما يكشف عن خلل عميق في طريقة “التفكير” وليس فقط في المعلومات المتاحة لها.

الذكاء الاصطناعي أسير بياناته

هذه النتائج تؤكد ما تم التحذير منه منذ عام 1998: الذكاء الاصطناعي القائم على الشبكات العصبية ينجح داخل نطاق البيانات التي تدرب عليها، لكنه يفشل في التعميم عند خروجه منها.

فعلى سبيل المثال، نموذج دُرّب على أعداد زوجية فقط، لم يتمكن من التعامل مع الأعداد الفردية حين طُلب منه ذلك.

تضخيم النماذج ليس الحل

على مدى سنوات، اعتُبر أن توسيع حجم النماذج وزيادة كمية البيانات هو الطريق إلى ذكاء اصطناعي أفضل. إلا أن هذه الورقة البحثية تقوض هذه الفرضية.

فحتى مع النماذج العملاقة ذات الكلفة المرتفعة والقدرات الحسابية الهائلة، ظل الأداء ضعيفًا في مواجهة اختبارات بسيطة نسبيًا.

خدعة الذكاء الاصطناعي: تشخيص وهمي

يشير الأستاذ في جامعة ولاية أريزونا، سوبّاراو كامبهامباتي، إلى أن البشر غالبًا ما يقعون في خطأ “تشخيص” الذكاء الاصطناعي، أي افتراض أنه يفكر مثل الإنسان.

لكن الواقع، كما تؤكده الدراسة، هو أن هذه النماذج لا تفكر منطقياً، بل تتعامل مع الأنماط اللغوية، مما يجعلها غير موثوقة في مواجهة مواقف جديدة أو معقدة.

مقارنة مؤلمة مع خوارزميات تقليدية

اللافت أن هذه النماذج الحديثة تفشل في حل ألغاز نجح علماء في الستينات مثل هربرت سايمون في حلها باستخدام خوارزميات تقليدية بسيطة. مما يضع علامات استفهام كبيرة حول إمكانية الوصول إلى “الذكاء العام الاصطناعي” (AGI) عبر هذه النماذج.

البشر يخطئون، لكن الآلات لا يجب أن تفعل

صحيح أن الإنسان قد يخطئ في ألعاب مثل “برج هانوي” مع تعقيدها، لكننا صممنا الحواسيب والذكاء الاصطناعي لتجنب هذا النوع من الأخطاء.

فلا معنى لذكاء اصطناعي عام لا يمكنه إجراء جمع بسيط أو حل لغز طفولي، بحجة أن البشر أيضاً يخطئون.

الخلاصه: دعونا نعيد التفكير

الرسالة التي تنقلها الورقة واضحة: لا يمكن الاعتماد على نماذج مثل o3 أو Claude لحل مشكلات منطقية أو معقدة دون تدخل بشري.

ورغم فعاليتها في بعض المهام مثل البرمجة أو توليد النصوص، فإن اعتبارها طريقًا مباشرًا نحو ذكاء خارق يغيّر العالم هو تفكير غير واقعي، بل وأقرب إلى الوهم.

 

علياء حسن

علياء حسن صحفية مصرية تحت التدريب

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى