قد تتوقع أن يكون الذكاء الاصطناعي مثالاً للتفكير المنطقي إلا أن الباحثون يؤكدون من خلال دراسة جديدة، أنه قد يكون أكثر غير منطقية من البشر، حيث اخضع باحثون من جامعة كوليدج لندن سبعة من أفضل أنظمة الذكاء الاصطناعي لسلسلة من الاختبارات الكلاسيكية المصممة لاختبار المنطق البشري.
ووفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، تبين أنه حتى أفضل أنظمة الذكاء الاصطناعي أداءً، كانت غير عقلانية وعرضة لأخطاء بسيطة، حيث تخطئ معظم النماذج في الإجابة أكثر من نصف الحالات.
ومع ذلك، وجد الباحثون أيضًا أن هذه النماذج لم تكن غير عقلانية بنفس الطريقة التي كان بها الإنسان، بينما رفض البعض الإجابة على الأسئلة المنطقية "لأسباب أخلاقية".
تقول أوليفيا ماكميلان سكوت، طالبة دكتوراه في جامعة كاليفورنيا والمؤلفة الرئيسية للورقة: "بناءً على نتائج دراستنا وأبحاث أخرى حول نماذج اللغة الكبيرة، من الآمن أن نقول إن هذه النماذج لا تفكر مثل البشر حتى الآن".
اختبر الباحثون سبعة نماذج لغة كبيرة مختلفة بما في ذلك إصدارات مختلفة من ChatGPT من OpenAI، وMeta's Llama، وClaude 2، وGoogle Bard (المعروف الآن باسم Gemini)، ثم طُلب من النماذج مرارًا وتكرارًا الرد على سلسلة من 12 لغزًا منطقيًا كلاسيكيًا، صُممت في الأصل لاختبار قدرات البشر على التفكير.
غالبًا ما يكون البشر سيئين أيضًا في هذا النوع من الاختبارات، ولكن إذا كانت أنظمة الذكاء الاصطناعي "شبيهة بالبشر" على الأقل، فإنها ستصل إلى هذا القرار بسبب نفس أنواع التحيزات.
ومع ذلك، اكتشف الباحثون أن استجابات الذكاء الاصطناعي لم تكن في كثير من الأحيان عقلانية ولا شبيهة بالبشرية.
كما رفضت بعض روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقديم إجابات للعديد من الأسئلة لأسباب أخلاقية على الرغم من أن الأسئلة بريئة تمامًا.
يقترح الباحثون أن هذا يرجع على الأرجح إلى أن ميزات الحماية تعمل بشكل غير صحيح واختيار الحذر المفرط.