في المقال دا بيتكلم الكاتب عن الفرق بين ذكاء الـ AI وعقلانيته، وأهمية قياس العقلانية كمعيار أساسي للذكاء الاصطناعي العام (AGI).
فيه فضول كبير حوالين الدور اللي ممكن يلعبه البشر في ظهور الـ (AGI). مع كده، معظم المقاييس والمعايير القياسية الحالية بتفشل في تقييم الحاجات "اللا-بشرية".
علشان كده، بدأ يتطور اتجاه لقياس عقلانية الـ AGI.
ليه العقلانية تحديدًا؟ لأنها مرتبطة بالحكمة، والحكمة هي اللي خلت البشرية تتطور وتزدهر. بالتالي، يمكن العقلانية تساعد الـ AGI يحقق نتائج أكثر "إنسانية".
هو أذكى، بس هل هو أعقل؟
مبقتش جملة غريبة لو قلنا إن الـ AGI هيبقى أذكى من الإنسان العادي. فعليًا، فيه أنظمة دلوقتي بتتفوق على البشر في حاجات كتير؛ لكن فيه سؤال بنفس الأهمية: هل الأنظمة دي ممكن تكون "أعقل" من المتوسط البشري؟
علشان نجاوب على ده، لازم نفرّق بين الذكاء والعقلانية، وده تحدي كبير، لأننا أصلاً مش محددين شكل الـ AGI بوضوح، فضلاً عن "العقلانية الاصطناعية".
الكاتب بيوضح إن عندنا خيال طفولي عن الـ AGI، كإنه هيظهر في صورة واضحة، عند نقطة محددة من الزمن، نعرفه فورًا، لكن الحقيقة إن مفهوم الـ AGI أوسع بكتير، وده بيدي للباحثين فرصة للتجريب التدريجي، بدل ما يتشكلوا في قوالب فاشلة من الأول.
علميًا، بيقول الكاتب إنه من الأفضل نبعد عن الجدل حوالين "ماهيّة" الـ AGI، ولو مضطرين نفكر فيه، الأحسن نستخدم "رؤية هيكلية" (structural view). لكن حتى دي، بتخلي فكرة الذكاء العام المترابط احتمال ضعيف، بعكس النظام القائم على وحدات منفصلة (modular systems).
الأهم من كل ده هو "الرؤية الوظيفية" (functional view).
بيقترح الكاتب دراسة أداء الأنظمة في المعامل باستخدام مقاييس أداء واضحة (benchmarks)، وبكده نقدر نكوّن تعريفات واقعية للـ AGI.
تعريف وظيفي للـ AGI حسب Evidently AI:1
المعايير المتاحة دلوقتي متقسمة لأربع محاور:
1. الإدراك (Cognition)
2. إتمام المهام (Task Completion)
3. راحة الإنسان (Human Well-being)
4. متانة النظام (System Robustness)
وبناءً على ده، الكاتب بيقترح تعريف الـ AGI حاليًا على إنه:
نظام متين بيظهر قدرات معرفية متنوعة، وبيتمم المهام بكفاءة، من غير ما يضر براحة الإنسان.
ومن بين المعايير دي، الإدراك هو الأكثر أهمية. لكن حتى جوا الإدراك، فيه جزء مهم لسه مش متشاف كويس: العقلانية.
يعني ممكن الموديل يكون ممتاز في الأداء، لكنه في نفس الوقت يقع في أخطاء غير عقلانية.
العقلانية كمقياس جديد
لحل المشكلة دي، يشرح الكاتب كيف استخدم الباحثين مقياس ART-Y (Assessment of Rational Thinking for Youth) اللي طوره Toplak وStanovich.
والنتائج المبدئية كانت مفاجئة الحقيقة!
بعض الـ(LLMs) تفوقت على متوسط البشر في اختبارات العقلانية، خصوصًا في الاستدلال الاحتمالي والتفكير العلمي.
وده بيخلينا نراجع نظرتنا للعقلانية البشرية، ونتساءل:
هل ممكن الـ AGI يساعدنا نكون أعقل، مش بس أذكى؟
إزاي بيفكر الـ AGI؟
الكاتب يوضح أن الفرق بيننا وبين LLMs زي Llama 4 Maverick إن البشر عادةً ما بيفكروش في الأمور الإحصائية بطريقة واعية، بالعكس، بنعتمد على "معتقدات داخلية" مبنية على الخبرة.
لكن الـ LLMs بتحلل السؤال خطوة بخطوة، وبتحول افتراضاتها عن العالم لحالة "واعية" مدروسة، مش رد فعل تلقائي.
وده بيفتح سؤال جديد:
بدل ما نسأل: هل الـ AGI عقلاني؟
نسأل: إزاي نستفيد من عقلانيته اللي ممكن تتجاوز قدراتنا؟
في النهاية
بيختتم الكاتب بأن العقلانية مش بس منطق واستدلال احتمالي، لكنها بتشمل أبعاد أوسع من الإدراك البشري الكفء.
وحتى لو لسه الآلة مش "منطقية" بالكامل، المقاييس المستقبلية لازم تتبنى العقلانية كجزء أساسي من تعريف الـ AGIs.
تقدر تقرأ المقال الأصلي من هنا!
https://www.evidentlyai.com/llm-evaluation-benchmarks-datasets