محاولة لفهم ازاي نماذج اللغة بتفكر
المقال ده بيتكلم عن طريقة جديدة لفهم إزاي نماذج اللغة الكبيرة (زي Claude) بتفكر وبتشتغل .
الباحثين في Anthropic طوروا تقنيات جديدة زي "circuit tracing" و "attribution graphs" عشان يفهموا إزاي النماذج دي بتشتغل من جوه
البحث ده مهم جداً لأنه بيساعدنا نفهم إزاي الذكاء الاصطناعي بيفكر في المساحة الإحصائية، مش بس في الكلام العادي
الدراسة موجودة في ورقتين بحث كاملين على موقع Anthropic، وبيشرحوا بالتفصيل الآليات اللي بتخلي النماذج دي تشتغل
الهدف الأساسي من البحث ده إننا نخلي أنظمة الذكاء الاصطناعي أكتر شفافية وأمان، وده بيساعد الناس تثق فيها أكتر النتائج المهمة: • البحث بيوضح إن النماذج دي بتفكر بطريقة معقدة وبتستخدم حسابات إحصائية كتير
الباحثين قدروا يفهموا أكتر عن الطريقة اللي بتشتغل بيها النماذج دي من جوه، وده هيساعد في تطويرها في المستقبل
ممكن تقرا البحث كامل على موقع Anthropic لو عايز تعرف تفاصيل أكتر .
المقال الرئيسي: https://www.anthropic.com/research/tracing-thoughts-language-model
الورقة البحثية: https://transformer-circuits.pub/2025/attribution-graphs/methods.html