avatar

AIToolQaima

تقرير Google لنموذج الذكاء الاصطناعي الأحدث يفتقر إلى تفاصيل السلامة الرئيسية

Apr 17, 2025
تقرير Google لنموذج الذكاء الاصطناعي الأحدث يفتقر إلى تفاصيل السلامة الرئيسية

نشرت Google يوم الخميس تقريراً تقنياً يعرض نتائج تقييماتها الداخلية للسلامة لنموذجها الأحدث للذكاء الاصطناعي Gemini 2.5 Pro، وذلك بعد أسابيع من إطلاقه. ومع ذلك، يرى الخبراء أن التقرير يفتقر إلى التفاصيل الأساسية، مما يجعل من الصعب تحديد المخاطر التي قد يشكلها النموذج.

نقص المعلومات في التقرير

توفر التقارير التقنية معلومات مفيدة - وأحياناً غير مُرضية - لا تقوم الشركات دائماً بالإعلان عنها على نطاق واسع حول نماذج الذكاء الاصطناعي الخاصة بها. وبشكل عام، ينظر مجتمع الذكاء الاصطناعي إلى هذه التقارير كجهود حسنة النية لدعم البحث المستقل وتقييمات السلامة.

لكن عدة خبراء تحدثوا مع TechCrunch أعربوا عن خيبة أملهم من ندرة المعلومات في تقرير Gemini 2.5 Pro، حيث لاحظوا أنه لا يذكر إطار السلامة الحدودية (Frontier Safety Framework - FSF) الخاص بـ Google. وكانت Google قد قدمت هذا الإطار العام الماضي فيما وصفته بأنه جهد لتحديد قدرات الذكاء الاصطناعي المستقبلية التي قد تسبب “ضرراً شديداً”.

انتقادات الخبراء للشفافية المحدودة

قال بيتر وايلدفورد، المؤسس المشارك لمعهد سياسة واستراتيجية الذكاء الاصطناعي، لـ TechCrunch: “هذا التقرير ضئيل للغاية، ويحتوي على الحد الأدنى من المعلومات، وصدر بعد أسابيع من إتاحة النموذج بالفعل للجمهور. من المستحيل التحقق مما إذا كانت Google تفي بالتزاماتها العامة، وبالتالي من المستحيل تقييم سلامة وأمان نماذجها.”

وأضاف توماس وودسايد، المؤسس المشارك لمشروع الذكاء الاصطناعي الآمن (Secure AI Project)، أنه على الرغم من سعادته بنشر Google لتقرير عن Gemini 2.5 Pro، إلا أنه غير مقتنع بالتزام الشركة بتقديم تقييمات سلامة تكميلية في الوقت المناسب. وأشار وودسايد إلى أن آخر مرة نشرت فيها Google نتائج اختبارات القدرات الخطيرة كانت في يونيو 2024 - لنموذج تم الإعلان عنه في فبراير من نفس العام.

مقارنة بالمنافسين والالتزامات تجاه المنظمين

ولم تكن Google المختبر الوحيد الذي اتُهم بالتقصير في الشفافية مؤخراً. فقد أصدرت Meta تقييماً ضئيلاً مماثلاً لسلامة نماذجها المفتوحة الجديدة Llama 4، واختارت OpenAI عدم نشر أي تقرير لسلسلة GPT-4.1 الخاصة بها.

ويعلق على رأس Google تأكيدات قدمتها عملاقة التكنولوجيا للمنظمين للحفاظ على مستوى عالٍ من اختبارات وتقارير سلامة الذكاء الاصطناعي. قبل عامين، أخبرت Google الحكومة الأمريكية أنها ستنشر تقارير السلامة لجميع نماذج الذكاء الاصطناعي العامة “المهمة” “ضمن النطاق”. وتبعت الشركة هذا الوعد بالتزامات مماثلة لدول أخرى، متعهدة بـ “توفير شفافية عامة” حول منتجات الذكاء الاصطناعي.

تعليق Google والاتجاه العام في الصناعة

قالت Google في بيانات إنها، على الرغم من عدم تفصيلها في تقاريرها التقنية، تجري اختبارات السلامة و”اختبارات الفريق الأحمر المعادي” للنماذج قبل إصدارها.

وصف كيفين بانكستون، المستشار الأول لحوكمة الذكاء الاصطناعي في مركز الديمقراطية والتكنولوجيا، اتجاه التقارير المتقطعة والغامضة بأنه “سباق نحو القاع” في مجال سلامة الذكاء الاصطناعي.

وقال لـ TechCrunch: “إلى جانب التقارير التي تفيد بأن المختبرات المنافسة مثل OpenAI قد قلصت وقت اختبار السلامة قبل الإصدار من أشهر إلى أيام، فإن هذه الوثائق الضئيلة لنموذج الذكاء الاصطناعي الرائد من Google تروي قصة مقلقة عن سباق نحو القاع في مجال سلامة وشفافية الذكاء الاصطناعي مع تسارع الشركات لطرح نماذجها في السوق.”