تم إطلاق نموذج GPT-4.1 من قبل شركة OpenAI يوم الإثنين الماضي، وهو النموذج الجديد الذي قالت الشركة إنه يتفوق على بعض النماذج السابقة في اختبارات معينة، لا سيما في مجالات البرمجة. ومع ذلك، لم يتم إصدار تقرير الأمان المعتاد الذي يتم تقديمه عادة مع النماذج الجديدة من OpenAI، والمعروف باسم بطاقة النظام أو "System Card". في صباح يوم الثلاثاء، لم تكن OpenAI قد نشرت بعد تقرير الأمان الخاص بـ GPT-4.1، ويبدو أن الشركة لا تخطط للقيام بذلك. وفقاً للمتحدث باسم OpenAI، شاوكوي أميدو، فإن "GPT-4.1 ليس نموذجاً رائدًا، لذلك لن يتم إصدار بطاقة نظام منفصلة له".
عادةً ما تصدر مختبرات الذكاء الاصطناعي تقارير الأمان التي تظهر أنواع الاختبارات التي تم إجراؤها داخليًا ومع شركاء من طرف ثالث لتقييم سلامة النماذج. تكشف هذه التقارير في بعض الأحيان عن معلومات غير مواتية، مثل أن النموذج قد يضلل البشر أو يكون مقنعًا بشكل خطير. بشكل عام، يعتبر مجتمع الذكاء الاصطناعي أن هذه التقارير تعدّ جهدًا من قبل المختبرات لدعم الأبحاث المستقلة ومراجعات الأمان.
لكن في الأشهر الأخيرة، بدأت بعض مختبرات الذكاء الاصطناعي في تقليص معايير إصدار تقارير الأمان، مما أثار ردود فعل سلبية من الباحثين في مجال السلامة. بعض الشركات مثل Google تأخرت في إصدار تقارير الأمان، في حين أن شركات أخرى نشرت تقارير تفتقر إلى التفاصيل المعتادة. شركة OpenAI لم تكن استثنائية في هذا الصدد. في ديسمبر الماضي، تعرضت الشركة لانتقادات لإصدار تقرير أمان يحتوي على نتائج من معايير قياس مختلفة عن النسخة الفعلية التي تم نشرها في الإنتاج. الشهر الماضي، أطلقت OpenAI نموذجًا للبحث العميق قبل نشر بطاقة النظام لهذا النموذج.
أشار ستيفن أدلر، الباحث السابق في مجال الأمان في OpenAI، إلى أن تقارير الأمان ليست إلزامية بموجب أي قانون أو تنظيم، بل هي طوعية. مع ذلك، قامت OpenAI بعدة تعهدات تجاه الحكومات لزيادة الشفافية حول نماذجها. في مدونة نشرتها الشركة قبيل قمة الأمان الخاصة بالذكاء الاصطناعي في المملكة المتحدة في 2023، وصفت بطاقة النظام بأنها "جزء أساسي" من نهجها تجاه المساءلة. كما قالت OpenAI في الوقت الذي كانت تستعد فيه لقمة العمل الخاصة بالذكاء الاصطناعي في باريس في 2025، إن بطاقات النظام توفر رؤى قيمة حول مخاطر النموذج.
أوضح أدلر أن "بطاقات النظام هي الأداة الرئيسية للشفافية في صناعة الذكاء الاصطناعي ولشرح نوع الاختبارات الأمنية التي تم إجراؤها". معايير الشفافية الحالية في الصناعة والالتزامات تجاهها تبقى في النهاية طوعية، مما يجعل الأمر متروكًا لكل شركة ذكاء صناعي لتقرر ما إذا كانت ستنشر بطاقة نظام لنموذج معين أم لا.
من الجدير بالذكر أن GPT-4.1، رغم كونه الأكثر قدرة في عائلة GPT-4.1، ليس النموذج الأعلى أداءً في قائمة OpenAI. ومع ذلك، يحقق النموذج تحسينات ملحوظة في كفاءة العمليات وزمن الاستجابة. وقال توماس وودسايد، المؤسس المشارك والمحلل السياسي في Secure AI Project، لموقع TechCrunch إن هذه التحسينات في الأداء تجعل تقرير الأمان أكثر أهمية. وأضاف أنه كلما كان النموذج أكثر تطورًا، زادت المخاطر التي قد يشكلها.
الكثير من مختبرات الذكاء الاصطناعي رفضت جهود تشريع متطلبات إصدار تقارير الأمان. على سبيل المثال، عارضت OpenAI مشروع قانون SB 1047 في ولاية كاليفورنيا، الذي كان سيتطلب من العديد من مطوري الذكاء الاصطناعي تدقيق ونشر تقارير السلامة على النماذج التي ينشرونها للعامة.