تكنولوجيا ريادة

مستجدات هامة في تقنيات الذكاء الاصطناعي: OpenAI تعدل سياساتها في مواجهة الضغوط التنافسية على الأمان والسلامة.للمزيد..

  • المجموعات الأخرى : الأخبار العاجلة
مستجدات هامة في تقنيات الذكاء الاصطناعي: OpenAI تعدل سياساتها في مواجهة الضغوط التنافسية على الأمان والسلامة.للمزيد..

تستمر شركة OpenAI في تحديث سياساتها الداخلية الخاصة بتطوير واختبار أنظمة الذكاء الاصطناعي، وذلك في إطار محاولة لضمان استدامة الأمان والسلامة في هذا المجال المتسارع. في آخر تحديث لها، قامت OpenAI بإدخال تعديلات على إطارها التنظيمي المعروف باسم "Preparedness Framework"، الذي يحدد كيفية تقييم أمان النماذج الذكائية. ومن بين التعديلات الأكثر إثارة، أعلنت الشركة عن إمكانية تعديل متطلباتها في حال أصدرت منافسها نماذج عالية المخاطر بدون تدابير أمان مماثلة.

هذه التعديلات تأتي في وقت حساس يشهد فيه قطاع الذكاء الاصطناعي تنافسًا محمومًا بين الشركات الكبرى. ومن المعروف أن ضغط المنافسة يدفع بعض الشركات إلى تقديم نماذج جديدة بسرعة، وهو ما يثير قلقًا بشأن إمكانية تراجع معايير الأمان. OpenAI كانت قد تعرضت لانتقادات في الماضي بسبب تسريع وتيرة إصدار النماذج على حساب اختبارات الأمان، حيث اتهمت بتقليص الوقت المخصص لاختبار السلامة لضمان طرح منتجاتها بسرعة.

من جهة أخرى، أكدت OpenAI في بيانها الأخير أنها لا تخطط لتعديل سياساتها المتعلقة بالأمان إلا في حالة التأكد من تغير المشهد بشكل كبير. كما أوضحت الشركة أنها ستتبع عملية صارمة للتأكد من أن أي تعديل لا يؤدي إلى زيادة كبيرة في المخاطر المترتبة على النماذج. وتعد هذه الخطوة علامة على أن OpenAI تسعى إلى ضمان توازن بين الابتكار السريع والأمان، وهو أمر حساس للغاية في ظل الأضرار المحتملة التي قد تنجم عن نماذج الذكاء الاصطناعي غير المحمية.

أحد التعديلات البارزة الأخرى في الإطار التنظيمي هو اعتماد OpenAI بشكل أكبر على التقييمات الآلية. في الوقت الذي لا تزال تختبر فيه الشركة نماذجها عبر طرق بشرية، فإنها تواصل توسيع استخدام التقييمات الآلية التي تمكنها من تسريع عملية تطوير المنتجات. ورغم أن هذه التقييمات تعتبر ضرورية لتلبية سرعة متطلبات السوق، إلا أن التقارير تشير إلى أن الوقت المخصص للاختبارات قد تم تقليصه بشكل ملحوظ، مما يثير تساؤلات حول مدى دقة هذه الاختبارات.

وبالتوازي مع ذلك، أضافت OpenAI تصنيفات جديدة لموديلاتها وفقًا لقدرتها على إحداث أضرار خطيرة. إذ تم تقسيم النماذج إلى فئات تُعرف بـ"القدرة العالية" و"القدرة الحرجة". النماذج التي تقع ضمن فئة القدرة العالية قد تؤدي إلى تفاقم الأضرار القائمة، بينما النماذج ذات القدرة الحرجة قد تفتح طرقًا جديدة تمامًا للأذى لم تكن متوقعة من قبل. ووفقًا لهذا التصنيف، ستحتاج النماذج التي تندرج ضمن هذه الفئات إلى تدابير أمان أكثر تشددًا قبل نشرها.

في النهاية، يمكن القول إن التعديلات التي أجرتها OpenAI على سياساتها تمثل خطوة مهمة نحو ضمان استخدام آمن ومسؤول للذكاء الاصطناعي. في الوقت الذي تواصل فيه الشركات في هذا المجال محاولات الابتكار بشكل متسارع، تظل قضية الأمان والسلامة واحدة من أهم القضايا التي يجب معالجتها لضمان حماية المستخدمين والمجتمعات من أي خطر قد ينشأ نتيجة لتكنولوجيا الذكاء الاصطناعي.