قد تُلزم شركة OpenAI قريبًا المؤسسات بإجراء عملية تحقق من الهوية للوصول إلى بعض نماذج الذكاء الاصطناعي المستقبلية، وذلك وفقًا لما ورد في صفحة دعم جديدة نُشرت على موقع الشركة الأسبوع الماضي.
تشير الصفحة إلى أن عملية التحقق، والتي تُسمى "المنظمة المُحقّقة" (Verified Organization)، تمثل "طريقة جديدة للمطورين لفتح الوصول إلى النماذج والقدرات الأكثر تقدمًا على منصة OpenAI". وتتطلب العملية تقديم بطاقة هوية حكومية من إحدى الدول التي تدعمها واجهة برمجة تطبيقات OpenAI. ويُسمح باستخدام الهوية للتحقق من منظمة واحدة فقط كل 90 يومًا، وليس كل المنظمات ستكون مؤهلة للحصول على التحقق، وفقًا لما ذكرته OpenAI.
وتضيف الصفحة:
"في OpenAI، نأخذ مسؤوليتنا على محمل الجد لضمان أن يكون الذكاء الاصطناعي متاحًا على نطاق واسع ويُستخدم بطريقة آمنة. للأسف، هناك أقلية من المطورين يستخدمون واجهات OpenAI بشكل ينتهك سياسات الاستخدام، ولذا أضفنا عملية التحقق للتقليل من الاستخدام غير الآمن للذكاء الاصطناعي مع الاستمرار في توفير النماذج المتقدمة لمجتمع المطورين الأوسع".
من المرجح أن تهدف هذه الخطوة إلى تعزيز الأمان حول منتجات OpenAI، خاصة مع تزايد تطورها وقدراتها. وقد نشرت الشركة عدة تقارير حول جهودها في اكتشاف ومنع الاستخدامات الخبيثة لنماذجها، بما في ذلك من قِبل مجموعات يُزعم أنها مقرها كوريا الشمالية.
وقد تكون هذه الخطوة موجهة أيضًا نحو الحد من سرقة الملكية الفكرية. ووفقًا لتقرير سابق من بلومبرغ، كانت OpenAI تحقق فيما إذا كانت مجموعة مرتبطة بمختبر الذكاء الاصطناعي الصيني DeepSeek قد قامت بسحب كميات كبيرة من البيانات عبر واجهة API الخاصة بها في أواخر عام 2024، ربما بغرض تدريب نماذج — وهو ما يعد انتهاكًا لشروط استخدام OpenAI.
يُذكر أن OpenAI قامت بحظر الوصول إلى خدماتها في الصين في صيف العام الماضي.