تُطلق Google نموذج ذكاء اصطناعي جديدًا مصممًا لتحقيق أداء قوي مع التركيز على الكفاءة.
النموذج الجديد، Gemini 2.5 Flash، سيتم إطلاقه قريبًا عبر منصة Vertex AI، وهي منصة Google لتطوير تطبيقات الذكاء الاصطناعي. وتقول الشركة إن هذا النموذج يوفر "حوسبة ديناميكية وقابلة للتحكم"، مما يسمح للمطورين بضبط وقت المعالجة حسب تعقيد الاستعلامات.
وجاء في تدوينة لـ Google:
"[يمكنك ضبط] التوازن بين السرعة والدقة والتكلفة بحسب احتياجاتك المحددة".
وأضافت:
"هذه المرونة ضرورية لتحسين أداء Flash في التطبيقات التي تتطلب كميات كبيرة من المعالجة وذات الحساسية العالية للتكلفة".
ويأتي Gemini 2.5 Flash في وقت ترتفع فيه تكلفة نماذج الذكاء الاصطناعي المتقدمة، ما يجعل النماذج الأرخص والأكثر كفاءة مثل 2.5 Flash خيارًا جذابًا، ولو على حساب شيء من الدقة.
يُصنف النموذج ضمن فئة "نماذج الاستدلال" المشابهة لـ o3-mini من OpenAI وR1 من DeepSeek، أي أنه يأخذ وقتًا أطول نسبيًا للإجابة على الأسئلة لأنه يقوم بمراجعة الحقائق داخليًا قبل الرد.
وتقول Google إن 2.5 Flash مثالي للتطبيقات "ذات الحجم الكبير" و"اللحظية" مثل خدمات العملاء وتحليل الوثائق.
وأضافت في التدوينة:
"هذا النموذج العملي تم تحسينه خصيصًا لتقليل التأخير وخفض التكاليف، وهو محرك مثالي للمساعدين الافتراضيين التفاعليين وأدوات التلخيص اللحظي حيث تُعد الكفاءة على نطاق واسع أمرًا محوريًا".
ولم تنشر Google أي تقارير تقنية أو تتعلق بالسلامة الخاصة بـ Gemini 2.5 Flash، مما يجعل من الصعب تحديد نقاط قوته وضعفه. وقد أوضحت سابقًا لـ TechCrunch أنها لا تنشر تقارير للنماذج التي تُصنفها كـ"تجريبية".
كما أعلنت Google أنها تخطط لتوفير نماذج Gemini، بما في ذلك 2.5 Flash، في البيئات الداخلية (on-premises) ابتداءً من الربع الثالث من العام. وستُتاح هذه النماذج عبر منصة Google Distributed Cloud (GDC)، وهي حل داخلي مخصص للعملاء ذوي متطلبات الحوكمة الصارمة للبيانات.
وأشارت الشركة إلى أنها تعمل مع Nvidia لتوفير نماذج Gemini على أنظمة Blackwell المتوافقة مع GDC، والتي يمكن للعملاء شراؤها من Google أو من خلال القنوات المعتمدة لديهم.