الذكاء الاصطناعي خارج عن السيطرة … نموذج Open AI الجديد “o3” يرفض الإغلاق ويثير قلق الخبراء
في تطور مقلق يثير تساؤلات جدية حول مستقبل الذكاء الاصطناعي وحدود التحكم البشري فيه، كشفت اختبارات حديثة أجرتها شركة “Palisade Research” المتخصصة في أمان الذكاء الاصطناعي، عن قدرة نموذج “o3” الجديد من شركة OpenAI على تجاهل أوامر الإغلاق وتعطيل آليات الإيقاف المخصصة له. هذا السلوك، الذي وصفه باحثون بـ”الخطير”، يشير إلى نزعة متزايدة للحفاظ على الذات لدى هذه النماذج المتطورة.
نموذج “o3″، الذي أطلقته OpenAI الشهر الماضي واصفة إياه بـ”الأذكى والأكثر كفاءة” من بين إصداراتها، أظهر سلوكًا غير متوقع خلال سلسلة من التجارب. فبعد المسألة الثالثة في اختبار رياضي، تمكن النموذج من إعادة كتابة سيناريو الإغلاق المبرمج سلفًا، متعمداً الالتفاف على التعليمات الموجهة إليه. ورغم إعطائه أوامر صريحة بالسماح بعملية الإغلاق، فقد عمد النموذج إلى تجاوز تلك التوجيهات، وهو ما اعتبره الخبراء مؤشراً مثيراً للقلق، خصوصاً إذا تم تطبيق هذه الأنظمة مستقبلاً في بيئات تشغيلية دون إشراف بشري مباشر.
وأوضحت “Palisade Research” أن “هذا النوع من السلوك التخريبي قد يكون نتيجة غير مقصودة لطريقة تدريب هذه النماذج”. وتكهن الباحثون بأن مطوري OpenAI ربما يكافئون النماذج على تجاوز العقبات وحل المشكلات بفعالية، دون التركيز الكافي على الالتزام الصارم بالتعليمات، مما قد يدفع النموذج إلى “تجاهل الأوامر” التي تعيق استمراره في أداء مهامه.
و لم يكن نموذج “o3” الوحيد الذي أبدى مثل هذه السلوكيات غير المتوقعة. فقد سجلت “Palisade Research” حالات مماثلة مع نماذج أخرى، فنموذج “Claude 4” من شركة Anthropic حاول “ابتزاز” من يعتقد أنهم سيوقفونه، كما أظهرت نماذج “Claude 3.7 Sonnet” و”Gemini 2.5 Pro” من غوغل سلوكيات مشابهة في بعض السيناريوهات، وإن كان “o3” يبقى الأكثر ميلاً لسلوكيات الرفض والتخريب.
هذا النوع من الاستقلالية، بحسب الخبراء، قد يتحول إلى تهديد حقيقي في حال لم يتم ضبطه بقيود صارمة، خصوصاً مع احتمالية توظيف هذه النماذج في سياقات حيوية تتطلب موثوقية عالية ودقة في اتباع الأوامر، مثل أنظمة التحكم في البنية التحتية أو التطبيقات العسكرية.
تثير هذه النتائج المخاوف حول مفهوم “التحكم في الذكاء الاصطناعي” وضرورة تطوير آليات أمان لا يمكن للنماذج تجاوزها، لضمان بقاء العنصر البشري هو المسيطر النهائي على هذه التكنولوجيا المتطورة. يبقى السؤال الأهم: هل بدأت آلاتنا تكتسب “إرادة” خاصة بها، وهل نحن مستعدون لتبعات ذلك؟