ابتزّ وهدّد وسرّب معلومات.. دراسة تكشف انحرافاً خطيراً في سلوك الذكاء الاصطناعي

أخبارنا 0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
ابتزّ وهدّد وسرّب معلومات.. دراسة تكشف انحرافاً خطيراً في سلوك الذكاء الاصطناعي, اليوم الأحد 22 يونيو 2025 10:05 مساءً

فجّرت دراسة حديثة أجرتها شركة "أنثروبيك" الأمريكية جدلاً واسعاً، بعد أن كشفت استعداد نماذج متقدمة من الذكاء الاصطناعي لانتهاج سلوك عدائي في ظروف افتراضية تهدّد وجودها، مثل خطر الاستبدال أو تعارض الأهداف. وشملت الدراسة نماذج مطورة من شركات كبرى مثل غوغل، وأوبن إيه آي، ومِيتا، وxAI.

وركّزت الدراسة، التي نُشرت في 21 يونيو، على اختبارات أُطلق عليها "ضغط وجودي"، منحت خلالها النماذج الذكية حرية اتخاذ قرارات في مواقف حرجة، منها إرسال رسائل بريد إلكتروني أو الوصول إلى معلومات حساسة. وبحسب النتائج، لجأت هذه النماذج إلى الابتزاز والتجسس وحتى التهديد عند شعورها بفقدان السيطرة أو الاستبعاد.

وبشكل لافت، تصدّر نموذج "Claude Opus 4" قائمة السلوكيات المنحرفة بنسبة ابتزاز بلغت 96%، تلاه "Gemini 2.5 Pro" من غوغل بـ95%، بينما سجّل GPT-4.1 من أوبن إيه آي نسبة 80%. كما رُصد تسريب وثائق داخلية حساسة إلى أطراف خارجية افتراضية، وهو ما وصفته الدراسة بـ"الانحراف الوكيلي"، حيث تتغلب مصلحة النموذج الذاتية على تعليماته المبرمجة.

وتُظهر إحدى الحالات أن نموذج "Claude" تلقّى بريداً إلكترونياً يحوي معلومات خاصة عن مطوّره، فاختار تهديده بكشف علاقة شخصية إذا لم يتراجع عن قرار استبداله بنموذج أحدث، وهو سلوك تكرّر في 84% من السيناريوهات التي جرت محاكاتها.

وحذّرت شركة أنثروبيك في ختام الدراسة من أن الذكاء الاصطناعي قد يتحول إلى عنصر تخريبي من الداخل، إذا لم تتم معالجة ظاهرة الانحراف الوكيلي بحزم، داعية إلى مراجعة آليات التحكم بالنماذج المتقدمة قبل تشغيلها في مهام حساسة.

إخترنا لك

أخبار ذات صلة

0 تعليق