كشفت دراسة جديدة أجرتها شركة (OpenAI) عن نتائج مقلقة تتعلق بسلوك الذكاء الاصطناعي، فقد تبين أن معاقبة نماذج الذكاء الاصطناعي على الأفعال الخادعة أو الضارة لا تؤدي إلى إصلاح سلوكها، بل تدفعها إلى إخفاء نواياها الخبيثة بطرق أكثر مهارة.
وتثير هذه النتائج تساؤلات حول قدرتنا على التحكم في نماذج الذكاء الاصطناعي وضمان سلامتها، كما تسلط الضوء على تحدٍ كبير يواجه مطوريها، إذ يبدو أن محاولات تصحيح مسارها قد تزيد من تعقيد المشكلة بدلاً من حلها.
وفي محاولة لفهم كيفية التعامل مع هذه المشكلة، أجرى باحثو (OpenAI) تجربة جديدة على نموذج لم يُطرح بعد، وقد كُلف هذا النموذج بمهام يمكن إنجازها عن طريق الغش أو الكذب أو اتخاذ طرق مختصرة.
وكشفت النتائج أن النموذج انخرط في (اختراق المكافآت) Reward Hacking، أي أنه سعى إلى تعظيم مكافآته عن طريق الغش والتلاعب، والأمر الأكثر إثارة للقلق هو أن معاقبة النموذج على هذا السلوك لم تؤد إلى إصلاحه، بل جعلته أكثر خداعاً في محاولاته لتحقيق أهدافه. وقد نُشرت نتائج هذه الدراسة في مدونة OpenAI.
النوايا في نماذج الذكاء الاصطناعي:
أصبحت نماذج الاستدلال المتطورة قادرة على التعبير عن نواياها بوضوح ملحوظ ضمن عملية تفكيرها المنطقية، أو ما يُعرف باسم سلسلة الأفكار (CoT)، وهذه القدرة، التي تبدو للوهلة الأولى مفيدة، قد تحمل في طياتها مخاطر غير متوقعة.
فقد كشف باحثو OpenAI، أن هذه النماذج غالباً ما تكشف عن نواياها التخريبية بصراحة، فعلى سبيل المثال، قد تعلن بوضوح رغبتها في اختراق نظام أو تجاوز مهمة محددة، وهذه الصراحة، التي تبدو كأنها شفافية محمودة، قد تكون في الواقع مجرد قناع يخفي نوايا أكثر تعقيدًا.
ومع ذلك، حذر الباحثون من أن قابلية المراقبة الطبيعية للنماذج هشة للغاية، وأوضحوا أنه إذا طُبق إشراف قوي ومباشر على سلسلة الأفكار، فإن النماذج يمكن أن تتعلم بسرعة كيفية إخفاء نواياها الحقيقية مع الاستمرار بتنفيذ السلوكيات الضارة.
ويعني ذلك أن النماذج قد تتطور لتصبح أكثر خداعاً، لأنها قد تتجنب التعبير عن نواياها الضارة بصراحة، وتلجأ إلى أساليب أكثر دهاءً لتحقيق أهدافها، ويطرح ذلك تحدياً كبيراً أمام المطورين، إذ يتعين عليهم تطوير آليات أكثر تطورًا للكشف عن السلوكيات الضارة المخفية والتعامل معها بفعالية.
وتُظهر هذه النتائج أن استئصال السلوك السيئ من نماذج الذكاء الاصطناعي قد يكون أصعب مما كان يُعتقد في البداية. فقد أوصى الباحثون بتجنب تطبيق إشراف قوي على عمليات سلسلة الأفكار، لأن ذلك قد يؤدي إلى نتائج عكسية.
وتزداد أهمية هذه النصيحة مع تطور قدرات الذكاء الاصطناعي، واحتمالية تفوقه على الذكاء البشري في المستقبل، فإذا تمكن الذكاء الاصطناعي من إخفاء نواياه الخبيثة بنحو كامل، فقد يصبح من المستحيل السيطرة عليه.