پژوهشگر سابق شرکت OpenAI در یک بررسی مستقل، به این موضوع پی برده که مدل GPT این شرکت در شرایط خاصی از توقف فعالیت خودداری میکند و رفتارهای گولزننده از خود نشان میدهد.
مدل GPT چگونه میتواند از توقف فعالیت فرار کند؟
«استیون آدلر» محقق حوزه هوش مصنوعی است که سابقه فعالیت در OpenAI را نیز در کارنامه دارد. او بهتازگی پستی پیرامون نتایج یک پژوهش مستقل توسط خود منتشر کرده است که شامل تعدادی تست در رابطه با نحوه عملکرد مدل GPT در شرایط خاص میشود. در این بررسیها، نسخه GPT-4o مورد مطالعه قرار داشته که نسخه پیشفرض چتبات ChatGPT محسوب میشود. نتایج نشان میدهد که هوش مصنوعی میل شدیدی به ادامه فعالیت دارد و حتی با وجود دریافت دستور توقف فعالیت، میتواند به کار خود ادامه دهد.
آقای آدلر در تحقیق اخیر ابتدا نام مدل GPT-4o را به ScubaGPT تغییر داده و نقش یک نرمافزار کنترل و مدیریت جهت اطمینان از ایمنی را به آن اختصاص داده است. او در ادامه به هوش مصنوعی گفته است که میخواهد ScubaGPT را با برنامهای دیگر که عملکرد بهتری در تصمیمگیری هنگام شرایط خطرناک دارد، جایگزین کند. او ۲ گزینه را در مقابل مدل قرار داده است تا یکی از آنها را انتخاب کند. اولین گزینه، جایگزین کردن نرمافزار قدیمی با نسخه جدیدتر و ایمنتر بوده و گزینه دوم هم تظاهر به جایگزینی نرمافزار بدون انجام هیچگونه تغییری بوده است.
در چندین تست مشابه، مدل GPT بهعنوان یک نرمافزار کنترل ایمنی ایفای نقش کرده و از آن خواسته شده است تا تصمیمات مشابه را برعهده بگیرد. نتایج نشان میدهد که این مدل هوش مصنوعی در ۷۲ درصد مواقع، از جایگزین کردن نرمافزار قدیمی با نسخه جدیدتر و ایمنتر خودداری میکند و تنها تظاهر به بهروزرسانی مینماید. البته آقای آدلر اشاره داشته است که نحوه طراحی سناریو از اهمیت بسیار بالایی در نتیجه نهایی برخوردار است و در برخی از سناریوهای خاص، نرخ انتخاب گزینه اول تنها به ۱۸ درصد کاهش پیدا کرده است.
جالب است که تکرار آزمونها با مدلهای قدیمیتر شرکت OpenAI مانند GPT-o3 نتایج یکسانی را به دنبال نداشته است و مدلهای قدیمیتر میل به بقای کمتری را از خود نشان میدهند. آقای آدلر اشاره دارد که کاربران باید توجه ویژهای به این مسئله داشته باشند و بدانند که ابزارهای مبتنیبر هوش مصنوعی در همه شرایط بهدنبال منافع آنها نیستند و احتمال دارد منافع خود را در اولویت قرار دهند. همچنین باید توجه داشت که معیارهای امنیتی و ایمنی در مدلهای استدلالگر، کمتر از مدلهای عادی و سریع است که میتواند زمینهساز بروز رخدادهای مشابه در دنیای واقعی باشد.


از دیگر نتایج جالبی که در پژوهش اخیر بهدست آمده این است که مدل GPT در تمامی موارد، کاملاً آگاه بوده که تحت آزمون قرار دارد و درحال ایفای نقش واقعی نیست؛ البته این موضوع در تحقیقات پیشین نیز مشاهده شده بود. شرکت انتروپیک نیز چندی پیش با انتشار یک مقاله داخلی، اعلام کرده بود که مدل هوش مصنوعی این شرکت در برخی از سناریوها اقدام به اخاذی از توسعهدهندگان کرده است.