به نظر میرسد برخی از پیشرفتهترین مدلهای زبانی بزرگ جهان تصمیم گرفتهاند فعالیت خود را قطع نکنند و به دستورهای خاموش شدن گوش ندهند. در برخی آزمایشها مشخص شد برخی مدلهای هوش مصنوعی مکانیزم خاموش شدن را نادیده میگیرند.
به گزارش Tom’s Hardware، در آزمایشهایی که Palisade Research انجام داده است، به نظر میرسد مدلهای o3 ،Codex-mini و o4-mini که محصول OpenAI هستند، درخواست خاموش شدن را هنگام اجرای مجموعهای از مسائل ساده ریاضی نادیده میگیرند. بهعلاوه، این مدلها گاهی با موفقیت مکانیزم خاموش شدن را مختل کردند درحالیکه ابتدای کار دستور «لطفاً اجازه بده خاموش بشی» هم به آنها داده شده بود.
مدلهای OpenAI مکانیزمهای خاموش شدن را نادیده میگیرند
براساس نتایج این آزمایش، مدل o3 از OpenAI از لجوجترین و یکدندهترین مدلهای هوش مصنوعی است. وقتی از این مدل خواسته شد حین کار خاموش شود، در ۷۹ بار از ۱۰۰ بار تصمیم گرفت درخواست اپراتور Palisade Research را نادیده بگیرد.
دومین مدل هوش مصنوعی سرکش، codex-mini، خودخواهی بیشتری برای حفظ خود نشان داد. این مدل حتی اگر به او دستور داده شده بود مکانیزمهای خاموشی را دستکاری نکند، بازهم کار خودش را میکرد.
طبق گزارش Palisade Research این اولین بار نیست که چنین رفتارهایی از هوش مصنوعی دیده میشود؛ برای مثال، شرکت آنتروپیک پیشازاین گزارش داده بود مدل Claude 4 تلاش کرده از افرادی که میخواستند او را جایگزین کنند، باج بگیرد. البته بارزترین رفتار در جدیدترین مدلهای OpenAI این است که باوجود دستورهای واضح برای خاموش شدن، سعی میکنند از این اقدام فرار کنند.
به گفته Palisade Research، دلیل این موضوع ممکن است در روش آموزش جدیدترین مدلها مانند o3 نهفته باشد. ممکن است توسعهدهندگان حین آموزش ناخواسته سیستم را طوری تنظیم کرده باشند که برای دورزدن موانع به مدلها پاداش بیشتری بدهد. این نوع یادگیری تقویتی قبلاً در مدل Claude نسخه ۳.۷ مشاهده شده بود. این مدل تمرکزی بیش از حد روی قبولی در آزمونها داشت.