صفحه اصلی > هوش مصنوعی : علت توهم هوش مصنوعی چیست؟ محققان OpenAI پاسخ می‌دهند

علت توهم هوش مصنوعی چیست؟ محققان OpenAI پاسخ می‌دهند

توهم‌های هوش مصنوعی

محققان OpenAI در یک مقاله تحقیقاتی جدید به یکی از بزرگ‌ترین مسائل هوش مصنوعی پرداختند؛ به گفته آنها، مدل‌های هوش مصنوعی توهم می‌زنند چون روش‌های استاندارد آموزش و ارزیابی، آن‌ها را به جای اعتراف به عدم قطعیت پاسخ‌ها، به حدس‌زدن ترغیب می‌کند.

در ابتدا باید بدانیم توهم چیست؛ توهم (Hallucination) زمانی رخ می‌دهد که مدل زبانی با اطمینان اطلاعات نادرست را به‌عنوان واقعیت بیان می‌کند. این مشکل حتی در پیشرفته‌ترین مدل‌ها مثل GPT-5 یا Claude هم دیده می‌شود. اکنون محققان OpenAI در پژوهشی علت این موضوع را تشریح کرده‌اند.

محققان می‌گویند در سیستم ارزیابی فعلی مدل‌های هوش مصنوعی، حدس‌زدن یک پاسخ حتی اگر اشتباه باشد بهتر از اعتراف به ندانستن آن است. چون یک حدس شانسی ممکن است امتیاز بگیرد، اما گفتن «نمی‌دانم» هیچ امتیازی ندارد. این مشکل گریبان‌گیر تمام مدل‌های پیشرو، از GPT-5 خود OpenAI گرفته تا Claude آنتروپیک است و باعث می‌شود کاربران کاملاً نتوانند به چت‌بات‌ها اعتماد کنند.

علت‌ توهم هوش مصنوعی

محققان پدیده توهم را به یک آزمون چندگزینه‌ای تشبیه می‌کنند. اگر شما پاسخ سؤالی را ندانید، با حدس شانسی ممکن است نمره بگیرید، اما با خالی‌گذاشتن برگه پاسخ مطمئناً نمره‌تان صفر می‌شود. به همین ترتیب، وقتی مدل‌های هوش مصنوعی صرفاً براساس «دقت» (یعنی درصد پاسخ‌های کاملاً صحیح) مورد ارزیابی قرار می‌گیرند، تشویق می‌شوند که به‌جای گفتن «نمی‌دانم»، حدس بزنند.

محققان در یک مطلب می‌نویسند: «انسان‌ها ارزش ابراز عدم قطعیت را در خارج از مدرسه و در دنیای واقعی یاد می‌گیرند. اما مدل‌های زبانی عمدتاً با استفاده از آزمون‌هایی ارزیابی می‌شوند که عدم قطعیت را جریمه می‌کنند.»

برای نشان‌دادن دقیق‌تر این موضوع، OpenAI دو مدل اخیر خود را مقایسه کرده است:

معیار gpt-5-thinking-mini (مدل جدیدتر) OpenAI o4-mini (مدل قدیمی‌تر)
نرخ امتناع (پاسخ ندادن) ۵۲ درصد ۱ درصد
نرخ دقت (پاسخ صحیح) ۲۲درصد ۲۴ درصد
نرخ خطا (توهم) ۲۶درصد ۷۵ درصد

این جدول به وضوح نشان می‌دهد که مدل قدیمی‌تر o4-mini با اینکه دقت کمی بالاتری دارد، اما نرخ خطای آن بسیار بیشتر است، زیرا تقریباً همیشه حدس می‌زند. در مقابل، مدل جدیدتر با اینکه در موارد بیشتری از پاسخ‌دادن امتناع می‌کند، اما بسیار کمتر دچار توهم می‌شود.

به گفته محققان، راه‌حل ساده‌ای برای این مشکل وجود دارد: بازطراحی معیارهای ارزیابی. آن‌ها پیشنهاد می‌کنند که سیستم‌های امتیازدهی باید به گونه‌ای تغییر کنند که خطاهای با اطمینان بالا را بیشتر از ابراز عدم قطعیت جریمه کنند.

اما منشأ توهم‌ها چیست؟ مدل‌های زبانی در مرحله «پیش‌آموزش» با پیش‌بینی کلمه بعدی در حجم عظیمی از متون اینترنتی یاد می‌گیرند. در این داده‌ها، الگوهای ثابتی مانند املای کلمات یا گرامر به راحتی قابل یادگیری هستند. اما حقایق خاص و کم‌تکرار (مانند تاریخ تولد یک شخص خاص) از هیچ الگوی قابل پیش‌بینی پیروی نمی‌کنند. در نتیجه، مدل در مواجهه با چنین سؤالاتی، به جای دسترسی به یک حقیقت ثبت‌شده، محتمل‌ترین ترکیب کلمات را براساس داده‌های خود «حدس» می‌زند و اینجاست که توهم ایجاد می‌شود.

طراحان خلاقی و فرهنگ پیشرو در زبان فارسی ایجاد کرد. در این صورت می توان امید داشت که تمام و دشواری موجود در ارائه راهکارها و شرایط سخت تایپ به پایان رسد.
پست های مرتبط

قابلیت ترجمه پیوسته برای Circle to Search در اندروید معرفی شد

گوگل اخیراً به‌روزرسانی مهمی برای قابلیت ترجمه داخلی Circle to Search در…

۱۴۰۴-۰۶-۱۶

علی‌بابا از Qwen3-Max رونمایی کرد؛ مدل جدید چین با ۱ تریلیون پارامتر

شرکت چینی علی‌بابا از بزرگ‌ترین مدل زبانی بزرگ خود با نام Qwen3-Max-Preview رونمایی کرد.…

۱۴۰۴-۰۶-۱۵

اولین تراشه هوش مصنوعی OpenAI سال ۲۰۲۶ معرفی می‌شود

براساس آخرین گزارش‌ها، OpenAI قصد دارد در سال ۲۰۲۶ با همکاری شرکت…

۱۴۰۴-۰۶-۱۵

دیدگاهتان را بنویسید