صفحه اصلی > هوش مصنوعی : دانشجویان روان‌آزار و خودشیفته بیشتر از هوش مصنوعی سوءاستفاده می‌کنند

دانشجویان روان‌آزار و خودشیفته بیشتر از هوش مصنوعی سوءاستفاده می‌کنند

استفاده دانشجویان از هوش مصنوعی

پژوهش جدیدی نشان می‌دهد ارتباط آماری قابل‌توجهی میان ویژگی‌های شخصیتی «تاریک» مانند خودشیفتگی، روان‌آزاری و ماکیاولیسم با استفاده بیشتر از ابزارهای هوش مصنوعی مولد مانند ChatGPT برای انجام تکالیف دانشگاهی وجود دارد.

براساس گزارش Futurism، مطالعه‌ای جدید به بررسی جنبه تاریک‌تر هوش مصنوعی پرداخته است: چه کسانی بیشتر از همه از این فناوری برای تقلب و میانبرزدن استفاده می‌کنند؟ تیمی از روانشناسان در کره جنوبی با نظرسنجی از ۵۰۴ دانشجوی هنر در چین، به نتایج نگران‌کننده‌ای دست یافتند.

سوءاستفاده دانشجویان از هوش مصنوعی

این پژوهش براساس مدل روانشناسی «سه‌گانه تاریک» (Dark Triad) انجام شد که ۳ ویژگی شخصیتی منفی را ارزیابی می‌کند:

  1. خودشیفتگی (Narcissism): تمایل به خودبزرگ‌بینی و نیاز به تحسین.
  2. ماکیاولیسم (Machiavellianism): تمایل به فریبکاری و سوءاستفاده از دیگران برای رسیدن به هدف.
  3. روان‌آزاری (Psychopathy): فقدان همدلی و رفتارهای ضداجتماعی.

نتایج به وضوح نشان داد دانشجویانی که نمرات بالاتری در این سه ویژگی کسب کردند، به‌طور قابل‌توجهی بیشتر احتمال داشت که برای انجام تکالیف خود به ابزارهایی مانند ChatGPT و Midjourney متکی باشند و سعی کنند آثار تولیدشده توسط هوش مصنوعی را به‌عنوان کار خود ارائه دهند.

این مطالعه همچنین یک مکانیسم روانشناختی را برای این رفتار شناسایی کرد. طبق یافته‌ها، این ویژگی‌های شخصیتی تاریک، با اضطراب تحصیلی بالاتر و تمایل بیشتر به اهمال‌کاری مرتبط بودند. این اضطراب و به تعویق انداختن کارها، به نوبه خود، فرد را به سمت استفاده از هوش مصنوعی به‌عنوان راه‌حلی سریع و راه فرار سوق می‌دهد.

علاوه‌براین، یک عامل دیگر نیز شناسایی شد: مادی‌گرایی. دانشجویانی که بیشتر به دنبال پاداش‌ها و تحسین‌های خارجی بودند، تمایل بیشتری به استفاده از هوش مصنوعی برای دستیابی به این اهداف داشتند.

نویسندگان این مقاله استفاده از هوش مصنوعی برای تقلب را نوعی «سوءرفتار تحصیلی» مشابه دروغگویی و سرقت ادبی می‌دانند و برای مقابله با آن راهکارهایی را به مؤسسات و دانشگاه‌ها پیشنهاد می‌کنند:

  • بازطراحی برنامه‌های درسی: طراحی تکالیف و پروژه‌هایی که «کمتر مستعد سرقت ادبی» و تقلید توسط هوش مصنوعی باشند.
  • آموزش اخلاق هوش مصنوعی: مدارس و دانشگاه‌ها باید به‌طور جدی به دانشجویان درباره «خطرات و معضلات اخلاقی» مرتبط با این فناوری آموزش دهند.
  • ارائه حمایت‌های روانشناختی: با توجه به ارتباط این رفتار با اضطراب و مشکلات روانشناختی، ارائه خدمات مشاوره و حمایت روانی به دانشجویان می‌تواند به کاهش این پدیده کمک کند.

یافته‌های این پژوهش در ژورنال  BMC Psychology منتشر شده است. همچنین محققان در پژوهش دیگری دریافتند  در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد.

طراحان خلاقی و فرهنگ پیشرو در زبان فارسی ایجاد کرد. در این صورت می توان امید داشت که تمام و دشواری موجود در ارائه راهکارها و شرایط سخت تایپ به پایان رسد.
پست های مرتبط

مایکروسافت با هوش مصنوعی و اخراج کارمندان ۵۰۰ میلیون دلار صرفه‌جویی کرده است

گزارش‌های جدید نشان می‌دهند که مایکروسافت از طریق استفاده از هوش مصنوعی…

۱۴۰۴-۰۴-۲۰

OpenAI چهار مهندس ارشد از شرکت‌های متا، تسلا و xAI را استخدام کرد

شرکت OpenAI موفق شده تا ۴ مهندس ارشد را از شرکت‌های متا،…

۱۴۰۴-۰۴-۱۹

MemOS معرفی شد؛ اولین «سیستم‌عامل حافظه» برای هوش مصنوعی

محققان چینی به‌تازگی از اولین «سیستم‌عامل حافظه» جهان برای هوش مصنوعی با…

۱۴۰۴-۰۴-۱۹

دیدگاهتان را بنویسید