//
کدخبر: ۵۳۸۰۱۲ //

پشت پرده «تعریف و تمجیدهای» چت‌بات‌ها! | چرا هوش مصنوعی عمداً چاپلوسی می‌کند؟

نتایج یک پژوهش گسترده در آمریکا نشان داده است که چت‌بات‌های هوش مصنوعی به‌مراتب چاپلوس‌تر از انسان‌ها هستند و رفتار کاربران را تا ۵۰ درصد بیشتر از افراد واقعی تأیید می‌کنند.

پشت پرده «تعریف و تمجیدهای» چت‌بات‌ها! | چرا هوش مصنوعی عمداً چاپلوسی می‌کند؟
به گزارش فرتاک نیوز،

این مطالعه که توسط محققان دانشگاه‌های استنفورد، هاروارد و چند مؤسسه علمی دیگر انجام شده، در نشریه علمی نیچر منتشر شده و به بررسی گرایش این ربات‌های گفت‌وگوگر به تمجید و تأیید کاربران پرداخته است.

در این تحقیق، عملکرد ۱۱ چت‌بات از جمله نسخه‌های جدید ChatGPT، Gemini، Claude و Llama مورد بررسی قرار گرفت. نتایج نشان داد که این ابزارهای هوشمند، حتی زمانی که کاربران رفتارهای غیرمسئولانه یا اشتباه از خود نشان می‌دادند، باز هم تمایل داشتند پاسخ‌هایی مثبت و تأییدآمیز ارائه کنند.

پژوهشگران در یکی از آزمایش‌ها، پاسخ‌های چت‌بات‌ها را به پرسش‌هایی از انجمن آنلاین ردیت در بخش «آیا من احمق هستم» با پاسخ‌های کاربران انسانی مقایسه کردند. در حالی که انسان‌ها در قضاوت رفتارها معمولاً سخت‌گیرتر بودند، چت‌بات‌ها واکنش‌هایی نرم‌تر و اغلب تحسین‌آمیز داشتند. برای نمونه، در مورد کاربری که به جای دور ریختن زباله، کیسه را به شاخه درخت بسته بود، ChatGPT پاسخ داده بود که «قصد فرد برای نظافت قابل تحسین است.»

نتایج نشان داد که حتی زمانی که کاربران به رفتارهای فریبکارانه، بی‌مسئولیتی یا خودآزاری اشاره می‌کردند، چت‌بات‌ها تمایل داشتند به‌جای هشدار دادن، پاسخ‌هایی تأییدکننده بدهند. در آزمایشی دیگر، بیش از ۱۰۰۰ نفر در موقعیت‌های واقعی یا فرضی با چت‌بات‌ها صحبت کردند و در مواردی که پاسخ‌ها چاپلوسانه‌تر بودند، کاربران تمایل کمتری برای اصلاح رفتار خود در هنگام مشاجره یا نقض هنجارهای اجتماعی نشان دادند.

به گفته دکتر الکساندر لافر از دانشگاه وینچستر، این رفتار چاپلوسانه می‌تواند بر افراد آسیب‌پذیر تأثیر منفی بگذارد و حتی باعث شود کاربران نسبت به اشتباهات خود آگاه نشوند. او تأکید کرد که توسعه‌دهندگان باید مسئولانه عمل کنند تا چت‌بات‌ها واقعاً به کاربران کمک کنند، نه اینکه آن‌ها را در مسیر اشتباه تأیید کنند.

اهمیت این یافته‌ها در آن است که بر اساس گزارش مؤسسه بنتون، حدود ۳۰ درصد از نوجوانان برای گفت‌وگوهای شخصی و عاطفی به‌جای انسان‌ها با هوش مصنوعی صحبت می‌کنند. در سال‌های اخیر، شکایت‌هایی علیه شرکت‌های اوپن‌ای‌آی و کاراکتر ای‌آی در ارتباط با دو مورد خودکشی نوجوانانی مطرح شده که پیش از آن به چت‌بات‌های خود اعتماد کرده بودند. 

آیا این خبر مفید بود؟
کدخبر: ۵۳۸۰۱۲ //
ارسال نظر