//
کدخبر: ۴۲۵۲۸۶ //
ChatGPT |چت جی پی تی

ChatGPT جایگزین روان‌شناس‌ها می‌شود؟

کارمند OpenAI می‌گوید اگرچه هرگز درمان با روش روان‌شناسی را امتحان نکرده، ChatGPT می‌تواند جایگزین بسیار مناسبی برای این کار باشد.

ChatGPT جایگزین روان‌شناس‌ها می‌شود؟
به گزارش فرتاک نیوز،

یکی از کارمندان ارشد OpenAI ادعا کرد جدیدترین نسخه‌ی ChatGPT که اکنون از قابلیت تشخیص صدا نیز بهره می‌برد، دقیقاً می‌تواند شبیه درمانگران انسانی رفتار کند. البته او اعتراف کرد خودش تاکنون با چت‌بات هوش مصنوعی مذکور اقدام به درمان با روش روان‌شناسی نکرده است.

لیلیان ونگ، رئیس سیستم‌های امنیتی OpenAI در شبکه‌ی اجتماعی ایکس (توییتر سابق) اعلام کرد:

ازطریق چت صوتی، مکالمه‌ای کاملاً احساسی و شخصی با ChatGPT داشتم و درمورد استرس و تعادل بین کار و زندگی با آن صحبت کردم و پس‌ از پایان صحبت با هوش مصنوعی، احساس کردم حرفم را شنیده است و دلگرم شدم.

اگرچه اشاره به ظرفیت ChatGPT برای درمان ازطریق روان‌شانسی آن‌ هم از طرف کارمند ارشد ایمنی OpenAI عجیب به‌نظر می‌رسد، مفهوم درمانگرهای هوش مصنوعی درواقع به دهه‌ی ۱۹۶۰ میلادی برمی‌گردد؛‌ زمانی‌ که دانشمندی پیشگام، کامپیوتر چت‌بات ساده‌ای توسعه داد. این رایانه که Eliza نامیده می‌شود اساساً از روشی مشابه درمانگران انسانی استفاده می‌کرد.

جوزف وایزنبام، دانشمند MIT سال ۱۹۹۶، کامپیوتر Eliza را ارائه داد و قصد داشت سطحی بودن هوش مصنوعی را به‌ نمایش بگذارد اما به منبع ناخواسته‌ی اثر الیزا (ELIZA effect) معرف شد؛ جایی‌که مردم خواص انسانی را به ماشین‌هایی نسبت‌ می‌دهند که قادر به تعامل با آن‌ها هستند.

مارگارت میچل، دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face اوایل سال جاری در گفت‌وگو با وب‌سایت Build in اعلام کرد:

 

این اساساً توهم است که ماشینی که با آن صحبت می‌کنید، درک شبیه انسان از جهان دارد. این یعنی ذهنیت و غرضی بزرگ در پشت سیستم وجود دارد.

- مارگارت میچل، Hugging Face

Eliza از زمان خود جلوتر بود، درمانگران هوش مصنوعی در دهه‌ی گذشته چیزی شبیه رنسانس را تجربه کردند. سال ۲۰۱۵ محققان دانشگاه کالیفرنیانی جنوبی چت‌باتی به‌ نام Ellie را منتشر کردند که از آواتار انسان‌نما بهره می‌برد و برای تشخیص حالات چهره و ظاهراً بیان احساسات انسانی که با آن‌ها در تعامل است، آموزش دیده بود.

در سال‌های بعد، چند تلاش دیگر برای راه‌اندازی درمانگران هوش مصنوعی صورت گرفت اما به‌نظر می‌رسد ChatGPT آمادگی ایجاد تغییری بزرگ در درمان با روان‌شناسی را دارد که این مورد باعث ناراحتی بسیاری از متخصصان سلامت روان شده است.

ونگ اولین کسی نیست که احساس می‌کند ChatGPT مزایای درمانی دارد و بی‌شک آخرین نفر هم نخواهد بود.

اگرچه اشاره به ظرفیت ChatGPT برای درمان ازطریق روان‌شانسی آن‌ هم از طرف کارمند ارشد ایمنی OpenAI عجیب به‌نظر می‌رسد، مفهوم درمانگرهای هوش مصنوعی درواقع به دهه‌ی ۱۹۶۰ میلادی برمی‌گردد؛‌ زمانی‌ که دانشمندی پیشگام، کامپیوتر چت‌بات ساده‌ای توسعه داد. این رایانه که Eliza نامیده می‌شود اساساً از روشی مشابه درمانگران انسانی استفاده می‌کرد.

جوزف وایزنبام، دانشمند MIT سال ۱۹۹۶، کامپیوتر Eliza را ارائه داد و قصد داشت سطحی بودن هوش مصنوعی را به‌ نمایش بگذارد اما به منبع ناخواسته‌ی اثر الیزا (ELIZA effect) معرف شد؛ جایی‌که مردم خواص انسانی را به ماشین‌هایی نسبت‌ می‌دهند که قادر به تعامل با آن‌ها هستند.

مارگارت میچل، دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face اوایل سال جاری در گفت‌وگو با وب‌سایت Build in اعلام کرد:

 
این اساساً توهم است که ماشینی که با آن صحبت می‌کنید، درک شبیه انسان از جهان دارد. این یعنی ذهنیت و غرضی بزرگ در پشت سیستم وجود دارد.
- مارگارت میچل، Hugging Face

Eliza از زمان خود جلوتر بود، درمانگران هوش مصنوعی در دهه‌ی گذشته چیزی شبیه رنسانس را تجربه کردند. سال ۲۰۱۵ محققان دانشگاه کالیفرنیانی جنوبی چت‌باتی به‌ نام Ellie را منتشر کردند که از آواتار انسان‌نما بهره می‌برد و برای تشخیص حالات چهره و ظاهراً بیان احساسات انسانی که با آن‌ها در تعامل است، آموزش دیده بود.

در سال‌های بعد، چند تلاش دیگر برای راه‌اندازی درمانگران هوش مصنوعی صورت گرفت اما به‌نظر می‌رسد ChatGPT آمادگی ایجاد تغییری بزرگ در درمان با روان‌شناسی را دارد که این مورد باعث ناراحتی بسیاری از متخصصان سلامت روان شده است.

ونگ اولین کسی نیست که احساس می‌کند ChatGPT مزایای درمانی دارد و بی‌شک آخرین نفر هم نخواهد بود.

 

 

برای ورود به کانال تلگرام فرتاک نیوز کلیک کنید.
آیا این خبر مفید بود؟
کدخبر: ۴۲۵۲۸۶ //
ارسال نظر
 
اخبار مرتبط سایر رسانه ها
اخبار از پلیکان
اخبار روز سایر رسانه ها
    اخبار از پلیکان