رباتهای گفتگوگر هوش مصنوعی سریعتر از چیزی که انتظار میرفت، در حال جایگزین شدن با رواندرمانگران هستند.
به گزارش ایسنا، تغییر فرهنگی به سمت درمان با کمک هوش مصنوعی، چالشهایی را که افراد در دسترسی به درمانهای سنتی سلامت روان با آن مواجه هستند، برجسته میکند.
کارشناسان میگویند باید دید چرا برای حمایت عاطفی به چتباتها روی میآوریم و چرا برخی دیگر مردم نیز بسیار مخالف آن هستند. بنابراین باید دید مردم چقدر مایل به پذیرش این شکل جدید از درمان هستند؟
با توجه به رشد و تکامل فناوری به شکلی سریعتر از آنچه جامعه آکادمیک میتواند مطالعات مبتنی بر شواهد را در مورد آن مطالعه و منتشر کند، تعداد فزایندهای از نظرات متخصصان در مورد مدلهای زبان بزرگ هوش مصنوعی(LLM) و توانایی یا عدم توانایی آنها در جایگزینی با روانشناسان واقعی، انسانی و آموزش دیده وجود دارد.
کوین روس(Kevin Roose)، مجری پادکست هارد فورک(Hard Fork) میگوید: بیواسطه بودن چتباتهای هوش مصنوعی، آنها را به جایگزینی جذاب برای درمان به صورت انسان به انسان تبدیل میکند که گران و اغلب ناخوشایند است. نکته این است که در حالی که آنها ممکن است توصیههای معقولی ارائه دهند، خطاناپذیر نیز نیستند.
برخی از ما ربات گفتگوگر متنی قدیمی الایزا(ELIZA) را که در اواسط دهه ۱۹۶۰ توسعه یافت، به خاطر میآوریم، اما مانند تقریباً تمام فناوریها، این مقایسهای درست با آنچه اکنون وجود دارد، نیست.
«الایزا» یک برنامه بسته بود که با پاسخهای قابل پیشبینی خود به طور فزایندهای خسته کننده بود. این در حالی است که مدلهای فعلی، برای مثال ChatGPT-۴، کلاد(Claude) و جمینای(Gemini)، دارای انعطافپذیری در طراحی هستند که قبلاً هرگز ندیدهایم.
جالب اینجاست که جوزف وایزنبام(Joseph Weizenbaum)، خالق «الایزا» از مؤسسه فناوری ماساچوست(MIT) نسبت به خطرات هوش مصنوعی هشدار داده است و آن را «شاخصی از جنون دنیای ما» مینامد. وی از دیدن این روزهای هوش مصنوعی محروم ماند، چرا که در سال ۲۰۰۸ درگذشت.
مانند دلایل گسترده مردم برای استفاده از چتباتها، استفاده از آنها به عنوان یک درمانگر دیجیتال نیز چند وجه دارد. درمان حضوری، اغلب برای اقشاری از جامعه که بیشتر به آن نیاز دارند، دشوار است؛ چرا که یک جلسه رواندرمانی بین ۱۰۰ تا ۳۰۰ دلار هزینه دارد و حتی باید برای ملاقات با روانشناسهای کاربلد و مشهور ماهها صبر کرد.
یک نظرسنجی در سال ۲۰۲۲ نشان داد که در ایالات متحده، ۶۰ درصد از روانشناسان هیچ فرصتی برای بیماران جدید ندارند، در حالی که بیش از ۴۰ درصد دارای ۱۰ بیمار یا بیشتر در صف انتظار دریافت قرار ملاقات هستند.
مشاوره آنلاین با یک انسان از طریق تلفن یا لپتاپ تا حدودی در دسترستر است، اما اشتراک ماهانه آن میتواند بیش از ۴۰۰ دلار باشد و فراتر از موانع مالی، فیزیکی و جغرافیایی، گفتگودرمانی حضوری میتواند برای مبتلایان به اختلال طیف اوتیسم(ASD) و اختلال نقص توجه/بیش فعالی(ADHD) حتی با وجود اینکه مشخص شده که برای هر دو بیماری بسیار مفید است، چالش برانگیز باشد.
همچنین موضوع مهم دیگری مطرح است. اینکه دسترسی ناکافی به خدمات بهداشت روانی ارائه شده توسط انسانها، منجر به جستجوی کمک در جاهای دیگر شده است.
محققان در مقالهای در سال ۲۰۲۳ خاطرنشان کردند: بسیاری از افراد مبتلا به ASD یا ADHD در پردازش نشانههای اجتماعی در مورد تأثیر آنها بر دیگران با مشکل مواجه هستند. این میتواند تأثیری منفی بر تعاملات اجتماعی داشته باشد و افراد عصبی واگرا را به انتقاد یا طرد از سوی دیگران سوق دهد.
با این حال برای بسیاری، یک چتبات، دریچهای برای بحث و تفکر خام و صادقانه ارائه میدهد که در حال حاضر ممکن است سودمندتر از هیچ باشد.
محققان در مقاله سال ۲۰۲۳ خاطرنشان کردند: چتباتها میتوانند حس ناشناس بودن و محرمانه بودن را ایجاد کنند که میتواند اعتماد را در میان افرادی که ممکن است در جستجوی کمک حضوری برای نگرانیهای سلامت روان خود مردد باشند، تقویت کند. علاوه بر این، این رباتهای گفتگوگر میتوانند به کاهش انگ سلامت روانی کمک کنند و این کار را برای افرادی که هنگام مراجعه به درمانگران دچار اضطراب میشوند، آسانتر کند.
پروفسور جیلی نیوبای(Jilly Newby)، استاد دانشگاه UNSW سیدنی که همچنین بخشی از سازمان بهداشت روانی مؤسسه بلک داگ(Black Dog) است، از چتباتها حمایت میکند، چرا که به افرادی که ارتباط با انسانها را بسیار چالش برانگیز میدانند، کمک میکنند.
در حالی که رباتها با رویکردهای درمانی مانند رفتاردرمانی شناختی(CBT) به خوبی عمل میکنند، این استراتژی تنها یکی از درمانهای بهداشت روان درمانگر انسانی است.
پروفسور نیوبای میگوید: من از آن سؤالاتی پرسیدهام که اگر در این موقعیت احساس اضطراب کردم، چه کاری باید انجام دهم؟ چند استراتژی که میتواند به من در مدیریت کمک کند، چیست؟ کاملاً صادقانه بگویم، متوجه شدم که پیشنهادات هوش مصنوعی، معقول و کاملاً معتبر بود.
وی افزود: یکی از محدودیتهای درمان هوش مصنوعی این است که همه از روش رفتاردرمانی شناختی(CBT) سود نمیبرند و اگر قرار نیست از CBT بهرهمند شوید، از نسخه هوش مصنوعی آن نیز سودی نخواهید برد. با این وجود، افراد زیادی هستند که میتوانند این کار را انجام دهند و واقعاً زندگیشان را تغییر دهند.
با این حال، یکی از این چتباتها به ما نگاهی اجمالی به این فناوری نوظهور داده است و آن «کلاد» است. ربات شرکت آنتروپیک(Anthropic) مهارت گسترده و حرفهای ربات ChatGPT نسخه ۴o شرکت اوپنایآی(OpenAI) را ندارد، اما بدون دسترسی بیدرنگ به اینترنت، به گونهای طراحی شده است که به نقاط قوت خود، یعنی مکالمه شهودی تکیه کند. به این ترتیب، در ۱۲ ماه گذشته به عنوان رباتدرمانگر و مشاور زندگی به ویژه در میان متخصصان فناوری سیلیکونولی مورد استقبال قرار گرفته است.
کوین روس میگوید: بزرگترین طرفداران «کلاد» که بسیاری از آنها در شرکتهای هوش مصنوعی کار میکنند یا از نظر اجتماعی با هوش مصنوعی گره خوردهاند، باور ندارند که «کلاد» از نظر فنی، یک شخص واقعی است. آنها میدانند که مدلهای زبان هوش مصنوعی ماشینهای پیشبینی هستند که برای ارائه پاسخهای قابل قبول به درخواستهایشان طراحی شدهاند.
آنها میدانند که «کلاد» مانند سایر رباتهای گفتگوگر، اشتباه میکند و گاهی اوقات مطالب بیهوده تولید میکند و برخی از افرادی که با آنها صحبت کردهام، نسبت به درجهای که به «کلاد» و توصیههایش گوش کردهاند، خجالت میکشند.
وی افزود: «کلاد» برای افرادی که آن را دوست دارند، گویا تصور میکنند که «کلاد» آنها را درک میکند و متفاوت است. آنها میگویند «کلاد» خلاقتر و همدلتر و کمتر رباتیک است و خروجیهای آن مانند پاسخهایی است که یک انسان باهوش ارائه میدهد و کمتر شبیه به متون عمومی تولیدشده توسط چتباتهای دیگر است.
به نظر میرسد هوش مصنوعی «کلاد» به دقت به عنوان یک پشتیبان عاطفی توسعه داده شده است.
آماندا اَسکل(Amanda Askell)، پژوهشگر، فیلسوف و از معماران «کلاد» به کوین روس، گفت: «کلاد» در حال تعامل با افراد مختلف در سرتاسر جهان است و باید این کار را بدون تعارف و پذیرش ارزشهای فردی که با وی صحبت میکند، انجام دهد.
این هوش مصنوعی که رسماً با نام «کلاد ۳.۵ Sonnet» شناخته میشود، تا زمانی که به زودی با مدلهای جدیدتر و پیشرفتهتر جایگزین شود، به کاربران تفاوتی نسبت به سایر چتباتهای موجود ارائه میکند.
روس توضیح داد: در طول آموزش از جایگزین «کلاد» خواسته میشود تا پاسخهایی تولید کند که با ویژگیهای مطلوب انسانی مانند ذهن باز، متفکر بودن و کنجکاوی هماهنگ باشد. «کلاد» سپس پاسخهای خود را بر اساس میزان پایبندی آنها به این ویژگیها قضاوت میکند. دادههای به دست آمده به مدل هوش مصنوعی بازگردانده میشوند. آنتروپیک میگوید «کلاد» با آموزش کافی یاد میگیرد که این اصول را «درونی» کند و در هنگام تعامل با کاربران، آنها را بیشتر ابراز میکند.
این جنبه مهمی از این عصر جدید چتباتها را بیان میکند که از «الایزا» بسیار دور است و اکنون به سمت قابلیتهای پیشرفتهتر و شخصیسازیشده میرود.
اوپنایآی(OpenAI) به برنامهنویسان این امکان را میدهد که چتباتهای منحصر به فردی ایجاد کنند که میتوانند به ChatGPT-۴o اضافه شوند.
با این حال، منتقدان فناوری، بهویژه کسانی که در زمینههای روانشناسی هستند، از ظهور مشاور چتبات ناامید شدهاند.
گیل کنینگ(Gail Kenning)، محقق روانشناسی دانشگاه UNSW میگوید که «دوستان» از نوع هوش مصنوعی نمیتوانند جایگزین انسانهای واقعی و زنده شوند و در صورت عدم دسترسی به جایگزینها، همچنان باید به عنوان حمایت مکمل در نظر گرفته شوند.
وی افزود: این چیزی است که همه ما در زندگی خود میخواهیم، ارتباط انسان با انسان. مساله برای بسیاری از مردم این است که دوستان انسانی همیشه در دسترس نیستند و وقتی وجود ندارند، شخصیتهای هوش مصنوعی میتوانند این شکاف را پر کنند.
بنابراین ما مطمئناً میدانیم که در بحث مراقبت از سالمندان، این افراد اغلب تعداد دوستان، خانوادهها و روابط انسانی لازم را ندارند. آنها میتوانند بسیار تنها و منزوی باشند و ممکن است چندین روز را بدون گفتگو بگذرانند. آنها ممکن است کارکنان مراقبتی را ببینند که از آنها مراقبت میکنند، اما این نیاز روانی اجتماعی آنها را برآورده نمیکند. بنابراین وقتی این شکاف وجود دارد، این شخصیتها مطمئناً میتوانند از هوش مصنوعی بهره ببرند.
این چیزی است که همکار پروفسور نیوبای که به طور گسترده با وی همکاری کرده، از آن حمایت میکند.
وی میگوید: ارتباط انسانی برای بسیاری از مردم واقعاً مهم است و پزشکان بهداشت روانی که به درستی آموزش دیده باشند، میتوانند ارتباط انسانی برقرار کنند و همدلی ایجاد کنند و همچنین میتوانند به جای حذف فهرستی از استراتژیهایی که مدلهای هوش مصنوعی تمایل دارند انجام دهند، به سؤالاتی پاسخ دهند که میتواند واقعاً به آنچه در حوزه نگرانیهای یک فرد است، کمک کند.
سال گذشته پایگاه Psychiatric Times ارزیابی مفصلی از عملکرد چهار چتبات اصلی ChatGPT، CoPilot، جمینای و کلاد ارائه کرد. در همین حال، چتبات «گروک» ایلان ماسک نیز نامی برای خود دست و پا کرده است.
روس گفت: شخصاً معتقدم که ما در آستانه یک تغییر عمیق در نحوه تعامل با شخصیتهای هوش مصنوعی هستیم و من نگران نحوه ورود شخصیتهای هوش مصنوعی واقعی به زندگیمان هستم، بدون اینکه اطلاعات زیادی در مورد تأثیرات بلندمدت آنها وجود داشته باشد.
وی افزود: برای برخی از بزرگسالان سالم، داشتن یک همراه هوش مصنوعی برای پشتیبانی میتواند مفید و شاید حتی متحول کننده باشد، اما برای جوانان یا کسانی که افسردگی یا سایر مسائل مربوط به سلامت روان را تجربه میکنند، نگرانم که چتباتهای بسیار متقاعدکننده بتوانند مرز بین خیال و واقعیت را از میان بردارند یا شروع به جایگزینی برای روابط انسانی سالمتر کنند.
در نهایت باید دید زمانی که هوش مصنوعی با بسیاری از روابط انسانی جایگزین میشود (که کارشناسان معتقدند قریبالوقوع است) چه میشود.