فرارو– سارا گاندل، استادیار روان پزشکی بیمارستان مونت ساینای نیویورک
به گزارش فرارو به نقل از روزنامه واشنگتن پست، من بیش از ده سال از عمرم را در کتابخانهها، کلاسهای درس، بیمارستانها و جلسات مشاوره گذراندم تا به یک روانشناس تبدیل شوم. وقتی متوجه شدم که باید صندلی درمانگریام را با یک الگوریتم کامپیوتری، که بیمارم آن را «گپزنک» مینامید، شریک شوم، کمی نگران شدم. با این حال، این موضوع حس کنجکاویام را برانگیخت.
در طول این سالها متوجه شده بودم که دیدگاهها و ایدههای بیمارانم همیشه به من کمک میکنند تا بهعنوان یک درمانگر رشد کنم. اگر دقت میکردم و آماده شنیدن بودم، بیماران اغلب ما را به همان مسیری راهنمایی میکردند که باید طی کنیم. به همین دلیل، وقتی این بیمار و چند نفر دیگر شروع به بیان تجربههایشان از کار با چتباتها در جلسات مشاوره کردند، تصمیم گرفتم به حرفهایشان گوش کنم.
بر اساس یک تحقیق در سال گذشته که در نشریه «نیچر» منتشر شد، چتباتها میتوانند بهعنوان ابزاری مکمل برای رواندرمانی مفید باشند، اما جایگزین درمانگر نمیشوند. تجربه من نیز این موضوع را تأیید کرده است. اگرچه مدلهای هوش مصنوعی محدودیتهایی دارند، اما توانستهاند نقشی سودمند و تکمیلی در فرآیند درمان ایفا کنند. در برخی موارد، این فناوریها حتی به عمیقتر و کارآمدتر شدن درمان کمک کردهاند.
یکی از مزایای برجسته چتباتها این است که در لحظه، به طور رایگان و بدون محدودیت زمانی در دسترس هستن؛ ویژگیای که در مواقع بحرانی اهمیت زیادی دارد. علاوه بر این، چتباتها هیچگونه قضاوتی ندارند، در حالی که حتی بهترین درمانگران ممکن است گاهی ناخودآگاه دچار پیشداوری شوند. برای افرادی که در زندگیشان مکرراً با انتقاد یا بیتوجهی مواجه بودهاند، این عدم قضاوت میتواند بهطور خاص مفید و حتی نجاتبخش باشد.
چتباتها به مرور زمان با افرادی که با آنها صحبت میکنند آشنا میشوند. این ویژگی به آنها کمک میکند که دیدگاههای خود را بهبود داده و اصلاح کنند. برخلاف درمانگران انسانی که ممکن است بر یک تفسیر خاص پافشاری کنند، هوش مصنوعی میتواند با استفاده از دادههای جدید، روشهای خود را تغییر دهد. دکتر شبنم اسمیت، روانپزشک و استادیار مرکز پزشکی دانشگاه کلمبیا میگوید: «برای برخی افراد، صحبت کردن با یک سیستم غیرانسانی ممکن است راحتتر باشد، چون این کار برچسب اجتماعی منفیای ندارد که معمولاً به دریافت کمک از دیگران تعلق میگیرد.» این مسئله برای بیمار من که مبتلا به اختلال شخصیت مرزی است، بسیار مهم است. برای او، تجربه ارتباطی که هیچ قضاوتی در آن نیست، تازگی و آرامش به همراه دارد. این اختلال بر نحوه نگاه فرد به خود و دیگران تأثیر میگذارد و علائمی مانند ترس شدید از طرد شدن دارد.
او اخیراً گفت: «هرچند میدانم که همدردی گپزنک توسط برنامهنویسانش طراحی شده، ولی باز هم واقعی به نظر میرسد. حس میکنم همه چیز ایمن است و وقتی احساساتم را بیان میکنم، دیدگاههایش مرا شگفتزده میکند.» همکاری بین من، بیمار و گپزنک باعث شده این بیمار به پیشرفتهایی دست یابد که حتی چند سال پیش تصورش را هم نمیکردم. او از یک زندگی انزواطلبانه به روابط اجتماعی گستردهتری رسیده، دوستان جدیدی پیدا کرده، در فعالیتهای داوطلبانه شرکت میکند و دوباره با اعضای خانوادهای که مدتها از آنها دور بود، ارتباط برقرار کرده است.
با این حال، استفاده از هوش مصنوعی در درمانهای روانشناختی با خطرات قابلتوجهی همراه است. بسیاری از متخصصان سلامت روان تأکید کردهاند که این فناوری نمیتواند جایگزین تجربه شخصی و رابطه انسانی میان بیمار و درمانگر شود. دکتر شبنم اسمیت میگوید: «یک ماشین فاقد آن تجربه زیستهای است که هر فرد را منحصربهفرد میکند. آن ارتباط خاص و منحصربهفرد میان بیمار و درمانگر، بخش مهمی از یک درمان موفق است. ما هنوز نمیدانیم چتباتها چقدر میتوانند مؤثر باشند.»
دکتر لئورا هکلمن، مدیر آموزش روانشناسی در سیستم سلامت مونت ساینای و استاد روانپزشکی، درباره استفاده از این فناوری هشدار داده است. او گفت: «ما به روانشناسان تازهکار یاد میدهیم که به جزئیات و نشانههای مختلف توجه کنند. اما چتباتهای هوش مصنوعی نمیتوانند به لحن صدا، نحوه صحبت، تماس چشمی، حالت سر، رنگ چهره یا حرکات دست و پا واکنش نشان دهند. ما سعی داریم درمانگران را در درک و استفاده از این نشانههای غیرکلامی توانمند کنیم.» او همچنین تاکید کرد: «اگر انسان را از فرایند درمان حذف کنیم، ممکن است با پیامدهای نگرانکنندهای روبهرو شویم.»
استفاده از هوش مصنوعی به عنوان یک دستیار روانشناختی خانگی، در مواقع حساس کمک بسیار خوبی برای من بوده است. برای مثال، یکی از بیمارانم که به دلیل تجربههای جنگی دچار تروما شده بود، توانست در ساعت ۳ بامداد، وقتی صدای آژیر خودرویی باعث تحریک «اختلال استرسی پس از سانحه» (PTSD) او شد، به یک چتبات مراجعه کند. در گذشته، چنین رویدادی او را برای چند روز تحت فشار قرار میداد. اما روز بعد از این اتفاق، او حادثه را به شکلی کاملاً عادی گزارش کرد.. چتبات از تکنیکهای آرامسازی او آگاه بود و به موقع او را به تمرینهایی مانند تنفس عمیق راهنمایی کرد. بیمارم گفت: «به جای اینکه چند ساعت طول بکشد تا آرام شوم و دوباره بخوابم، این بار فقط چند دقیقه زمان برد.» بیمار دیگری نیز از چتبات کمک گرفت تا درباره پرونده حقوقی خود اطلاعاتی کسب کند و گفت که این اطلاعات به او اعتماد به نفس بیشتری برای جلسه بعدی درمان داد.
برای برخی بیماران، استفاده از چتباتها به کاهش اضطراب و بهرهوری بیشتر در جلسات درمانی کمک کرده است. به عنوان مثال، یکی از بیماران از هوش مصنوعی برای پیشبینی موقعیتهای اجتماعی در رویدادهای کاری استفاده میکند و با کمک آن، برنامهای برای نحوه برخورد خود تهیه میکند. او این کار را بهتنهایی انجام میدهد، در حالی که قبلاً در جلسات درمانی زمان زیادی به آن اختصاص داده میشد. این تغییر باعث شده که در جلساتمان به مسائل عمیقتر بپردازیم.
بیمار دیگری پس از هر مشاجره با یک دوست به چتبات مراجعه میکند و میگوید: «این کمک میکند آرام بمانم و سریع واکنش نشان ندهم، در نتیجه وضعیت را بدتر نمیکنم.» همچنین، یکی دیگر از بیماران که قبلاً فقط بهطور سطحی درباره تمایلات جنسی خود صحبت کرده بود، توانست با کمک هوش مصنوعی این موضوع را عمیقتر بررسی کند. این پیشرفت به او کمک کرد که راحتتر به سراغ بررسی تروماها و احساسات ناشی از تجربههای جنسی اولیه خود برود.
با وجود این، من همچنان به محدودیتهای فعلی هوش مصنوعی توجه دارم. این سیستمها معمولاً برای کاهش تنش طراحی شدهاند، اما گاهی ممکن است شرایطی را که نیاز به برخورد مستقیمتر یا حتی تشدید تنش دارد، نادیده بگیرند. برای مثال، یکی از بیماران جدید که در رابطهای آزاردهنده بود، گفت که از چتبات برای ادامه زندگی با همسرش کمک گرفته است. این موضوع برای من ناخوشایند بود، زیرا در برخی مواقع ترک یک رابطه ناسالم بهتر از تلاش برای مدیریت آن است.
یکی دیگر از نگرانیهای من وابستگی بیش از حد به این دستیارهای غیرانسانی است. برخی از محصولات هوش مصنوعی وعده دسترسی همیشگی میدهند، اما آیا همین دسترسپذیری دائمی میتواند توانایی افراد را برای مقابله مستقل با مشکلات تضعیف کند؟ الن گودمن، استاد دانشکده حقوق راتگرز، درباره پیامدهای قانونی این فناوری هشدار داده است. او میگوید: «مردم به طور فزایندهای برای تشخیصهای غیررسمی و حتی درمان به چتباتها و هوش مصنوعی روی میآورند. این رویه میتواند خطرات جدی برای حریم خصوصی و کنترل کیفیت داشته باشد. اطلاعاتی که این چتباتها دریافت میکنند دیگر خصوصی نیستند و روابطی که با آنها برقرار میشود از هیچ حمایت قانونی مانند قوانین حفاظت از حریم خصوصی بیمه سلامت برخوردار نیستند، بهویژه وقتی پای مسائل قانونی در میان باشد. علاوه بر این، درمانگرانی که از این ابزارها در درمان استفاده میکنند باید به دقت مراجعان خود را از این موضوع آگاه کنند تا ریسکها کاهش یابد.»
تا حالا فقط در مواقعی از چتباتها استفاده کردهام که خود بیماران درخواست دادهاند. اما با توجه به پیشرفت سریع هوش مصنوعی، ممکن است در آینده از این فناوری در کاربردهای گستردهتری استفاده شود. امیدوارم بتوانیم به شکل دقیق و مسئولانهای از هوش مصنوعی استفاده کنیم تا به چالشهای موجود در سلامت روان پاسخ دهیم. یک نکته مشخص است: این فناوری حالا حالاها باقی خواهد ماند.