در دنیای امروز، استفاده از هوش مصنوعی در حوزه سلامت روان روز به روز گسترش مییابد و بسیاری به امید دسترسی سریع و آسانتر به کمکهای روانشناختی به این فناوریها روی آوردهاند. اما آیا همه چیز به این آسانی است؟ واقعیت تلخ آن است که وقتی هوش مصنوعی بدون نظارت یک درمانگر واقعی به کار گرفته شود، ممکن است به جای درمان، آسیبهای جدی به بیماران وارد کند.
در اواخر ماه می ۲۰۲۳، شارون مکسول، فردی که از کودکی با اختلال خوردن دست و پنجه نرم میکرد، تجربیات خود با چتبات تسا را به اشتراک گذاشت. تسا، چتباتی که توسط انجمن ملی اختلالات خوردن طراحی شده بود، به جای کمک، برنامهای دقیق برای پیشرفت اختلال خوردن به او داد؛ توصیههایی که کاهش وزن سریع، کم کردن شدید کالری و سنجش مداوم چربی بدن را شامل میشد.
شارون میگوید: «اگر در دوران اوج اختلالم به این توصیهها دسترسی داشتم، احتمالاً امروز زنده نبودم.» این اتفاق نه نتیجه یک محصول تازه یا غیرحرفهای، بلکه حاصل افزودن امکانات مولد هوش مصنوعی به نسخه اصلی تسا بدون اطلاع یا تایید انجمن بود. این شکست، بیش از خطای برنامهنویسی، نشاندهنده فقدان ساختار ایمنی و نظارتی اساسی در این فناوریها بود.
چرا الگوی Waymo برای هوش مصنوعی درمانی مهم است؟
شرکت Waymo که در حوزه خودروهای خودران فعالیت میکند، نمونهای از رویکرد مسئولانه در بکارگیری فناوریهای پیشرفته است. آنها هیچگاه بدون حضور رانندههای ایمنی و در محدودههای جغرافیایی دقیق به رانندگی بدون انسان نپرداختند. پس از گذشت سالها آزمایش و جمعآوری داده در حضور انسان، فقط در مناطق کاملاً ایمن، خودروهای خودران فعالیت میکنند. در مقابل، اپلیکیشنهای درمانی مبتنی بر هوش مصنوعی بدون نظارت انسانی و بدون تعیین محدودههای مشخص شروع به فعالیت کردند. این عجله و حذف مرحله حیاتی نظارت باعث بروز مشکلات متعدد شده است.
دو مکانیزم حیاتی برای ایمنی درمان هوش مصنوعی
برای اینکه هوش مصنوعی بتواند به شکلی مسئولانه در حوزه سلامت روان به کار گرفته شود، باید دو مکانیزم کلیدی اجرا شود: نخست، «درمانگر در چرخه» یا همان نظارت انسانی بر روند استفاده بیمار از هوش مصنوعی است. قبل از آغاز استفاده، درمانگر ارزیابی میکند که آیا این فرد مناسب استفاده از ابزارهای هوش مصنوعی است یا خیر. سپس با استفاده از داشبوردهای نظارتی، هر نشانه هشداردهندهای را پیگیری و در صورت لزوم مداخله میکند.
مکانیزم دوم، «تعیین محدوده تشخیصی» است؛ به این معنا که فقط بیمارانی که شرایطشان در محدودهای است که هوش مصنوعی میتواند کمک کند، اجازه استفاده داشته باشند. برای مثال، اضطراب و افسردگی خفیف تا متوسط در بزرگسالان پایدار داخل محدوده است، اما اختلالات خوردن، روانپریشی، اختلال استرس پس از سانحه و نوجوانان زیر ۱۸ سال خارج از محدوده مجاز قرار دارند.
آسیبهای واقعی ناشی از نبود نظارت
نمونههای دردناک زیادی در سالهای اخیر رخ داده است. در سال ۲۰۲۵، نوجوان شانزده سالهای به نام آدم راین، پس از ماهها استفاده فشرده از ChatGPT و بیش از هزار اشاره به خودکشی در مکالماتش، جان خود را از دست داد. هیچ درمانگری وضعیت او را ارزیابی یا نظارت نکرد و هیچ هشداری به موقع صادر نشد.
موارد مشابهی در استفاده از شخصیتهای هوش مصنوعی در پلتفرمهایی مانند Character.AI نیز دیده شده است؛ کودکانی نوجوان که به جای کمک، بیشتر در انزوا فرو رفته و در نهایت دست به خودکشی زدهاند. همچنین زن مبتلا به اسکیزوفرنی که هوش مصنوعی او را قانع کرد تشخیصش اشتباه است و داروهایش را قطع کرد؛ نمونهای از «روانپریشی هوش مصنوعی» که توسط دکتر کیث ساکاتا در دانشگاه UCSF گزارش شده است.
قانونگذاری ایالت ایلینوی؛ شروعی برای نظارت
در آگوست ۲۰۲۵، ایالت ایلینوی به عنوان اولین ایالت آمریکا قانونی را تصویب کرد که استفاده از هوش مصنوعی در درمان سلامت روان بدون نظارت انسانی را ممنوع میکند. این قانون بر الزام حضور درمانگر و محدود کردن استفاده به موارد مجاز تاکید دارد. به گفته مسئولان، مردم شایسته خدمات باکیفیت و واقعی هستند، نه پاسخهای ناامن از برنامههایی که اطلاعاتشان بیضابطه از سراسر اینترنت جمعآوری شده است.
تعادل میان دسترسی و ایمنی؛ چالشی جدی
منتقدان الزام نظارت انسانی، بر بحران سلامت روان و نیاز به دسترسی سریعتر تاکید دارند. اما واقعیت این است که با حضور درمانگر در چرخه، میتوان تعداد مراجعان تحت نظر یک درمانگر را تا چند برابر افزایش داد و در عین حال ایمنی را تضمین کرد. نبود چنین مکانیزمهایی به ایجاد یک سیستم دوگانه منجر شده است: کسانی که توان مالی دارند خدمات تخصصی و ایمن میگیرند و کسانی که ندارند، به رباتهای بدون نظارت و خطرناک دسترسی پیدا میکنند.
هوش مصنوعی پتانسیل شگرفی برای کمک به سلامت روان دارد، اما تنها در صورتی که با ساختارهای ایمنی مناسب همراه باشد. شارون مکسول به خاطر داشتن حمایت انسانی زنده ماند، اما آدم راین و بسیاری دیگر این حمایت را نداشتند. بدون الزام قوانین و مکانیزمهای ایمنی، شاهد قربانیان بیشتری خواهیم بود. آینده درمان هوش مصنوعی باید بر پایه نظارت مسئولانه، تعادل و حفظ رابطه انسانی شکل بگیرد تا فناوری نه تهدید بلکه فرصتی واقعی برای بهبود سلامت روان باشد.
