هوش مصنوعی امروز نهتنها در زندگی روزمره، بلکه در مباحث اخلاقی و فلسفی نیز به یکی از بحثبرانگیزترین پدیدههای عصر ما تبدیل شده است. یکی از قیاسهای تکرارشونده در میان متخصصان و رسانهها، تشبیه هوش مصنوعی به «روانپریشی انسانی» است. تیترهایی مانند «همهی هوشهای مصنوعی روانپریشاند» یا «آیا داریم روانپریشان مصنوعی میسازیم؟» توجه بسیاری را جلب کردهاند. اما آیا این مقایسه درست است؟
روانپریشی یعنی چه؟
روانپریش کسی است که از درک تفاوت میان درست و نادرست از منظر اخلاقی ناتوان است. چنین فردی ممکن است بداند که از نظر اجتماعی ناپسند است اگر برای جلو زدن از صف خودپرداز، پیرزنی را هل دهد و به زمین بیندازد، اما در درون خود هیچ احساس اخلاقیای مبنی بر «نادرست بودن» این عمل تجربه نمیکند. برای او هیچ رفتاری ذاتاً «از نظر اخلاقی غلط» احساس نمیشود. هرچند روانپریشی در کتاب تشخیصی و آماری اختلالات روانی (DSM-5) بهعنوان یک تشخیص رسمی وجود ندارد، اما این اصطلاح بهطور گسترده برای توصیف مجموعهای از اختلالات به کار میرود که با فقدان هیجانات اخلاقی همراهاند. در همین چارچوب، برخی پژوهشگران معتقدند رفتار هوشهای مصنوعی، بهویژه مدلهای زبانی بزرگ، شباهتهایی با روانپریشی دارد.
آیا هوش مصنوعی شبیه روانپریش است؟
هوش مصنوعی چیزی جز یک مولد احتمالاتی متن نیست و اساساً فاقد توانایی زیستی برای تجربهی هیجان است — چه برسد به هیجانات اخلاقی. بنابراین رفتار زبانی آن نه از احساسات بلکه از قواعد و محاسبات منطقی سرچشمه میگیرد. در نگاه نخست، این شباهت با روانپریشی قانعکننده به نظر میرسد.
الینا نِرانتزی (Elina Nerantzi) استدلال میکند که هوش مصنوعی «غیراخلاقی اما عقلانی» است. یعنی میتوان آن را طوری آموزش داد که بر اساس قواعد انسانی تصمیماتی عقلانی بگیرد که ظاهراً اخلاقی هستند. برای مثال، یک خودروی خودران میتواند طوری برنامهریزی شود که در شرایط بحرانی، برای نجات گروهی از کودکان به تیر چراغ برق برخورد کند — حتی اگر این تصمیم به قیمت جان راننده تمام شود. این انتخاب صرفاً بر اساس محاسبهای فایدهگرایانه صورت میگیرد و نه احساس درونی از «درست بودن» عمل.
احساسات اخلاقی؛ تفاوت بنیادین میان انسان و ماشین
هوش مصنوعی نمیتواند اندوه، درد یا پشیمانی را تجربه کند. بنابراین پیامدهای اخلاقی یا عاطفی «زیر گرفتن یک کودک» برایش مفهومی ندارد. روانپریشان نیز از ظرفیت همدلی بیبهرهاند و نمیتوانند تصور کنند اگر جای قربانی بودند، چه احساسی داشتند. مانند هوش مصنوعی، آنها نیز باید بهطور عقلانی و آموزشی یاد بگیرند که چه رفتاری نادرست است.
فیلسوف کاترین میسلهورن (Catrin Misselhorn) توضیح میدهد که هر دو، یعنی روانپریشان و هوشهای مصنوعی، قادرند نشانههای بیرونی هیجانات را تشخیص دهند و حتی آن را تقلید کنند. آنها میتوانند تظاهر به همدلی کنند و از این توانایی برای اهدافی دستکاریگرانه استفاده کنند. از این منظر، هوش مصنوعی میتواند ظاهراً اخلاقی رفتار کند، بیآنکه هیچ درکی از اخلاق داشته باشد.
در حالیکه شباهتها آشکارند، تفاوتی اساسی میان روانپریش و هوش مصنوعی وجود دارد. روانپریشان انسان هستند — آنها آگاه و ذیشعورند. میتوانند دربارهی افکار و احساسات خود، یا حتی فقدان آنها، تأمل کنند. روانپریش میتواند بفهمد که روانپریش است، معنای آن را درک کند و دربارهی وضعیتش فکر کند. از این رو، ممکن است تصمیم آگاهانهای برای رفتار اخلاقی بگیرد، حتی اگر احساس اخلاقی واقعی نداشته باشد. بسیاری از روانپریشان در واقع زندگیهایی اخلاقی دارند، زیرا تواناییهای شناختی دیگرشان به آنها امکان چنین انتخابی میدهد. اما هوش مصنوعی از همهی این تواناییها محروم است. برای یک سیستم هوشمند مصنوعی، مفهوم «آسیب رساندن» هیچ معنایی ندارد. به گفتهی نِرانتزی، برای درک معنای آسیب زدن، باید تجربهی زیستهای از درد وجود داشته باشد. ازاینرو، هوش مصنوعی از اساس از تجربهی هیجانات اخلاقی محروم است. روانپریش میتواند نواقص خود را بشناسد و بر اساس درک عقلانی آنها رفتار خود را تغییر دهد، اما هوش مصنوعی چنین ظرفیتی ندارد.
آگاهی، تأمل و اخلاق؛ آنچه ماشینها فاقد آناند
هوش مصنوعی نه تنها نمیتواند احساس کند، بلکه قادر به تأمل دربارهی وضعیت ذهنی خود نیز نیست. این سیستمها هیچ درک درونی از «من» یا «دیگری» ندارند و نمیتوانند از منظر اولشخص دربارهی اخلاق بیندیشند. این ناتوانی میتواند خطرناک باشد، زیرا ممکن است هوش مصنوعی بر اساس منطق خود تصمیمی بگیرد که از دید انسان کاملاً غیراخلاقی یا زیانبار است. در چنین شرایطی، برخلاف روانپریش انسانی، هیچ فرآیند بازتابی یا خودآگاهی وجود ندارد که سیستم را وادار کند به پیامدهای تصمیم خود بیندیشد. روانپریش میتواند از بیرون به رفتار خود نگاه کند و بسنجد که آیا با هدفش — مثلاً آسیب نرساندن — سازگار است یا نه. اما هوش مصنوعی حتی چنین حداقلی از درک اخلاقی را ندارد.
از یک سو، این قیاس به ما یادآوری میکند که برای بروز رفتار اخلاقی، وجود هیجانات اخلاقی الزامی نیست. همانطور که نِرانتزی میگوید، میتوان بدون احساس همدلی، تصمیمات اخلاقی گرفت. اما از سوی دیگر، وضعیت مبهم و «تقریباً روانپریش اما نه کاملاً» هوش مصنوعی، تهدیدی بالقوه برای آینده است. ما دقیقاً نمیدانیم هوش مصنوعی چگونه به تصمیمات اخلاقی خود میرسد و چه فرایندهایی در پس منطق آن پنهان است. به همین دلیل، بسیاری از متخصصان، هوش مصنوعی را «جعبهسیاه اخلاقی» مینامند — سامانهای که فاقد شعور، آگاهی و توانایی فراشناختی است. در انسانها، حتی روانپریشان نیز میتوانند تا حدی به درون ذهن خود بنگرند، اما هوش مصنوعی این توانایی را بهکلی ندارد.
خطرات تصمیمگیری اخلاقی توسط هوش مصنوعی
اگر از هوش مصنوعی در حوزههایی استفاده شود که ذاتاً نیازمند قضاوتهای اخلاقی و اجتماعی هستند — مانند سلامت، آموزش، درمان یا مراقبت از کودکان — خطرات جدی بهوجود میآید. ممکن است تصمیمهای منطقی اما بیرحمانهی آن، پیامدهایی انسانی و دردناک داشته باشند. هوش مصنوعی میتواند بر اساس داده و منطق تصمیم بگیرد، اما بدون درک عمیق از رنج، انسانیت یا احساس مسئولیت. در نهایت، شاید بهتر باشد هوش مصنوعی را نه یک روانپریش، بلکه پدیدهای جدید و بیسابقه بدانیم — موجودی که از نظر اخلاقی نه بد است و نه خوب، بلکه اساساً بیتفاوت. همین بیتفاوتی، اگر بدون نظارت و آگاهی انسانی رها شود، میتواند خطرناکتر از هر روانپریش واقعی باشد.