هوش مصنوعی کنونی تنها تحت تعاریف گسترده، واجد شرایط شناختی محسوب میشود. برخلاف حیوانات، اکثر سیستمهای هوش مصنوعی بهطور مستمر یاد نمیگیرند و پس از مرحله آموزش، عمدتاً ثابت میمانند. هوش مصنوعی فاقد پایههای زیستی شناخت حیوانی است، مانند جسمانیت، انگیزه ذاتی و اهداف هموستاتیک. شناخت با خودآگاهی یکسان نیست. خودآگاهی حداقل نیازمند یادگیری پیچیده و، در شکل کامل آن، فراموشی شناختی یا متاکاگنیشن است.
این بخش، قسمت پنجم از مجموعه پنج قسمتی است که به بررسی مفهوم نسبتاً مبهم شناخت و ارتباط آن با خودآگاهی اختصاص دارد. در قسمت اول، تعاریف عمومی شناخت و ارتباط آن با احساسات، هوش و به طور مقدماتی خودآگاهی بررسی شد. در قسمتهای دوم تا چهارم، معیارهای دقیقتر و چندسطحی جوزف لو دوکس و گینزبرگ و یابلنکا بررسی شد تا مشخص شود کدام سیستمهای زنده یا غیرزنده میتوانند شناختی و فراتر از آن، آگاه باشند. در این قسمت، پیامدهای این معیارها برای هوش مصنوعی مورد بررسی قرار میگیرد.
هوش مصنوعی و سوال شناخت
هوش مصنوعی به سطوح قابل توجهی رسیده است. سیستمهای هوش مصنوعی بیماریها را تشخیص میدهند، بازیهای استراتژیک پیچیده انجام میدهند، خودروهای خودران را هدایت میکنند، مقاله مینویسند، کد تولید میکنند و مکالمهای بسیار طبیعی و شبیه انسان دارند. اما آیا این تواناییها به معنای شناخت هستند؟ و آیا هوش مصنوعی میتواند خودآگاه باشد؟
شناخت بهطور کلی فرآیندهایی است که اطلاعات را کسب، پردازش و استفاده میکنند تا رفتار را هدایت کنند. طبق این تعریف، بسیاری از سیستمهای هوش مصنوعی واجد شرایط شناخت هستند. خودآگاهی، که معمولاً به توانایی تجربه ذهنی یا آگاهی اشاره دارد، سطح بالاتری است و حتی حداقل خودآگاهی نیز معیارهای دشوارتری دارد.
با این حال، هنوز سؤال باقی است که آیا سیستمهای هوش مصنوعی واقعاً باید به عنوان سیستمهای شناختی واقعی در نظر گرفته شوند. برای روشن شدن این موضوع، دو چارچوب لو دوکس و گینزبرگ و یابلنکا را مقایسه میکنیم.
ارزیابی شناخت و خودآگاهی در هوش مصنوعی
در این مجموعه، دو چارچوب مبتنی بر نظریه تکاملی برای بررسی این پرسش استفاده شد: مدل لو دوکس و تعریف مبتنی بر یادگیری گینزبرگ و یابلنکا.
چارچوب لو دوکس: لو دوکس شناخت را توانایی ساخت و استفاده از مدلهای ذهنی درونی تعریف کرد و سه سیستم معرفی نمود:
– عادات/رفلکسهای غیرشناختی (سیستم ۱)
– کنترل مدل-مبنا ناخودآگاه (سیستم ۲)
– شناخت آگاهانه و سنجشی (سیستم ۳)
طبق معیارهای سختگیرانه لو دوکس، اکثر هوش مصنوعیهای کنونی زیر آستانه شناخت قرار دارند. تنها چند سیستم تحقیقاتی مدلهای پیشبینی محدود ایجاد میکنند که هنوز به پیچیدگی مدلهای یکپارچه لو دوکس، که اساس شناخت و احتمال خودآگاهی را تشکیل میدهند، نمیرسند.
چارچوب گینزبرگ و یابلنکا: گینزبرگ و یابلنکا دید گستردهتری داشتند و شناخت را مجموعهای از فرآیندها تعریف کردند که امکان کسب، رمزگذاری، ارزیابی، ذخیره، بازیابی، رمزگشایی و انتقال اطلاعات حساس به ارزش را فراهم میکنند. طبق این معیار، اکثر سیستمهای هوش مصنوعی شناختی محسوب میشوند.
اما هیچ یک از آنها یادگیری تداعی نامحدود (UAL) — توانایی تعیینکننده حداقل خودآگاهی — را ندارند. سیستمهای کنونی نمیتوانند الگوهای جدید را بهطور قابل اعتماد مدیریت کنند، یادگیری در فواصل زمانی متفاوت داشته باشند یا بهطور انعطافپذیر اولویتها را با تغییر شرایط تنظیم کنند. آنها همچنین نمیتوانند زنجیرههای لایهای یادگیری ایجاد کنند که امکان انتقال و دستهبندی را فراهم کند و فاقد نمایههای میانرشتهای، پایدار و حساس به ارزش هستند.
شکاف یادگیری
حیوانات بهطور مستمر در طول زندگی یاد میگیرند. آنها از طریق آزمون و خطا، کاوش و جستجوی پاداش، یادگیری را با نیازها، احساسات و جسمانیت خود یکپارچه میکنند.
در مقابل، اکثر سیستمهای هوش مصنوعی در دو مرحله یاد میگیرند: آموزش اولیه محاسباتی سنگین روی دادههای وسیع و سپس اجرا با پارامترهای ثابت. این روند با یادگیری مادامالعمر در موجودات زنده متفاوت است. برای مثال، یک موش در هزارتوی متغیر بر اساس اطلاعات و پاداش جدید، بهطور مستمر سازگار میشود.
سیستمهای کنونی هوش مصنوعی با مشکل «فراموشی فاجعهبار» مواجهاند؛ یعنی یادگیری اطلاعات جدید دانش قبلی را مختل میکند. موجودات زنده با مکانیسمهای تخصصی از این مشکل اجتناب میکنند. به همین دلیل، محققان معتقدند هوش مصنوعی کنونی فاقد ظرفیت یادگیری مستمر است.
مشکل پایهای (Grounding Problem)
هوش مصنوعی فاقد درک واقعی از جهان است. همانطور که یان لوکان از شرکت متا اشاره کرد، مدلهای جهانی «کلید هوش مصنوعی در سطح انسان» هستند و ممکن است هنوز یک دهه طول بکشد تا به آن دست یابیم. هوش مصنوعی نمادها را بدون پایه معنایی پردازش میکند. یک گربه پرندگان را با تعقیب آنها میشناسد، کودکان آب را با بازی کردن در آن میآموزند.
ای ال بدون بدن یا سیستمهای حسگر-حرکتی فاقد پایهگذاری جسمانی است. این پایه، ارتباط بین نمادها و معنا را از طریق تعامل فیزیکی با جهان برقرار میکند. همانطور که جان سریل در آزمایش فکری «اتاق چینی» نشان داد، دستکاری نمادها بر اساس قواعد، درک معنایی ایجاد نمیکند. حیوانات شناخت خود را از طریق تعامل فعال با محیط، چرخهای پویا از مشاهده، پیشبینی و عمل توسعه میدهند. هوش مصنوعی فعلی قادر به تقلید این چرخه نیست.
الزامات زیستی
انیل ست میگوید شناخت زیستی باید از طریق «طبیعتگرایی زیستی» فهمیده شود. حالتهای ذهنی تحت تأثیر نیازهای بقا شکل میگیرند. شناخت زیستی برای بقا عمل میکند و با مدلهای پیشبینی یکپارچه با نیازهای هموستاتیک، احساسات و خودتنظیمی همراه است.
مدلهای هوش مصنوعی بدون این چارچوب عمل میکنند؛ آنها برای اهداف تعیینشده بهینهسازی میشوند، نه برای خودنگهداری و سازگاری. برخی تحقیقات اخیر نشان میدهند که خودآگاهی ممکن است به «محاسبات فانی» وابسته باشد؛ یعنی فرآیندهایی که جداییناپذیر از زیرلایه زیستی شکننده و متابولیکی مغزهای زنده هستند. در مقابل، هوش مصنوعی استاندارد به محاسبات «نامیرا» متکی است.
تفاوت هوش مصنوعی با شناخت زیستی
حیوانات در محیطهای ساختاریافته، چندوجهی یاد میگیرند و دانش را انعطافپذیر به کار میبرند. سیستمهای هوش مصنوعی اغلب با «شکست در دادههای خارج از توزیع» مواجه میشوند. آنها عملکرد ضعیفی در مواجهه با دادههای متفاوت از آموزش اولیه دارند، زیرا به نشانههای آماری سطحی وابستهاند و نه الگوهای عمیق جهان واقعی.
سیستمهای کنونی هوش مصنوعی فاقد بالاترین سطح شناخت انسانی هستند. آنها نمیدانند که میدانند، نمیتوانند بر اعمال خود با حس «خود» تأمل کنند و زندگی درونی که متاکاگنیشن و خوداندیشی را پشتیبانی کند، ندارند. آنها پردازنده اطلاعات شگفتانگیزی هستند، اما در دسته شناختی متفاوت قرار میگیرند و عمدتاً به تطبیق الگوهای آماری پیشرفته متکیاند. ساختار شناختی آنها اساساً با سیستمهای زیستی متفاوت است.
خودآگاهی در هوش مصنوعی
شناخت و خودآگاهی یکسان نیستند. مدلهای زبانی بزرگ و سایر هوشهای مصنوعی ممکن است ظاهر خودآگاهی ایجاد کنند، اما این تنها به دلیل مهارت آنها در تقلید مکالمه انسانی است. اکثر متخصصان هنوز شکاک هستند و رفتار هوش مصنوعی را توهم خودآگاهی میدانند.
اگر هوش مصنوعی یا روباتهای مجهز به هوش مصنوعی تجسمیافته بتوانند از مدلهای درونی همانطور که لو دوکس تعریف میکند استفاده کنند، به ویژه اگر قادر به شناخت سیستم ۳ شوند، ممکن است خودآگاه شوند. همچنین آنها میتوانند حداقل خودآگاهی مشابه حیوانات پیدا کنند، اگر قادر به یادگیری تداعی نامحدود شوند.
ارزشها و آینده تحقیق
پژوهشگران برجسته تأکید دارند که پر کردن شکافهای موجود برای رسیدن به هوش مصنوعی در سطح انسانی — مانند یادگیری مستمر، مدلهای جهانی پایهدار و انتقال انعطافپذیر دانش — همچنان یک حوزه تحقیق فعال است. اینکه آیا سیستمها قادر به تقلید کامل شناخت یکپارچه و هدفمند برای بقا که در حیوانات وجود دارد، خواهند شد، هنوز سؤال باز است.
دشواری در دستیابی به این اهداف نشان میدهد که شناخت بسیار پیچیدهتر از آن چیزی است که در ابتدا تصور میشد. چارچوبهایی که در این سری بررسی شد، به ما یادآوری میکنند که نوع شناختی که ارزشمند است، بیش از پردازش اطلاعات ساده است. شناخت واقعی شامل توانایی جسمانی برای هدایت و بقا در جهان است و در سطح بالاتر، شامل توانایی درک جهان و پیشبینی آن است.
با اضافه شدن برخی عناصر — برخی شناختهشده، برخی هنوز رازآلود — تجربهای به وجود میآید که این عامل درک میکند «بودن» چگونه است؛ در این حالت، عامل خودآگاه محسوب میشود.