گسترش بیسابقه محصولات هوش مصنوعی باعث شده است که تأملی عمیق درباره معنای پژوهشگر، دانشمند و استاد دانشگاه داشته باشیم. این فناوریها که روز به روز در زندگی آکادمیک ما نفوذ میکنند، به جای ارتقای دقت و نوآوری، اغلب موجب کاهش خلاقیت، دقت و انسانیت شدهاند و ارزشهای بنیادی پژوهش و ارتباط علمی را تهدید میکنند. به همین دلیل، من به یکی از منتقدان جدی استفاده معمول از هوش مصنوعی در فعالیتهای علمی تبدیل شدهام.
اجتنابناپذیری هوش مصنوعی؛ حقیقت یا بازاریابی فریبنده؟
ادعای اجتنابناپذیری هوش مصنوعی در پژوهش و آموزش عالی، بیشتر یک ترفند بازاریابی است تا واقعیت علمی. بسیاری از متخصصان معتقدند که ما باید بین استفادهکنندگان ماهر و ناهماهنگ هوش مصنوعی تقسیمبندی شویم. با این حال، این تصور که باید با فناوری هوش مصنوعی همراه شد وگرنه عقب خواهیم ماند، نادقیق است و مخالفت با روند استفاده بیمحابا از این فناوریها همچنان ضرورت دارد.
ظواهر فریبنده در عصر دیجیتال؛ تقلید از انسانیت بدون اصل آن
مشابه کشتی حرفهای که نمایشی از رقابت است یا ارزهای دیجیتال که شبیه اقتصاد ولی فاقد پشتوانهاند، هوش مصنوعی هم ظاهری شبیه به هوشمندی و تفکر دارد اما فاقد جوهره انسانی است. رابطههای ایجادشده با رباتهای هوشمند، درمانگران مجازی و دوستان مصنوعی ظاهراً واقعی هستند اما فاقد ویژگی اساسی مراقبت و توجه انسانیاند.
درآمدزایی به جای دقت؛ ماهیت هوش مصنوعی تجاری
هوش مصنوعی که به عنوان فناوری انقلابی معرفی میشود، در واقع محصولی انحصاری است که بیشتر برای کسب درآمد و کنترل اطلاعات طراحی شده است تا ارتقای دقت و صحت علمی. این محصولات، هرچند فعالیتهایی واقعی انجام میدهند، اما فاقد آن عنصر انسانیت و اصالت هستند که ارزش اصلی پژوهش را شکل میدهد.
تمرکز بر مدلهای زبانی بزرگ و چالشهای آنها
در میان انواع مختلف هوش مصنوعی، مدلهای زبانی بزرگ (LLMs) مانند ChatGPT، Grok، Copilot و Gemini بیشترین تأثیر را در فضای آکادمیک و پژوهشی دارند. این مدلها بر پایه اطلاعات جمعآوریشده از اینترنت، ادبیات علمی و سایر منابع آموزش دیدهاند اما مشکلات جدی اخلاقی و علمی در استفاده از آنها وجود دارد.
سرقت ادبی خودکار و فقدان ارجاع به منابع اصلی
مدلهای زبانی بزرگ معمولاً متن و ایدهها را بدون ارجاع به منابع اصلی بازتولید میکنند، امری که نوعی سرقت ادبی خودکار محسوب میشود و تشخیص آن برای کاربران بسیار دشوار است. این مشکل از آنجا ناشی میشود که دادههای آموزش این مدلها شامل منابع متنوعی است که برخی بدون اجازه جمعآوری شدهاند و هدف اصلی آنها ایجاد ظاهری دقیق و معتبر است نه تضمین صحت علمی.
سرعت در تولید محتوا، کاهش عمق و نوآوری در پژوهش
یکی از مزایای این مدلها افزایش سرعت تولید آثار پژوهشی است، اما این امر به قیمت کاهش عمق، نوآوری و کیفیت علمی تمام میشود. مأموریت پژوهشگران باید فراتر از تولید انبوه داده و اطلاعات سطحی باشد و به خلق دانش اصیل، معتبر و خلاقانه بپردازد.
محدودیتهای فنی و اخلاقی مدلهای زبانی بزرگ
مدلهای زبانی بزرگ اساساً کلمات را بر اساس احتمال و زمینه پیشبینی میکنند و دانش واقعی ندارند. الگوریتمهای آنها به صورت انحصاری نگهداری میشود و دادههای ورودی آنها شامل محتوای مشکلداری مانند نژادپرستی، نظریههای توطئه و دیگر اطلاعات ناموثق است که بر خروجی تأثیرگذار است. همچنین، با توجه به محدودیتهای نظری، بهبود کیفی این مدلها تا رسیدن به سطح تفکر انسانی پیچیده و غیرعملی به نظر میرسد.
میانبر زدن با LLMها؛ هزینه از دست دادن اصالت و تفکر
استفاده از مدلهای زبانی بزرگ نوعی میانبر برای کاهش تلاش فکری، نوآوری و حتی انسانیت است. باید بپرسیم آیا ارزش دارد برای سرعت بیشتر، از اصل اصالت، تفکر عمیق و اعتبار حرفهای صرفنظر کنیم؟
پایبندی به انسانیت؛ تنها راه مقابله با تقلید سطحی هوش مصنوعی
هوش مصنوعی میتواند ما را از مسیر انسانیت، شور و نوآوری دور کند. تنها راه مقابله، بازگشت به ارزشهای انسانی و پایبندی به خلاقیت و اصالت است. باید به جای تلاش برای صرفاً ظاهراً دقیق بودن، واقعاً دقیق، خلاق و نوآور باشیم.
