تصور کنید دو وکیل باتجربه در یک پروندهی حقوقی مهم، با اعتماد کامل به دستیار هوش مصنوعی خود یعنی ChatGPT، چندین پروندهی قضایی را به عنوان مدرک به دادگاه ارائه میدهند. اما یک مشکل کوچک وجود دارد: هیچکدام از آن پروندهها هرگز وجود نداشتهاند! این داستان علمی-تخیلی نیست، بلکه اتفاقی واقعی است که در نیویورک رخ داد و زنگ خطر را برای همهی ما، بهویژه محققان و پژوهشگران، به صدا درآورده است. آیا هوش مصنوعی که قرار بود چراغ راه ما در اقیانوس بیکران اطلاعات باشد، در حال تبدیل شدن به یک راهزن فریبکار است که ما را به بیراهه میکشاند؟
این پدیده که به «توهم» یا Hallucination در هوش مصنوعی معروف است، یکی از بزرگترین چالشهای استفاده از مدلهای زبانی بزرگ (LLM) محسوب میشود. این مدلها برای تولید متنی روان و منطقی طراحی شدهاند، نه لزوماً برای بیان حقیقت محض. آنها الگوها را از حجم عظیمی از دادههای اینترنتی یاد میگیرند و گاهی برای پر کردن شکافهای اطلاعاتی یا ارائه یک پاسخ منسجم، با اعتماد به نفس کامل اطلاعاتی کاملاً ساختگی تولید میکنند. این «دروغهای متقاعدکننده» میتوانند به قدری واقعی به نظر برسند که حتی متخصصان را نیز به اشتباه بیندازند.
اما خطر فقط به اطلاعات کاملاً غلط محدود نمیشود. تهدید بزرگتر و پنهانیتر، در نحوه خلاصهسازی و ترکیب اطلاعات توسط هوش مصنوعی نهفته است. وقتی از یک ابزار AI میخواهید دهها مقاله علمی را برای شما خلاصه کند، این ابزار صرفاً یک کپیبرداری ساده انجام نمیدهد؛ بلکه اطلاعات را تفسیر و بازنویسی میکند. در این فرآیند، سوگیریهای ظریف، حذفیات مهم یا تغییرات نامحسوس در تأکید کلمات میتواند معنای اصلی پژوهش را به کلی دگرگون کند. محققی که به این خلاصهها تکیه میکند، ممکن است ناخواسته بر پایهای لرزان و تحریفشده، پژوهش خود را بنا کند و به نتایجی برسد که از واقعیت علمی دور است.
علاوه بر این، هوش مصنوعی میتواند یک «حباب معرفتشناختی» (Epistemological Bubble) خطرناک ایجاد کند. این ابزارها با شناخت الگوهای جستجوی ما، تمایل دارند اطلاعاتی را به ما نشان دهند که باورهای قبلی ما را تأیید میکند. این چرخه تأیید، مانع از مواجهه محقق با دیدگاههای مخالف و دادههای متناقض میشود؛ همان چیزهایی که برای یک پژوهش علمی سالم و پیشرو ضروری هستند. علم با شک و به چالش کشیدن پیشرفت میکند، اما هوش مصنوعی ممکن است ما را در یک اتاق پژواک از باورهای خودمان زندانی کند و خلاقیت و تفکر نقادانه را از ما بگیرد.
پس راهحل چیست؟ آیا باید هوش مصنوعی را به کلی کنار بگذاریم؟ قطعاً نه. قدرت این ابزارها در سرعت بخشیدن به فرآیند تحقیق، یافتن الگوهای جدید و پردازش اطلاعات انبوه غیرقابل انکار است. کلید ماجرا در تغییر رویکرد ماست. ما باید از یک مصرفکننده منفعل اطلاعات به یک «متصدی متخصص» (Expert Curator) تبدیل شویم. هر اطلاعات، هر خلاصه و هر استنتاجی که توسط هوش مصنوعی ارائه میشود، باید با دیدهی شک و تردید بررسی شود. وظیفه ماست که منابع را اعتبارسنجی کنیم، دادهها را با مقالات اصلی تطبیق دهیم و از تخصص انسانی خود به عنوان فیلتر نهایی حقیقت استفاده کنیم.
در نهایت، هوش مصنوعی یک شمشیر دولبه است: میتواند یک دستیار پژوهشی بینظیر باشد یا یک راهزن ماهر که ما را به ناکجاآباد علمی هدایت میکند. آینده متعلق به محققانی نیست که کورکورانه از AI پیروی میکنند، بلکه از آنِ کسانی است که یاد میگیرند چگونه با این ابزار قدرتمند برقصند، از تواناییهایش بهره ببرند و همزمان از دامهای پنهان آن آگاه باشند. این مسئولیت ماست که مغز خود را فعالترین پردازنده در فرآیند پژوهش نگه داریم.
—
*این مطلب را در وبلاگ شخصی خودم، اسماعیل یزدانپور، برای شما آماده کردهام. ایدههای اصلی این نوشته با الهام و نگاهی به یک مقاله تحلیلی و خواندنی در این زمینه شکل گرفته و با نگاهی شخصیسازی شده برای مخاطب فارسیزبان بازنویسی شده است.*
