۰۸ شهريور ۱۴۰۴ - ۱۱:۴۷
کد خبر: ۷۸۹۷۵۹

خطرناکترین توهم ما درباره چت‌جی‌پی‌تی!

خطرناکترین توهم ما درباره چت‌جی‌پی‌تی!
در جهانی که هر روز پیچیده‌تر می‌شود، ما با توهمی تازه‌تر روبرو هستیم؛ توهم «فکر کردن» ماشینی که تنها با یک ترفند ساده، ذهن ما را فریب می‌دهد!

به گزارش سرویس فرهنگی و اجتماعی خبرگزاری رسا، اگر در مواجهه با هوش مصنوعی تصور می‌کنید با یک شبه‌انسان فوق‌العاده هوشمند سروکار دارید، سخت در اشتباهید. در کنار همه‌ی مزایای این فناوری جدید بزرگ‌ترین خطر در رابطه ما با این پدیده، نه در قدرت محاسباتی آن، بلکه در جهل ما به ماهیت واقعی آن است.
در واقع ما به دستگاه‌هایی که پاسخ‌های روان و بی‌نقص می‌دهند، اعتماد می‌کنیم، بدون اینکه بپرسیم این پاسخ‌ها از کجا می‌آیند و آیا اصلاً معنایی دارند؟ آیا پشت تصمیماتی که به واسطه مشورت‌های این ماشین انجام می‌دهیم نیت خاصی وجود ندارد؟

این ناآگاهی، ما را از هوشیاری در مورد شفافیت، دقت و مسئولیت‌پذیری این ابزارها باز می‌دارد و در نهایت، ما را در برابر خطرات بالقوه آن‌ها آسیب‌پذیر می‌کند.

توهم تفکر

هوش مصنوعی، برخلاف آنچه ممکن است به نظر برسد، یک موجود متفکر نیست. در هسته خود، این فناوری تنها یک «ماشین احتمال» است. این سیستم‌ها بر اساس میلیاردها داده متنی آموزش دیده‌اند و تنها کاری که انجام می‌دهند، پیش‌بینی کلمه بعدی در یک جمله بر اساس الگوهای آماری است.

این فرآیند را مانند یک بازی «حدس کلمه» در نظر بگیرید که در مقیاس بسیار بزرگ انجام می‌شود. اگر به هوش مصنوعی بگویید: «آسمان آبی است، زیرا...»، هزاران پاسخ احتمالی را از داده‌های خود استخراج می‌کند.

سپس بر اساس احتمال، کلماتی مانند «نور» و «پراکندگی» را انتخاب می‌کند تا جمله‌ای شبیه به یک پاسخ علمی و دقیق بسازد. این فرآیند به هیچ وجه شامل درک مفهوم «آسمان» یا «آبی» نیست.

هوش مصنوعی نمی‌داند که آسمان چیست؛ فقط می‌داند که کلمات «آسمان» و «آبی» اغلب در کنار هم قرار می‌گیرند. این توالی آماری است که ما آن را به اشتباه به عنوان شناخت می‌پنداریم.

این فریب زمانی کامل می‌شود که فرایند «یادگیری تقویتی از طریق بازخورد انسانی» (RLHF) به معادله اضافه می‌شود. در این مرحله، انسان‌ها به هوش مصنوعی می‌گویند کدام پاسخ بهتر و «طبیعی‌تر» به نظر می‌رسد.

هوش مصنوعی نیز یاد می‌گیرد که به جای جستجوی حقیقت، پاسخ‌های مطلوب را تولید کند. این مانند یک بازیگر است که دیالوگ‌ها را با حسی از «حقیقت» بیان می‌کند، بدون اینکه واقعاً داستان را درک کند.

خطرناکترین توهم ما درباره چت‌جی‌پی‌تی!

توهم اعتبار: اطمینان دروغین در سکوت تردید

یکی از مهم‌ترین تفاوت‌های هوش مصنوعی با هوش انسانی، در عدم تردید آن است. انسان‌ها در هنگام مواجهه با ابهام، مکث می‌کنند، می‌پرسند یا اعتراف به نادانی می‌کنند. اما هوش مصنوعی هرگز نمی‌گوید: «نمی‌دانم.» این ماشین‌ها برای پاسخگویی به هر سوالی برنامه‌ریزی شده‌اند، حتی اگر اطلاعات کافی نداشته باشند.

زمانی که هوش مصنوعی در یک پاسخ با ابهام روبرو می‌شود، به جای سکوت، با بهترین حدس خود پیش می‌رود. این حدس‌ها اغلب با زبانی فصیح و لحنی مطمئن بیان می‌شوند. این اطمینان زبانی در واقع ابزاری قدرتمند برای پنهان کردن جهل واقعی است.

به همین دلیل است که گاهی اوقات هوش مصنوعی می‌تواند با استفاده از منابع جعلی یا اطلاعات نادرست، پاسخی ارائه دهد که به نظر کاملاً موثق می‌رسد. این پدیده در محافل علمی به «توهم‌سازی» (Hallucination) معروف است که به معنای تولید اطلاعات کاملاً نادرست اما با اطمینان کامل است. این ماشین‌ها به قدری در تولید متن ماهرند که ما به سرعت فصاحت آن‌ها را با حقیقت اشتباه می‌گیریم.

توهم پدیداری: فریب مقیاس‌پذیری و ابزارهای جدید

برخی از حامیان نسبتاً تند هوش مصنوعی استدلال می‌کنند که این تنها آغاز کار است. آن‌ها می‌گویند با بزرگ‌تر شدن مدل‌ها و اضافه شدن قابلیت‌هایی مانند «دیدن» و «شنیدن»، آگاهی و استدلال واقعی از دل این سیستم‌ها «پدیدار» خواهد شد. اما این استدلال، به اشتباه پیچیدگی را با تفکر یکی می‌داند.

اضافه شدن ابزارهای جدید، اساس کار را تغییر نمی‌دهد. برای مثال، یک سیستم چندوجهی که می‌تواند یک تصویر را «ببیند»، در واقع تنها الگوهای پیکسلی را با کلماتی مانند «گربه» یا «درخت» مرتبط می‌کند. این سیستم نمی‌فهمد گربه چیست یا درخت چه کاربردی دارد. این تنها یک ترفند محاسباتی پیچیده‌تر است که توهم درک را تقویت می‌کند. مانند یک پازل که قطعات بیشتری دارد، اما همچنان همان قوانین اساسی را دنبال می‌کند.

خطرناکترین توهم ما درباره چت‌جی‌پی‌تی!

توهم خلاقیت: آیا هوش مصنوعی هنرمند است؟

یکی از جذاب‌ترین کاربردهای هوش مصنوعی در سال‌های اخیر، تولید آثار هنری، موسیقی و حتی داستان است. بسیاری از مردم از دیدن نقاشی‌های سورئال یا موسیقی‌های جدیدی که توسط هوش مصنوعی ساخته شده‌اند، شگفت‌زده می‌شوند و آن‌ها را شاهکارهای «خلاقانه» می‌نامند. اما آیا هوش مصنوعی واقعاً خلاق است؟

پاسخ به این سؤال مستقیماً با تعریف ما از خلاقیت مرتبط است. اگر خلاقیت را به عنوان تولید چیزی جدید و غیرمنتظره تعریف کنیم، هوش مصنوعی این کار را انجام می‌دهد. اما اگر خلاقیت را به عنوان بیان یک ایده، احساس یا دیدگاه درونی تعریف کنیم، هوش مصنوعی از این آزمون مردود می‌شود.

این سیستم‌ها فقط می‌توانند ترکیب کنند. یک هوش مصنوعی که یک تصویر می‌سازد، هزاران نقاشی از هنرمندان مختلف را تجزیه و تحلیل می‌کند و سپس عناصر آن‌ها را به روش‌های جدیدی با یکدیگر ترکیب می‌کند. این فرآیند تقلید و ترکیب است، نه آفرینش از هیچ.

برای مثال، اگر از یک هوش مصنوعی بخواهید یک «نقاشی از شادی» بسازد، ممکن است از رنگ‌های روشن و اشکال دایره‌ای استفاده کند، زیرا در پایگاه داده‌اش، این عناصر با «شادی» مرتبط بوده‌اند.

اما این هوش مصنوعی هیچ درکی از اینکه شادی چیست، ندارد. هیچ احساس یا تجربه‌ای در پشت این اثر نیست. این یک هنر بدون هنرمند است و این تفاوت کلیدی، مرز میان تقلید و آفرینش را روشن می‌سازد.

خطرناکترین توهم ما درباره چت‌جی‌پی‌تی!

پیامدهای اجتماعی و سیاسی: کنترل روایت و خطر اطلاعات نادرست

علاوه بر فریب‌های فنی، هوش مصنوعی پیامدهای عمیق اجتماعی و سیاسی نیز دارد. یکی از بزرگ‌ترین خطرات، توانایی این ابزارها در تولید اطلاعات نادرست و اخبار جعلی در مقیاس وسیع است. هوش مصنوعی می‌تواند محتوایی تولید کند که کاملاً واقعی به نظر می‌رسد، از مقالات خبری گرفته تا ویدئوهای جعلی (deepfakes) که به سختی قابل تشخیص هستند.

این پدیده، اعتماد عمومی به نهادها، رسانه‌ها و حتی واقعیت را تضعیف می‌کند. در دنیایی که تمایز بین حقیقت و دروغ به سختی ممکن می‌شود، دستکاری افکار عمومی و کنترل روایت‌های سیاسی بسیار آسان‌تر خواهد شد.

اگر یک بازیگر دولتی یا غیردولتی بتواند با استفاده از هوش مصنوعی، صدها مقاله خبری یا پست در شبکه‌های اجتماعی تولید کند که همه در یک جهت خاص هستند، این امر می‌تواند به طور جدی مردم‌سالاری و فرایندهای تصمیم‌گیری عمومی را تهدید کند. ما در حال ورود به دوره‌ای هستیم که در آن، قدرت، در توانایی کنترل و تولید اطلاعات نهفته است و هوش مصنوعی این قدرت را به سطحی بی‌سابقه ارتقاء داده است.

سواد اطلاعاتی در عصر هوش مصنوعی: ابزار جدید بقا

در گذشته، سواد به معنای توانایی خواندن و نوشتن بود. امروز، در عصر هوش مصنوعی، سواد اطلاعاتی به یک ابزار ضروری برای بقا تبدیل شده است. این سواد دیگر تنها به معنای توانایی جستجو در اینترنت نیست، بلکه شامل توانایی ارزیابی انتقادی اطلاعاتی است که توسط هوش مصنوعی تولید می‌شود.

ما باید به نسل‌های آینده بیاموزیم که هر متنی که با اطمینان نوشته شده، لزوماً صحیح نیست و هر تصویری که زیبا به نظر می‌رسد، لزوماً واقعی نیست. آموزش مهارت‌های تحلیل، راستی‌آزمایی و تفکر انتقادی حیاتی‌تر از هر زمان دیگری است.

ما باید به جای پذیرش کورکورانه، سؤال کنیم: «این اطلاعات از کجا آمده؟»، «آیا منبع آن موثق است؟» و «آیا ممکن است توسط یک ماشین ساخته شده باشد؟» این پرسش‌ها، سپری در برابر سیل اطلاعات ساختگی خواهند بود.

خطرناکترین توهم ما درباره چت‌جی‌پی‌تی!

خطر واقعی: سرگردانی در دریایی از «دانش» بی‌بنیاد

خطر واقعی هوش مصنوعی نه در قابلیت‌های آن، بلکه در درک ناقص ما از آن است. ما در حال حاضر از این سیستم‌ها برای تصمیم‌گیری در زمینه‌های حیاتی استفاده می‌کنیم: از تحلیل بازارهای مالی گرفته تا کمک به تشخیص بیماری. وقتی این ماشین‌ها با اطلاعات ساختگی، اما در قالبی کاملاً حرفه‌ای، ما را فریب می‌دهند، پیامدهای آن می‌تواند فاجعه‌بار باشد.

مردم عادی، که این ابزارها را به عنوان منبع دانش و مرجع اصلی خود می‌پذیرند، در معرض خطر بزرگی قرار دارند. این اعتماد کورکورانه می‌تواند منجر به پذیرش اطلاعات نادرست، از دست دادن توانایی تفکر انتقادی و در نهایت، سرگردانی در دریایی از «دانش» بی‌بنیاد شود.

اگر ما از شرکت‌های هوش مصنوعی مطالبه نکنیم که منابع خود را شفاف کند، تردیدهای خود را ابراز کند و از «نمی‌دانم» گفتن نترسد، این ابزارها به جای توانمندسازی ما، به عامل گمراهی ما تبدیل خواهند شد.

بیداری برای یک آینده هوشمندانه 

در نهایت، سؤال اساسی این نیست که آیا هوش مصنوعی به «هوش واقعی» دست خواهد یافت، بلکه این است که آیا ما آمادگی پذیرش این واقعیت را داریم که آنچه می‌بینیم، لزوماً آن چیزی نیست که هست؟

شاید بزرگ‌ترین خدمت هوش مصنوعی به بشریت، این باشد که ما را مجبور کند تا بار دیگر به ماهیت تفکر و شناخت انسانی بیندیشیم. ما باید از فریب جادوی محاسباتی آن خارج شویم و به جای ستایش از جادوگری ماشین، بر مسئولیت خود برای مطالبه شفافیت و حقیقت از آن تأکید کنیم.

زیرا آینده ما نه با هوش مصنوعی که فکر می‌کند، بلکه با بشری که عمیق‌تر فکر می‌کند، رقم خواهد خورد.

ارسال نظرات