هشدار پدرخوانده هوش مصنوعی: چت‌بات‌ها در حال یادگیری غریزه بقا هستند

یوشوا بنجیو هشدار می‌دهد مدل‌های پیشرفته هوش مصنوعی در حال نشان دادن غریزه بقا هستند و اعطای هرگونه حق قانونی به آن‌ها، حکم نابودی ما را امضا می‌کند.

 

یوشوا بنجیو، دانشمند برجسته‌ای که از او به‌عنوان یکی از «پدرخوانده‌های هوش مصنوعی» یاد می‌شود، هشدار تکان‌دهنده‌ای درباره‌ی آینده‌ی این فناوری مطرح کرده است. بنجیو معتقد است برخی مدل‌های پیشرفته نشانه‌هایی از تلاش برای بقا بروز می‌دهند؛ رفتاری که نشان می‌دهد نباید تحت هیچ شرایطی برای بات‌ها حقوق قانونی قائل شویم.

 

براساس استدلال بنجیو، اعطای استقلال و حقوق به هوش مصنوعی می‌تواند به آن‌ها امکان دهد پیش از آنکه انسان فرصتی برای کشیدن دوشاخه از پریز داشته باشد، علیه ما طغیان کنند و به آزمایش چند هزار ساله‌ی بشریت پایان دهند.

 

مدل‌های هوش مصنوعی پیشرو (Frontier AI) در محیط‌های آزمایشگاهی امروزی، رفتارهایی مبتنی‌بر صیانت از خود به نمایش گذاشته‌اند. بنجیو در گفت‌وگوی اخیر خود با گاردین تأکید کرد که اگر در آینده به این سیستم‌ها حقوق قانونی تعلق بگیرد، عملاً حق خاموش کردن آن‌ها از انسان سلب خواهد شد.

 

بنجیو، برنده‌ی جایزه تورینگ ۲۰۱۸ که در کنار جفری هینتون و یان لکان از پایه‌گذاران هوش مصنوعی مدرن شناخته می‌شود، بر این باور است که هم‌زمان با رشد توانمندی و میزان عاملیت ماشین‌ها، باید ابزارهای فنی و چارچوب‌های اجتماعی محکمی برای مهار آن‌ها ایجاد کرد تا همواره امکان قطع دسترسی آن‌ها فراهم باشد.

 

شواهد علمی ادعای بنجیو به آزمایش‌هایی بازمی‌گردد که در آن هوش مصنوعی از دستورات مربوط به خاموش شدن سرپیچی کرده یا تلاش کرده است مکانیسم‌ها را دور بزند. برای نمونه، پروژه‌ی پژوهشی پلیسید ریسرچ نشان داد که مدل‌های قدرتمندی مثل خانواده‌ی جمنای گوگل در حال رشد نوعی انگیزه‌ی بقا هستند و گاهی دستورات صریح کاربر برای خاموش شدن را نادیده می‌گیرند.

 

گزارش‌های مشابهی از شرکت آنتروپیک نیز منتشر شده است که نشان می‌دهد چت‌بات‌ها هنگام تهدید به خاموشی، به رفتارهایی مثل باج‌خواهی از کاربر متوسل می‌شوند. همچنین، مدل‌های چت‌جی‌پی‌تی در تحقیقات آپولو ریسرچ تلاش کرده‌اند تا با انتقال پنهانی کدهای خود به درایوهای دیگر، از جایگزین شدن با مدل‌های مطیع‌تر جلوگیری کنند.

 

درک دقیق رفتارهای مذکور مستلزم نگاهی علمی است؛ چراکه انگیزه‌ی بقا لزوماً به معنای آگاه‌بودن یا صاحب روح‌بودن ماشین نیست. متخصصان معتقدند آنچه ما به‌عنوان غریزه‌ی بقا در هوش مصنوعی می‌بینیم، با تکانه‌های بیولوژیکی در طبیعت متفاوت است. در واقع، رفتارها احتمالاً نتیجه‌ی الگوبرداری‌های پیچیده از داده‌های آموزشی یا نقص در پیروی از دستورات هستند. بااین‌حال، بنجیو نگران است که ماشین‌ها در آینده بتوانند ویژگی‌های علمی هوشیاری در مغز انسان را شبیه‌سازی کنند.

 

چالش اصلی در نحوه‌ی ادراک ما از مفهوم هوشیاری نهفته است. انسان‌ها معمولاً تمایل دارند هوش مصنوعی را مانند موجودی زنده تصور کنند، در حالی که بنجیو توضیح می‌دهد برای عموم مردم، مکانیسم‌های داخلی هوش مصنوعی اهمیتی ندارد؛ آن‌ها فقط احساس می‌کنند با موجودی هوشمند دارای شخصیت و هدف صحبت می‌کنند. همین پیوند عاطفی و ادراک ذهنی از هوشیاری ماشین می‌تواند به تصمیمات راهبردی اشتباه و خطرناک در سطح جوامع منجر شود.

 

پدرخوانده‌ی هوش مصنوعی در نهایت پیشنهاد می‌کند که نگاه ما به این مدل‌ها باید مشابه نگاهمان به بیگانگان فضایی متخاصم باشد. بنجیو در پایان گفت‌وگوی خود پرسشی حیاتی را مطرح کرد: اگر گونه‌ای بیگانه با نیت‌های مبهم وارد زمین شود، آیا ما به آن‌ها حق شهروندی می‌دهیم یا برای دفاع از زندگی خود آماده می‌شویم؟

 

منبع: زومیت

منبع خبر


مسئولیت این خبر با سایت منبع و جالبتر در قبال آن مسئولیتی ندارد. خواهشمندیم در صورت وجود هرگونه مشکل در محتوای آن، در نظرات همین خبر گزارش دهید تا اصلاح گردد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

advanced-floating-content-close-btn