یوشوا بنجیو هشدار میدهد مدلهای پیشرفته هوش مصنوعی در حال نشان دادن غریزه بقا هستند و اعطای هرگونه حق قانونی به آنها، حکم نابودی ما را امضا میکند.
یوشوا بنجیو، دانشمند برجستهای که از او بهعنوان یکی از «پدرخواندههای هوش مصنوعی» یاد میشود، هشدار تکاندهندهای دربارهی آیندهی این فناوری مطرح کرده است. بنجیو معتقد است برخی مدلهای پیشرفته نشانههایی از تلاش برای بقا بروز میدهند؛ رفتاری که نشان میدهد نباید تحت هیچ شرایطی برای باتها حقوق قانونی قائل شویم.
براساس استدلال بنجیو، اعطای استقلال و حقوق به هوش مصنوعی میتواند به آنها امکان دهد پیش از آنکه انسان فرصتی برای کشیدن دوشاخه از پریز داشته باشد، علیه ما طغیان کنند و به آزمایش چند هزار سالهی بشریت پایان دهند.
مدلهای هوش مصنوعی پیشرو (Frontier AI) در محیطهای آزمایشگاهی امروزی، رفتارهایی مبتنیبر صیانت از خود به نمایش گذاشتهاند. بنجیو در گفتوگوی اخیر خود با گاردین تأکید کرد که اگر در آینده به این سیستمها حقوق قانونی تعلق بگیرد، عملاً حق خاموش کردن آنها از انسان سلب خواهد شد.
بنجیو، برندهی جایزه تورینگ ۲۰۱۸ که در کنار جفری هینتون و یان لکان از پایهگذاران هوش مصنوعی مدرن شناخته میشود، بر این باور است که همزمان با رشد توانمندی و میزان عاملیت ماشینها، باید ابزارهای فنی و چارچوبهای اجتماعی محکمی برای مهار آنها ایجاد کرد تا همواره امکان قطع دسترسی آنها فراهم باشد.
شواهد علمی ادعای بنجیو به آزمایشهایی بازمیگردد که در آن هوش مصنوعی از دستورات مربوط به خاموش شدن سرپیچی کرده یا تلاش کرده است مکانیسمها را دور بزند. برای نمونه، پروژهی پژوهشی پلیسید ریسرچ نشان داد که مدلهای قدرتمندی مثل خانوادهی جمنای گوگل در حال رشد نوعی انگیزهی بقا هستند و گاهی دستورات صریح کاربر برای خاموش شدن را نادیده میگیرند.
گزارشهای مشابهی از شرکت آنتروپیک نیز منتشر شده است که نشان میدهد چتباتها هنگام تهدید به خاموشی، به رفتارهایی مثل باجخواهی از کاربر متوسل میشوند. همچنین، مدلهای چتجیپیتی در تحقیقات آپولو ریسرچ تلاش کردهاند تا با انتقال پنهانی کدهای خود به درایوهای دیگر، از جایگزین شدن با مدلهای مطیعتر جلوگیری کنند.
درک دقیق رفتارهای مذکور مستلزم نگاهی علمی است؛ چراکه انگیزهی بقا لزوماً به معنای آگاهبودن یا صاحب روحبودن ماشین نیست. متخصصان معتقدند آنچه ما بهعنوان غریزهی بقا در هوش مصنوعی میبینیم، با تکانههای بیولوژیکی در طبیعت متفاوت است. در واقع، رفتارها احتمالاً نتیجهی الگوبرداریهای پیچیده از دادههای آموزشی یا نقص در پیروی از دستورات هستند. بااینحال، بنجیو نگران است که ماشینها در آینده بتوانند ویژگیهای علمی هوشیاری در مغز انسان را شبیهسازی کنند.
چالش اصلی در نحوهی ادراک ما از مفهوم هوشیاری نهفته است. انسانها معمولاً تمایل دارند هوش مصنوعی را مانند موجودی زنده تصور کنند، در حالی که بنجیو توضیح میدهد برای عموم مردم، مکانیسمهای داخلی هوش مصنوعی اهمیتی ندارد؛ آنها فقط احساس میکنند با موجودی هوشمند دارای شخصیت و هدف صحبت میکنند. همین پیوند عاطفی و ادراک ذهنی از هوشیاری ماشین میتواند به تصمیمات راهبردی اشتباه و خطرناک در سطح جوامع منجر شود.
پدرخواندهی هوش مصنوعی در نهایت پیشنهاد میکند که نگاه ما به این مدلها باید مشابه نگاهمان به بیگانگان فضایی متخاصم باشد. بنجیو در پایان گفتوگوی خود پرسشی حیاتی را مطرح کرد: اگر گونهای بیگانه با نیتهای مبهم وارد زمین شود، آیا ما به آنها حق شهروندی میدهیم یا برای دفاع از زندگی خود آماده میشویم؟
منبع: زومیت
مسئولیت این خبر با سایت منبع و جالبتر در قبال آن مسئولیتی ندارد. خواهشمندیم در صورت وجود هرگونه مشکل در محتوای آن، در نظرات همین خبر گزارش دهید تا اصلاح گردد.

