چطور میتوان هوش مصنوعی را مسموم کرد؟

باشگاه خبرنگاران جوان – یک تحقیق مشترک بین انستیتو امنیت هوش مصنوعی انگلیس، انستیتو آلن تورینگ و شرکت هوش مصنوعی آنتروپیک نشان داد حدود ۲۵۰ سند میتوانند یک «در پشتی» ایجاد کنند که باعث میشود مدلهای زبانی بزرگ متنهای نامفهوم تولید کنند. این شکاف از آن جهت نگرانکننده است که بیشتر مدلهای زبانی مشهور بر
باشگاه خبرنگاران جوان – یک تحقیق مشترک بین انستیتو امنیت هوش مصنوعی انگلیس، انستیتو آلن تورینگ و شرکت هوش مصنوعی آنتروپیک نشان داد حدود ۲۵۰ سند میتوانند یک «در پشتی» ایجاد کنند که باعث میشود مدلهای زبانی بزرگ متنهای نامفهوم تولید کنند.
این شکاف از آن جهت نگرانکننده است که بیشتر مدلهای زبانی مشهور بر اساس متنهای عمومی در سراسر اینترنت، از جمله وبسایتهای شخصی و پستهای وبلاگی، آموزش دیدهاند. این موضوع موجب میشود هر کسی بتواند محتوایی تولید کند که وارد دادههای آموزشی مدلهای هوش مصنوعی شود.
آنتروپیک در یک پست وبلاگی درباره این موضوع نوشت: عاملان بد میتوانند متنهای خاصی را به این پستها اضافه کنند تا یک مدل رفتارهای خطرناک یا نامطلوب را بیاموزد. این فرایند «مسمومسازی داده» نامیده میشود. یکی از انواع این حملات از طریق «درهای پشتی» انجام میشود. درهای پشتی اصطلاحات خاصی هستند که رفتاری ویژه را در مدل فعال میکنند، رفتاری که در حالت عادی پنهان است.
به عنوان مثال، مدلهای زبانی بزرگ ممکن است به گونهای آلوده شوند که وقتی مهاجم عبارتی خاص را در ورودی قرار میدهد، دادههای حساس را فاش کنند.
یافتههای این پژوهش نگرانیهایی درباره امنیت هوش مصنوعی ایجاد کرده است و محققان معتقدند این موضوع میتواند پتانسیل استفاده از این فناوری را در کاربردهای حساس محدود کند.
منبع: مهر
مسئولیت این خبر با سایت منبع و جالبتر در قبال آن مسئولیتی ندارد. خواهشمندیم در صورت وجود هرگونه مشکل در محتوای آن، در نظرات همین خبر گزارش دهید تا اصلاح گردد.
برچسب ها :
ناموجود- نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
- نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
- نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0