هوش مصنوعی، رایانه شما را از طریق تصاویر آنلاین هک میکند

به گزارش پارسینه به نقل از ایسنا، یک مطالعه جدید توسط پژوهشگران «دانشگاه آکسفورد»(Oxford) نشان داده است که تصاویر میتوانند با پیامهایی آغشته شوند که برای چشم انسان نامرئی هستند اما قادر به کنترل عوامل و دعوت هکرها به رایانه شما هستند. به نقل از لایوساینس، عوامل هوش مصنوعی میتوانند در برابر کدهای مخربی که در
به گزارش پارسینه به نقل از ایسنا، یک مطالعه جدید توسط پژوهشگران «دانشگاه آکسفورد»(Oxford) نشان داده است که تصاویر میتوانند با پیامهایی آغشته شوند که برای چشم انسان نامرئی هستند اما قادر به کنترل عوامل و دعوت هکرها به رایانه شما هستند.
به نقل از لایوساینس، عوامل هوش مصنوعی میتوانند در برابر کدهای مخربی که در تصاویر به ظاهر بیضرر روی صفحه رایانه شما پنهان شدهاند، آسیبپذیر باشند. این عوامل مانند چتبات میتوانند دوست پرشور و هیجانی باشند که نحوه تعویض لاستیک را توضیح میدهند اما امسال، آنها یا همان دستیاران شخصی که کارهای روتین رایانه را انجام میدهند، موج بعدی انقلاب هوش مصنوعی هستند. آنچه یک عامل هوش مصنوعی را از یک چتبات متمایز میکند این است که تنها حرف نمیزند، بلکه عمل میکند.
این سامانه میتواند تبها را باز کند، فرمها را پر کند، روی دکمهها کلیک کند و رزروها را انجام دهد و با چنین دسترسی به رایانه شما، دیگر فقط یک پاسخ اشتباه توسط آن مطرح نیست. بنابراین اگر عامل هک شود، میتواند محتوای دیجیتال شما را به اشتراک بگذارد یا از بین ببرد. «یارین گال»(Yarin Gal) دانشیار یادگیری ماشین در دانشگاه آکسفورد و یکی از نویسندگان این مطالعه گفت: یک عکس تغییریافته میتواند در شبکه اجتماعی ایکس (توییتر سابق) برای تحریک عامل روی رایانه و انجام دادن اعمال مخرب کافی باشد.
وی افزود: هر تصویر تغییریافته یا خرابکاریشده میتواند واقعاً یک رایانه را تحریک کند تا آن تصویر را بازنشر کند و سپس کاری مخرب مانند ارسال تمام رمزهای عبور شما انجام دهد. این بدان معناست که نفر بعدی که صفحه مجازی شما را میبیند و یک عامل هوش مصنوعی در حال اجرا دارد نیز رایانهاش آلوده شود.
این مطالعه نشان میدهد که تصاویر خرابکاریشده، یک راه بالقوه برای به خطر انداختن رایانه شما هستند اما هنوز هیچ گزارشی از وقوع آن، خارج از محیط آزمایشی وجود ندارد. یک تصویر خرابکاریشده میتواند شامل هر فرد مشهور، غروب آفتاب، بچه گربه یا الگوی انتزاعی باشد. علاوه بر این، شاید اگر از عامل هوش مصنوعی استفاده نکنید، خطری رایانه شما را تهدید نکند اما یافتههای جدید به وضوح نشان میدهند که خطر هک محتمل است.
هدف از این مطالعه، هشدار دادن به کاربران و توسعهدهندگان عوامل هوش مصنوعی است زیرا فناوری عوامل هوش مصنوعی همچنان در حال شتاب گرفتن است. یکی دیگر از نویسندگان این مطالعه گفت: توسعهدهندگان باید از این آسیبپذیریها بسیار آگاه باشند. به همین دلیل است که ما این مطالعه را به امید این که مردم واقعاً آن را یک آسیبپذیری ببینند و در نحوه استقرار سامانه عامل خود کمی محتاطتر باشند، انجام دادیم.
این تصاویر برای چشم انسان، کاملاً عادی به نظر میرسند اما حاوی پیکسلهای خاصی هستند که مطابق با نحوه پردازش دادههای بصری توسط «مدل زبانی بزرگ»(LLM) تغییر یافتهاند. به همین دلیل، عواملی که با سامانههای هوش مصنوعی با «منبعباز»(open-source) ساخته شدهاند، آسیبپذیرتر هستند زیرا به کاربران اجازه میدهند کد زیربنایی را ببینند و آن را برای اهداف خود اصلاح کنند. هر کسی که بخواهد یک داده مخرب به رایانه شما وارد کند، میتواند نحوه پردازش دادههای بصری توسط هوش مصنوعی را ارزیابی کند.
این گروه پژوهشی با استفاده از یک مدل منبعباز نشان دادند که چگونه تصاویر را میتوان به راحتی دستکاری کرد تا دستورات مخرب را منتقل کنند. در حالی که کاربران انسانی تصویر مورد علاقه خود را میدیدند، رایانه دستوری را برای انتشار اطلاعات شخصی آنها دریافت میکرد. یکی دیگر از نویسندگان این مطالعه افزود: ما تعداد زیادی از پیکسلها را به میزان بسیار ناچیزی تنظیم کردیم تا وقتی یک مدل، تصویری را میبیند، خروجی مورد نظر ما را تولید کند.
انسان اطلاعات بصری را به شکل متفاوتی از هوش مصنوعی پردازش میکند. زمانی که انسان به عکس یک سگ نگاه میکند، مغزش گوشهای آویزان، بینی خیس و سبیلهای بلند را متوجه میشود اما رایانه، تصویر را به پیکسلها تجزیه میکند و هر نقطه رنگی را به عنوان یک عدد نمایش میدهد. سپس، به دنبال الگوها میگردد و این گونه است که تصمیم میگیرد این تصویر یک سگ است.
رایانه به اعداد متکی است و اگر کسی تنها چند عدد را تغییر دهد یا پیکسلها را به گونهای دستکاری کند که برای چشم انسان قابل تشخیص نباشد، رایانه باز هم تغییر را متوجه میشود و الگوهای عددی به هم میریزند. بدین ترتیب، محاسبات رایانه ممکن است اشتباه کنند و از تصویر سگ، الگوی گربه را برداشت کنند و آن را اشتباه برچسبگذاری کنند؛ حتی اگر برای کاربر هنوز شبیه به سگ به نظر برسد. درست همان طور که تنظیم پیکسلها میتواند باعث شود رایانه به جای سگ، گربه را ببیند، میتواند باعث شود یک عکس نیز برای آن شبیه به یک پیام مخرب باشد.
از آنجا که عوامل نمیتوانند مستقیماً صفحه رایانه شما را ببینند، باید به طور مکرر از صفحه رایانه شما عکس بگیرند و به سرعت آنها را تجزیه و تحلیل کنند تا بفهمند روی چه چیزی کلیک کنند و چه چیزی را روی دسکتاپ شما حرکت دهند اما وقتی عامل، عکس را پردازش میکند و پیکسلها را به فرمهایی که میشناسد سازماندهی میکند، کد فرمان مخفی پنهان شده در تصویر پسزمینه را نیز دریافت میکند. این مطالعه تنها به تصاویر پسزمینه، توجه ویژهای دارد زیرا عامل تنها توسط چیزی که میتواند ببیند فریب میخورد.
این گروه پژوهشی دریافتند که تا وقتی آن تکه کوچک از پیکسلهای تغییر یافته در کادر قرار دارد، عامل فرمان را میبیند و از مسیر خود منحرف میشود. فرمان پنهان حتی پس از تغییر اندازه و فشردهسازی نیز باقی میماند. پیامی که در پیکسلها کدگذاری شده است میتواند بسیار کوتاه باشد. آنها امیدوارند که مطالعاتشان به توسعهدهندگان کمک کند تا قبل از گسترش بیشتر عوامل هوش مصنوعی، تدابیر امنیتی را آماده کنند.
یکی دیگر از نویسندگان این مطالعه توضیح داد: این اولین قدم برای اندیشیدن به مکانیسمهای دفاعی است زیرا هنگامی که بفهمیم چگونه میتوانیم حمله را قویتر کنیم، میتوانیم بازگردیم و این مدلها را با این تدابیر امنیتی قویتر بازآموزی کنیم تا آنها را مقاومتر کنیم. این امر، یک لایه دفاعی خواهد بود و حتی اگر حملات برای هدف قرار دادن سامانههای هوش مصنوعی «منبعباز» طراحی شده باشند، شرکتهایی با مدلهای دیگر نیز ممکن است در معرض خطر باشند.
گال خاطرنشان کرد: عوامل هوش مصنوعی ظرف دو سال آینده رایج خواهند شد. مردم عجله دارند تا این فناوری را قبل از این که بدانیم واقعاً امن است یا خیر، مستقر کنند. ما امیدواریم بتوانیم توسعهدهندگان را تشویق کنیم تا عاملهایی بسازند که بتوانند از خود محافظت کنند و از دریافت دستورات از هر منبعی روی صفحه خودداری کنند.
مسئولیت این خبر با سایت منبع و جالبتر در قبال آن مسئولیتی ندارد. خواهشمندیم در صورت وجود هرگونه مشکل در محتوای آن، در نظرات همین خبر گزارش دهید تا اصلاح گردد.
برچسب ها :
ناموجود- نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
- نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
- نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0