کد خبر : 308228
تاریخ انتشار : چهارشنبه 4 تیر 1404 - 23:58
0 بازدید

هشدار تکان‌دهنده OpenAI: هوش مصنوعی می‌تواند سلاح‌های بیولوژیکی بسازد!

هشدار تکان‌دهنده OpenAI: هوش مصنوعی می‌تواند سلاح‌های بیولوژیکی بسازد!

شرکت OpenAI هشدار داده است که هوش مصنوعی می‌تواند سلاح‌های بیولوژیکی بسازد! باشگاه خبرنگاران جوان؛ جواد فراهانی – شرکت OpenAI قابلیت‌های بالقوه خطرناک مدل‌های جدید هوش مصنوعی که در حال توسعه آنهاست را آشکار کرده و گفته است که این سیستم‌های هوشمند حتی می‌توانند به ساخت سلاح‌های بیولوژیکی پیشرفته کمک کنند. این افشاگری چشمگیر در

شرکت OpenAI هشدار داده است که هوش مصنوعی می‌تواند سلاح‌های بیولوژیکی بسازد!

باشگاه خبرنگاران جوان؛ جواد فراهانی – شرکت OpenAI قابلیت‌های بالقوه خطرناک مدل‌های جدید هوش مصنوعی که در حال توسعه آنهاست را آشکار کرده و گفته است که این سیستم‌های هوشمند حتی می‌توانند به ساخت سلاح‌های بیولوژیکی پیشرفته کمک کنند.

این افشاگری چشمگیر در یک نشریه رسمی شرکت منتشر شد که در آن شرکت اذعان کرده است بین پیگیری پیشرفت‌های علمی چشمگیر در زمینه‌هایی مانند تحقیقات زیست‌پزشکی و دفاع زیستی و مسئولیت خود در جلوگیری از نشت اطلاعات خطرناکی که می‌تواند امنیت جهانی را تهدید کند، تعادل برقرار می‌کند.

یوهان هایدک، رئیس بخش ایمنی این شرکت، در بیانیه‌ای به اکسیوس توضیح داد که مدل‌های آینده قادر به تولید مستقل سلاح‌های بیولوژیکی نخواهند بود، اما ابزار‌های شناختی کافی را برای افراد غیرمتخصص فراهم می‌کنند تا چنین کار‌های خطرناکی را انجام دهند. 

هایدکی افزود که بزرگترین نگرانی، ایجاد تهدید‌های بیولوژیکی جدید و بی‌سابقه نیست، بلکه احتمال بازتولید تهدید‌هایی است که از قبل برای متخصصان شناخته شده است.

این شرکت انتظار دارد که برخی از پیشرفت‌های بعدی مدل استنتاج O۳ آن به این سطح از شدت برسد و همین امر باعث شود که یک استراتژی پیشگیرانه سختگیرانه اتخاذ کند. OpenAI به جای اینکه منتظر بماند تا ببیند آیا این تهدید‌ها به واقعیت تبدیل می‌شوند یا خیر، تصمیم گرفته است که با توسعه کنترل‌های امنیتی پیشرفته‌ای که به سطحی از «تقریباً بی‌نقص» می‌رسند، پیش برود، سطحی که در آن سیستم‌ها باید بتوانند هرگونه تلاشی برای سوءاستفاده از آنها برای اهداف مخرب را تشخیص داده و بلافاصله آنها را به سرپرستان انسانی گزارش دهند.

با این حال، این جاه‌طلبی‌های پیشگیرانه بدون خطرات جدی نیستند، زیرا این احتمال واقعی وجود دارد که این فناوری‌های پیشرفته توسط بازیگران غیرمسئول برای اقداماتی که با حقوق بشر در تضاد هستند، مورد سوءاستفاده قرار گیرند.

این بحث در زمانی مطرح می‌شود که صنعت هوش مصنوعی در حال تحولات اساسی است و قابلیت‌های فنی آن به طور پیوسته در حال افزایش است، در حالی که کنترل‌های اخلاقی و نظارتی همچنان قادر به همگام شدن با این تحولات سریع نیستند.

منبع: فیوچریسم

+

برچسب ها :

ناموجود
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.

advanced-floating-content-close-btn
advanced-floating-content-close-btn
advanced-floating-content-close-btn