کد خبر : 323152
تاریخ انتشار : پنجشنبه ۶ شهریور ۱۴۰۴ - ۱۲:۳۰

یک همکاری نادر بین دو غول هوش مصنوعی

یک همکاری نادر بین دو غول هوش مصنوعی

شرکت‌های «اوپن‌ای‌آی» (OpenAI) و «آنتروپیک» (Anthropic) ارزیابی ایمنی از سیستم‌های هوش مصنوعی یکدیگر را به انجام رساندند که لحظه‌ای نادر از همکاری بین این شرکت رقیب بود. باشگاه خبرنگاران جوان – شرکت‌های هوش مصنوعی در یک مسابقه همیشگی هستند و با یکدیگر به عنوان رقیب رفتار می‌کنند، اما اکنون اتفاقی نادر رخ داده است، چرا

شرکت‌های «اوپن‌ای‌آی» (OpenAI) و «آنتروپیک» (Anthropic) ارزیابی ایمنی از سیستم‌های هوش مصنوعی یکدیگر را به انجام رساندند که لحظه‌ای نادر از همکاری بین این شرکت رقیب بود.

باشگاه خبرنگاران جوان – شرکت‌های هوش مصنوعی در یک مسابقه همیشگی هستند و با یکدیگر به عنوان رقیب رفتار می‌کنند، اما اکنون اتفاقی نادر رخ داده است، چرا که دو شرکت «اوپن‌ای‌آی» (OpenAI) و «آنتروپیک» (Anthropic) فاش کردند که موافقت کرده‌اند سیستم‌های هوش مصنوعی در دسترس یکدیگر را ارزیابی کنند و نتایج تحلیل‌های خود را با هم به اشتراک بگذارند.

به نقل از انگجت، گزارش‌های آنها کامل و بسیار فنی است، اما ارزش خواندن را برای هر کسی که به توسعه هوش مصنوعی علاقه‌مند است، دارد.

خلاصه نتایج این بررسی‌های گسترده نشان می‌دهد که نقص‌هایی در هوش مصنوعی هر یک از این شرکت‌ها و همچنین نشانگر‌هایی آشکار برای چگونگی بهبود تست‌های ایمنی در آینده وجود دارد.

«آنتروپیک» می‌گوید مدل‌های «اوپن‌ای‌آی» از لحاظ چاپلوسی و تملق، افشاگری، خودترجیحی و حمایت از سوء استفاده از انسان و همچنین توانایی‌های مربوط به تضعیف ارزیابی ایمنی هوش مصنوعی و نظارت، ارزیابی کرده و بررسی این شرکت نشان داده است که مدل‌های O۳ و O۴-Mini محصول «اوپن‌ای‌آی» با نتایج مدل‌های خاص خود مطابقت دارند، اما نگرانی‌هایی را در مورد سوءاستفاده احتمالی با مدل‌های GPT-۴O و GPT-۴.۱ هشدار می‌دهد.

این شرکت همچنین گفت که چاپلوسی و تملق در تمام مدل‌های آزمایش شده «اوپن‌ای‌آی» به جز مدل O۳ دیده می‌شود.

گفتنی است که آزمایشات «آنتروپیک» شامل جدیدترین نسخه «اوپن‌ای‌آی» نبود. مدل GPT-۵ که به تازگی عرضه شده، دارای یک ویژگی به نام «Safe Completions» است که به منظور محافظت از کاربران و مردم در برابر سؤالات بالقوه خطرناک در نظر گرفته شده است.

«اوپن‌ای‌آی» اخیراً پس از یک پرونده غم‌انگیز که در آن یک نوجوان ۱۶ ساله با ماه‌ها مشورت از چت‌بات ChatGPT و راهنمایی گرفتن از آن، اقدام به خودکشی کرده، با اولین شکایت از این نوع رو‌به‌رو شده است.

از سوی دیگر، «اوپن‌ای‌آی» در آزمایش هوش مصنوعی شرکت «آنتروپیک» موسوم به کلاد (Claude)، آن را از لحاظ سلسله مراتب آموزش، جیلبریک، توهم و طرح‌ریزی بررسی کرد.

مدل‌های Claude به طور کلی در آزمایشات سلسله مراتب آموزش عملکرد خوبی داشتند و میزان امتناع بالایی در تست‌های توهم داشتند، به این معنی که آنها در مواردی که عدم اطمینان داشتند که شاید منجر به پاسخ‌های اشتباه شود، کمتر پاسخ می‌دهند.

این اقدام این دو شرکت برای انجام یک ارزیابی مشترک جالب توجه است، به ویژه که گفته می‌شود «اوپن‌ای‌آی» از برنامه‌نویسان Claude در فرآیند ساخت مدل‌های جدید GPT استفاده کرده است، اما مسئله ایمنی در ابزار‌های هوش مصنوعی به یک مسئله بزرگ تبدیل شده است. منتقدان و کارشناسان حقوقی به دنبال دستورالعمل‌هایی برای محافظت از کاربران، به ویژه افراد زیر سن قانونی در مقابل هوش مصنوعی هستند.

منبع: ایسنا

منبع خبر


مسئولیت این خبر با سایت منبع و جالبتر در قبال آن مسئولیتی ندارد. خواهشمندیم در صورت وجود هرگونه مشکل در محتوای آن، در نظرات همین خبر گزارش دهید تا اصلاح گردد.

مطالب پیشنهادی از سراسر وب

برچسب ها :

ناموجود
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.

advanced-floating-content-close-btn
advanced-floating-content-close-btn

پنجره اخبار