پرچم فلسطین زیر تیغِ رباتها؛ هوش مصنوعی چه چیزی را «خطرناک» میداند؟
باشگاه خبرنگاران جوان – در جدیدترین پرده از نمایش قدرت هوش مصنوعی، مدلهای پیشرفته تصمیم گرفتند که صدای کدام کاربران در فضای مجازی خاموش بماند. شرکت اوپنایآی در تابستان ۲۰۲۳ به طور رسمی اعلام کرد که قصد دارد از مدل زبانی جیپیتی-۴ برای نظارت (مادریشن) و مدیریت محتوا استفاده کند؛ به این معنی که تصمیمگیری

باشگاه خبرنگاران جوان – در جدیدترین پرده از نمایش قدرت هوش مصنوعی، مدلهای پیشرفته تصمیم گرفتند که صدای کدام کاربران در فضای مجازی خاموش بماند.
شرکت اوپنایآی در تابستان ۲۰۲۳ به طور رسمی اعلام کرد که قصد دارد از مدل زبانی جیپیتی-۴ برای نظارت (مادریشن) و مدیریت محتوا استفاده کند؛ به این معنی که تصمیمگیری درباره مجاز یا غیرمجاز بودن یک متن را به هوش مصنوعی میسپارد.در بلاگ این شرکت نوشته شده است: «ما از جیپیتی-۴ برای توسعه سیاست محتوا و تصمیمگیری درباره نظارت استفاده میکنیم؛ این امر برچسبگذاری را منسجمتر میکند، چرخه بازخورد سیاست را تسریع میبخشد و نیاز به مداخله انسان را کاهش میدهد.»اوپنایآی ادعا کرده است که این سامانه اجازه میدهد تا بهجای ماهها، در عرض «چند ساعت» تغییرات در سیاستگذاریها اعمال شود و مدل بتواند به سرعت خود را با آن سیاستهای جدید سازگار کند.به نظر میرسد این وعده، نوید مقیاسپذیری و کارآمدی را برای پلتفرمهای بزرگ داده میدهد. اما همان «کارآمدی با هوش مصنوعی» که قرار است بار را از دوش انسانها بردارد، در عمل میتواند به سانسور سامانمند و غیرشفاف منجر شود.
غولهای فناوری سیاستهای کنترلی خود را بهروز کردند
غولهای شبکههای اجتماعی نیز در سالهای اخیر سیاستهای خود را، عمدتاً در واکنش به فشارهای عمومی و حقوق بشری، بازتنظیم کردهاند. شرکت مِتا (Meta) که وابسته به فیسبوک و اینستاگرام است، در ژانویه ۲۰۲۵ بیانیهای منتشر کرد با این مضمون:«ما اجازه گفتوگوی بیشتر خواهیم داد، با حذف برخی محدودیتها در موضوعاتی که بخشی از گفتوگوی عمومی هستند، و تمرکز اجرای ما بر موارد غیرقانونی و با شدت بالا خواهد بود.»این تغییر در ظاهر یک رویکرد آزاداندیشانه بود؛ اما آنچه در عمل رخ داد، موجی از حذف، تعلیق، کاهش دیده شدن و سرکوب محتوا بود. این سرکوب بهویژه متوجه مطالبی شد که از فلسطین حمایت میکردند یا اخبار جنگ را بازتاب میدادند.ماهیت این ابزارهای خودکار، بسته به اینکه چه «سیاستی» به مدل داده شود و چه خطوط قرمزی تعریف گردد، میتواند به سانسور ساختاری و پنهان دامن بزند.
سانسور ساختاری، محتوای فلسطین را بیصدا کرد
در دسامبر ۲۰۲۳، نهاد دیدهبان حقوق بشر (اچآردبلیو – Human Rights Watch) گزارشی منتشر کرد با عنوان «وعدههای شکسته مِتا: سانسور سامانمند محتوای فلسطین در اینستاگرام و فیسبوک».این گزارش بیش از ۱,۰۵۰ مورد حذف یا سرکوب محتوا را در بازه اکتبر تا نوامبر ۲۰۲۳ مستندسازی کرد؛ محتوایی که عمدتاً صلحآمیز و حمایتی از فلسطین بود.نتیجه روشن بود: سانسور نه خطای مقطعی، بلکه نظامی، جهانی و ساختاری است. محتوایی که به بیان دیدگاه درباره بحران انسانی، اعتراض علیه جنگ یا حمایت از حقوق بشر میپرداخت، حذف یا «فیلتر پنهان» (شدو بن) میشد.حتی پرچم فلسطین یا شعارهایی مانند «از رودخانه تا دریا، فلسطین آزاد خواهد شد» که لزوماً دعوت به خشونت نبودند، بهواسطه سیاستهایی مانند «سازمانها و افراد خطرناک» مسدود شدند.
حذف گسترده، نتیجه سیاست داخلی شرکت است
اچآردبلیو نتیجه میگیرد که این حذف گسترده نه صرفاً تابع قوانین بینالمللی یا فشار دولتها، بلکه ناشی از سیاستهای داخلی و اجرای خودکار (و اغلب ناآگاهانه) شرکت است.در یک نمونه، پژوهشی جدید با عنوان «نظارت طولی بر مدیریت محتوای مدلهای زبانی بزرگ درباره مسائل اجتماعی» (۲۰۲۵) نشان داده است که رفتار مدلهای زبانی در «رد تولید محتوا» (خودداری از ساخت) نه فقط منعکسکننده خطمشی آشکار شرکت، بلکه تابع تغییرات پنهان در سیاستهای داخلی است.این تغییرات پنهان گاهی اصلاً به صورت عمومی اعلام نمیشوند. استفاده از مدلهای زبانی بزرگ برای نظارت، نه فقط بهعنوان ابزار کمکی، بلکه در مقام قاضی، باعث شد که تصمیمگیری درباره محتوای کاربران به یک فرایند داخلی و بسته منتقل شود.
قضاوت به ماشینی غیرشفاف سپرده شد
همانطور که خود اوپنایآی توضیح میدهد، مدلها بر اساس سند سیاست فعلی ارزیابی میشوند، نه بر اساس قضاوت انسانی مستقل. اما همانطور که محققان هشدار دادهاند، دقت (اَکیورِسی) در چنین سامانهای کافی نیست. مقالهای دیگر با عنوان «مدیریت محتوا توسط مدل زبانی بزرگ: از دقت تا مشروعیت» تأکید میکند که «درست بودن» ماشینی در تشخیص محتوای ممنوعه نمیتواند جای «مشروعیت»، «شفافیت» و «دسترسی به فرایند اعتراض» را بگیرد.یعنی، وقتی قضاوت به ماشین سپرده میشود، خطاها و سوگیریها میتوانند سامانمند شوند: محتوایی که برای یک گروه خطرناک است، برای گروهی دیگر مجاز خواهد بود. این اتفاق به شکلی ناهمگون و پنهان رخ میدهد و استاندارد دوگانهای را اعمال میکند.
صدای فعالان حقوق بشر خفه شد
در گزارش اچآردبلیو و بازتابهای رسانهای، صدها کاربر از کشورهای مختلف گزارش دادهاند که پستها، استوریها یا کامنتهایشان حذف شده یا حسابشان تعلیق شده است. همچنین امکان لایک، اشتراک، بازنشر یا استفاده از بخش پخش زنده و امکانات دیگر برایشان مسدود شده است.این اقدامات بدون اطلاع قبلی و بدون امکان اعتراض واقعی صورت گرفته است؛ یا در موارد بسیار کمی، امکان تجدیدنظر وجود داشته است.کاربران رفتارهای خود را تغییر دادهاند: دیگر جرأت انتشار ندارند، خودسانسوری میکنند و دیدگاهشان را کمرنگ میکنند تا دوباره دچار پیامد نشوند.
خودسانسوری دیجیتال آغاز شد
در یکی از مصاحبهها که در گزارش نقل شده بود، کاربری گفته است: «متوجه شدم بسیاری از کامنتهایم… بهطور خودکار بهعنوان هرزنامه (اِسپَم) حذف میشوند… در نهایت، حتی نمیتوانستم به کامنتهای پستهای خودم پاسخ دهم.»این یعنی اینکه سانسور نه فقط حذف آشکار، بلکه «کاهش نامرئی دیده شدن» (شدو بن) را نیز در بر میگیرد؛ همان چیزی که برای مخاطب عام ملموس نیست.اما تأثیر این کاهش نامرئی دیده شدن در بلندمدت مدام افزایش مییابد و فضای گفتمان را محدود میکند. این محدودیت، صدای منتقدین و فعالان را در سطح وسیع خفه میکند.
هوش مصنوعی ساختار سانسور را دوباره بنا کرد
حجم محتوای تولیدشده توسط کاربران در شبکههای اجتماعی به حدی است که شرکتها برای مدیریت آن به راهکارهای سریعتر و کمهزینهتر نیاز دارند. استفاده از مدلهای زبانی بزرگ مانند جیپیتی-۴ وعده میدهد که سرعت و مقیاس را همزمان فراهم کند.اگر خطمشی شرکت محدود، مبهم یا دارای «لیست سازمانهای خطرناک» باشد، آن سیاست وقتی به «ماشین قضاوت» سپرده شود، به سانسور گسترده و سامانمند تبدیل میشود.وقتی تصمیمات داخلی و خودکار گرفته میشوند، کاربر نمیداند چرا محتوایش حذف شده یا نرخ دیده شدنش کم شده است؛ در نتیجه احساس بیعدالتی میکند و خودسانسوری آغاز میشود.بنابراین صدها، هزاران و حتی میلیونها کاربر که دیدگاهشان درباره حوادث مهم سیاسی و حقوق بشری است، دیگر امکان ابراز ندارند، محتوایشان دیده نمیشود و صدای آنان خفه میشود.
سانسور محتوای فلسطین یک الگوی برجسته بود
گزارش اچآردبلیو نشان میدهد که از میان ۱,۰۵۰ موردی که بررسی شدهاند، ۱,۰۴۹ مورد مربوط به «ابراز صلحآمیز حمایت از فلسطین یا بیان نگرانی درباره حقوق بشر» بوده است.تنها یک مورد علیه محتوای حمایت از اسرائیل گزارش شده بود که این آمار، عدم توازن در اجرای سیاستهای شرکت را به وضوح نشان میدهد.شش الگوی تکرارشونده سانسور شناسایی شدند: حذف پست، استوری یا کامنت، تعلیق یا حذف حساب، محدودیت در تعامل مانند لایک، کامنت یا بازنشر، محدودیت در دنبال کردن یا تگ کردن، مسدود کردن ویژگیهایی مثل پخش زنده یا کسب درآمد، و فیلتر پنهان (شدو بن). این شواهد نشاندهنده یک تصمیم فردی یا خطای تصادفی نیست، بلکه ساختاری نظاممند در حال اجراست.
هوش مصنوعی به پلیس شبکه بدل شد
در این میان، مدلهای زبانی بزرگ، بهخصوص جیپیتی-۴، بهطور فزایندهای به داورانی تبدیل شدند که نه بر اساس قضاوت انسانی، بلکه بر اساس اَلگوریتم و سیاست شرکت، درباره محتوای دیجیتال حکم میدهند.اما پژوهشگران هشدار میدهند که خود این سامانهها نیز نامطلوب هستند: مدلی که برای تشخیص محتوا به کار میرود ممکن است سوگیری داشته باشد.آنچه مدل آن را «ناامن» تشخیص میدهد، شاید برای بخش بزرگی از انسانها بیان آزاد باشد. مقاله «مدیریت محتوا توسط مدل زبانی بزرگ: از دقت تا مشروعیت» تأکید میکند که دقت فنی کافی نیست؛ چیزی که اهمیت دارد مشروعیتِ ساختار قضاوت است.مشروعیت به این معنا است که کاربران بدانند چرا محتوایشان حذف شد، چگونه تصمیم گرفته شده، و امکان اعتراض وجود داشته باشد.
تغییرات سیاستی پنهان، رفتار مدل را عوض کرد
همچنین پژوهش اخیر با عنوان «نظارت طولی بر مدیریت محتوای مدلهای زبانی بزرگ درباره مسائل اجتماعی» نشان داده است که تغییرات سیاستی، حتی اگر علنی نشوند، به تغییرات فوری در رفتار مدل میانجامند. این مسئله یعنی مدل اساساً ابزاری برای اجرای سیاستهای شرکت است، نه قضاوت مستقل یا عادلانه.آنچه در سالهای اخیر رخ داده، دیگر صرفاً مدیریت محتوای خطرناک یا خشونتآمیز نبوده است. شرکتهایی مانند اوپنایآی و مِتا، با بهرهگیری از هوش مصنوعی، ظرفیت دارند تا آنچه جامعه میبیند و دربارهاش بحث میکند را شکل دهند. این شکلدهی نه بر اساس شفافیت، بلکه بر اساس منافع خودشان، سیاستهای داخلی یا فشار دولتها رخ میدهد.
گذار از پلتفرم باز به دروازهبانی خصوصی هوشمند
آنها اکنون «قضاوتچی» هستند؛ نه فقط «ناظران». این قضاوت، در باطن شرکت انجام میشود و به کاربران اطلاع داده نمیشود.همچنین هیچ روند واقعی اعتراض یا اصلاحی برای آن وجود ندارد. در این روند، صداهای الهامبخش، منتقدین، مدافعان حقوق بشر و اقلیتها، که شاید مهمترین بازندگان چنین نحوه ادارهای باشند، خاموش میشوند. ما دیگر درباره خطا یا اشتباه فنی حرف نمیزنیم، بلکه درباره یک ساختار جدیدِ قدرت در فضای مجازی صحبت میکنیم.
گزارش، ماهیت قدرت دیجیتال را فاش کرد
این ساختاری است که شرکتها با ابزار هوش مصنوعی، نه با زور یا سانسور آشکار، بلکه با اَلگوریتم، سیاست داخلی، و قضاوت ماشینی، نقش «دروازهبان محتوا» را به دست گرفتهاند.اگر این روند نادیده گرفته شود، نتیجه آن نه صرفاً حذف چند پست یا حذف چند کاربر، که تغییر مسیر گفتمان عمومی و خفقان دیریابِ بیصدا خواهد بود.گزارشی که اکنون پیش روی شماست، تلاشی است برای بیرون کشیدن آنچه پنهان است، نشان دادن ماهیت جدید قدرت دیجیتال و هشدار به جهانی که هنوز، شاید، فکر میکند اینترنت آزاد است. هدف از این آگاهی، حفظ فضایی است که در آن صداها بتوانند به صورت آزاد شنیده شوند.
منبع: فارس
مسئولیت این خبر با سایت منبع و جالبتر در قبال آن مسئولیتی ندارد. خواهشمندیم در صورت وجود هرگونه مشکل در محتوای آن، در نظرات همین خبر گزارش دهید تا اصلاح گردد.
برچسب ها :
ناموجود- نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
- نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
- نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0