
باشگاه خبرنگاران جوان – رشد شتابان هوش مصنوعی طی سالهای اخیر، انتظارات گستردهای را درباره تحول در نظام سلامت ایجاد کرده است. از تشخیص زودهنگام بیماریها تا بهینهسازی فرآیندهای درمانی، بسیاری از تحلیلگران، هوش مصنوعی را بهعنوان موتور محرک نسل بعدی خدمات پزشکی معرفی کردهاند. با این حال، مطالعات اخیر از سوی پژوهشگران نشان میدهد که استفاده از چتباتهای مبتنی بر مدلهای زبانی بزرگ برای دریافت مشاوره پزشکی میتواند «خطرناک» باشد؛ هشداری که بار دیگر شکاف میان ظرفیتهای فناورانه و آمادگی عملیاتی این ابزارها را برجسته میکند.
پژوهش مشترک اخیر محققان مؤسسه اینترنت آکسفورد (Oxford Internet Institute) و دپارتمان علوم بهداشتی مراقبتهای اولیه نافیلد (Nuffield Department of Primary Care Health Sciences) در دانشگاه آکسفورد، تصویری واقعگرایانه از وضعیت کنونی هوش مصنوعی در حوزه سلامت ارائه میدهد. یافتههای این مطالعه بزرگ، نشان میدهد که هیجان رسانهای پیرامون پزشکان دیجیتال نباید سیاستگذاران، ارائهدهندگان خدمات درمانی و حتی بیماران را از مخاطرات بالقوه این فناوری غافل کند.
طراحی مطالعه: سنجش هوش مصنوعی در برابر تصمیمهای واقعی سلامت
در این پژوهش، نزدیک به ۱۳۰۰ نفر از شرکتکنندگان در معرض سناریوهای مختلف در حوزه سلامت قرار گرفتند و از آنها خواسته شد وضعیتهای احتمالی بالینی و مسیر اقدام مناسب را شناسایی کنند. بخشی از این افراد برای دریافت تشخیص اولیه و توصیههای بعدی از نرمافزارهای هوش مصنوعی مبتنی بر مدلهای زبانی بزرگ استفاده کردند، در حالی که گروه دیگر از روشهای سنتیتر مانند مراجعه به پزشک عمومی بهره بردند.
ارزیابی نتایج نشان داد که پاسخهای تولیدشده توسط هوش مصنوعی اغلب ترکیبی از اطلاعات صحیح و نادرست بوده است؛ مسئلهای که کاربران عادی در تفکیک آن با دشواری مواجه بودند. به بیان دیگر، مشکل صرفاً در خطاهای سامانههای هوش مصنوعی خلاصه نمیشود، بلکه در توهم دقت نیز ریشه دارد؛ وضعیتی که در آن خروجیهای روان و قاطعانه مدل، حس اعتماد کاذب در بیمار ایجاد میکند.
پارادوکس توانمندی: موفق در آزمون، پرریسک در واقعیت
یکی از نکات کلیدی این مطالعه، وجود شکافی معنادار میان عملکرد هوش مصنوعی در آزمونهای استاندارد دانش پزشکی و کارآمدی آن در موقعیتهای واقعی است. بر همین اساس، چتباتها ممکن است در پاسخ به سوالات ساختاریافته عملکردی چشمگیر داشته باشند، اما هنگامی که پای علائم واقعی، ابهامات در علائم بالینی و تفاوتهای فردی به میان میآید، قابلیت اتکا به آنها کاهش مییابد.
دکتر ربکا پین، از نویسندگان این پژوهش، تصریح میکند که «با وجود تمام هیاهوها، هوش مصنوعی هنوز آماده ایفای نقش پزشک نیست». به گفته او، بیماران باید آگاه باشند که طرح علائم بیماری با یک مدل زبانی میتواند به تشخیصهای نادرست منجر شود و حتی در تشخیص موقعیتهای اورژانسی نیز ناکارآمد باشد.
چالش تعامل انسانی: نقطه ضعف پنهان مدلهای زبانی
جالبترین خبرهای روز
- توییت عجیب ترامپ در مورد مشهد؛ بیبیسی: ترامپ دروغ میگوید!
- سود سهام عدالت به حساب بیش از ۴۴ میلیون نفر واریز شد
- حداقل حقوق بازنشستگان تامین اجتماعی ۲۳.۷۹۰.۰۰۰ تومان شد
اندرو بین، نویسنده اصلی این مطالعه، به مسئله مهم دیگری اشاره میکند و مدعی است که تعامل با انسانها همچنان برای پیشرفتهترین مدلهای زبانی امری چالشبرانگیز است. پزشکی حوزهای است که در آن دادههای ناقص، توصیفهای مبهم و متغیرهای رفتاری نقش تعیینکننده دارند. برخلاف محیطهای آزمایشگاهی، بیماران اغلب علائم خود را بهصورت غیرساختاریافته بیان میکنند و همین موضوع احتمال سوءبرداشت الگوریتمی را افزایش میدهد.
کارشناسان بر این باورند که این مسئله نشان میدهد طراحی سیستمهای هوش مصنوعی برای حوزههای حساس و پرریسک صرفاً به افزایش دقت مدل وابسته نیست، بلکه به درک عمیقتر از زمینه، قضاوت بالینی و مدیریت عدم قطعیت نیاز دارد.
ریسکهای راهبردی برای نظام سلامت
در ادامه، یافتههای این پژوهش چند پیام راهبردی برای آینده حکمرانی سلامت دیجیتال به همراه دارد. نخست آن که استفاده خودسرانه از هوش مصنوعی برای خودتشخیصی چالشهای سلامتی میتواند فشار مضاعفی بر نظام درمان وارد کند. تشخیصهای اشتباه ممکن است باعث مراجعههای غیرضروری یا بالعکس و تأخیر در دریافت مراقبتهای حیاتی شود.
مسئله دوم، خطر شکلگیری نابرابری اطلاعاتی است. بر همین اساس، افرادی که توانایی ارزیابی انتقادی خروجیهای هوش مصنوعی را ندارند، بیش از دیگران در معرض تصمیمهای پرریسک قرار میگیرند. در نهایت مورد بعدی این که یافتهها ضرورت تدوین چارچوبهای تنظیمگری دقیقتر را برجسته میکند. اگرچه بسیاری از کشورها در حال توسعه مقررات برای هوش مصنوعی در بخش پزشکی هستند، اما سرعت نوآوری اغلب از سرعت قانونگذاری پیشی میگیرد.
بازتعریف جایگاه هوش مصنوعی: دستیار هوشمند بخش پزشکی
برداشت کلیدی از این مطالعه آن است که ارزش واقعی هوش مصنوعی در حال حاضر نه در جایگزینی پزشکان، بلکه در تقویت توانمندی آنها نهفته است. فناوری هوش مصنوعی میتواند در غربالگری اولیه دادهها، خلاصهسازی پروندههای پزشکی، یا ارائه هشدارهای تصمیمیار نقشآفرینی کند؛ اما انتقال مسئولیت تشخیص به الگوریتمها هنوز زودهنگام به نظر میرسد.
به عبارت دیگر، در واقع آینده محتملتر برای سلامت دیجیتال، مدل «همکاری انسان و ماشین» است؛ مدلی که در آن فناوری هوش مصنوعی بهعنوان لایهای تحلیلی عمل میکند و تصمیم نهایی همچنان در اختیار متخصص انسانی باقی میماند.
این مطالعه برای سیاستگذاران یادآور یک اصل بنیادین است. در حوزههای پرمخاطره، نوآوری بدون حکمرانی دقیق میتواند به تهدید تبدیل شود. از همین روی، توسعه استانداردهای ارزیابی بالینی، الزام به شفافیت الگوریتمی و تعریف مسئولیت حقوقی ارائهدهندگان هوش مصنوعی از جمله اقداماتی هستند که باید در اولویت قرار گیرد. از سوی دیگر، برای شرکتهای فناوری نیز پیام روشن است و بر همین مبنا، رقابت بر سر عرضه سریعتر محصولات نباید جایگزین ایمنی شود. اعتماد عمومی در حوزه سلامت سرمایهای است که بهسادگی به دست نمیآید و با یک خطای پرهزینه میتواند از بین برود.
عبور از هیجان به بلوغ فناورانه
مطالعه دانشگاه آکسفورد را میتوان هشداری جدی به اکوسیستم فناوری و بهویژه بازیگران حوزه سلامت دیجیتال دانست؛ هشداری که نشان میدهد مسیر تبدیل هوش مصنوعی به یک بازیگر قابل اتکا در پزشکی، بهمراتب پیچیدهتر و طولانیتر از آن چیزی است که روایتهای تبلیغاتی و گفتمانهای فناورمحور ترسیم میکنند.
طی سالهای اخیر، نوعی خوشبینی افراطی نسبت به کاربردهای پزشکی هوش مصنوعی شکل گرفته است؛ گویی افزایش توان محاسباتی و دسترسی به دادههای بزرگ، بهتنهایی برای خلق یک نظام تصمیمیار ایمن کافی است. با این حال، واقعیت آن است که پزشکی صرفاً یک مسئله داده محور نیست، بلکه ترکیبی از قضاوت بالینی، تجربه انسانی، درک زمینهای و مدیریت عدم قطعیت محسوب میشود؛ مؤلفههایی که بازتولید کامل آنها در قالب مدلهای زبانی هنوز با چالشهای بنیادین مواجه است.
هوش مصنوعی بدون تردید ظرفیت بازآفرینی نظام سلامت را دارد و میتواند در میانمدت به یکی از پیشرانهای اصلی بهرهوری در این بخش، از کاهش خطاهای اداری و تسریع فرآیندهای تشخیصی گرفته تا شخصیسازی درمان و بهبود مدیریت منابع بیمارستانی، تبدیل شود. اما در مقطع کنونی، فاصلهای معنادار میان توانمندی نظری این فناوری و آمادگی عملیاتی آن در محیطهای واقعی درمان وجود دارد. بسیاری از مدلها در شرایط کنترلشده عملکرد قابل قبولی دارند اما هنگامی که با پیچیدگیهای دنیای واقعی، مانند علائم دارای همپوشانی، سوابق پزشکی ناقص، تفاوتهای فرهنگی در توصیف درد یا حتی خطاهای ورودی کاربر، مواجه میشوند، سطح اطمینانپذیری آنها کاهش مییابد.
از همین روی، تا زمانی که این شکاف ساختاری پر نشود، اتکا به هوش مصنوعی برای اتخاذ تصمیمات حوزه پزشکی باید با احتیاط حداکثری، نظارت تخصصی و استقرار چارچوبهای حرفهای و تنظیمگرانه همراه باشد؛ چارچوبهایی که مسئولیتپذیری، قابلیت ممیزی و شفافیت الگوریتمی را تضمین کنند.
این یافتهها یادآور ضرورت عبور از فاز «هیجان فناورانه» و ورود به مرحله «بلوغ نهادی» در بهکارگیری هوش مصنوعی است. نظامهای سلامت نمیتوانند صرفاً مصرفکننده فناوری باشند؛ آنها باید سازوکارهای ارزیابی بالینی، استانداردهای ایمنی و پروتکلهای ادغام هوش مصنوعی در فرآیندهای درمانی را بهصورت فعال طراحی کنند. در غیر این صورت، خطر شکلگیری وابستگی زودهنگام به ابزارهایی که هنوز به سطح کافی از قابلیت اتکا نرسیدهاند، افزایش خواهد یافت.
در نهایت، شاید مهمترین درس این پژوهش آن باشد که در فناوریهای حساس و پرمخاطره، «توانستن» الزاماً به معنای «آماده بودن» برای یک امر نیست. تاریخ تحول فناوری بارها نشان داده است که فاصله میان امکان فنی و پذیرش ایمن اجتماعی میتواند قابل توجه باشد. بنابراین، آینده موفق هوش مصنوعی در پزشکی نه در شتابزدگی برای جایگزینی پزشکان، بلکه در توسعه تدریجی، آزمونهای میدانی سختگیرانه و شکلدهی به مدلهای همکاری انسان و ماشین رقم خواهد خورد.
منبع: مهر
مسئولیت این خبر با سایت منبع و جالبتر در قبال آن مسئولیتی ندارد. خواهشمندیم در صورت وجود هرگونه مشکل در محتوای آن، در نظرات همین خبر گزارش دهید تا اصلاح گردد.

