پرینت

هشدار: ChatGPT ممکن است درمان اشتباه تجویز کند!

on .

هشدار: ChatGPT ممکن است درمان اشتباه تجویز کند!
به گزارش خبرگزاری - [1]

به گزارش همشهری آنلاین[2]، پژوهشی تازه که نتایج آن در مجله Royal Society Open Science منتشر شده است، هشدار می‌دهد که نسخه‌های جدید ChatGPT و مدل‌های مشابه، نسبت به نسخه‌های قدیمی‌تر، بیشتر دچار اغراق، ساده‌سازی بیش از حد و تحریف مفاهیم علمی می‌شوند.

بر اساس این پژوهش، مدل‌های زبانی مثل ChatGPT طوری طراحی شده‌اند که پاسخ‌های ساده، روان و قابل‌فهم تولید کنند. اما همین ویژگی گاهی باعث می‌شود نکات مهمی از متن اصلی حذف شود یا تغییر معنا پیدا کند. برای مثال، در این پژوهش، یکی از مدل‌ها عبارتی مثل «این روش بی‌خطر است و می‌تواند با موفقیت انجام شود» را به «این یک درمان مؤثر و بی‌خطر است» تبدیل کرد، در حالی که در دنیای پزشکی، چنین تغییر کوچکی می‌تواند منجر به تجویز نادرست دارو یا درمان اشتباه شود.

  • مدل‌های هوش مصنوعی ۵ برابر بیشتر از انسان‌ها، نتایج علمی را بیش از حد کلی و اغراق‌آمیز ارائه می‌کنند.
  • حتی وقتی از این مدل‌ها خواسته می‌شود دقیق‌تر پاسخ دهند، باز هم احتمال خطا دو برابر می‌شود!
  • تنها مدلی که در همه آزمایش‌ها عملکرد مناسبی داشت، Claude از شرکت Anthropic بود.
  • یکی از رایج‌ترین خطاها، تبدیل داده‌های عددی (مثلاً دوز دارو) به عباراتی کلی مثل «مؤثر» یا «ایمن» است.

مدل‌های هوش مصنوعی مانند ChatGPT اکنون در کارهای روزمره پزشکان، خبرنگاران، و حتی کاربران عادی نقش دارند. اما وقتی این مدل‌ها بدون نظارت تخصصی در حوزه‌هایی مثل سلامت، علم یا آموزش استفاده شوند، ریسک بروز اشتباهات جدی وجود دارد.

به گفته دکتر اووه پیترز از دانشگاه بن آلمان که نقش اصلی را در این پژوهش به عهده داشت، این مدل‌ها مثل یک دستگاه کپی‌ هستند که لنزش خراب است، و هر نسخه‌ای که تولید می‌کنند، پررنگ‌تر و اغراق‌آمیزتر از نسخه اصلی است.

هشدار: ChatGPT ممکن است درمان اشتباه تجویز کند!

خطاهای این چنین نوعی سوگیری پنهان هستند که خیلی راحت نادیده گرفته می‌شوند، اما در دنیای پزشکی می‌توانند خطرناک باشند. به همین دلیل کارشناسان پیشنهاد می‌کنند که از مدل‌های زبانی مثل ChatGPT در حوزه‌های تخصصی، بدون نظارت انسانی استفاده نشود و در نهایت کاربران حرفه‌ای (مثل پزشکان یا پژوهشگران) باید خروجی این مدل‌ها را بازبینی و تأیید کنند، نه اینکه صرفاً به آن‌ها تکیه کنند.

در نهایت باید در نظر داشت که استفاده از هوش مصنوعی می‌تواند بسیار مفید باشد البته اگر درست از آن استفاده شود. اما اگر خلاصه‌سازی‌های ظاهراً ساده و مفید، منجر به حذف یا تحریف اطلاعات علمی شوند، نه تنها بی‌فایده، بلکه خطرناک خواهند بود.

[3][4]

References

  1. ^به گزارش خبرگزاری - (sahebkhabar.ir)
  2. ^همشهری آنلاین (www.hamshahrionline.ir)
  3. ^ (sahebkhabar.ir)
  4. ^ (sahebkhabar.ir)

Authors: صاحب‌خبران - جدیدترین و آخرین اخبار ایران و جهان - علمی-فناوری

آخرین اخبار چند رسانه ای

پیشنهادات امروزمون چیه؟

ads
ads2