هوش مصنوعی مشاور پزشکی قابل اعتمادی نیست

تحقیقات جدید نشان میدهد که استفاده از چتباتها برای تشخیص بیماریها نه تنها به افراد کمکی نمیکند، بلکه ممکن است تفسیر پاسخهای این ابزارها نیز برای کاربران دشوار باشد.
به گزارش تک کرانچ، در شرایطی که فهرستهای انتظار طولانی پزشکان و هزینههای بالای خدمات درمانی مردم را به سمت چتباتها مانند چت جیپیتی برای مشاوره پزشکی سوق داده، یک تحقیق جدید به رهبری پژوهشگران دانشگاه آکسفورد نشان میدهد که اعتماد بیش از حد به این سیستمها میتواند خطرناک باشد. از آنجا که کاربران معمولاً از نحوه ارائه اطلاعات به چتباتها مطمئن نیستند، نتایج حاصل از آنها اغلب ناکارآمد و گمراهکننده است.
بیشتر بخوانید
آدام مهدی، مدیر تحصیلات تکمیلی در مؤسسه اینترنت آکسفورد و یکی از نویسندگان این تحقیق، اظهار داشت: نتایج تحقیق ما نشان میدهد که ارتباط با چتباتها در اغلب مواقع ناتوان از ارائه تصمیمات بهتر نسبت به روشهای سنتی مانند جستجوی آنلاین یا قضاوت شخصی بوده است.
این تحقیق شامل ۱۳۰۰ نفر در بریتانیا بود که به آنها سناریوهای پزشکی واقعی داده شد که توسط گروهی از پزشکان طراحی شده بود. شرکتکنندگان موظف بودند با استفاده از چتباتها و روشهای خود، بیماریها را شناسایی کرده و اقدامات درمانی مناسب را تعیین کنند.
در این مطالعه، از مدلهای هوش مصنوعی مانند چت جیپیتی ۴.۰، Command R+ از کوهر و Llama۳ از متا استفاده شد. نتایج نشان داد که چتباتها نه تنها شانس شناسایی صحیح وضعیتهای سلامتی توسط شرکتکنندگان را کاهش دادند، بلکه بهطور معناداری احتمال دست پایین گرفتن شدت بیماریها را افزایش دادند.
آدام مهدی توضیح داد: در بسیاری از موارد، شرکتکنندگان هنگام استفاده از چتباتها نتواستهاند جزئیات مهم را ارائه دهند یا پاسخهایی دریافت کردهاند که تفسیر آنها برایشان دشوار بوده است.
این تحقیق در حالی منتشر میشود که شرکتهای فناوری بهطور فزایندهای در حال ترویج استفاده از هوش مصنوعی به عنوان ابزاری برای بهبود نتایج سلامت هستند. اما نتایج این مطالعه نشان میدهد که برای استفاده مؤثر از هوش مصنوعی در مراقبتهای پزشکی، بهویژه در تشخیص بیماریها، باید دقت بیشتری صورت گیرد.
انتهای پیام/
Authors: صاحبخبران - جدیدترین و آخرین اخبار ایران و جهان - علمی-فناوری