۱۴۰۴/۰۲/۱۶ - ۱۶:۱۵

هوش مصنوعی مشاور پزشکی خوبی نیست!

یک تحقیق نشان می دهد چت بات ها در تشخیص بیماری ها به افراد کمکی نمی کنند و حتی ممکن است تفسیر پاسخ های این ابزارها برای کاربران مشکل باشد.

هوش مصنوعی مشاور پزشکی خوبی نیست!

به گزارش سراج24؛ به نقل از تک کرانچ، بسیاری از افراد با توجه به فهرست های انتظار طولانی پزشکان و هزینه های خدمات درمانی سرسام آور سیستم های درمانی از چت بات هایی مانند چت جی پی تی برای تشخیص های پزشکی بیماری های خود استفاده می کنند.

اما طبق تحقیقی که به رهبری پژوهشگران دانشگاه آکسفورد انجام شده، اعتماد بیش از حد به خروجی چت بات ها خطرناک است به خصوص آنکه افراد نمی دانند برای دریافت بهترین توصیه های سلامتی ممکن چه اطلاعاتی به چت بات بدهند.

آدم مهدی مدیر تحصیلات تکمیلی در مؤسسه اینترنت آکسفورد و یکی از مولفان پژوهش در این باره می گوید: تحقیق ما نشان دهنده یک شکست در ارتباط دو طرفه است. افرادی که از چت بات ها استفاده کردند تصمیمات بهتری نسبت به افرادی که روش های سنتی مانند جستجوی آنلاین یا قضاوت را به کار بردند، نگرفتند.

مولفان این پژوهش حدود ۱۳۰۰ نفر در انگلیس را جذب کردند و به آنها سناریوهای پزشکی که توسط گروهی از پزشکان نوشته شده بود را دادند. شرکت کنندگان وظیفه داشتند بیماری های موجود در این سناریوها را با استفاده از چت بات ها و همچنین روش های خود شناسایی کنند تا اقدامات درمانی امکانپذیر را دریافتند.

شرکت کنندگان از مدل هوش مصنوعی چت جی پی تی ۴o همچنین Command R+ متعلق به کوهر و Llama۳ متا استفاده کردند. به گفته مولفان چت بات ها نه تنها احتمال شناسایی یک وضعیت سلامتی مرتبط توسط شرکت کنندگان را کاهش دادند بلکه احتمال دست پایین گرفتن شدت بیماری های شناسایی شده را بیشتر کردند.

به گفته مهدی بیشتر اوقات شرکت کنندگان هنگام جستجو با چت بات ها جزئیات کلیدی را حذف کردند یا پاسخ هایی دریافت کردند که تفسیر آنها مشکل بود.

نتایج این تحقیق در حالی منتشر شده که شرکتها سعی دارند هوش مصنوعی رابه عنوان روشی برای بهبود نتایج سلامتی ترویج کنند.

منبع: مهر
اشتراک گذاری
نظرات کاربران
هفته نامه الکترونیکی
هفته‌نامه الکترونیکی سراج۲۴ - شماره ۲۸۱
آخرین مطالب
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••