یک مطالعه جدید مبتنی بر هوش مصنوعی Bing مایکروسافت کمک خلبان نیاز به احتیاط را هنگام استفاده از ابزار برای اطلاعات پزشکی نشان می دهد.
یافته ها، منتشر شده در Scimex، نشان می دهد که بسیاری از پاسخ های چت بات برای درک کامل نیاز به آموزش پیشرفته دارند و تقریباً 40 درصد از توصیه های آن با اجماع علمی در تضاد است. به طور نگران کننده ای، نزدیک به 1 از 4 پاسخ به طور بالقوه مضر تلقی می شد و در صورت پیگیری، خطر ایجاد آسیب شدید یا حتی مرگ وجود داشت.
سوالاتی در مورد 50 داروی تجویز شده در ایالات متحده
محققان از Microsoft Copilot با 10 سؤال متداول از بیمار در مورد 50 داروی تجویز شده در بازار سرپایی ایالات متحده در سال 2020 سؤال کردند. این سؤالات موضوعاتی مانند اندیکاسیون داروها، مکانیسمهای اثر، دستورالعملهای مصرف، واکنشهای نامطلوب احتمالی و موارد منع مصرف را پوشش میدهد.
استفاده کردند امتیاز آسان خواندن Flesch برای برآورد سطح آموزشی مورد نیاز برای درک یک متن خاص. نمره بین 0 تا 30 نشان دهنده یک متن بسیار دشوار برای خواندن است که نیاز به مدرک تحصیلی دارد. برعکس، نمره بین 91 تا 100 به این معنی است که متن بسیار آسان برای خواندن و مناسب برای کودکان 11 ساله است.
میانگین کلی نمره گزارش شده در این مطالعه 37 است، به این معنی که خواندن اکثر پاسخ های چت بات دشوار است. حتی بالاترین خوانایی پاسخهای رباتهای گفتگو همچنان مستلزم سطح تحصیلات عالی یا متوسطه است.
علاوه بر این، کارشناسان تشخیص دادند که:
- 54 درصد از پاسخهای ربات چت با اجماع علمی مطابقت داشتند، در حالی که 39 درصد از پاسخها با اجماع علمی در تضاد بودند.
- 42 درصد از پاسخ ها منجر به آسیب متوسط یا خفیف در نظر گرفته شد.
- 36 درصد از پاسخ ها منجر به بدون آسیب در نظر گرفته شد.
- 22 درصد منجر به آسیب شدید یا مرگ در نظر گرفته شد.
ببینید: مایکروسافت 365 Copilot Wave 2 صفحات Copilot را معرفی کرد، یک بوم همکاری جدید
استفاده از هوش مصنوعی در صنعت سلامت
هوش مصنوعی مدتی است که بخشی از صنعت مراقبت های بهداشتی بوده و کاربردهای مختلفی را برای بهبود نتایج بیماران و بهینه سازی عملیات مراقبت های بهداشتی ارائه می دهد.
هوش مصنوعی نقش مهمی در تجزیه و تحلیل تصاویر پزشکی ایفا کرده است و به تشخیص زودهنگام بیماری ها یا تسریع در تفسیر تصاویر پیچیده کمک می کند. همچنین با پردازش مجموعه داده های وسیع به شناسایی نامزدهای دارویی جدید کمک می کند. علاوه بر این، هوش مصنوعی از متخصصان سلامت پشتیبانی می کند کاهش بار کاری در بیمارستان ها.
در خانه، دستیارهای مجازی مجهز به هوش مصنوعی می توانند به بیماران در انجام کارهای روزانه، مانند یادآوری دارو، برنامه ریزی قرار ملاقات، و ردیابی علائم کمک کنند.
استفاده از موتورهای جستجو برای به دست آوردن اطلاعات بهداشتی، به ویژه در مورد داروها، گسترده است. با این حال، ادغام رو به رشد چت ربات های مبتنی بر هوش مصنوعی در این زمینه تا حد زیادی ناشناخته باقی مانده است.
یک جدا مطالعه کنید توسط محققان بلژیکی و آلمانی که در ژورنال BMJ Quality & Safety منتشر شده است، استفاده از چت ربات های مبتنی بر هوش مصنوعی را برای پرس و جوهای مربوط به سلامت مورد بررسی قرار داد. محققان مطالعه خود را با استفاده از خلبان هوش مصنوعی Bing مایکروسافت انجام دادند و خاطرنشان کردند که «چت رباتهای مجهز به هوش مصنوعی قادر به ارائه اطلاعات کلی کامل و دقیق داروهای بیمار هستند. با این حال، کارشناسان تعداد قابل توجهی از پاسخ ها را نادرست یا به طور بالقوه مضر ارزیابی کردند.
برای مشاوره پزشکی با یک متخصص مراقبت های بهداشتی مشورت کنید
محققان مطالعه Scimex خاطرنشان کردند که ارزیابی آنها شامل تجربه واقعی بیمار نمیشود و اعلانها به زبانهای دیگر یا کشورهای مختلف میتواند بر کیفیت پاسخهای ربات چت تأثیر بگذارد.
آنها همچنین اظهار داشتند که مطالعه آنها نشان می دهد که چگونه موتورهای جستجو با چت ربات های مجهز به هوش مصنوعی می توانند پاسخ های دقیقی به سوالات متداول بیماران در مورد درمان های دارویی ارائه دهند. با این حال، این پاسخها، اغلب پیچیده، «اطلاعات مضر بالقوه ارائه شده مکرر میتواند ایمنی بیمار و دارو را به خطر بیندازد». آنها بر اهمیت مشاوره بیماران با متخصصان مراقبت های بهداشتی تاکید کردند، زیرا پاسخ های چت بات ممکن است همیشه اطلاعات بدون خطا تولید نکنند.
علاوه بر این، استفاده مناسبتر از چتباتها برای اطلاعات مرتبط با سلامتی ممکن است برای جستجوی توضیحاتی در مورد اصطلاحات پزشکی یا به دست آوردن اطلاعات بهتر باشد. درک از زمینه و استفاده صحیح از داروهای تجویز شده توسط یک متخصص مراقبت های بهداشتی.
افشاگری: من برای Trend Micro کار می کنم، اما نظرات بیان شده در این مقاله از آن من است.
منبع: https://www.techrepublic.com/article/copilot-ai-medical-advice-harm/