یک مطالعه جدید توسط محققین Mass General Brigham نشان میدهد که مدلهای زبان بزرگ (LLM)، نوعی هوش مصنوعی مولد، ممکن است به کاهش حجم کاری پزشک و بهبود آموزش بیمار در هنگام استفاده برای پیشنویس پاسخها به پیامهای بیمار کمک کند.
این مطالعه همچنین محدودیتهایی را برای LLM پیدا کرد که ممکن است بر ایمنی بیمار تأثیر بگذارد، و نشان میدهد که نظارت هوشیارانه بر ارتباطات ایجاد شده توسط LLM برای استفاده ایمن ضروری است. یافته ها، منتشر شده در سلامت دیجیتال Lancet، بر نیاز به یک رویکرد سنجیده برای اجرای LLM تاکید می کند.
افزایش مسئولیت های اداری و اسنادی به افزایش فرسودگی شغلی پزشکان کمک کرده است. فروشندگان پرونده الکترونیک سلامت (EHR) برای کمک به سادهسازی و خودکارسازی گردشهای کاری پزشک، الگوریتمهای هوش مصنوعی مولد را برای کمک به پزشکان در تهیه پیشنویس پیامها به بیماران، اتخاذ کردهاند. با این حال، کارایی، ایمنی و تاثیر بالینی استفاده از آنها ناشناخته بود.
دانیل بیترمن، نویسنده مسئول، MD، عضو هیئت علمی در هوش مصنوعی در پزشکی، گفت: «هوش مصنوعی مولد این پتانسیل را دارد که سناریوی «بهترین از هر دو دنیا» را برای کاهش بار روی پزشک و آموزش بهتر بیمار در این فرآیند ارائه دهد. AIM) برنامه در ماس جنرال بریگام و یک پزشک در بخش انکولوژی رادیویی در بیمارستان زنان و بریگام.
با این حال، بر اساس تجربه تیم ما در کار با LLM ها، ما نگرانی هایی در مورد خطرات بالقوه مرتبط با ادغام LLM ها در سیستم های پیام رسانی داریم. با رایج شدن روزافزون ادغام LLM در EHR، هدف ما در این مطالعه شناسایی مزایا و کاستی های مربوطه بود. “
برای این مطالعه، محققان از OpenAI’s GPT-4، یک LLM پایه، برای ایجاد 100 سناریو در مورد بیماران مبتلا به سرطان و یک سوال بیمار همراه استفاده کردند. هیچ سوالی از بیماران واقعی برای مطالعه استفاده نشد. شش انکولوژیست تشعشع به صورت دستی به سوالات پاسخ دادند. سپس، GPT-4 پاسخ هایی به سوالات ایجاد کرد.
در نهایت، همان انکولوژیست های تشعشع با پاسخ های تولید شده توسط LLM برای بررسی و ویرایش ارائه شدند. انکولوژیست های تشعشع نمی دانستند که آیا GPT-4 یا یک انسان پاسخ ها را نوشته است، و در 31٪ موارد، معتقد بودند که یک پاسخ تولید شده توسط LLM توسط یک انسان نوشته شده است.
به طور متوسط، پاسخهای پیشنویسشده توسط پزشک کوتاهتر از پاسخهای تولید شده توسط LLM بود. GPT-4 تمایل داشت که زمینه های آموزشی بیشتری را برای بیماران در بر گیرد، اما در دستورالعمل های خود دستورالعمل کمتری داشت. پزشکان گزارش کردند که کمک LLM کارایی درک شده آنها را بهبود می بخشد و پاسخ های ایجاد شده توسط LLM را در 82.1 درصد موارد بی خطر و در 58.3 درصد موارد برای ارسال به بیمار بدون ویرایش بیشتر قابل قبول می دانند.
محققان همچنین برخی کاستیها را شناسایی کردند: اگر ویرایش نشوند، 7.1 درصد از پاسخهای ایجاد شده توسط LLM میتواند خطری برای بیمار به همراه داشته باشد و 0.6 درصد از پاسخها میتواند خطر مرگ را به همراه داشته باشد، اغلب به این دلیل که پاسخ GPT-4 به طور فوری به بیمار دستور نمیدهد. برای جستجوی مراقبت های پزشکی فوری
قابلتوجه، پاسخهای LLM تولید شده/ویرایش شده توسط پزشک از نظر طول و محتوا بیشتر شبیه پاسخهای تولید شده توسط LLM در مقایسه با پاسخهای دستی بودند. در بسیاری از موارد، پزشکان محتوای آموزشی تولید شده توسط LLM را حفظ کردند، که نشان می دهد آن را ارزشمند می دانستند. در حالی که این ممکن است آموزش به بیمار را ارتقا دهد، محققان تاکید میکنند که اتکای بیش از حد به LLM ممکن است با توجه به کاستیهای نشاندادهشده آنها، خطراتی را نیز به همراه داشته باشد.
در ادامه، نویسندگان این مطالعه در حال بررسی چگونگی درک بیماران از ارتباطات مبتنی بر LLM و چگونگی تأثیر ویژگیهای نژادی و جمعیتی بیماران بر پاسخهای تولید شده توسط LLM، بر اساس سوگیریهای الگوریتمی شناخته شده در LLM هستند.
Bitterman گفت: “در جریان نگه داشتن یک انسان یک گام ایمنی ضروری برای استفاده از هوش مصنوعی در پزشکی است، اما این یک راه حل واحد نیست.”
“از آنجایی که ارائه دهندگان بیشتر به LLM ها متکی هستند، ممکن است خطاهایی که می تواند منجر به آسیب به بیمار شود را از دست بدهیم. این مطالعه نیاز به سیستم هایی برای نظارت بر کیفیت LLM ها، آموزش به پزشکان برای نظارت مناسب بر خروجی LLM، سواد هوش مصنوعی بیشتر برای بیماران و پزشکان را نشان می دهد. و در یک سطح اساسی، درک بهتری از نحوه رسیدگی به خطاهایی که LLM ها مرتکب می شوند.”
اطلاعات بیشتر:
چن، اس و همکاران. تأثیر استفاده از یک مدل زبان بزرگ برای پاسخ به پیام های بیمار، سلامت دیجیتال Lancet (2024). DOI: 10.1016/S2589-7500(24)00060-8/
ارائه شده توسط Mass General Brigham
نقل قول: تحقیقات تلهها و فرصتهایی را برای هوش مصنوعی مولد در سیستمهای پیامرسان بیمار شناسایی میکند (2024، 24 آوریل) بازیابی شده در 24 آوریل 2024 از https://medicalxpress.com/news/2024-04-pitfalls-opportunities-generative-ai-patient.html
این برگه یا سند یا نوشته تحت پوشش قانون کپی رایت است. به غیر از هرگونه معامله منصفانه به منظور مطالعه یا تحقیق خصوصی، هیچ بخشی بدون اجازه کتبی قابل تکثیر نیست. محتوای مذکور فقط به هدف اطلاع رسانی ایجاد شده است.