تحقیقات مشکلات و فرصت‌هایی را برای هوش مصنوعی مولد در سیستم‌های پیام‌رسانی بیماران شناسایی می‌کند


چت آنلاین

اعتبار: دامنه عمومی Pixabay/CC0

یک مطالعه جدید توسط محققین Mass General Brigham نشان می‌دهد که مدل‌های زبان بزرگ (LLM)، نوعی هوش مصنوعی مولد، ممکن است به کاهش حجم کاری پزشک و بهبود آموزش بیمار در هنگام استفاده برای پیش‌نویس پاسخ‌ها به پیام‌های بیمار کمک کند.

این مطالعه همچنین محدودیت‌هایی را برای LLM پیدا کرد که ممکن است بر ایمنی بیمار تأثیر بگذارد، و نشان می‌دهد که نظارت هوشیارانه بر ارتباطات ایجاد شده توسط LLM برای استفاده ایمن ضروری است. یافته ها، منتشر شده در سلامت دیجیتال Lancet، بر نیاز به یک رویکرد سنجیده برای اجرای LLM تاکید می کند.

افزایش مسئولیت های اداری و اسنادی به افزایش فرسودگی شغلی پزشکان کمک کرده است. فروشندگان پرونده الکترونیک سلامت (EHR) برای کمک به ساده‌سازی و خودکارسازی گردش‌های کاری پزشک، الگوریتم‌های هوش مصنوعی مولد را برای کمک به پزشکان در تهیه پیش‌نویس پیام‌ها به بیماران، اتخاذ کرده‌اند. با این حال، کارایی، ایمنی و تاثیر بالینی استفاده از آنها ناشناخته بود.

دانیل بیترمن، نویسنده مسئول، MD، عضو هیئت علمی در هوش مصنوعی در پزشکی، گفت: «هوش مصنوعی مولد این پتانسیل را دارد که سناریوی «بهترین از هر دو دنیا» را برای کاهش بار روی پزشک و آموزش بهتر بیمار در این فرآیند ارائه دهد. AIM) برنامه در ماس جنرال بریگام و یک پزشک در بخش انکولوژی رادیویی در بیمارستان زنان و بریگام.

با این حال، بر اساس تجربه تیم ما در کار با LLM ها، ما نگرانی هایی در مورد خطرات بالقوه مرتبط با ادغام LLM ها در سیستم های پیام رسانی داریم. با رایج شدن روزافزون ادغام LLM در EHR، هدف ما در این مطالعه شناسایی مزایا و کاستی های مربوطه بود. “

برای این مطالعه، محققان از OpenAI’s GPT-4، یک LLM پایه، برای ایجاد 100 سناریو در مورد بیماران مبتلا به سرطان و یک سوال بیمار همراه استفاده کردند. هیچ سوالی از بیماران واقعی برای مطالعه استفاده نشد. شش انکولوژیست تشعشع به صورت دستی به سوالات پاسخ دادند. سپس، GPT-4 پاسخ هایی به سوالات ایجاد کرد.

در نهایت، همان انکولوژیست های تشعشع با پاسخ های تولید شده توسط LLM برای بررسی و ویرایش ارائه شدند. انکولوژیست های تشعشع نمی دانستند که آیا GPT-4 یا یک انسان پاسخ ها را نوشته است، و در 31٪ موارد، معتقد بودند که یک پاسخ تولید شده توسط LLM توسط یک انسان نوشته شده است.

به طور متوسط، پاسخ‌های پیش‌نویس‌شده توسط پزشک کوتاه‌تر از پاسخ‌های تولید شده توسط LLM بود. GPT-4 تمایل داشت که زمینه های آموزشی بیشتری را برای بیماران در بر گیرد، اما در دستورالعمل های خود دستورالعمل کمتری داشت. پزشکان گزارش کردند که کمک LLM کارایی درک شده آنها را بهبود می بخشد و پاسخ های ایجاد شده توسط LLM را در 82.1 درصد موارد بی خطر و در 58.3 درصد موارد برای ارسال به بیمار بدون ویرایش بیشتر قابل قبول می دانند.

محققان همچنین برخی کاستی‌ها را شناسایی کردند: اگر ویرایش نشوند، 7.1 درصد از پاسخ‌های ایجاد شده توسط LLM می‌تواند خطری برای بیمار به همراه داشته باشد و 0.6 درصد از پاسخ‌ها می‌تواند خطر مرگ را به همراه داشته باشد، اغلب به این دلیل که پاسخ GPT-4 به طور فوری به بیمار دستور نمی‌دهد. برای جستجوی مراقبت های پزشکی فوری

قابل‌توجه، پاسخ‌های LLM تولید شده/ویرایش شده توسط پزشک از نظر طول و محتوا بیشتر شبیه پاسخ‌های تولید شده توسط LLM در مقایسه با پاسخ‌های دستی بودند. در بسیاری از موارد، پزشکان محتوای آموزشی تولید شده توسط LLM را حفظ کردند، که نشان می دهد آن را ارزشمند می دانستند. در حالی که این ممکن است آموزش به بیمار را ارتقا دهد، محققان تاکید می‌کنند که اتکای بیش از حد به LLM ممکن است با توجه به کاستی‌های نشان‌داده‌شده آن‌ها، خطراتی را نیز به همراه داشته باشد.

در ادامه، نویسندگان این مطالعه در حال بررسی چگونگی درک بیماران از ارتباطات مبتنی بر LLM و چگونگی تأثیر ویژگی‌های نژادی و جمعیتی بیماران بر پاسخ‌های تولید شده توسط LLM، بر اساس سوگیری‌های الگوریتمی شناخته شده در LLM هستند.

Bitterman گفت: “در جریان نگه داشتن یک انسان یک گام ایمنی ضروری برای استفاده از هوش مصنوعی در پزشکی است، اما این یک راه حل واحد نیست.”

“از آنجایی که ارائه دهندگان بیشتر به LLM ها متکی هستند، ممکن است خطاهایی که می تواند منجر به آسیب به بیمار شود را از دست بدهیم. این مطالعه نیاز به سیستم هایی برای نظارت بر کیفیت LLM ها، آموزش به پزشکان برای نظارت مناسب بر خروجی LLM، سواد هوش مصنوعی بیشتر برای بیماران و پزشکان را نشان می دهد. و در یک سطح اساسی، درک بهتری از نحوه رسیدگی به خطاهایی که LLM ها مرتکب می شوند.”

اطلاعات بیشتر:
چن، اس و همکاران. تأثیر استفاده از یک مدل زبان بزرگ برای پاسخ به پیام های بیمار، سلامت دیجیتال Lancet (2024). DOI: 10.1016/S2589-7500(24)00060-8/

ارائه شده توسط Mass General Brigham

نقل قول: تحقیقات تله‌ها و فرصت‌هایی را برای هوش مصنوعی مولد در سیستم‌های پیام‌رسان بیمار شناسایی می‌کند (2024، 24 آوریل) بازیابی شده در 24 آوریل 2024 از https://medicalxpress.com/news/2024-04-pitfalls-opportunities-generative-ai-patient.html

این برگه یا سند یا نوشته تحت پوشش قانون کپی رایت است. به غیر از هرگونه معامله منصفانه به منظور مطالعه یا تحقیق خصوصی، هیچ بخشی بدون اجازه کتبی قابل تکثیر نیست. محتوای مذکور فقط به هدف اطلاع رسانی ایجاد شده است.