دانشمندان پیش از استفاده از مدلهای هوش مصنوعی (AI) مانند ChatGPT در مراقبتهای بهداشتی برای جمعیتهای اقلیت قومی احتیاط میکنند. نوشتن در مجله انجمن سلطنتی پزشکیاپیدمیولوژیست ها در دانشگاه لستر و دانشگاه کمبریج می گویند که نابرابری های موجود برای اقلیت های قومی ممکن است به دلیل سوگیری های سیستمیک در داده های مورد استفاده ابزارهای هوش مصنوعی مراقبت های بهداشتی بیشتر شود.
مدلهای هوش مصنوعی باید با استفاده از دادههای استخراجشده از منابع مختلف مانند وبسایتهای مراقبتهای بهداشتی و تحقیقات علمی «آموزش داده شوند». با این حال، شواهد نشان می دهد که داده های قومیتی اغلب در تحقیقات مراقبت های بهداشتی وجود ندارد. اقلیت های قومی نیز کمتر در کارآزمایی های تحقیقاتی حضور دارند.
محمدعلی، دکتری. محقق اپیدمیولوژی در کالج علوم زندگی، دانشگاه لستر، میگوید: «این نمایندگی بهطور نامتناسبی پایینتر از اقلیتهای قومی در تحقیقات، شواهدی برای ایجاد آسیب دارد، بهعنوان مثال با ایجاد درمانهای دارویی یا دستورالعملهای درمانی ناکارآمد که میتواند نژادپرستانه تلقی شود. ادبیات منتشر شده از قبل دارای سوگیری ها و دقت کمتری است، منطقی است که مدل های آینده هوش مصنوعی آنها را حفظ کرده و بیشتر تشدید کنند.
محققان همچنین نگران این هستند که نابرابری سلامت در کشورهای با درآمد پایین و متوسط (LMIC) بدتر شود. مدلهای هوش مصنوعی عمدتاً در کشورهای ثروتمندتر مانند ایالات متحده و اروپا توسعه یافتهاند و تفاوت قابل توجهی در تحقیق و توسعه بین کشورهای با درآمد بالا و پایین وجود دارد.
محققان خاطرنشان میکنند که بیشتر تحقیقات منتشر شده، نیازهای افرادی را که در LMICs با چالشهای سلامت منحصربهفردشان، بهویژه در زمینه ارائه مراقبتهای بهداشتی، اولویتبندی نمیکنند. آنها میگویند که مدلهای هوش مصنوعی ممکن است بر اساس دادههای مربوط به جمعیتهای کاملاً متفاوت از آنهایی که در LMIC هستند، توصیههایی ارائه دهند.
به گفته محققان، در حالی که به رسمیت شناختن این مشکلات بالقوه بسیار مهم است، تمرکز بر راه حل ها نیز به همان اندازه مهم است. علی میگوید: «ما باید محتاط باشیم و اذعان کنیم که نمیتوانیم و نباید جلوی جریان پیشرفت را بگیریم.
محققان راههایی را برای غلبه بر نابرابریهای بالقوه تشدیدکننده سلامت پیشنهاد میکنند، که با نیاز به مدلهای هوش مصنوعی برای توصیف واضح دادههای مورد استفاده در توسعه آنها شروع میشود. آنها همچنین می گویند برای رسیدگی به نابرابری های بهداشتی قومی در تحقیقات، از جمله بهبود استخدام و ثبت اطلاعات قومیتی، کار لازم است. دادههای مورد استفاده برای آموزش مدلهای هوش مصنوعی باید بهاندازه کافی معرف، با در نظر گرفتن عوامل کلیدی مانند قومیت، سن، جنس و عوامل اجتماعی-اقتصادی باشد. همچنین برای درک استفاده از مدلهای هوش مصنوعی در زمینه جمعیتهای قومی متفاوت، تحقیقات بیشتری لازم است.
محققان میگویند با پرداختن به این ملاحظات، میتوان از قدرت مدلهای هوش مصنوعی برای ایجاد تغییرات مثبت در مراقبتهای بهداشتی و در عین حال ترویج عدالت و فراگیری استفاده کرد.
اطلاعات بیشتر:
پرداختن به نابرابریهای بهداشتی قومی و جهانی در عصر مدلهای مراقبت بهداشتی هوش مصنوعی: فراخوانی برای اجرای مسئولانه، مجله انجمن سلطنتی پزشکی (2023). DOI: 10.1177/01410768231187734
ارائه شده توسط انتشارات SAGE
نقل قولاپیدمیولوژیست ها (2023، 19 ژوئیه) می گویند: هوش مصنوعی نباید نابرابری های بهداشتی را برای جمعیت های اقلیت قومی بدتر کند که در 19 ژوئیه 2023 از https://medicalxpress.com/news/2023-07-ai-worsen-health-inequalities-ethnic.html بازیابی شده است.
این برگه یا سند یا نوشته تحت پوشش قانون کپی رایت است. به غیر از هرگونه معامله منصفانه به منظور مطالعه یا تحقیق خصوصی، هیچ بخشی بدون اجازه کتبی قابل تکثیر نیست. محتوای مذکور فقط به هدف اطلاع رسانی ایجاد شده است.