اپیدمیولوژیست ها می گویند هوش مصنوعی نباید نابرابری های بهداشتی را برای اقلیت های قومی تشدید کند.


اطلاعات بزرگ

اعتبار: CC0 دامنه عمومی

دانشمندان پیش از استفاده از مدل‌های هوش مصنوعی (AI) مانند ChatGPT در مراقبت‌های بهداشتی برای جمعیت‌های اقلیت قومی احتیاط می‌کنند. نوشتن در مجله انجمن سلطنتی پزشکیاپیدمیولوژیست ها در دانشگاه لستر و دانشگاه کمبریج می گویند که نابرابری های موجود برای اقلیت های قومی ممکن است به دلیل سوگیری های سیستمیک در داده های مورد استفاده ابزارهای هوش مصنوعی مراقبت های بهداشتی بیشتر شود.

مدل‌های هوش مصنوعی باید با استفاده از داده‌های استخراج‌شده از منابع مختلف مانند وب‌سایت‌های مراقبت‌های بهداشتی و تحقیقات علمی «آموزش داده شوند». با این حال، شواهد نشان می دهد که داده های قومیتی اغلب در تحقیقات مراقبت های بهداشتی وجود ندارد. اقلیت های قومی نیز کمتر در کارآزمایی های تحقیقاتی حضور دارند.

محمدعلی، دکتری. محقق اپیدمیولوژی در کالج علوم زندگی، دانشگاه لستر، می‌گوید: «این نمایندگی به‌طور نامتناسبی پایین‌تر از اقلیت‌های قومی در تحقیقات، شواهدی برای ایجاد آسیب دارد، به‌عنوان مثال با ایجاد درمان‌های دارویی یا دستورالعمل‌های درمانی ناکارآمد که می‌تواند نژادپرستانه تلقی شود. ادبیات منتشر شده از قبل دارای سوگیری ها و دقت کمتری است، منطقی است که مدل های آینده هوش مصنوعی آنها را حفظ کرده و بیشتر تشدید کنند.

محققان همچنین نگران این هستند که نابرابری سلامت در کشورهای با درآمد پایین و متوسط ​​(LMIC) بدتر شود. مدل‌های هوش مصنوعی عمدتاً در کشورهای ثروتمندتر مانند ایالات متحده و اروپا توسعه یافته‌اند و تفاوت قابل توجهی در تحقیق و توسعه بین کشورهای با درآمد بالا و پایین وجود دارد.

محققان خاطرنشان می‌کنند که بیشتر تحقیقات منتشر شده، نیازهای افرادی را که در LMICs با چالش‌های سلامت منحصربه‌فردشان، به‌ویژه در زمینه ارائه مراقبت‌های بهداشتی، اولویت‌بندی نمی‌کنند. آنها می‌گویند که مدل‌های هوش مصنوعی ممکن است بر اساس داده‌های مربوط به جمعیت‌های کاملاً متفاوت از آن‌هایی که در LMIC هستند، توصیه‌هایی ارائه دهند.

به گفته محققان، در حالی که به رسمیت شناختن این مشکلات بالقوه بسیار مهم است، تمرکز بر راه حل ها نیز به همان اندازه مهم است. علی می‌گوید: «ما باید محتاط باشیم و اذعان کنیم که نمی‌توانیم و نباید جلوی جریان پیشرفت را بگیریم.

محققان راه‌هایی را برای غلبه بر نابرابری‌های بالقوه تشدیدکننده سلامت پیشنهاد می‌کنند، که با نیاز به مدل‌های هوش مصنوعی برای توصیف واضح داده‌های مورد استفاده در توسعه آنها شروع می‌شود. آنها همچنین می گویند برای رسیدگی به نابرابری های بهداشتی قومی در تحقیقات، از جمله بهبود استخدام و ثبت اطلاعات قومیتی، کار لازم است. داده‌های مورد استفاده برای آموزش مدل‌های هوش مصنوعی باید به‌اندازه کافی معرف، با در نظر گرفتن عوامل کلیدی مانند قومیت، سن، جنس و عوامل اجتماعی-اقتصادی باشد. همچنین برای درک استفاده از مدل‌های هوش مصنوعی در زمینه جمعیت‌های قومی متفاوت، تحقیقات بیشتری لازم است.

محققان می‌گویند با پرداختن به این ملاحظات، می‌توان از قدرت مدل‌های هوش مصنوعی برای ایجاد تغییرات مثبت در مراقبت‌های بهداشتی و در عین حال ترویج عدالت و فراگیری استفاده کرد.

اطلاعات بیشتر:
پرداختن به نابرابری‌های بهداشتی قومی و جهانی در عصر مدل‌های مراقبت بهداشتی هوش مصنوعی: فراخوانی برای اجرای مسئولانه، مجله انجمن سلطنتی پزشکی (2023). DOI: 10.1177/01410768231187734

ارائه شده توسط انتشارات SAGE

نقل قولاپیدمیولوژیست ها (2023، 19 ژوئیه) می گویند: هوش مصنوعی نباید نابرابری های بهداشتی را برای جمعیت های اقلیت قومی بدتر کند که در 19 ژوئیه 2023 از https://medicalxpress.com/news/2023-07-ai-worsen-health-inequalities-ethnic.html بازیابی شده است.

این برگه یا سند یا نوشته تحت پوشش قانون کپی رایت است. به غیر از هرگونه معامله منصفانه به منظور مطالعه یا تحقیق خصوصی، هیچ بخشی بدون اجازه کتبی قابل تکثیر نیست. محتوای مذکور فقط به هدف اطلاع رسانی ایجاد شده است.