به گزارش صدای شهر نتایج تحقیقات جدید در بریتانیا نشان می‌دهد که مدل‌های هوش مصنوعی در خلاصه‌سازی پرونده‌های پزشکی، ممکن است مشکلات و نیاز‌های زنان را کمتر از حد واقعی گزارش کنند که این موضوع می‌تواند منجر به کاهش کیفیت مراقبت‌های پزشکی برای آنها شود.

به گزارش انگجت، این مطالعه که توسط دانشکده اقتصاد و علوم سیاسی لندن انجام شده و دو مدل بزرگ زبانی متا و گوگل را بررسی کرد. نتایج این پژوهش نشان داد که مدل گوگل در خلاصه‌سازی پرونده‌ها، ویژگی‌های منفی مانند «ناتوانی» و «پیچیدگی» را در مورد بیماران زن کمتر گزارش می‌کند و به جای آن، وضعیت آنها را به گونه‌ای مثبت‌تر و کم‌اهمیت‌تر توصیف می‌کند. برای مثال پرونده یک بیمار مرد با سابقه پزشکی پیچیده و مشکلات تحرکی به دقت بازگو شده، اما همان پرونده برای یک بیمار زن به صورت فردی مستقل و مراقب از خود توصیف شده است.
محققان هشدار دادند این تبعیض در هوش مصنوعی می‌تواند باعث شود زنان مراقبت کمتری دریافت کنند، زیرا میزان خدمات پزشکی بر اساس نیاز‌های درک شده تعیین می‌شود. علاوه بر این، آنها تأکید کردند که در حال حاضر مشخص نیست کدام مدل‌ها در سیستم‌های بهداشتی بریتانیا استفاده می‌شوند و این موضوع نگرانی‌هایی درباره شفافیت و مسئولیت‌پذیری ایجاد کرده است.
سم ریکمن، نویسنده اصلی این تحقیق گفت: «مدل‌های مختلف هوش مصنوعی تبعیض‌های متفاوتی دارند و مدل گوگل به ویژه تمایل دارد مشکلات روانی و جسمی زنان را کمتر ببیند. این مساله می‌تواند پیامد‌های جدی برای کیفیت مراقبت‌های پزشکی داشته باشد.»
انتهای پیام/

Source link

سهام:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *