به گزارش صدای شهر نتایج تحقیقات جدید در بریتانیا نشان میدهد که مدلهای هوش مصنوعی در خلاصهسازی پروندههای پزشکی، ممکن است مشکلات و نیازهای زنان را کمتر از حد واقعی گزارش کنند که این موضوع میتواند منجر به کاهش کیفیت مراقبتهای پزشکی برای آنها شود.
به گزارش انگجت، این مطالعه که توسط دانشکده اقتصاد و علوم سیاسی لندن انجام شده و دو مدل بزرگ زبانی متا و گوگل را بررسی کرد. نتایج این پژوهش نشان داد که مدل گوگل در خلاصهسازی پروندهها، ویژگیهای منفی مانند «ناتوانی» و «پیچیدگی» را در مورد بیماران زن کمتر گزارش میکند و به جای آن، وضعیت آنها را به گونهای مثبتتر و کماهمیتتر توصیف میکند. برای مثال پرونده یک بیمار مرد با سابقه پزشکی پیچیده و مشکلات تحرکی به دقت بازگو شده، اما همان پرونده برای یک بیمار زن به صورت فردی مستقل و مراقب از خود توصیف شده است.
محققان هشدار دادند این تبعیض در هوش مصنوعی میتواند باعث شود زنان مراقبت کمتری دریافت کنند، زیرا میزان خدمات پزشکی بر اساس نیازهای درک شده تعیین میشود. علاوه بر این، آنها تأکید کردند که در حال حاضر مشخص نیست کدام مدلها در سیستمهای بهداشتی بریتانیا استفاده میشوند و این موضوع نگرانیهایی درباره شفافیت و مسئولیتپذیری ایجاد کرده است.
سم ریکمن، نویسنده اصلی این تحقیق گفت: «مدلهای مختلف هوش مصنوعی تبعیضهای متفاوتی دارند و مدل گوگل به ویژه تمایل دارد مشکلات روانی و جسمی زنان را کمتر ببیند. این مساله میتواند پیامدهای جدی برای کیفیت مراقبتهای پزشکی داشته باشد.»
انتهای پیام/
Source link