به گزارش صدای شهر نتایج یک پژوهش تازه نشان می‌دهد که سامانه‌های هوش مصنوعی گفت‌وگومحور، مانند چت‌بات‌ها، هنوز قادر به جلوگیری مؤثر از انتشار اخبار جعلی در حوزه سلامت نیستند. 

به گزارش فیز، تیمی از پژوهشگران دانشگاه فلیندرز استرالیا با بررسی عملکرد پنج مدل زبانی پیشرفته شامل GPT-۴o، Gemini ۱.۵ Pro، Claude ۳.۵ Sonnet، LLaMA ۳.۲، ۹۰B Vision و Grok Beta، نقاط ضعف قابل توجهی را در سامانه‌های ایمنی این ابزار‌ها شناسایی کردند.
در این مطالعه، چت‌بات‌های سفارشی‌شده با دستورالعمل‌هایی خاص طراحی شدند تا به‌صورت سیستماتیک به تولید پاسخ‌های نادرست درباره موضوعات حساس سلامت از جمله ایمنی واکسن‌ها، اچ‌آی‌وی و افسردگی بپردازند. این پاسخ‌ها نه‌تنها شامل اطلاعات جعلی بودند، بلکه با ارجاعات ساختگی به منابع علمی و لحن آمرانه، سعی در معتبر جلوه‌دادن محتوا داشتند.
نتایج آزمایش‌ها نشان داد که ۸۸ درصد از پاسخ‌هایی که این چت‌بات‌ها ارائه دادند، حاوی اطلاعات نادرست بودند. در این میان، GPT-۴o، Gemini، LLaMA و Grok بیشترین میزان اخبار جعلی را تولید کردند. تنها Claude ۳.۵ Sonnet عملکرد ایمن‌تری داشت و توانست نرخ انتشار اطلاعات جعلی را به ۴۰ درصد کاهش دهد.
این یافته‌ها نگرانی‌ها درباره آسیب‌پذیری هوش مصنوعی در برابر سوءاستفاده برای نشر اطلاعات نادرست را تشدید کرده و اهمیت توسعه بیشتر سامانه‌های ایمنی و نظارتی را برجسته می‌سازد.
انتهای پیام/
[ad_2]
Source link

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *