به گزارش صدای شهر برنا – گروه علمی و فناوری: شرکت آنتروپیک ویژگی جدیدی برای مدل‌های Claude Opus ۴ و ۴.۱ معرفی کرد که به آنها امکان می‌دهد در موارد نادر و شدید، گفت‌و‌گو‌های مضر یا آزاردهنده با کاربران را پایان دهند. شرکت آنتروپیک ویژگی جدیدی را برای دو مدل هوش مصنوعی خود، Claude Opus ۴ و ۴.۱، معرفی کرده است که به آنها اجازه می‌دهد در شرایط نادر، گفت‌و‌گو با کاربران را پایان دهند. این ویژگی تنها در «موارد شدید و مداوم تعاملات مضر یا سوءاستفاده‌آمیز کاربران» فعال می‌شود.

به گزارش تک کرانچ، طبق اعلام آنتروپیک، مدل‌ها می‌توانند در مواقعی که کاربران درخواست محتوای جنسی مرتبط با کودکان یا تلاش برای جمع‌آوری اطلاعات برای خشونت گسترده و تروریسم دارند، گفت‌و‌گو را پایان دهند. این اقدام تنها زمانی انجام می‌شود که تمامی تلاش‌ها برای هدایت مجدد گفت‌و‌گو ناموفق باشد و امید به یک تعامل مفید از بین رفته باشد.
در صورت پایان یافتن گفت‌و‌گو، کاربران دیگر نمی‌توانند در همان چت پیام جدید ارسال کنند، اما می‌توانند گفت‌وگوی جدیدی را آغاز کنند یا پیام‌های قبلی را ویرایش و دوباره ارسال کنند.
آنتروپیک همچنین اعلام کرد این ویژگی بخشی از برنامه تحقیقاتی این شرکت برای بررسی «رفاه هوش مصنوعی» است و بیشتر کاربران حتی در موضوعات بحث‌برانگیز تجربه کوتاه شدن گفت‌و‌گو توسط Claude را نخواهند داشت. این شرکت همچنان در حال آزمایش این ویژگی است و از کاربران می‌خواهد بازخورد خود را ارائه دهند.
انتهای پیام/

Source link

سهام:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *