به گزارش صدای شهر برنا – گروه علمی و فناوری: شرکت آنتروپیک ویژگی جدیدی برای مدلهای Claude Opus ۴ و ۴.۱ معرفی کرد که به آنها امکان میدهد در موارد نادر و شدید، گفتوگوهای مضر یا آزاردهنده با کاربران را پایان دهند. شرکت آنتروپیک ویژگی جدیدی را برای دو مدل هوش مصنوعی خود، Claude Opus ۴ و ۴.۱، معرفی کرده است که به آنها اجازه میدهد در شرایط نادر، گفتوگو با کاربران را پایان دهند. این ویژگی تنها در «موارد شدید و مداوم تعاملات مضر یا سوءاستفادهآمیز کاربران» فعال میشود.
به گزارش تک کرانچ، طبق اعلام آنتروپیک، مدلها میتوانند در مواقعی که کاربران درخواست محتوای جنسی مرتبط با کودکان یا تلاش برای جمعآوری اطلاعات برای خشونت گسترده و تروریسم دارند، گفتوگو را پایان دهند. این اقدام تنها زمانی انجام میشود که تمامی تلاشها برای هدایت مجدد گفتوگو ناموفق باشد و امید به یک تعامل مفید از بین رفته باشد.
در صورت پایان یافتن گفتوگو، کاربران دیگر نمیتوانند در همان چت پیام جدید ارسال کنند، اما میتوانند گفتوگوی جدیدی را آغاز کنند یا پیامهای قبلی را ویرایش و دوباره ارسال کنند.
آنتروپیک همچنین اعلام کرد این ویژگی بخشی از برنامه تحقیقاتی این شرکت برای بررسی «رفاه هوش مصنوعی» است و بیشتر کاربران حتی در موضوعات بحثبرانگیز تجربه کوتاه شدن گفتوگو توسط Claude را نخواهند داشت. این شرکت همچنان در حال آزمایش این ویژگی است و از کاربران میخواهد بازخورد خود را ارائه دهند.
انتهای پیام/
Source link