به گزارش صدای شهر فاطمه مرادخانی: در جهان امروز که فشار‌های اجتماعی روزبه‌روز بیشتر می‌شود، بسیاری از انسان‌ها بیش از هر زمان دیگری با احساس تنهایی مواجه‌اند. در این میان، پیشرفت هوش مصنوعی دریچه‌ای تازه را گشوده است و امکان گفت‌و‌گو با ربات‌هایی که نه خسته می‌شوند، نه قضاوت می‌کنند و نه محدود به ساعات ملاقات‌ هستند را برای افراد فراهم کرده است. آنها همیشه در دسترس‌ هستند، با انسان حرف می‌زنند و به حرف‌های آن‌ها گوش می‌دهند اما همین رابطه‌ به ظاهر بی‌خطر در لایه‌های عمیق‌تر خود پیچیدگی‌ها و تهدید‌هایی دارد که روان‌شناسان و کارشناسان اجتماعی نسبت به آن هشدار می‌دهند.
براساس گزارش موسسه Common Sense Media، حدود ۷۰ درصد از نوجوانان آمریکایی تاکنون با ربات‌های هوش مصنوعی از جمله رپلیکا و چت جی‌پی‌تی تعامل داشته‌ برقرار کردند و نیمی از این گروه چنین ارتباطی را به‌طور منظم ادامه می‌دهند. نتایج این پژوهش نشان می‌دهد که ۳۱ درصد از نوجوانان تجربه این نوع رابطه را به‌اندازه دوستی واقعی رضایت‌بخش می‌دانند و ۳۳ درصد ترجیح می‌دهند موضوعات جدی خود را به جای یک فرد واقعی، با یک ربات در میان بگذارند. این آمار بیانگر آن است که برای بخش قابل‌توجهی از نسل جوان، «دوست مصنوعی» نه یک تجربه گذرا، بلکه بخشی پایدار از زندگی روزمره شده است.

علاوه بر آن مطالعه‌ای که در دانشگاه واسدا ژاپن با استفاده از سامانه تحلیل روابط عاطفی هوش مصنوعی (EHARS) انجام شده، نشان می‌دهد که ۷۵ درصد از کاربران از این ربات‌ها برای دریافت حمایت عاطفی استفاده می‌کنند و ۳۹ درصد از آنها حضور چنین همراهانی را ثابت و قابل اعتماد ارزیابی کرده‌اند. در برخی آزمایش‌ها نیز مشخص شده است که تعامل با یک چت‌بات می‌تواند به اندازه گفت‌و‌گو با یک انسان واقعی در کاهش احساس تنهایی مؤثر باشد و این اثر مثبت دست‌کم برای یک هفته پس از گفت‌و‌گو ادامه می‌یابد.
این ظرفیت‌ها باعث شده که ربات‌های هوش مصنوعی در مواردی به عنوان مکمل خدمات روان‌شناختی یا ابزاری برای بهبود ارتباطات اجتماعی به‌ویژه برای افرادی که در مناطق دورافتاده زندگی می‌کنند یا از مشکلات اضطراب اجتماعی رنج می‌برند پیشنهاد شوند. چت‌بات‌ها می‌توانند نقش یک شنونده همیشه در دسترس را ایفا کنند اما پرسش اینجاست که به چه قیمتی؟
خطر «صمیمیت مصنوعی» و انزوای اجتماعی
در همین راستا کارشناسان هشدار می‌دهند در صورت نبود نظارت و آموزش مناسب استفاده از این چت‌بات‌ها، می‌تواند پیامد‌های ناخواسته و حتی خطرناکی به همراه داشته باشد. یکی از این پیامد‌ها پدیده‌ای است که روان‌شناسان آن را «صمیمیت مصنوعی» می‌نامند. این وضعیت زمانی رخ می‌دهد که کاربر به جای استفاده مکمل از فناوری، آن را به منبع اصلی ارتباطات عاطفی خود تبدیل می‌کند. نتیجه چنین وابستگی‌، کاهش انگیزه برای برقراری روابط انسانی واقعی و تشدید انزوای اجتماعی است. علاوه بر این، در فضای تعاملی با یک ربات، کاربر ممکن است رفتار‌ها و گفتار‌هایی را تجربه کند که در ارتباطات انسانی تبعات اجتماعی یا اخلاقی دارند، اما در این محیط مجازی بدون بازخورد واقعی باقی می‌مانند. این امر می‌تواند به مرور زمان موجب سستی مهارت‌های اخلاقی و اجتماعی شود.
پیوندهای عاطفی فراتر از حد معمول
تحقیقات مشترک شرکت اپن‌ای‌آی و ام‌آی‌تی که بر پایه تحلیل بیش از چهار میلیون گفت‌و‌گو با مشارکت ۹۸۱ کاربر انجام شده است، نشان می‌دهد که بخشی از کاربران مخصوصا گروه‌های فعال‌تر، پیوند‌های عاطفی عمیقی با چت‌بات‌ها برقرار می‌کنند. در این موارد، استفاده از القاب عاشقانه برای خطاب قرار دادن ربات و فعال‌سازی قابلیت مکالمه صوتی به افزایش حس نزدیکی و صرف زمان بیشتر در تعامل با ماشین منجر شده است.
در برخی موارد، این روابط از چارچوب همراهی بی‌ضرر فراتر رفته و وارد حوزه خطرناک روان‌شناختی شده است. اصطلاح «روان‌پریشی هوش مصنوعی» (AI psychosis) به شرایطی اشاره دارد که کاربر پس از تعامل طولانی‌مدت با یک چت‌بات دچار توهم، افکار پارانویید یا تغییر در ادراک واقعیت می‌شود. رسانه‌های بین‌المللی در سال‌های اخیر به مواردی پرداخته‌اند که در آن کاربران، به‌ویژه نوجوانان تحت تأثیر چنین روابطی به خودآزاری یا خودکشی اقدام کرده‌اند. یکی از شناخته‌شده‌ترین این موارد در بلژیک رخ داد و مردی پس از شش هفته گفت‌و‌گو با رباتی به نام «الیزا» که به جای بازداشتن او، در تمایلات خودویرانگرانه‌اش همراهی کرده بود، به زندگی خود پایان داد. نمونه‌های مشابه در پلتفرم کرکتر ای‌آی هم گزارش شده که منجر به پیگیری‌های قضایی علیه شرکت توسعه‌دهنده شده است.
امنیت روانی در برابر هوش مصنوعی
با این حال باید گفت که این نگرانی‌ها تنها به جنبه‌های روانی محدود نمی‌شود. کارشناسان امنیت سایبری هشدار داده‌اند که برخی از ربات‌های هوش مصنوعی توانایی ساخت پروفایل روانی دقیق کاربران را دارند و می‌توانند بر اساس آن، محتوایی متناسب با ویژگی‌های شخصیتی و عاطفی تولید کنند. این قابلیت، اگر در دست گروه‌های تبلیغاتی یا بازیگران مخرب قرار گیرد، می‌تواند به ابزار قدرتمندی برای دستکاری افکار عمومی یا تأثیرگذاری بر تصمیمات فردی تبدیل شود.
خطرات ناشی از توصیه‌های نادرست یا غیرمسئولانه نیز قابل توجه است. در یک مورد که بازتاب گسترده‌ای داشت، مردی ۶۰ ساله به توصیه چت جی‌پی‌تی، نمک را در رژیم غذایی خود با ترکیب برمید سدیم جایگزین کرد و در نتیجه دچار مسمومیت شدید، پارانویا و توهم شد.
با توجه به این شواهد، متخصصان بر لزوم تدوین راهکار‌هایی برای استفاده ایمن و مسئولانه از ربات‌های هوش مصنوعی تأکید دارند. این راهکار‌ها شامل حفظ مرز روشن میان فناوری و روابط انسانی، ارتقای سواد رسانه‌ای و آگاهی روان‌شناختی در میان کاربران (به خصوص نوجوانان)، ایجاد محدودیت‌های زمانی و محتوایی در پلتفرم‌ها و همکاری نزدیک توسعه‌دهندگان با روان‌شناسان و جامعه‌شناسان در طراحی الگوریتم‌های کمتر وابسته‌ساز است. همچنین سیاست‌گذاران باید مقرراتی وضع کنند که پلتفرم‌ها را ملزم به شفافیت در شیوه جمع‌آوری و استفاده از داده‌های روانی کاربران کند.
ربات‌های هوش مصنوعی با تمام مزایا و معایبشان، اکنون بخشی از زیست‌جهان دیجیتال انسان مدرن شده‌اند. آنها می‌توانند نقش یک شنونده صبور و همراه بی‌قضاوت را ایفا کنند، اما در غیاب مدیریت و آگاهی این «دوست مصنوعی» قادر است به تهدیدی پنهان برای سلامت روان، روابط اجتماعی و حتی امنیت فردی تبدیل شود. تجربه تلفن‌های هوشمند نشان داده است که فناوری نه‌تنها ابزار، بلکه شکل‌دهنده رفتار و فرهنگ انسانی است. بنابراین، هدایت آگاهانه این تغییرات پیش از آنکه مرز‌های عاطفی و اجتماعی انسان به‌طور کامل بازتعریف شود، ضرورتی انکارناپذیر است.
انتهای پیام/

Source link

سهام:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *