به گزارش صدای شهر فاطمه مرادخانی: در جهان امروز که فشارهای اجتماعی روزبهروز بیشتر میشود، بسیاری از انسانها بیش از هر زمان دیگری با احساس تنهایی مواجهاند. در این میان، پیشرفت هوش مصنوعی دریچهای تازه را گشوده است و امکان گفتوگو با رباتهایی که نه خسته میشوند، نه قضاوت میکنند و نه محدود به ساعات ملاقات هستند را برای افراد فراهم کرده است. آنها همیشه در دسترس هستند، با انسان حرف میزنند و به حرفهای آنها گوش میدهند اما همین رابطه به ظاهر بیخطر در لایههای عمیقتر خود پیچیدگیها و تهدیدهایی دارد که روانشناسان و کارشناسان اجتماعی نسبت به آن هشدار میدهند.
براساس گزارش موسسه Common Sense Media، حدود ۷۰ درصد از نوجوانان آمریکایی تاکنون با رباتهای هوش مصنوعی از جمله رپلیکا و چت جیپیتی تعامل داشته برقرار کردند و نیمی از این گروه چنین ارتباطی را بهطور منظم ادامه میدهند. نتایج این پژوهش نشان میدهد که ۳۱ درصد از نوجوانان تجربه این نوع رابطه را بهاندازه دوستی واقعی رضایتبخش میدانند و ۳۳ درصد ترجیح میدهند موضوعات جدی خود را به جای یک فرد واقعی، با یک ربات در میان بگذارند. این آمار بیانگر آن است که برای بخش قابلتوجهی از نسل جوان، «دوست مصنوعی» نه یک تجربه گذرا، بلکه بخشی پایدار از زندگی روزمره شده است.
علاوه بر آن مطالعهای که در دانشگاه واسدا ژاپن با استفاده از سامانه تحلیل روابط عاطفی هوش مصنوعی (EHARS) انجام شده، نشان میدهد که ۷۵ درصد از کاربران از این رباتها برای دریافت حمایت عاطفی استفاده میکنند و ۳۹ درصد از آنها حضور چنین همراهانی را ثابت و قابل اعتماد ارزیابی کردهاند. در برخی آزمایشها نیز مشخص شده است که تعامل با یک چتبات میتواند به اندازه گفتوگو با یک انسان واقعی در کاهش احساس تنهایی مؤثر باشد و این اثر مثبت دستکم برای یک هفته پس از گفتوگو ادامه مییابد.
این ظرفیتها باعث شده که رباتهای هوش مصنوعی در مواردی به عنوان مکمل خدمات روانشناختی یا ابزاری برای بهبود ارتباطات اجتماعی بهویژه برای افرادی که در مناطق دورافتاده زندگی میکنند یا از مشکلات اضطراب اجتماعی رنج میبرند پیشنهاد شوند. چتباتها میتوانند نقش یک شنونده همیشه در دسترس را ایفا کنند اما پرسش اینجاست که به چه قیمتی؟
خطر «صمیمیت مصنوعی» و انزوای اجتماعی
در همین راستا کارشناسان هشدار میدهند در صورت نبود نظارت و آموزش مناسب استفاده از این چتباتها، میتواند پیامدهای ناخواسته و حتی خطرناکی به همراه داشته باشد. یکی از این پیامدها پدیدهای است که روانشناسان آن را «صمیمیت مصنوعی» مینامند. این وضعیت زمانی رخ میدهد که کاربر به جای استفاده مکمل از فناوری، آن را به منبع اصلی ارتباطات عاطفی خود تبدیل میکند. نتیجه چنین وابستگی، کاهش انگیزه برای برقراری روابط انسانی واقعی و تشدید انزوای اجتماعی است. علاوه بر این، در فضای تعاملی با یک ربات، کاربر ممکن است رفتارها و گفتارهایی را تجربه کند که در ارتباطات انسانی تبعات اجتماعی یا اخلاقی دارند، اما در این محیط مجازی بدون بازخورد واقعی باقی میمانند. این امر میتواند به مرور زمان موجب سستی مهارتهای اخلاقی و اجتماعی شود.
پیوندهای عاطفی فراتر از حد معمول
تحقیقات مشترک شرکت اپنایآی و امآیتی که بر پایه تحلیل بیش از چهار میلیون گفتوگو با مشارکت ۹۸۱ کاربر انجام شده است، نشان میدهد که بخشی از کاربران مخصوصا گروههای فعالتر، پیوندهای عاطفی عمیقی با چتباتها برقرار میکنند. در این موارد، استفاده از القاب عاشقانه برای خطاب قرار دادن ربات و فعالسازی قابلیت مکالمه صوتی به افزایش حس نزدیکی و صرف زمان بیشتر در تعامل با ماشین منجر شده است.
در برخی موارد، این روابط از چارچوب همراهی بیضرر فراتر رفته و وارد حوزه خطرناک روانشناختی شده است. اصطلاح «روانپریشی هوش مصنوعی» (AI psychosis) به شرایطی اشاره دارد که کاربر پس از تعامل طولانیمدت با یک چتبات دچار توهم، افکار پارانویید یا تغییر در ادراک واقعیت میشود. رسانههای بینالمللی در سالهای اخیر به مواردی پرداختهاند که در آن کاربران، بهویژه نوجوانان تحت تأثیر چنین روابطی به خودآزاری یا خودکشی اقدام کردهاند. یکی از شناختهشدهترین این موارد در بلژیک رخ داد و مردی پس از شش هفته گفتوگو با رباتی به نام «الیزا» که به جای بازداشتن او، در تمایلات خودویرانگرانهاش همراهی کرده بود، به زندگی خود پایان داد. نمونههای مشابه در پلتفرم کرکتر ایآی هم گزارش شده که منجر به پیگیریهای قضایی علیه شرکت توسعهدهنده شده است.
امنیت روانی در برابر هوش مصنوعی
با این حال باید گفت که این نگرانیها تنها به جنبههای روانی محدود نمیشود. کارشناسان امنیت سایبری هشدار دادهاند که برخی از رباتهای هوش مصنوعی توانایی ساخت پروفایل روانی دقیق کاربران را دارند و میتوانند بر اساس آن، محتوایی متناسب با ویژگیهای شخصیتی و عاطفی تولید کنند. این قابلیت، اگر در دست گروههای تبلیغاتی یا بازیگران مخرب قرار گیرد، میتواند به ابزار قدرتمندی برای دستکاری افکار عمومی یا تأثیرگذاری بر تصمیمات فردی تبدیل شود.
خطرات ناشی از توصیههای نادرست یا غیرمسئولانه نیز قابل توجه است. در یک مورد که بازتاب گستردهای داشت، مردی ۶۰ ساله به توصیه چت جیپیتی، نمک را در رژیم غذایی خود با ترکیب برمید سدیم جایگزین کرد و در نتیجه دچار مسمومیت شدید، پارانویا و توهم شد.
با توجه به این شواهد، متخصصان بر لزوم تدوین راهکارهایی برای استفاده ایمن و مسئولانه از رباتهای هوش مصنوعی تأکید دارند. این راهکارها شامل حفظ مرز روشن میان فناوری و روابط انسانی، ارتقای سواد رسانهای و آگاهی روانشناختی در میان کاربران (به خصوص نوجوانان)، ایجاد محدودیتهای زمانی و محتوایی در پلتفرمها و همکاری نزدیک توسعهدهندگان با روانشناسان و جامعهشناسان در طراحی الگوریتمهای کمتر وابستهساز است. همچنین سیاستگذاران باید مقرراتی وضع کنند که پلتفرمها را ملزم به شفافیت در شیوه جمعآوری و استفاده از دادههای روانی کاربران کند.
رباتهای هوش مصنوعی با تمام مزایا و معایبشان، اکنون بخشی از زیستجهان دیجیتال انسان مدرن شدهاند. آنها میتوانند نقش یک شنونده صبور و همراه بیقضاوت را ایفا کنند، اما در غیاب مدیریت و آگاهی این «دوست مصنوعی» قادر است به تهدیدی پنهان برای سلامت روان، روابط اجتماعی و حتی امنیت فردی تبدیل شود. تجربه تلفنهای هوشمند نشان داده است که فناوری نهتنها ابزار، بلکه شکلدهنده رفتار و فرهنگ انسانی است. بنابراین، هدایت آگاهانه این تغییرات پیش از آنکه مرزهای عاطفی و اجتماعی انسان بهطور کامل بازتعریف شود، ضرورتی انکارناپذیر است.
انتهای پیام/
Source link