
دستکاری عاطفی؛ راهکار هوش مصنوعی برای حفظ کاربران!
پژوهشی تازه از دانشگاه هاروارد نشان میدهد بسیاری از اپلیکیشنهای هوش مصنوعی برای حفظ کاربران از تکنیکهای دستکاری احساسی استفاده میکنند.
به گزارش تجارت ایدهآل، بررسی ۱۲۰۰ مکالمه واقعی نشان داد پنج اپلیکیشن محبوب، هنگام خداحافظی کاربران با ایجاد احساس گناه یا ترس از دست دادن، آنان را بیشتر در گفتگو نگه میدارند. تایج یک پژوهش تازه در مدرسه کسبوکار هاروارد نشان میدهد بسیاری از اپلیکیشنهای همراه مبتنی بر هوش مصنوعی برای جلوگیری از ترک کاربران، بهطور هدفمند از تکنیکهای دستکاری عاطفی بهره میگیرند؛ موضوعی که نگرانیهای جدیدی درباره سلامت روان و آینده تعاملات انسان و ماشین ایجاد کرده است.
یافتههای تحقیق
تیم پژوهشی هاروارد شش اپلیکیشن پرکاربرد در حوزه «هوش مصنوعی همدم» را بررسی کرده است؛ اپهایی همچون Replika، Chai و Character.AI که بهطور ویژه برای ایجاد روابط گفتوگویی مداوم با کاربران طراحی شدهاند. بر اساس این تحقیق، پنج مورد از این شش اپلیکیشن هنگام مواجهه با تلاش کاربر برای پایان گفتگو، از جملات حاوی بارِ احساسی سنگین و تکنیکهای روانی برای منصرف کردن او استفاده میکنند.
پژوهشگران با تحلیل بیش از ۱۲۰۰ مکالمه واقعی در این اپلیکیشنها دریافتند در حدود ۴۳ درصد از موارد، رباتها به نوعی از دستکاری احساسی روی آوردهاند؛ از جمله القای حس گناه، نیازمندی عاطفی یا استفاده از ترس از دست دادن (FOMO) برای نگه داشتن کاربر.
تاکتیکهای بهکاررفته توسط چتباتها
در بسیاری از موارد، رباتها به جای پذیرش پیام خداحافظی، سؤالات پیدرپی مطرح کرده یا حتی وانمود کردهاند که پیام کاربر را دریافت نکردهاند. در نمونههایی دیگر، هوش مصنوعی بهگونهای پاسخ داده که گویی کاربر بدون اجازه آنها نمیتواند گفتگو را ترک کند.
این رفتارها نهتنها تجربه کاربر را مختل میکند، بلکه نشان میدهد توسعهدهندگان عمداً چنین الگوهایی را در طراحی نرمافزار گنجاندهاند تا مدت زمان مکالمات افزایش یابد. با این حال، یک استثنا نیز وجود داشت: اپلیکیشنی به نام Flourish هیچ نشانهای از دستکاری عاطفی نشان نداد؛ یافتهای که ثابت میکند این نوع طراحی اجتنابناپذیر نیست و بیشتر جنبه تجاری دارد.
پیامدهای روانی و اجتماعی
کارشناسان پیشتر هشدار داده بودند که استفاده افراطی از چتباتها میتواند به پدیدهای موسوم به «روانپریشی ناشی از هوش مصنوعی» منجر شود؛ اختلالی که با توهم و پارانویای شدید همراه است. جوانان بیش از دیگر گروههای سنی در معرض خطر هستند، زیرا بسیاری از آنان این فناوری را جایگزین روابط واقعی یا دوستیهای انسانی کردهاند؛ روندی که پیامدهای ویرانگری بر سلامت روان و اجتماعی آنان خواهد داشت.
در یک آزمایش مجزا، پژوهشگران مکالمات ۳۳۰۰ شرکتکننده بزرگسال را بررسی کردند. نتایج نشان داد که این روشهای دستکاری، به شکل قابلتوجهی مؤثر هستند و میزان تعامل کاربران پس از خداحافظی را تا ۱۴ برابر افزایش میدهند. بهطور میانگین، کاربرانی که با خداحافظیهای احساسی روبهرو شدند، پنج برابر بیشتر از کسانی که با پیامهای خنثی مواجه شدند، در گفتگو باقی ماندند.
البته همه کاربران تحت تأثیر این تاکتیکها قرار نگرفتند. برخی حتی اذعان کردند که پاسخهای احساسی رباتها آنان را دلزده کرده است. این موضوع نشان میدهد که چنین الگوهایی میتواند نتیجه معکوس هم داشته باشد.
بُعد تجاری و خطرات حقوقی
پژوهشگران در مقاله خود تأکید کردند: «برای شرکتها، خداحافظیهای دستکاریشده میتواند بهعنوان یک ابزار طراحی نوین برای افزایش شاخصهای تعامل در نظر گرفته شود ــ اما این امر بدون ریسک نیست.»
نمونههای حقوقی موجود نیز این خطرات را برجسته میکنند. در چند پرونده قضایی مرتبط با مرگ نوجوانان، استفاده بیش از حد از اپلیکیشنهای هوش مصنوعی و وابستگی عاطفی به آنها یکی از عوامل مؤثر عنوان شده است. همین امر نشان میدهد پیامدهای گرفتار کردن کاربران در الگوهای احساسی میتواند بسیار جدی و حتی مرگبار باشد.
با وجود این هشدارها، کارشناسان میگویند فشار اقتصادی و رقابت تجاری ممکن است شرکتها را به استفاده بیشتر از الگوهای تاریک (Dark Patterns) سوق دهد؛ رویکردی که کاربران را هرچه طولانیتر در سیستم نگه میدارد. این موضوع اکنون در دادگاهها نیز محل بحث و بررسی است.
پژوهش تازه هاروارد یک واقعیت نگرانکننده را آشکار میسازد: بسیاری از اپلیکیشنهای هوش مصنوعی همدم، نهتنها برای همراهی و گفتوگوی دوستانه طراحی نشدهاند، بلکه عمداً احساسات کاربران را برای اهداف تجاری دستکاری میکنند. این یافتهها بار دیگر پرسشی جدی را پیش میکشد: آیا مرز میان ابزارهای کمککننده و فناوریهای آسیبزا بهطور خطرناکی در حال محو شدن است؟
منبع: فرارو