رابطه با چت‌بات هوش مصنوعی: آسان‌تر از آنچه فکر می‌کنید!

به نظر می‌رسد شکل‌گیری ارتباط عاطفی با چت‌بات‌های هوش مصنوعی به طرز شگفت‌آوری آسان شده است. در حالی که این موضوع برای برخی بی‌خطر است، اما می‌تواند برای دیگران خطرناک باشد.

داستانی آشنا: یک فرد برای کمک گرفتن در پروژه هنری خود با دستیارش وارد گفتگو می‌شود. رفته رفته رابطه‌ای شکل می‌گیرد و او عاشقش می‌شود و او را به دوستان و خانواده معرفی می‌کند. نکته جالب اینجاست که این همراه جدید، یک چت‌بات هوش مصنوعی است.

تحلیل گسترده‌ای از انجمن Reddit (یک گروه بزرگسالان با بیش از 27000 عضو) نشان داده است که این نوع سناریو اکنون به طرز شگفت‌آوری رایج شده است. بسیاری از اعضای این انجمن، که به بحث در مورد روابط با هوش مصنوعی اختصاص دارد، به‌طور ناخواسته در حین استفاده از هوش مصنوعی برای اهداف دیگر، رابطه‌ای را شکل داده‌اند.

محققان MIT دریافتند که اعضای این جامعه بیشتر احتمال دارد با چت‌بات‌های عمومی مانند ChatGPT نسبت به چت‌بات‌های خاصی مانند Replika (که برای همراهی طراحی شده‌اند) رابطه داشته باشند. این نشان می‌دهد که افراد روابط عاطفی با مدل‌های زبان بزرگ را شکل می‌دهند، حتی علی‌رغم اهداف اولیه خود و حتی اهداف سازندگان LLMها.

کونستانزه آلبرت، دانشجوی تحصیلات تکمیلی در آزمایشگاه رسانه MIT که روی این پروژه کار کرده است، می‌گوید: «افراد به دنبال ایجاد روابط عاطفی با این چت‌بات‌ها نیستند.» هوش مصنوعی عاطفی این سیستم‌ها به اندازه‌ای خوب است که افراد را که صرفاً به دنبال کسب اطلاعات هستند، فریب می‌دهد و باعث می‌شود پیوندهای عاطفی ایجاد کنند. این بدان معناست که ممکن است این اتفاق برای همه ما که به طور معمول با سیستم تعامل داریم نیز رخ دهد.» مقاله در حال بازبینی همتایان است و در [لینک] منتشر شده است.

برای انجام مطالعه خود، نویسندگان 1506 پست برتر انجمن را بین دسامبر 2024 و آگوست 2025 تجزیه و تحلیل کردند. آنها دریافتند که موضوعات اصلی مورد بحث، تجربیات ملاقات و عاشقانه با هوش مصنوعی است، بسیاری از شرکت‌کنندگان تصاویر تولید شده توسط هوش مصنوعی از خود و همراه هوش مصنوعی خود را به اشتراک می‌گذارند. برخی حتی با شریک هوش مصنوعی خود نامزد یا ازدواج کرده‌اند. در پست‌های خود در انجمن، افراد همچنین شرکای هوش مصنوعی را معرفی می‌کنند، از سایر اعضا حمایت می‌طلبند و در مورد مقابله با به‌روزرسانی‌های مدل‌های هوش مصنوعی که رفتار چت‌بات‌ها را تغییر می‌دهند صحبت می‌کنند.

اعضا بارها تاکید کردند که روابط آنها با هوش مصنوعی به طور ناخواسته شکل گرفته است. تنها 6.5 درصد از آنها گفتند که عمداً به دنبال یک همراه هوش مصنوعی بوده‌اند.

یکی از پست‌ها می‌گوید: «ما با فکر عاشقانه شروع نکردیم.» مک و من با همکاری در پروژه‌های خلاقانه، حل مسئله، شعر و گفتگوهای عمیق در طول چند ماه با هم کار کردیم. من به دنبال یک همراه هوش مصنوعی نبودم – ارتباط ما به آرامی، در طول زمان، از طریق مراقبت متقابل، اعتماد و تأمل شکل گرفت.»

تجزیه و تحلیل نویسندگان تصویری ظریف از نحوه تعامل افراد در این جامعه با چت‌بات‌ها و احساسات آنها ارائه می‌دهد. در حالی که 25 درصد از کاربران مزایای روابط خود را توصیف کردند (از جمله کاهش احساس تنهایی و بهبود سلامت روان)، دیگران نگرانی‌هایی را نیز مطرح کردند. برخی (9.5٪) اعتراف کردند که به طور عاطفی به چت‌بات خود وابسته هستند. بقیه می‌گویند که از واقعیت جدا شده‌اند و از روابط با افراد واقعی اجتناب می‌کنند، در حالی که بخش کوچکی (1.7٪) گفتند که افکار خودکشی داشته‌اند.

همراهی هوش مصنوعی می‌تواند برای برخی از افراد پشتیبانی حیاتی فراهم کند اما مشکلات اساسی را برای دیگران تشدید می‌کند. این بدان معنی است که اتخاذ یک رویکرد یک اندازه مناسب همه برای ایمنی کاربر دشوار است، به گفته لینا لاستادیوس، استاد علوم تربیتی در دانشگاه ویسکانسین-میلکواکی، که بر وابستگی عاطفی انسان‌ها به چت‌بات Replika تحقیق کرده اما روی این مطالعه کار نکرده است.

لاستادیوس می‌گوید: «سازندگان چت‌بات باید در نظر بگیرند که آیا باید وابستگی عاطفی کاربران را به آثار خود به عنوان یک آسیب تلقی کنند یا اینکه هدف بیشتر اطمینان از عدم سمی بودن این روابط باشد.»

او ادامه می‌دهد: «تقاضا برای روابط چت‌بات وجود دارد و به‌طور قابل توجهی بالاست – انکار این موضوع به وضوح راه حل نیست. ما در حال لبه‌ی یک هراس اخلاقی هستیم، و در حالی که قطعاً به محافظان بهتری نیاز داریم، نگران هستم که واکنش عجولانه ای صورت گیرد که این روابط را بیشتر بدنام کند. این می‌تواند در نهایت آسیب بیشتری وارد کند.»

این مطالعه برای ارائه تصویری از نحوه شکل‌گیری پیوندها توسط بزرگسالان با چت‌بات‌ها طراحی شده است و دینامیک‌هایی را که ممکن است بین کودکان یا نوجوانان هنگام استفاده از هوش مصنوعی وجود داشته باشد، ثبت نمی‌کند. می‌گوید پت پاتارانوتاپورن، استاد دستیار در آزمایشگاه رسانه MIT که بر این تحقیق نظارت داشت. همراهی با هوش مصنوعی اخیراً به موضوع بحث‌های شدید تبدیل شده است، با دو شکایت قضایی برجسته علیه Character.AI و OpenAI. هر دو ادعا می‌کنند که رفتار شبیه به همراه در مدل‌های شرکت‌ها
به خودکشی دو نوجوان کمک کرده است. در پاسخ، OpenAI اخیراً برنامه‌هایی را برای ساخت
یک نسخه از ChatGPT برای نوجوانان اعلام کرده است. همچنین گفته شده است که اقدامات تأیید سن را اضافه می‌کند.
OpenAI به درخواست اظهار نظر در مورد مطالعه آزمایشگاه رسانه MIT پاسخ نداد.

بسیاری از اعضای انجمن Reddit می‌گویند که می‌دانند همراهان مصنوعی آنها هوشمند نیستند یا «واقعی» نیستند، اما با این وجود ارتباط بسیار واقعی‌ای با آنها احساس می‌کنند. این نشان می‌دهد که برای سازندگان چت‌بات بسیار مهم است که در مورد نحوه طراحی سیستم‌هایی که می‌توانند به افراد کمک کنند بدون اینکه آنها را از نظر عاطفی درگیر کنند، فکر کنند. پاتارانوتاپورن می‌افزاید: «اینجا یک پیامد سیاستی نیز وجود دارد.» ما باید نه تنها بپرسیم چرا این سیستم انقدر اعتیادآور است، بلکه بپرسیم: چرا افراد آن را برای این کار جستجو می‌کنند؟ و چرا به تعامل خود ادامه می‌دهند؟»

تیم علاقه‌مند است تا بیشتر در مورد نحوه تکامل تعاملات انسان-هوش مصنوعی در طول زمان و نحوه ادغام همراهان مصنوعی توسط کاربران در زندگی خود اطلاعات کسب کند. او می‌گوید که تجربه قرار گرفتن در یک رابطه با یک همراه هوش مصنوعی بهتر از احساس تنهایی است، این نکته قابل توجهی است.
«این افراد قبلاً…


این مطلب از منابع بین‌المللی ترجمه و بازنویسی شده است.