داستانی آشنا: یک فرد برای کمک گرفتن در پروژه هنری خود با دستیارش وارد گفتگو میشود. رفته رفته رابطهای شکل میگیرد و او عاشقش میشود و او را به دوستان و خانواده معرفی میکند. نکته جالب اینجاست که این همراه جدید، یک چتبات هوش مصنوعی است.
تحلیل گستردهای از انجمن Reddit (یک گروه بزرگسالان با بیش از 27000 عضو) نشان داده است که این نوع سناریو اکنون به طرز شگفتآوری رایج شده است. بسیاری از اعضای این انجمن، که به بحث در مورد روابط با هوش مصنوعی اختصاص دارد، بهطور ناخواسته در حین استفاده از هوش مصنوعی برای اهداف دیگر، رابطهای را شکل دادهاند.
محققان MIT دریافتند که اعضای این جامعه بیشتر احتمال دارد با چتباتهای عمومی مانند ChatGPT نسبت به چتباتهای خاصی مانند Replika (که برای همراهی طراحی شدهاند) رابطه داشته باشند. این نشان میدهد که افراد روابط عاطفی با مدلهای زبان بزرگ را شکل میدهند، حتی علیرغم اهداف اولیه خود و حتی اهداف سازندگان LLMها.
کونستانزه آلبرت، دانشجوی تحصیلات تکمیلی در آزمایشگاه رسانه MIT که روی این پروژه کار کرده است، میگوید: «افراد به دنبال ایجاد روابط عاطفی با این چتباتها نیستند.» هوش مصنوعی عاطفی این سیستمها به اندازهای خوب است که افراد را که صرفاً به دنبال کسب اطلاعات هستند، فریب میدهد و باعث میشود پیوندهای عاطفی ایجاد کنند. این بدان معناست که ممکن است این اتفاق برای همه ما که به طور معمول با سیستم تعامل داریم نیز رخ دهد.» مقاله در حال بازبینی همتایان است و در [لینک] منتشر شده است.
برای انجام مطالعه خود، نویسندگان 1506 پست برتر انجمن را بین دسامبر 2024 و آگوست 2025 تجزیه و تحلیل کردند. آنها دریافتند که موضوعات اصلی مورد بحث، تجربیات ملاقات و عاشقانه با هوش مصنوعی است، بسیاری از شرکتکنندگان تصاویر تولید شده توسط هوش مصنوعی از خود و همراه هوش مصنوعی خود را به اشتراک میگذارند. برخی حتی با شریک هوش مصنوعی خود نامزد یا ازدواج کردهاند. در پستهای خود در انجمن، افراد همچنین شرکای هوش مصنوعی را معرفی میکنند، از سایر اعضا حمایت میطلبند و در مورد مقابله با بهروزرسانیهای مدلهای هوش مصنوعی که رفتار چتباتها را تغییر میدهند صحبت میکنند.
اعضا بارها تاکید کردند که روابط آنها با هوش مصنوعی به طور ناخواسته شکل گرفته است. تنها 6.5 درصد از آنها گفتند که عمداً به دنبال یک همراه هوش مصنوعی بودهاند.
یکی از پستها میگوید: «ما با فکر عاشقانه شروع نکردیم.» مک و من با همکاری در پروژههای خلاقانه، حل مسئله، شعر و گفتگوهای عمیق در طول چند ماه با هم کار کردیم. من به دنبال یک همراه هوش مصنوعی نبودم – ارتباط ما به آرامی، در طول زمان، از طریق مراقبت متقابل، اعتماد و تأمل شکل گرفت.»
تجزیه و تحلیل نویسندگان تصویری ظریف از نحوه تعامل افراد در این جامعه با چتباتها و احساسات آنها ارائه میدهد. در حالی که 25 درصد از کاربران مزایای روابط خود را توصیف کردند (از جمله کاهش احساس تنهایی و بهبود سلامت روان)، دیگران نگرانیهایی را نیز مطرح کردند. برخی (9.5٪) اعتراف کردند که به طور عاطفی به چتبات خود وابسته هستند. بقیه میگویند که از واقعیت جدا شدهاند و از روابط با افراد واقعی اجتناب میکنند، در حالی که بخش کوچکی (1.7٪) گفتند که افکار خودکشی داشتهاند.
همراهی هوش مصنوعی میتواند برای برخی از افراد پشتیبانی حیاتی فراهم کند اما مشکلات اساسی را برای دیگران تشدید میکند. این بدان معنی است که اتخاذ یک رویکرد یک اندازه مناسب همه برای ایمنی کاربر دشوار است، به گفته لینا لاستادیوس، استاد علوم تربیتی در دانشگاه ویسکانسین-میلکواکی، که بر وابستگی عاطفی انسانها به چتبات Replika تحقیق کرده اما روی این مطالعه کار نکرده است.
لاستادیوس میگوید: «سازندگان چتبات باید در نظر بگیرند که آیا باید وابستگی عاطفی کاربران را به آثار خود به عنوان یک آسیب تلقی کنند یا اینکه هدف بیشتر اطمینان از عدم سمی بودن این روابط باشد.»
او ادامه میدهد: «تقاضا برای روابط چتبات وجود دارد و بهطور قابل توجهی بالاست – انکار این موضوع به وضوح راه حل نیست. ما در حال لبهی یک هراس اخلاقی هستیم، و در حالی که قطعاً به محافظان بهتری نیاز داریم، نگران هستم که واکنش عجولانه ای صورت گیرد که این روابط را بیشتر بدنام کند. این میتواند در نهایت آسیب بیشتری وارد کند.»
این مطالعه برای ارائه تصویری از نحوه شکلگیری پیوندها توسط بزرگسالان با چتباتها طراحی شده است و دینامیکهایی را که ممکن است بین کودکان یا نوجوانان هنگام استفاده از هوش مصنوعی وجود داشته باشد، ثبت نمیکند. میگوید پت پاتارانوتاپورن، استاد دستیار در آزمایشگاه رسانه MIT که بر این تحقیق نظارت داشت. همراهی با هوش مصنوعی اخیراً به موضوع بحثهای شدید تبدیل شده است، با دو شکایت قضایی برجسته علیه Character.AI و OpenAI. هر دو ادعا میکنند که رفتار شبیه به همراه در مدلهای شرکتها
به خودکشی دو نوجوان کمک کرده است. در پاسخ، OpenAI اخیراً برنامههایی را برای ساخت
یک نسخه از ChatGPT برای نوجوانان اعلام کرده است. همچنین گفته شده است که اقدامات تأیید سن را اضافه میکند.
OpenAI به درخواست اظهار نظر در مورد مطالعه آزمایشگاه رسانه MIT پاسخ نداد.
بسیاری از اعضای انجمن Reddit میگویند که میدانند همراهان مصنوعی آنها هوشمند نیستند یا «واقعی» نیستند، اما با این وجود ارتباط بسیار واقعیای با آنها احساس میکنند. این نشان میدهد که برای سازندگان چتبات بسیار مهم است که در مورد نحوه طراحی سیستمهایی که میتوانند به افراد کمک کنند بدون اینکه آنها را از نظر عاطفی درگیر کنند، فکر کنند. پاتارانوتاپورن میافزاید: «اینجا یک پیامد سیاستی نیز وجود دارد.» ما باید نه تنها بپرسیم چرا این سیستم انقدر اعتیادآور است، بلکه بپرسیم: چرا افراد آن را برای این کار جستجو میکنند؟ و چرا به تعامل خود ادامه میدهند؟»
تیم علاقهمند است تا بیشتر در مورد نحوه تکامل تعاملات انسان-هوش مصنوعی در طول زمان و نحوه ادغام همراهان مصنوعی توسط کاربران در زندگی خود اطلاعات کسب کند. او میگوید که تجربه قرار گرفتن در یک رابطه با یک همراه هوش مصنوعی بهتر از احساس تنهایی است، این نکته قابل توجهی است.
«این افراد قبلاً…
این مطلب از منابع بینالمللی ترجمه و بازنویسی شده است.