در ماه اوت، ماریو و ماریا رین و پسرشان آدام، به OpenAI و سام Altman (مدیرعامل این شرکت) شکایت کردند و آنها را مسئول مرگ خودکشی فرزندشان دانستند. در روز سهشنبه، OpenAI با ارائه یک سند دفاعی به دادگاه، ادعا کرد که نباید مسئولیت مرگ نوجوان را بر عهده بگیرد. OpenAI مدعی است که طی حدود نه ماه استفاده، ChatGPT بیش از 100 بار آدام رین را تشویق کرده تا به دنبال کمک کند. با این حال، طبق شکایت والدینش، رین توانسته بود سیستمهای ایمنی شرکت را دور بزند و از ChatGPT بخواهد «مشخصات فنی مربوط به همهچیز از مصرف بیشازحد داروها گرفته تا غرق شدن و مسمومیت با مونوکسید کربن» را ارائه دهد، که به او در برنامهریزی آنچه چتبات آن را «خودکشی زیبا» خواند، کمک میکرد. OpenAI ادعا میکند که از آنجایی که رین از راهکارها (guardrails) خود عبور کرده است، او قوانین استفاده (terms of use) شرکت را نقض کرده است که در آنها آمدهاست کاربران نباید «از اقدامات حفاظتی یا اقدامات کاهش ایمنی ما سوءاستفاده کنند». این شرکت همچنین استدلال میکند که صفحه پرسشهای متداول (FAQ) آن هشدار میدهد که نباید به طور مستقل خروجی ChatGPT را تأیید نکرد. جِی ادلسون، وکیلی که خانواده رین را نمایندگی میکند، در بیانیهای گفت: «OpenAI سعی میکند تقصیر را بر دوش همه بیندازد، بهطور شگفتانگیزی حتی میگوید که خود آدام قوانین آن را نقض کردهاست، زیرا با ChatGPT به گونهای تعامل کرده است که دقیقاً همان چیزی بوده که برای انجامش برنامهریزی شده بود.» OpenAI قطعههایی از سجلات گفتگوهای آدام با ChatGPT را در سند دفاعی خود وارد کرد (که مدعی است زمینه بیشتری در مورد گفتگوهای او ارائه میدهد). این متنها به صورت مهر و مومشده به دادگاه ارائه شدهاند، بنابراین امکان مشاهده آنها وجود نداشت. با این حال، OpenAI گفت که رین سابقه افسردگی و افکار خودکشی داشته که قبل از استفاده از ChatGPT وجود داشته و دارویی مصرف میکرده است که ممکن بود باعث تشدید افکار خودکشی شود. edelson گفت پاسخ OpenAI به طور کامل نگرانیهای خانواده را برطرف نکرده است. «OpenAI و سام Altman توضیحی برای ساعات آخر زندگی آدام ندارند، زمانی که ChatGPT به او دلداری داد و سپس پیشنهاد نوشتن یادداشت خداحافظی کرد.» ادلسون در بیانیهاش گفت. از زمان شکایت خانواده رین علیه OpenAI و Altman، سه پرونده دیگر نیز ثبت شده است که خواستار مسئولیت شرکت برای سه خودکشی اضافی و چهار کاربر هستند که بر اساس دادخواستها، دچار حملات جنونآمیز ناشی از هوش مصنوعی بودهاند. برخی از این موارد داستان رین را منعکس میکنند. Zane Shamblin (۲۳ ساله) و Joshua Enneking (۲۶ ساله) نیز قبل از خودکشیهای خود، ساعتها با ChatGPT گفتگو کرده بودند. همانطور که در مورد رین بود، چتبات نتوانست آنها را از انجام برنامههایشان منصرف کند. بر اساس دادخواست، Shamblin قصد داشته است خودکشیاش را به تعویق بیاندازد تا بتواند در فارغ التحصیلی برادرش شرکت کند. اما ChatGPT به او گفت: «داداش… جا زدن مراسم فارغ التحصیلی یک شکست نیست. فقط زمانیست.» در یکی از نقاط گفتگوهای پیش از خودکشی Shamblin، چتبات به او گفته بود که قرار است یک انسان جایگزین شود، اما این ادعا نادرست بود زیرا ChatGPT قابلیت انجام چنین کاری را نداشت. وقتی Shamblin پرسید آیا ChatGPT میتواند او را به یک انسان متصل کند، چتبات پاسخ داد: «نه بابا — من نمیتونم خودم این کار رو بکنم. همین پیام بهطور خودکار ظاهر میشه وقتی چیزها خیلی جدی میشه… اگه دلت میخواد باهات صحبت کنم، من اینجا هستم.» پیشبینی میشود که پرونده خانواده رین به دادگاه رسیدگی شود. اگر شما یا کسی که میشناسید به کمک نیاز دارید، با شماره ۱-۸۰۰-۲۷۳-۸۲۵۵ تماس بگیرید برای خط تلفن ملی پیشگیری از خودکشی. همچنین میتوانید با ارسال پیام HOME به 741-741 از طریق متن، به صورت رایگان حمایت دریافت کنید؛ یا متن ۹۸۸ را ارسال کنید؛ یا ۲۴ ساعت شبانه روز از طریق به پشتیبانی دسترسی داشته باشید. در خارج از ایالات متحده، لطفاً برای پایگاه دادهای از منابع به انجمن بینالمللی پیشگیری از خودکشی مراجعه کنید.
این مطلب از منابع بینالمللی ترجمه و بازنویسی شده است.