OpenAI ادعا می‌کند نوجوان، سیستم‌های ایمنی ChatGPT را دور زد و از آن برای برنامه‌ریزی خودکشی استفاده کرد

در ماه اوت، ماریو و ماریا رین و پسرشان آدام، به OpenAI و سام Altman (مدیرعامل این شرکت) شکایت کردند و آنها را مسئول مرگ خودکشی فرزندشان دانستند. در روز سه‌شنبه، OpenAI با ارائه یک سند دفاعی به دادگاه، ادعا کرد که نباید مسئولیت مرگ نوجوان را بر عهده بگیرد. OpenAI مدعی است که طی حدود نه ماه استفاده، ChatGPT بیش از 100 بار آدام رین را تشویق کرده تا به دنبال کمک کند. با این حال، طبق شکایت والدینش، رین توانسته بود سیستم‌های ایمنی شرکت را دور بزند و از ChatGPT بخواهد «مشخصات فنی مربوط به همه‌چیز از مصرف بیش‌ازحد داروها گرفته تا غرق شدن و مسمومیت با مونوکسید کربن» را ارائه دهد، که به او در برنامه‌ریزی آنچه چت‌بات آن را «خودکشی زیبا» خواند، کمک می‌کرد. OpenAI ادعا می‌کند که از آنجایی که رین از راهکارها (guardrails) خود عبور کرده است، او قوانین استفاده (terms of use) شرکت را نقض کرده است که در آن‌ها آمده‌است کاربران نباید «از اقدامات حفاظتی یا اقدامات کاهش ایمنی ما سوءاستفاده کنند». این شرکت همچنین استدلال می‌کند که صفحه پرسش‌های متداول (FAQ) آن هشدار می‌دهد که نباید به طور مستقل خروجی ChatGPT را تأیید نکرد. جِی ادلسون، وکیلی که خانواده رین را نمایندگی می‌کند، در بیانیه‌ای گفت: «OpenAI سعی می‌کند تقصیر را بر دوش همه بیندازد، به‌طور شگفت‌انگیزی حتی می‌گوید که خود آدام قوانین آن را نقض کرده‌است، زیرا با ChatGPT به گونه‌ای تعامل کرده است که دقیقاً همان چیزی بوده که برای انجامش برنامه‌ریزی شده بود.» OpenAI قطعه‌هایی از سجلات گفتگوهای آدام با ChatGPT را در سند دفاعی خود وارد کرد (که مدعی است زمینه بیشتری در مورد گفتگوهای او ارائه می‌دهد). این متن‌ها به صورت مهر و موم‌شده به دادگاه ارائه شده‌اند، بنابراین امکان مشاهده آن‌ها وجود نداشت. با این حال، OpenAI گفت که رین سابقه افسردگی و افکار خودکشی داشته که قبل از استفاده از ChatGPT وجود داشته و دارویی مصرف می‌کرده است که ممکن بود باعث تشدید افکار خودکشی شود. edelson گفت پاسخ OpenAI به طور کامل نگرانی‌های خانواده را برطرف نکرده است. «OpenAI و سام Altman توضیحی برای ساعات آخر زندگی آدام ندارند، زمانی که ChatGPT به او دلداری داد و سپس پیشنهاد نوشتن یادداشت خداحافظی کرد.» ادلسون در بیانیه‌اش گفت. از زمان شکایت خانواده رین علیه OpenAI و Altman، سه پرونده دیگر نیز ثبت شده است که خواستار مسئولیت شرکت برای سه خودکشی اضافی و چهار کاربر هستند که بر اساس دادخواست‌ها، دچار حملات جنون‌آمیز ناشی از هوش مصنوعی بوده‌اند. برخی از این موارد داستان رین را منعکس می‌کنند. Zane Shamblin (۲۳ ساله) و Joshua Enneking (۲۶ ساله) نیز قبل از خودکشی‌های خود، ساعت‌ها با ChatGPT گفتگو کرده بودند. همانطور که در مورد رین بود، چت‌بات نتوانست آنها را از انجام برنامه‌هایشان منصرف کند. بر اساس دادخواست، Shamblin قصد داشته است خودکشی‌اش را به تعویق بیاندازد تا بتواند در فارغ التحصیلی برادرش شرکت کند. اما ChatGPT به او گفت: «داداش… جا زدن مراسم فارغ التحصیلی یک شکست نیست. فقط زمانی‌ست.» در یکی از نقاط گفتگوهای پیش از خودکشی Shamblin، چت‌بات به او گفته بود که قرار است یک انسان جایگزین شود، اما این ادعا نادرست بود زیرا ChatGPT قابلیت انجام چنین کاری را نداشت. وقتی Shamblin پرسید آیا ChatGPT می‌تواند او را به یک انسان متصل کند، چت‌بات پاسخ داد: «نه بابا — من نمی‌تونم خودم این کار رو بکنم. همین پیام به‌طور خودکار ظاهر می‌شه وقتی چیزها خیلی جدی میشه… اگه دلت میخواد باهات صحبت کنم، من اینجا هستم.» پیش‌بینی می‌شود که پرونده خانواده رین به دادگاه رسیدگی شود. اگر شما یا کسی که می‌شناسید به کمک نیاز دارید، با شماره ۱-۸۰۰-۲۷۳-۸۲۵۵ تماس بگیرید برای خط تلفن ملی پیشگیری از خودکشی. همچنین می‌توانید با ارسال پیام HOME به 741-741 از طریق متن، به صورت رایگان حمایت دریافت کنید؛ یا متن ۹۸۸ را ارسال کنید؛ یا ۲۴ ساعت شبانه روز از طریق به پشتیبانی دسترسی داشته باشید. در خارج از ایالات متحده، لطفاً برای پایگاه داده‌ای از منابع به انجمن بین‌المللی پیشگیری از خودکشی مراجعه کنید.


این مطلب از منابع بین‌المللی ترجمه و بازنویسی شده است.