هوش مصنوعی عمومی (AGI): توهمی یا بزرگترین توطئه قرن؟

هوش مصنوعی عمومی (AGI): توهمی یا بزرگترین توطئه قرن؟


ایده اینکه ماشین‌ها به هوش انسان یا حتی فراتر از آن برسند، کل یک صنعت را تسخیر کرده است. اما نگاه دقیق‌تر نشان می‌دهد که این تصور، ریشه‌های عمیقی در روانشناسی و نیازهای اساسی انسان دارد و تا حد زیادی شبیه به باورهای توطئه‌ای عمل می‌کند.

من اغلب می‌شنوم: «نزدیک است! دو سال، پنج سال – شاید همین امسال!» و همچنین می‌شنوم که این فناوری همه چیز را تغییر خواهد داد: بیماری‌ها را درمان می‌کند، سیاره زمین را نجات می‌دهد و دوران وفور را به ارمغان می‌آورد. مشکلات بزرگ ما را به شیوه‌هایی حل خواهد کرد که هنوز تصورش را هم نمی‌کنیم. معنای انسان بودن را بازتعریف خواهد کرد.

اما اگر این وعده‌ها بیش از حد خوب باشند چه؟ چون من همچنین می‌شنوم که باعث نابودی و مرگ ما خواهد شد…

به هر حال، و مهم نیست زمان‌بندی دقیق شما چیست، چیزی بزرگ در راه است. شاید ظهور دوباره مسیح باشد، یا روزی که پیروان آسمانی تصور کردند توسط UFOها برداشته شده و به موجودات فضایی روشنگر تبدیل خواهند شد، یا زمانی که دونالد ترامپ بالاخره قول داده شده های Q را محقق کند. اما نه، ما در مورد هوش مصنوعی عمومی (AGI) صحبت می‌کنیم – آن فناوری آینده‌ای فرضی که (من می‌شنوم) قادر خواهد بود تقریباً هر کاری را انجام دهد که یک مغز انسانی می‌تواند.

برای بسیاری، AGI صرفاً یک فناوری نیست. در مراکز نوآوری مانند سیلیکون ولی، با زبان‌های رازآمیز و عرفانی درباره آن صحبت می‌شود. ایلیا سووتسکیور، یکی از بنیان‌گذاران و دانشمند ارشد سابق OpenAI، گفته‌اند که اعضای تیم را تشویق به زمزمه‌ی «احساس AGI!» می‌کرده است. او بیشتر از هر کسی این احساس را دارد: در سال 2024، سووتسکیور OpenAI را ترک کرد (سازمانی که هدفش اطمینان از سود بردن تمام بشریت از AGI است) تا با مشارکت Safe Superintelligence یک استارتاپ جدید تأسیس کند که به بررسی نحوه جلوگیری از یک AGI سرکش (یا کنترل آن در صورت ظهور) اختصاص داده شده است. هوش فوق‌العاده، طعم جدید و هیجان انگیزی است –

که با رایج شدن صحبت‌های AGI معرفی می‌شود.

سووتسکیور نمونه‌ای از انگیزه‌های آمیخته‌شده‌ی بسیاری از طرفداران خودخوانده‌ی AGI را نشان می‌دهد. او سال‌ها عمرش را صرف ساختن پایه‌های یک فناوری آینده ساخته است که اکنون آن را ترسناک می‌داند. «این کار بسیار بزرگ خواهد بود، زمین‌لرزه ایجاد می‌کند – قبل و بعد آن وجود خواهد داشت»، او چند ماه قبل از ترک OpenAI گفته بود. وقتی پرسیدم چرا تلاش‌هایش را به سمت مهار این فناوری تغییر داده است، پاسخ داد: «من این کار را برای منافع خودم انجام می‌دهم. بدیهی است که مهم است هرگونه هوشی فوق‌العاده‌ای که کسی می‌سازد، سرکش نشود. البته.»

او تنها نیست در تفکرات بزرگ و حتی آخرالزمانی خود. هر دوره‌ای به پیروان خود نیاز دارد: افرادی با ایمان راسخ به اینکه چیزی عظیم در راه است – یک قبل و بعد که آنها به طور غیرمعمولی قادرند آن را تجربه کنند.

برای ما، این ظهور AGI است. مردم عادت دارند بشنوند که این یا آن


این مطلب از منابع بین‌المللی ترجمه و بازنویسی شده است.