هشدارها در مورد نابودی بشریت توسط هوش مصنوعی سالهاست که وجود داشته است، اما پیشرفت این سیستمها در سال 2023 ترسهایی را که قبلاً هرگز پیش نیامده بود برانگیخت. اظهارات مداوم مانند این اخیر کمک چندانی به کاهش نگرانیهای عمومی نمیکند، اما دلیل خوبی وجود دارد که چرا به مقررات نیاز است، و بعید است شرکتها خودشان آن را بدون فشار اجرا کنند.
در ماه مارس، گروهی از ذهنهای برتر دنیای فناوری نامهای را امضا کردند و خواستار توقف شش ماهه توسعه هوش مصنوعی پیشرفته شدند. ایلان ماسک یکی از امضاکنندگان بود، اما نام او در بیانیه CAIS وجود ندارد. آلتمن در آوریل تایید کرد که OpenAI در حال حاضر GPT-5 را آموزش نمیدهد.
چه اتفاقی افتاده؟ این مورد یک روز دیگر است، هشدار دیگری در مورد احتمال انقراض نسل بشر توسط هوش مصنوعی. در این مناسبت، آن را با خطرات ناشی از جنگ هسته ای و بیماری های همه گیر مقایسه می کنند. این بیانیه از سوی کارشناسان این حوزه و کسانی که پشت این سیستمها هستند، از جمله سام آلتمن، مدیر عامل OpenAI آمده است.
این فقط کسانی نیستند که درگیر هوش مصنوعی هستند که می ترسند این فناوری به کجا منجر شود. بیش از دو سوم آمریکاییها معتقدند که میتواند تمدن را تهدید کند، حتی اگر اکثر بزرگسالان آمریکایی هرگز از ChatGPT استفاده نکردهاند. ما همچنین شنیدیم که وارن بافت هوش مصنوعی را با ساخت بمب اتمی مقایسه می کند.
تسلیح سازی یک نگرانی خاص برای CAIS است. می نویسد که بازیگران مخرب می توانند هوش مصنوعی را به شدت مخرب تغییر دهند. یک مثال ارائه شده، ابزارهای کشف داروی یادگیری ماشینی است که برای ساخت سلاح های شیمیایی استفاده می شود.
برخی از خطرات هوش مصنوعی که توسط CAIS فهرست شده است شامل تداوم تعصب، تقویت سلاح های خود مختار، ترویج اطلاعات نادرست و انجام حملات سایبری است. این سازمان می نویسد که با پیشرفته تر شدن هوش مصنوعی، می تواند خطرات فاجعه بار یا وجودی ایجاد کند.
بیانیه انقراض هوش مصنوعی با عنوان نگران کننده از مرکز ایمنی هوش مصنوعی (CAIS) توسط مدیران عامل آزمایشگاه های برتر هوش مصنوعی امضا شده است: آلتمن، دمیس حسابیس از Google DeepMind و داریو آمودی از Anthropic. امضاکنندگان دیگر عبارتند از نویسندگان کتاب های درسی یادگیری عمیق و هوش مصنوعی، برندگان جایزه تورینگ مانند جفری هینتون (که گوگل را به دلیل ترس از هوش مصنوعی ترک کرد)، مدیران شرکت های برتر فناوری، دانشمندان، اساتید و غیره.
اطلاعات نادرست تولید شده توسط هوش مصنوعی می تواند جامعه را برای رسیدگی به تغییرات مهم کمتر مجهز کند و این سیستم ها می توانند راه های جدیدی برای دنبال کردن اهداف خود به قیمت ارزش های فردی و اجتماعی پیدا کنند. همچنین خطر نقص وجود دارد که در آن افراد کاملاً به ماشینها وابسته میشوند. CAIS این سناریو را با سناریو در WALL-E مقایسه می کند.
دن هندریکس، مدیر CAIS به The Register گفت: “جهان برای کاهش خطرات مربوط به جنگ هسته ای با موفقیت همکاری کرده است. برای مقابله با خطرات ناشی از سیستم های هوش مصنوعی آینده به همان سطح تلاش نیاز است.”
گنجاندن آلتمن در فهرست امضاکنندگان پس از آن صورت گرفت که OpenAI خواستار ایجاد یک ناظر جهانی برای نظارت بر توسعه هوش مصنوعی شد. با این حال، برخی ادعا می کنند که درخواست او برای تنظیم مقررات فقط برای خفه کردن نوآوری رقبا و کمک به شرکتش برای ماندن در صدر است.
این بیانیه تنها یک جمله است: “کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.”