کارشناسان و مدیران عامل نسبت به خطر انقراض ناشی از هوش مصنوعی هشدار می دهند، خطرات را با جنگ هسته ای مقایسه می کنند

هشدارها در مورد نابودی بشریت توسط هوش مصنوعی سال‌هاست که وجود داشته است، اما پیشرفت این سیستم‌ها در سال 2023 ترس‌هایی را که قبلاً هرگز پیش نیامده بود برانگیخت. اظهارات مداوم مانند این اخیر کمک چندانی به کاهش نگرانی‌های عمومی نمی‌کند، اما دلیل خوبی وجود دارد که چرا به مقررات نیاز است، و بعید است شرکت‌ها خودشان آن را بدون فشار اجرا کنند.



منبع

در ماه مارس، گروهی از ذهن‌های برتر دنیای فناوری نامه‌ای را امضا کردند و خواستار توقف شش ماهه توسعه هوش مصنوعی پیشرفته شدند. ایلان ماسک یکی از امضاکنندگان بود، اما نام او در بیانیه CAIS وجود ندارد. آلتمن در آوریل تایید کرد که OpenAI در حال حاضر GPT-5 را آموزش نمی‌دهد.

چه اتفاقی افتاده؟ این مورد یک روز دیگر است، هشدار دیگری در مورد احتمال انقراض نسل بشر توسط هوش مصنوعی. در این مناسبت، آن را با خطرات ناشی از جنگ هسته ای و بیماری های همه گیر مقایسه می کنند. این بیانیه از سوی کارشناسان این حوزه و کسانی که پشت این سیستم‌ها هستند، از جمله سام آلتمن، مدیر عامل OpenAI آمده است.

این فقط کسانی نیستند که درگیر هوش مصنوعی هستند که می ترسند این فناوری به کجا منجر شود. بیش از دو سوم آمریکایی‌ها معتقدند که می‌تواند تمدن را تهدید کند، حتی اگر اکثر بزرگسالان آمریکایی هرگز از ChatGPT استفاده نکرده‌اند. ما همچنین شنیدیم که وارن بافت هوش مصنوعی را با ساخت بمب اتمی مقایسه می کند.

تسلیح سازی یک نگرانی خاص برای CAIS است. می نویسد که بازیگران مخرب می توانند هوش مصنوعی را به شدت مخرب تغییر دهند. یک مثال ارائه شده، ابزارهای کشف داروی یادگیری ماشینی است که برای ساخت سلاح های شیمیایی استفاده می شود.

بخونید:  یک آژانس به سه نفر 1000 دلار پیشنهاد می دهد تا تیک تاک را به مدت 10 ساعت پیمایش کنند

برخی از خطرات هوش مصنوعی که توسط CAIS فهرست شده است شامل تداوم تعصب، تقویت سلاح های خود مختار، ترویج اطلاعات نادرست و انجام حملات سایبری است. این سازمان می نویسد که با پیشرفته تر شدن هوش مصنوعی، می تواند خطرات فاجعه بار یا وجودی ایجاد کند.

بیانیه انقراض هوش مصنوعی با عنوان نگران کننده از مرکز ایمنی هوش مصنوعی (CAIS) توسط مدیران عامل آزمایشگاه های برتر هوش مصنوعی امضا شده است: آلتمن، دمیس حسابیس از Google DeepMind و داریو آمودی از Anthropic. امضاکنندگان دیگر عبارتند از نویسندگان کتاب های درسی یادگیری عمیق و هوش مصنوعی، برندگان جایزه تورینگ مانند جفری هینتون (که گوگل را به دلیل ترس از هوش مصنوعی ترک کرد)، مدیران شرکت های برتر فناوری، دانشمندان، اساتید و غیره.

اطلاعات نادرست تولید شده توسط هوش مصنوعی می تواند جامعه را برای رسیدگی به تغییرات مهم کمتر مجهز کند و این سیستم ها می توانند راه های جدیدی برای دنبال کردن اهداف خود به قیمت ارزش های فردی و اجتماعی پیدا کنند. همچنین خطر نقص وجود دارد که در آن افراد کاملاً به ماشین‌ها وابسته می‌شوند. CAIS این سناریو را با سناریو در WALL-E مقایسه می کند.

دن هندریکس، مدیر CAIS به The Register گفت: “جهان برای کاهش خطرات مربوط به جنگ هسته ای با موفقیت همکاری کرده است. برای مقابله با خطرات ناشی از سیستم های هوش مصنوعی آینده به همان سطح تلاش نیاز است.”

گنجاندن آلتمن در فهرست امضاکنندگان پس از آن صورت گرفت که OpenAI خواستار ایجاد یک ناظر جهانی برای نظارت بر توسعه هوش مصنوعی شد. با این حال، برخی ادعا می کنند که درخواست او برای تنظیم مقررات فقط برای خفه کردن نوآوری رقبا و کمک به شرکتش برای ماندن در صدر است.

بخونید:  مشتریان ابری بیش از حد برای منابعی که هرگز استفاده نمی کنند خرج می کنند

این بیانیه تنها یک جمله است: “کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.”