ذهن‌های پیشرو در حوزه فناوری نامه سرگشاده را امضا می‌کنند و درخواست توقف شش ماهه توسعه هوش مصنوعی پیشرفته را دارند

شایان ذکر است که این گروه درخواست توقف در تمامی توسعه‌های هوش مصنوعی نمی‌کند، بلکه صرفاً برای استراحت از سرعت سرسام‌آوری که در آن سیستم‌های پیشرفته و غیرقابل پیش‌بینی در حال توسعه و گسترش هستند، بدون درک کامل همه پیامدها، فاصله می‌گیرد.

“آیا باید اجازه دهیم ماشین‌ها کانال‌های اطلاعاتی ما را پر از تبلیغات و نادرستی کنند؟ آیا باید تمام مشاغل، از جمله کارهای انجام‌دهنده را به طور خودکار حذف کنیم؟ آیا باید ذهن‌های غیرانسانی را توسعه دهیم که ممکن است در نهایت از تعداد، پیشی گرفته، منسوخ و جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل را داشته باشیم. از تمدن ما؟”

به طور خلاصه: برخی از ذهن‌های برتر دنیای فناوری از محققان هوش مصنوعی می‌خواهند که فوراً کار روی آموزش سیستم‌های پیشرفته را متوقف کنند. امضاکنندگان توصیه می‌کنند که آزمایشگاه‌ها باید از زمان توقف استفاده کنند تا به طور مشترک پروتکل‌های ایمنی برای طراحی پیشرفته هوش مصنوعی را توسعه و پیاده‌سازی کنند، که توسط تیمی از کارشناسان مستقل و خارجی نظارت می‌شود.

اعتبار تصویر: Orb اثر Michael Dziedzic، Arm by This is Engineering



منبع

چندین ذهن برجسته فناوری قبلا نامه سرگشاده را امضا کرده اند از جمله استیو وزنیاک، بنیانگذار اپل، ایلان ماسک، ایوان شارپ از بنیانگذاران Pinterest، کریس لارسن، بنیانگذار ریپل، و ژان تالین، بنیانگذار اسکایپ. از کسانی که با پیام موافق هستند دعوت می شود تا امضای خود را به عنوان یک نمایش عمومی حمایت اضافه کنند.

این گروه معتقد است که سیستم‌های هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که درک بهتری از توانایی‌های آن‌ها داشته باشیم و مطمئن باشیم که مزایا بر معایب آن بیشتر خواهد بود.

بخونید:  متا به دلیل نقصی که فیسبوک 2FA را دور زد، جایزه باگ 27200 دلاری به محقق اعطا کرد.

در نامه ای سرگشاده که در وب سایت موسسه آینده زندگی منتشر شده است، بیش از 1100 امضاکننده نگرانی خود را در مورد آنچه که آنها مسابقه ای خارج از کنترل می نامند برای توسعه و استقرار مغزهای دیجیتالی قدرتمندتر که در آن هنوز نمی توانیم درک، پیش بینی یا حتی آن را درک کنیم، ابراز نگرانی کرده اند. کنترل قابل اعتماد

به این ترتیب، این گروه از همه آزمایشگاه‌های هوش مصنوعی می‌خواهد که آموزش خود را بر روی سیستم‌هایی که توانایی بیشتری نسبت به GPT-4 دارند برای حداقل شش ماه متوقف کنند. این وقفه باید شفاف و تایید شود و همه مشارکت کنندگان مهم را شامل شود. اگر امکان اجرای سریع توقف وجود نداشته باشد، این گروه توصیه می کند که دولت ها مداخله کنند و یک ممنوعیت موقت را اجرا کنند.

این هشدار مانند علوفه علمی تخیلی خوانده می شود و همین چند سال پیش ممکن است همینطور باشد. با این حال، کسانی که اخبار فناوری را دنبال می کنند، شاهد راه اندازی سیستم های هوش مصنوعی با قابلیت فزاینده بوده اند که یکی پس از دیگری در کوتاه مدت راه اندازی می شوند. بخشهای مساوی جذاب و نگران کننده است.