تیم جدید OpenAI (امیدواریم) از بشریت در برابر ابر هوش مصنوعی محافظت کند

Ilya Sutskever، بنیانگذار OpenAI و Jan Leike، سرپرست تیم جدید می نویسند: در حال حاضر، ما راه حلی برای هدایت یا کنترل یک هوش مصنوعی بالقوه فوق هوشمند و جلوگیری از سرکشی آن نداریم.

با این حال، همه در این ترس ها سهیم نیستند. پروفسور Yann LeCun، دانشمند ارشد متا و یکی دیگر از سه پدرخوانده هوش مصنوعی، گفت که هشدارهایی که هوش مصنوعی تهدیدی برای بشریت است “مضحک” است.



منبع

Sutskever و Leike توضیح می‌دهند: «همسویی ابرهوشی اساساً یک مشکل یادگیری ماشینی است، و ما فکر می‌کنیم متخصصان بزرگ یادگیری ماشین – حتی اگر قبلاً روی هم‌ترازی کار نمی‌کنند – برای حل آن بسیار مهم هستند. ما قصد داریم ثمرات این تلاش را به طور گسترده به اشتراک بگذاریم و کمک به همسویی و ایمنی مدل‌های غیر OpenAI را بخش مهمی از کار خود می‌دانیم.»

OpenAI معتقد است ابر هوش تاثیرگذارترین فناوری اختراع شده خواهد بود و می تواند به حل بسیاری از مشکلات جهان کمک کند. اما قدرت عظیم آن نیز ممکن است خطرناک باشد و منجر به ناتوانی بشریت یا حتی انقراض انسان شود. چنین هوش مصنوعی ممکن است بسیار دور به نظر برسد، اما این شرکت معتقد است که می تواند در این دهه به اینجا برسد.

به طور خلاصه: بسیاری از مردم نگران پیشرفت هوش مصنوعی هستند، به خصوص وقتی صحبت از ایجاد ماشین‌هایی باهوش‌تر از انسان‌ها باشد. حتی OpenAI خالق ChatGPT نیز از خطرات بالقوه ابر هوش از جمله انقراض نسل بشر آگاه است و تیمی را برای کاهش این خطرات تشکیل داده است.

بخونید:  کیت های Intel NUC 13 Pro "Arena Canyon" از 340 دلار شروع می شود

OpenAI می‌نویسد که کنترل سیستم‌های هوش مصنوعی بسیار هوشمندتر از مردم نیازمند پیشرفت‌های علمی و فنی برای هدایت و کنترل آن‌ها است. برای رسیدگی به این مشکل در عرض چهار سال، تیم جدیدی را راه اندازی کرده و 20 درصد از محاسباتی که به دست آورده است را به این تلاش اختصاص می دهد.

هدف تیم سوپرتراز ساختن یک “محقق تراز خودکار در سطح انسانی” است. تحقیق هم ترازی به حصول اطمینان از همسویی هوش مصنوعی با ارزش های انسانی و پیروی از نیت انسان اشاره دارد. هدف آموزش سیستم‌های هوش مصنوعی با استفاده از بازخورد انسانی، سپس آموزش هوش مصنوعی است که می‌تواند به ارزیابی سایر سیستم‌های هوش مصنوعی کمک کند و در نهایت هوش مصنوعی بسازید که بتواند تحقیقات هم‌ترازی را سریع‌تر و بهتر از انسان انجام دهد.

OpenAI اذعان می کند که حل چالش های فنی ابر هوش در چهار سال یک هدف بلندپروازانه است و هیچ تضمینی برای موفقیت آن وجود ندارد، اما خوش بینانه است. این شرکت اکنون محققان و مهندسانی را برای پیوستن به این تیم استخدام می کند.

سام آلتمن، رئیس OpenAI یکی از چندین متخصصی بود که اخیراً در مورد احتمال انقراض نسل بشر توسط هوش مصنوعی هشدار داد و این سیستم‌ها را با خطرات ناشی از جنگ هسته‌ای و بیماری‌های همه‌گیر مقایسه کرد. بیش از دو سوم آمریکایی‌ها نگران هستند که تمدن را تهدید کند و وارن بافت ایجاد هوش مصنوعی را با بمب اتمی مقایسه کرد.

ما گزارش‌های نگران‌کننده زیادی در مورد اینکه هوش مصنوعی به کجا می‌رود دیده‌ایم، از جمله یکی از «پدرخوانده‌های هوش مصنوعی»، جفری هینتون، که گوگل را با این هشدار مواجه کرده است که با استفاده شرکت‌ها از سیستم‌های هوش مصنوعی قدرتمندتر، خطرناک‌تر می‌شوند.

بخونید:  برخورد ناسا با یک سیارک با یک فضاپیما را ببینید

از آنجایی که انسان‌ها نمی‌توانند بسیار هوشمندتر از ما بر سیستم‌های هوش مصنوعی نظارت کنند، و تکنیک‌های هم‌ترازی فعلی به ابرهوشی نمی‌رسد، پیشرفت‌های جدیدی مورد نیاز است.