Ilya Sutskever، بنیانگذار OpenAI و Jan Leike، سرپرست تیم جدید می نویسند: در حال حاضر، ما راه حلی برای هدایت یا کنترل یک هوش مصنوعی بالقوه فوق هوشمند و جلوگیری از سرکشی آن نداریم.
با این حال، همه در این ترس ها سهیم نیستند. پروفسور Yann LeCun، دانشمند ارشد متا و یکی دیگر از سه پدرخوانده هوش مصنوعی، گفت که هشدارهایی که هوش مصنوعی تهدیدی برای بشریت است “مضحک” است.
Sutskever و Leike توضیح میدهند: «همسویی ابرهوشی اساساً یک مشکل یادگیری ماشینی است، و ما فکر میکنیم متخصصان بزرگ یادگیری ماشین – حتی اگر قبلاً روی همترازی کار نمیکنند – برای حل آن بسیار مهم هستند. ما قصد داریم ثمرات این تلاش را به طور گسترده به اشتراک بگذاریم و کمک به همسویی و ایمنی مدلهای غیر OpenAI را بخش مهمی از کار خود میدانیم.»
OpenAI معتقد است ابر هوش تاثیرگذارترین فناوری اختراع شده خواهد بود و می تواند به حل بسیاری از مشکلات جهان کمک کند. اما قدرت عظیم آن نیز ممکن است خطرناک باشد و منجر به ناتوانی بشریت یا حتی انقراض انسان شود. چنین هوش مصنوعی ممکن است بسیار دور به نظر برسد، اما این شرکت معتقد است که می تواند در این دهه به اینجا برسد.
به طور خلاصه: بسیاری از مردم نگران پیشرفت هوش مصنوعی هستند، به خصوص وقتی صحبت از ایجاد ماشینهایی باهوشتر از انسانها باشد. حتی OpenAI خالق ChatGPT نیز از خطرات بالقوه ابر هوش از جمله انقراض نسل بشر آگاه است و تیمی را برای کاهش این خطرات تشکیل داده است.
OpenAI مینویسد که کنترل سیستمهای هوش مصنوعی بسیار هوشمندتر از مردم نیازمند پیشرفتهای علمی و فنی برای هدایت و کنترل آنها است. برای رسیدگی به این مشکل در عرض چهار سال، تیم جدیدی را راه اندازی کرده و 20 درصد از محاسباتی که به دست آورده است را به این تلاش اختصاص می دهد.
هدف تیم سوپرتراز ساختن یک “محقق تراز خودکار در سطح انسانی” است. تحقیق هم ترازی به حصول اطمینان از همسویی هوش مصنوعی با ارزش های انسانی و پیروی از نیت انسان اشاره دارد. هدف آموزش سیستمهای هوش مصنوعی با استفاده از بازخورد انسانی، سپس آموزش هوش مصنوعی است که میتواند به ارزیابی سایر سیستمهای هوش مصنوعی کمک کند و در نهایت هوش مصنوعی بسازید که بتواند تحقیقات همترازی را سریعتر و بهتر از انسان انجام دهد.
OpenAI اذعان می کند که حل چالش های فنی ابر هوش در چهار سال یک هدف بلندپروازانه است و هیچ تضمینی برای موفقیت آن وجود ندارد، اما خوش بینانه است. این شرکت اکنون محققان و مهندسانی را برای پیوستن به این تیم استخدام می کند.
نتیجه نهایی عدم هماهنگی هوش مصنوعی؟
سام آلتمن، رئیس OpenAI یکی از چندین متخصصی بود که اخیراً در مورد احتمال انقراض نسل بشر توسط هوش مصنوعی هشدار داد و این سیستمها را با خطرات ناشی از جنگ هستهای و بیماریهای همهگیر مقایسه کرد. بیش از دو سوم آمریکاییها نگران هستند که تمدن را تهدید کند و وارن بافت ایجاد هوش مصنوعی را با بمب اتمی مقایسه کرد.
ما گزارشهای نگرانکننده زیادی در مورد اینکه هوش مصنوعی به کجا میرود دیدهایم، از جمله یکی از «پدرخواندههای هوش مصنوعی»، جفری هینتون، که گوگل را با این هشدار مواجه کرده است که با استفاده شرکتها از سیستمهای هوش مصنوعی قدرتمندتر، خطرناکتر میشوند.
از آنجایی که انسانها نمیتوانند بسیار هوشمندتر از ما بر سیستمهای هوش مصنوعی نظارت کنند، و تکنیکهای همترازی فعلی به ابرهوشی نمیرسد، پیشرفتهای جدیدی مورد نیاز است.