استنفورد ربات چت آلپاکا را با استناد به “توهمات”، هزینه ها و نگرانی های ایمنی می کشد

علیرغم از کار افتادن صفحه وب میزبان نسخه نمایشی Alpaca، کاربران همچنان می توانند مدل را از مخزن GitHub خود برای آزمایش خصوصی بازیابی کنند، که استنفورد آن را تشویق می کند. این شرکت از کاربران درخواست کرد که در زمان انتشار این مدل، نقص‌هایی را که در بیانیه مطبوعاتی خود ذکر نشده بود، «پرچم کنند».

با این حال، این بدان معنا نیست که آلپاکا هرگز برای مصرف عمومی مناسب نخواهد بود. کد GitHub تنها یک هفته است که منتشر شده است و مردم آن را روی Raspberry Pi و گوشی های پیکسل. این شاهکارها فقط به دلیل اندازه سبک وزن آلپاکا امکان پذیر است. مانع اصلی رفتار چنین مدل کوچکی است، چیزی که استنفورد بیش از سه سال است که روی آن مطالعه کرده است (ویدیو بالا). این منطقه ای است که حتی LLM های عظیم مانند ChatGPT نیاز به کار دارند.





منبع

علاوه بر این، استنفورد می دانست که آلپاکا هنگام راه اندازی نسخه نمایشی تعاملی، پاسخ های نامناسبی ایجاد می کند.

“با توجه به … ناکافی بودن فیلترهای محتوای ما…” کدی برای “اینترنت مدل ما را خراب کرد” است که جای تعجب نیست زیرا اینترنت همه چیز را خراب می کند.

هفته گذشته، محققان دانشگاه استنفورد نسخه خود را از یک ربات چت مبتنی بر هوش مصنوعی LLaMa متا به نام “Alpaca” منتشر کردند اما پس از شروع “توهم” به سرعت آن را آفلاین کردند. برخی در صنعت مدل زبان بزرگ (LLM) به این نتیجه رسیده اند که توهم برای زمانی که یک هوش مصنوعی اطلاعات نادرست را به گونه ای واقعی منتشر می کند، تعبیر خوبی است. این دانشگاه افزود که افزایش هزینه های میزبانی و نگرانی برای ایمنی نیز از عوامل حذف آن بوده است.

بخونید:  سونی فکر نمی‌کند بتواند رقیب Call of Duty باشد

در متن: مدل‌های زبانی بزرگ بدون هیچ نشانه‌ای از کندی بر چرخه اخبار مسلط هستند. همه می خواهند در طبقه همکف این فناوری قرار بگیرند، بنابراین در حال حاضر عجله طلایی برای انتشار چت ربات عالی هوش مصنوعی بعدی وجود دارد. متأسفانه، مدل هایی مانند ChatGPT برای ساخت و آموزش بسیار گران هستند. مدل‌های کوچک‌تر بسیار ارزان‌تر هستند، اما به نظر می‌رسد که تمایل بیشتری برای تبدیل شدن به یک آشفتگی مشابه با مایکروسافت Tay از سال 2016 دارند.

یکی از مشکلات آلپاکا این است که مدل نسبتاً کوچکی است که در LLM ها وجود دارد، اما این به دلیل طراحی است. متا به عمد LLaMA را به عنوان یک مدل زبان در دسترس ایجاد کرد که برای آموزش یک ابرکامپیوتر گران قیمت لازم نیست. استنفورد از آن برای توسعه یک مدل پارامتر هفت میلیاردی با قیمت حدود 600 دلار استفاده کرد. این را با 3 میلیارد دلار (یا بیشتر) که مایکروسافت در مدل مبتنی بر ChatGPT خود با صدها میلیارد پارامتر سرمایه گذاری کرده است مقایسه کنید.

البته، LLM ها مستعد تفکرات خیالی هستند و آنها را به شکلی کاملاً باورپذیر ارائه می کنند. محققان تقریباً در هر چت ربات اخیری که در طبیعت منتشر شده است به این ضعف اشاره کرده اند. نمونه‌های متعددی از ChatGPT و دیگران وجود دارد که اطلاعات نادرست را به‌عنوان واقعی ارائه می‌کنند و زمانی که درباره آن فراخوانی می‌شود، مکرراً درباره داستان خود بحث می‌کنند.

یکی از سخنگویان موسسه هوش مصنوعی انسان محور دانشگاه استنفورد به The Register گفت: «هدف اولیه از انتشار نسخه نمایشی انتشار تحقیقات ما به روشی قابل دسترس بود. ما احساس می‌کنیم که بیشتر به این هدف دست یافته‌ایم و با توجه به هزینه‌های میزبانی و ناکافی بودن فیلترهای محتوایمان، تصمیم گرفتیم نسخه نمایشی را حذف کنیم.»

بخونید:  مطالعه نشان می دهد 50 درصد از تعمیرگاه ها از دستگاه های مشتری ردیابی می کنند

محققان هفته گذشته در بیانیه مطبوعاتی خود گفتند: “آلپاکا همچنین چندین نقص رایج در مدل های زبانی از جمله توهم، سمیت و کلیشه ها را نشان می دهد.” “توهم، به طور خاص، به نظر می رسد یک حالت شکست معمول برای Alpaca، حتی در مقایسه با text-davinci-003 (GPT-3.5 OpenAI). استقرار یک نسخه نمایشی تعاملی برای Alpaca نیز خطرات بالقوه ای دارد، مانند انتشار گسترده تر محتوای مضر و کاهش موانع برای هرزنامه، کلاهبرداری یا اطلاعات نادرست.”

از این نظر، جای تعجب نیست که آلپاکا به این سرعت در زمان عرضه عمومی شکست خورد. حتی ChatGPT و Bing Chat هم مشکلات زیادی داشتند، تقلبیو جنجال‌هایی در زمان عرضه آن‌ها، و آن هم پس از بتای بسته‌شده نسبتا طولانی بود.