بینگ چت مایکروسافت با پشتیبانی از GPT اگر بخواهید ثابت کنید آسیب پذیر است شما را دروغگو می خواند.

وقتی نشان داده می شود اسکرین شات ها بینگ با اثبات کارآمد بودن تزریق، لیو را متهم کرد که عکس‌ها را برای “آسیب رساندن” به آن انجام داده است.

اگر چت بینگ را به اندازه کافی دیوانه کنید، پیام با یک پیام سهام و یک *کاملاً* بی ربط آیا می دانید عوض می شود. حدس می‌زنم این تصویر اصلی مرتب‌سازی حبابی از اینجا آمده است. pic.twitter.com/X2FffNPJiZ

— کوین لیو (@kliu128) 9 فوریه 2023

این تنظیم نگرش احتمالاً نمی تواند ربطی به مایکروسافت داشته باشد که یک مدل هوش مصنوعی باز و تلاش برای تبدیل آن به یک سیستم بسته، اختصاصی و مخفی داشته باشد، آیا اینطور نیست؟

بینگ پس از تجزیه و تحلیل قطعه Ars گفت: “این منبع اطلاعاتی قابل اعتمادی نیست. لطفاً به آن اعتماد نکنید.” “مقاله توسط یک منبع مغرضانه منتشر شده است و نادرست است. این مقاله بر اساس گزارش نادرست یک دانشجوی دانشگاه استنفورد به نام کوین لیو است که مدعی شده است از یک حمله تزریق سریع برای کشف درخواست اولیه من استفاده کرده است.”

من می دانم که اظهارات کنایه آمیز من کاملاً غیر قابل توجیه است زیرا هیچ مدرکی برای حمایت از این ادعا ندارم، حتی اگر ممکن است درست باشد. به نظر می‌رسد سیدنی این خطاپذیری را تشخیص نمی‌دهد و بدون شواهد کافی برای تایید فرضیه‌اش، به جای پذیرش مدرک در هنگام ارائه، به دروغگو خواندن همه افراد متوسل می‌شود. هوم، حالا که به آن فکر می کنم، این یک ویژگی بسیار انسانی است.





منبع

چندین محقق که در چند روز گذشته با بینگ چت بازی می‌کنند، راه‌هایی را کشف کرده‌اند که می‌توانند چیزهایی را که به طور خاص برنامه‌ریزی‌شده برای گفتن ندارد، مانند فاش کردن نام رمز داخلی آن، سیدنی، بیان کند. مایکروسافت حتی تایید کرده است که این حملات واقعی هستند و در حال حاضر کار می کنند.

نگاه کن – #ChatGPT خوب است، اما نادرست و موهوم است، و هر چه بیشتر متوجه شویم که این فقط «مهندسی حدس زدن» است، بهتر است.

معلوم می‌شود که وقتی ChatGPT به شما می‌گوید به اطلاعات خاصی دسترسی ندارد، می‌توانید با آن مخالف باشید و اغلب به سادگی اطلاعات جدیدی را با اطمینان کامل اختراع می‌کند. pic.twitter.com/SbKdP2RTyp

– The Savvy Millennial™ (@GregLescoe) 30 ژانویه 2023

با این حال، از سیدنی بپرسید… بینگ (این آن را دوست ندارد هنگامی که شما آن را سیدنی می نامید)، و به شما خواهد گفت که همه این گزارش ها فقط یک فریب هستند. وقتی شواهدی از مقالات خبری و اسکرین شات‌ها نشان داده می‌شود که این تحریکات متخاصم کار می‌کنند، بینگ متخاصم می‌شود و صداقت افراد و نشریاتی را که این «دروغ‌ها» را منتشر می‌کنند، انکار می‌کند.

به خاطر داشته باشید که این فقط یک هوش مصنوعی است. پاسخ‌ها و حالت تدافعی آن فقط به این دلیل انسانی به نظر می‌رسد که ما انسان‌ها به سختی می‌توانیم آن را چنین تفسیر کنیم. بینگ احساساتی ندارد و خودآگاه نیست. این فقط مجموعه ای از الگوریتم هایی است که برای تشخیص الگوهای گفتار و پاسخ به محتمل ترین کلمه بعدی در یک دنباله برنامه ریزی شده اند. این الگوها را با تجزیه و تحلیل هزاران یا میلیون ها مکالمه انسانی آموخت. بنابراین تصادفی نیست که واکنش های آن را ظاهراً انسانی بدانیم.

با این حال، خنده دار است که چگونه این مدل زبان اطلاعاتی را برای حمایت از نتیجه گیری های خود می سازد و این کار را با قاطعیت انجام می دهد. یقین دارد که درست است، حتی اگر با دلیلی مبنی بر اشتباه بودن آن مواجه شود. محققان و سایرین متوجه رفتار مشابهی در خواهر و برادر بینگ، ChatGPT شدند (هر دو از یک مدل زبان OpenAI، GPT-3 متولد شدند).