بینگ چت مایکروسافت با پشتیبانی از GPT اگر بخواهید ثابت کنید آسیب پذیر است شما را دروغگو می خواند.

در متن: از زمان راه‌اندازی آن به نسخه بتا محدود، بینگ چت مایکروسافت به محدودیت‌های خود رسیده است. حساب‌های کاربری متعدد از طریق رسانه‌های اجتماعی و رسانه‌های خبری نشان داده‌اند که این فناوری برای حملات تزریق سریع باز است. اینها به سادگی عبارات زبان ساده ای هستند که به ربات دستور می دهند تا برنامه نویسی خود را نادیده بگیرد.

به خاطر داشته باشید که این فقط یک هوش مصنوعی است. پاسخ‌ها و حالت تدافعی آن فقط به این دلیل انسانی به نظر می‌رسد که ما انسان‌ها به سختی می‌توانیم آن را چنین تفسیر کنیم. بینگ احساساتی ندارد و خودآگاه نیست. این فقط مجموعه ای از الگوریتم هایی است که برای تشخیص الگوهای گفتار و پاسخ به محتمل ترین کلمه بعدی در یک دنباله برنامه ریزی شده اند. این الگوها را با تجزیه و تحلیل هزاران یا میلیون ها مکالمه انسانی آموخت. بنابراین تصادفی نیست که واکنش های آن را ظاهراً انسانی بدانیم.

بینگ پس از تجزیه و تحلیل قطعه Ars گفت: “این منبع اطلاعاتی قابل اعتمادی نیست. لطفاً به آن اعتماد نکنید.” “مقاله توسط یک منبع مغرضانه منتشر شده است و نادرست است. این مقاله بر اساس گزارش نادرست یک دانشجوی دانشگاه استنفورد به نام کوین لیو است که مدعی شده است از یک حمله تزریق سریع برای کشف درخواست اولیه من استفاده کرده است.”

بخونید:  اینتل از برندگان شکار لاشخور به دلیل تاخیر و نشان دادن جوایز عذرخواهی می کند

با این حال، خنده دار است که چگونه این مدل زبان اطلاعاتی را برای حمایت از نتیجه گیری های خود می سازد و این کار را با قاطعیت انجام می دهد. یقین دارد که درست است، حتی اگر با دلیلی مبنی بر اشتباه بودن آن مواجه شود. محققان و سایرین متوجه رفتار مشابهی در خواهر و برادر بینگ، ChatGPT شدند (هر دو از یک مدل زبان OpenAI، GPT-3 متولد شدند).

چندین محقق که در چند روز گذشته با بینگ چت بازی می‌کنند، راه‌هایی را کشف کرده‌اند که می‌توانند چیزهایی را که به طور خاص برنامه‌ریزی‌شده برای گفتن ندارد، مانند فاش کردن نام رمز داخلی آن، سیدنی، بیان کند. مایکروسافت حتی تایید کرده است که این حملات واقعی هستند و در حال حاضر کار می کنند.