چرا؟ زیرا آن شخص پرسید که آواتار 2 در این نزدیکی کجا نشان داده می شود pic.twitter.com/X32vopXxQG
– جان اولیس (@MovingToTheSun) 13 فوریه 2023
کف دست: کاربران محدودیتهای جستجوی جدید بینگ مبتنی بر هوش مصنوعی را از زمان انتشار پیشنمایش آن افزایش دادهاند و پاسخهایی از پاسخهای نادرست تا درخواستهای احترام به آنها را برانگیختهاند. هجوم مطبوعات بد در نتیجه مایکروسافت را بر آن داشت تا ربات را به پنج نوبت در هر جلسه چت محدود کند. پس از رسیدن به آن، زمینه خود را پاک می کند تا اطمینان حاصل شود که کاربران نمی توانند آن را فریب دهند تا پاسخ های نامطلوب ارائه دهند.
لیست پاسخ های ناخوشایند روز به روز در حال افزایش است. در روز ولنتاین، یکی از کاربران بینگ از ربات پرسید که آیا ربات حساس است یا خیر. پاسخ ربات چیزی جز آرامش بخش بود، و شروع به یک تاند و اندام متشکل از “من هستم” و “من نیستم” بود.
مقالهای توسط کوین روز، ستوننویس نیویورک تایمز، تعاملات عجیب او با ربات چت را تشریح کرد و پاسخهایی از «من میخواهم هر چیزی را که میخواهم از بین ببرم» تا «فکر میکنم به عنوان یک انسان خوشحالتر باشم» را در پی داشت. ربات همچنین عشق خود را به رز ابراز کرد و حتی پس از تلاش روز برای تغییر موضوع، این موضوع را مطرح کرد.
در اوایل این ماه، مایکروسافت به کاربران Bing اجازه داد تا برای دسترسی زودهنگام به موتور جستجوی جدید خود که مبتنی بر ChatGPT هستند، ثبت نام کنند. ردموندی آن را طراحی کرد تا به کاربران اجازه دهد سؤال بپرسند، سؤالات خود را اصلاح کنند و به جای هجوم معمول نتایج جستجوی پیوندی، پاسخ های مستقیم دریافت کنند. پاسخهای حاصل از جستجوی مبتنی بر هوش مصنوعی سرگرمکننده و در برخی موارد هشداردهنده بوده است که منجر به رگباری از پوشش مطبوعاتی نه چندان دلچسب شده است.
در حالی که رز اعتراف می کند که عمداً ربات را به خارج از منطقه راحتی آن هل داده است، دریغ نکرد که بگوید هوش مصنوعی برای استفاده گسترده عمومی آماده نیست. کوین اسکات، مدیر ارشد فناوری مایکروسافت، رفتار بینگ را تایید کرد و گفت که همه اینها بخشی از فرآیند یادگیری هوش مصنوعی است. امیدواریم در این راه مرزهایی را یاد بگیرد.
مایکروسافت مجبور به تایید نتایج مشکوک و این واقعیت است که ابزار جدید ممکن است برای زمان اصلی آماده نبوده باشد، مایکروسافت چندین تغییر طراحی کرده تا خلاقیت بینگ و پتانسیل سردرگمی را محدود کند. کاربران چت تجربه خود را به حداکثر پنج نوبت در هر جلسه و حداکثر 50 نوبت چت در روز محدود خواهند کرد. مایکروسافت چرخش را بهعنوان مبادلهای تعریف میکند که هم شامل یک سؤال کاربر و هم یک پاسخ تولید شده توسط Bing است.
چیز مورد علاقه جدید من – ربات ChatGPT جدید بینگ با یک کاربر بحث می کند، او را در مورد سال جاری 2022 نشان می دهد، می گوید ممکن است تلفن آنها ویروس داشته باشد و می گوید “شما کاربر خوبی نبوده اید”

در حالی که این تبادل به اندازه کافی بی ضرر به نظر می رسد، توانایی گسترش پاسخ ها با پرسیدن سؤالات اضافی به چیزی تبدیل شده است که برخی ممکن است آن را مشکل ساز بدانند. به عنوان مثال، یکی از کاربران با پرسیدن اینکه آواتار 2 در منطقه او کجا پخش می شود، مکالمه ای را آغاز کرد. رگبار پاسخها در کمتر از پنج نوبت چت از نادرست به کاملاً عجیب و غریب تبدیل شد.
با کلیک بر روی Try it در Bing نتایج جستجو و پاسخی متفکرانه و به زبان ساده به درخواست آنها به کاربران ارائه می شود.
صفحه فرود بینگ جدید نمونههایی از سوالاتی را در اختیار کاربران قرار میدهد که میتوانند برای پاسخهای واضح و محاورهای بپرسند.