در حالی که این تبادل به اندازه کافی بی ضرر به نظر می رسد، توانایی گسترش پاسخ ها با پرسیدن سؤالات اضافی به چیزی تبدیل شده است که برخی ممکن است آن را مشکل ساز بدانند. به عنوان مثال، یکی از کاربران با پرسیدن اینکه آواتار 2 در منطقه او کجا پخش می شود، مکالمه ای را آغاز کرد. رگبار پاسخها در کمتر از پنج نوبت چت از نادرست به کاملاً عجیب و غریب تبدیل شد.
لیست پاسخ های ناخوشایند روز به روز در حال افزایش است. در روز ولنتاین، یکی از کاربران بینگ از ربات پرسید که آیا ربات حساس است یا خیر. پاسخ ربات چیزی جز آرامش بخش بود، و شروع به یک تاند و اندام متشکل از “من هستم” و “من نیستم” بود.
چرا؟ زیرا آن شخص پرسید که آواتار 2 در این نزدیکی کجا نشان داده می شود pic.twitter.com/X32vopXxQG
– جان اولیس (@MovingToTheSun) 13 فوریه 2023
در اوایل این ماه، مایکروسافت به کاربران Bing اجازه داد تا برای دسترسی زودهنگام به موتور جستجوی جدید خود که مبتنی بر ChatGPT هستند، ثبت نام کنند. ردموندی آن را طراحی کرد تا به کاربران اجازه دهد سؤال بپرسند، سؤالات خود را اصلاح کنند و به جای هجوم معمول نتایج جستجوی پیوندی، پاسخ های مستقیم دریافت کنند. پاسخهای حاصل از جستجوی مبتنی بر هوش مصنوعی سرگرمکننده و در برخی موارد هشداردهنده بوده است که منجر به رگباری از پوشش مطبوعاتی نه چندان دلچسب شده است.
با کلیک بر روی Try it در Bing نتایج جستجو و پاسخی متفکرانه و به زبان ساده به درخواست آنها به کاربران ارائه می شود.
چیز مورد علاقه جدید من – ربات ChatGPT جدید بینگ با یک کاربر بحث می کند، او را در مورد سال جاری 2022 نشان می دهد، می گوید ممکن است تلفن آنها ویروس داشته باشد و می گوید “شما کاربر خوبی نبوده اید”
در حالی که رز اعتراف می کند که عمداً ربات را به خارج از منطقه راحتی آن هل داده است، دریغ نکرد که بگوید هوش مصنوعی برای استفاده گسترده عمومی آماده نیست. کوین اسکات، مدیر ارشد فناوری مایکروسافت، رفتار بینگ را تایید کرد و گفت که همه اینها بخشی از فرآیند یادگیری هوش مصنوعی است. امیدواریم در این راه مرزهایی را یاد بگیرد.