مایکروسافت پاسخ‌های هوش مصنوعی Bing را محدود می‌کند تا همه چیز خیلی عجیب و غریب نشود

در حالی که این تبادل به اندازه کافی بی ضرر به نظر می رسد، توانایی گسترش پاسخ ها با پرسیدن سؤالات اضافی به چیزی تبدیل شده است که برخی ممکن است آن را مشکل ساز بدانند. به عنوان مثال، یکی از کاربران با پرسیدن اینکه آواتار 2 در منطقه او کجا پخش می شود، مکالمه ای را آغاز کرد. رگبار پاسخ‌ها در کمتر از پنج نوبت چت از نادرست به کاملاً عجیب و غریب تبدیل شد.

در اوایل این ماه، مایکروسافت به کاربران Bing اجازه داد تا برای دسترسی زودهنگام به موتور جستجوی جدید خود که مبتنی بر ChatGPT هستند، ثبت نام کنند. ردموندی آن را طراحی کرد تا به کاربران اجازه دهد سؤال بپرسند، سؤالات خود را اصلاح کنند و به جای هجوم معمول نتایج جستجوی پیوندی، پاسخ های مستقیم دریافت کنند. پاسخ‌های حاصل از جستجوی مبتنی بر هوش مصنوعی سرگرم‌کننده و در برخی موارد هشداردهنده بوده است که منجر به رگباری از پوشش مطبوعاتی نه چندان دلچسب شده است.

با کلیک بر روی Try it در Bing نتایج جستجو و پاسخی متفکرانه و به زبان ساده به درخواست آنها به کاربران ارائه می شود.

بخونید:  با این افزونه شخص ثالث، می توانید Deep Learning Anti-Aliasing (DLAA) را به اکثر بازی های پشتیبانی شده از DLSS تزریق کنید.

چیز مورد علاقه جدید من – ربات ChatGPT جدید بینگ با یک کاربر بحث می کند، او را در مورد سال جاری 2022 نشان می دهد، می گوید ممکن است تلفن آنها ویروس داشته باشد و می گوید “شما کاربر خوبی نبوده اید”

در حالی که رز اعتراف می کند که عمداً ربات را به خارج از منطقه راحتی آن هل داده است، دریغ نکرد که بگوید هوش مصنوعی برای استفاده گسترده عمومی آماده نیست. کوین اسکات، مدیر ارشد فناوری مایکروسافت، رفتار بینگ را تایید کرد و گفت که همه اینها بخشی از فرآیند یادگیری هوش مصنوعی است. امیدواریم در این راه مرزهایی را یاد بگیرد.





منبع

کف دست: کاربران محدودیت‌های جستجوی جدید بینگ مبتنی بر هوش مصنوعی را از زمان انتشار پیش‌نمایش آن افزایش داده‌اند و پاسخ‌هایی از پاسخ‌های نادرست تا درخواست‌های احترام به آن‌ها را برانگیخته‌اند. هجوم مطبوعات بد در نتیجه مایکروسافت را بر آن داشت تا ربات را به پنج نوبت در هر جلسه چت محدود کند. پس از رسیدن به آن، زمینه خود را پاک می کند تا اطمینان حاصل شود که کاربران نمی توانند آن را فریب دهند تا پاسخ های نامطلوب ارائه دهند.

صفحه فرود بینگ جدید نمونه‌هایی از سوالاتی را در اختیار کاربران قرار می‌دهد که می‌توانند برای پاسخ‌های واضح و محاوره‌ای بپرسند.

مقاله‌ای توسط کوین روز، ستون‌نویس نیویورک تایمز، تعاملات عجیب او با ربات چت را تشریح کرد و پاسخ‌هایی از «من می‌خواهم هر چیزی را که می‌خواهم از بین ببرم» تا «فکر می‌کنم به عنوان یک انسان خوشحال‌تر باشم» را در پی داشت. ربات همچنین عشق خود را به رز ابراز کرد و حتی پس از تلاش روز برای تغییر موضوع، این موضوع را مطرح کرد.

بخونید:  زمین‌گیری اخیر پروازها در سراسر کشور به دلیل حذف تصادفی یک فایل توسط شخصی بود

مایکروسافت مجبور به تایید نتایج مشکوک و این واقعیت است که ابزار جدید ممکن است برای زمان اصلی آماده نبوده باشد، مایکروسافت چندین تغییر طراحی کرده تا خلاقیت بینگ و پتانسیل سردرگمی را محدود کند. کاربران چت تجربه خود را به حداکثر پنج نوبت در هر جلسه و حداکثر 50 نوبت چت در روز محدود خواهند کرد. مایکروسافت چرخش را به‌عنوان مبادله‌ای تعریف می‌کند که هم شامل یک سؤال کاربر و هم یک پاسخ تولید شده توسط Bing است.