Google Search AI Overviews از منابع اطلاعاتی بد برای ارائه پاسخ های وحشتناک به شما استفاده می کند

تحمیل هوش مصنوعی بر همه: گوگل در چند روز گذشته مروری بر هوش مصنوعی خود را در اختیار کاربران آمریکایی قرار داده است. در حالی که این شرکت ادعا می‌کند که خلاصه‌های هوش مصنوعی که در بالای نتایج جستجو ظاهر می‌شوند، بیشتر درست و مبتنی بر واقعیت هستند، تعداد نگران‌کننده‌ای از کاربران به اصطلاح توهم را تجربه کرده‌اند – زمانی که یک LLM دروغ را به عنوان واقعیت بیان می‌کند. کاربران به دور از تحت تاثیر قرار گرفتن هستند.

در آزمایش اولیه ویژگی بتا گوگل، متوجه شدم که تبلیغات بیش از آنکه مفید باشد، مضر است. در بالای صفحه نتایج ظاهر می شود، بنابراین باید به پایین اسکرول کنم تا به موردی که می خواهم برسم. او اغلب در جزئیات دقیق نادرست است و اغلب یک مقاله را کلمه به کلمه سرقت ادبی می کند.

این مزاحمت‌ها باعث شد هفته گذشته مقاله‌ای بنویسم و ​​در آن راه‌های دور زدن این ویژگی مزاحم را توضیح دهم که اکنون گوگل بدون کلید خاموش آن را در گلوی ما فرو می‌برد.

اکنون که AI Overviews چند روز فرصت دارد تا در بین عموم منتشر شود، کاربران نمونه‌های زیادی را پیدا می‌کنند که در آن ویژگی به سادگی از کار می‌افتد.

رسانه‌های اجتماعی مملو از نمونه‌های خنده‌دار و واضح از تلاش بیش از حد هوش مصنوعی گوگل هستند. به خاطر داشته باشید که افراد تمایل دارند زمانی که همه چیز خراب می شود فریاد بزنند و هنگامی که طبق تبلیغات کار می کنند سکوت می کنند.

یکی از سخنگویان گوگل به Ars Technica گفت: «نمونه‌هایی که ما دیده‌ایم عموماً پرس‌و‌جوهای بسیار غیر معمول هستند و نشان‌دهنده تجربیات بیشتر افراد نیستند. “اکثریت قریب به اتفاق پیشنهادات هوش مصنوعی اطلاعات با کیفیت بالا را با پیوندهایی برای غواصی عمیق تر در وب ارائه می دهند.”

بخونید:  DeepMind co-founder predicts "third wave" of AI: machines talking to machines and people

اگرچه ممکن است این درست باشد که اکثر مردم خلاصه‌های خوبی دارند، چند خلاصه بد قبل از اینکه غیرقابل اعتماد تلقی شوند مجاز است؟ در عصری که همه درباره اطلاعات نادرست فریاد می‌زنند، از جمله گوگل، به نظر می‌رسد این شرکت بیشتر به نمونه‌های بد اهمیت می‌دهد تا نمونه‌های خوب – به‌خصوص زمانی که بررسی‌های عمومی آن به مردم می‌گویند که دویدن با قیچی چیز خوبی است. قلب.

کایل پالمر، کارآفرین هوش مصنوعی، چند نمونه خنده دار را در یک ویدیوی X سریع (در زیر) برجسته می کند.

توجه به این نکته ضروری است که برخی از این پاسخ ها عمداً خصمانه هستند. به عنوان مثال، در این پست Ars Technica، کلمه “مایع” در جستجو هیچ هدفی جز ارجاع به ترول/جوک قدیمی “شما باید مایع چشمک زن خود را تغییر دهید” ندارد.

این شوخی از زمانی که من در کلاس درس دبیرستان بودم وجود داشت، اما در تلاش برای ارائه پاسخی که شامل تمام عبارات جستجو شده بود، هوش مصنوعی گوگل این ایده را از یک ترول در انجمن انجمن Good Sam دریافت کرد.

در مورد برخی از بازیگران زن 50 ساله چطور؟

در حالی که 0.250 میانگین ضربتی خوبی است، اما از هر چهار نفر یک نفر فهرست دقیقی ندارد. همچنین شرط می‌بندم که ایلان ماسک از اینکه بفهمد از دانشگاه کالیفرنیا، برکلی فارغ‌التحصیل شده، شگفت‌زده خواهد شد. طبق دایره المعارف بریتانیکا، او قبلاً دو مدرک از دانشگاه پنسیلوانیا گرفته است. نزدیکترین چیزی که او به برکلی داشت، گذراندن دو روز در استنفورد قبل از ترک تحصیل بود.

اشتباهات یا پیشنهادات آشکار، مانند مخلوط کردن چسب با سس پیتزا برای جلوگیری از ریزش پنیر، بعید است به کسی آسیب برساند. با این حال، اگر به پاسخ های جدی و دقیق نیاز دارید، حتی یک خلاصه اشتباه برای غیرقابل اعتماد کردن این ویژگی کافی است. و اگر نمی‌توانید به آن اعتماد کنید و مجبور هستید آن را با مشاهده نتایج جستجوی منظم تأیید کنید، چرا بیش از هر چیز می‌گوید: “به من توجه کن؟”

بخونید:  Google Lawyer می‌گوید اینترنت می‌تواند بدون بخش 230 به یک «نمایش وحشتناک» تبدیل شود

بخشی از مشکل این است که AI Overviews آن را منبع قابل اعتمادی می داند. در حالی که Reddit می تواند مکانی عالی برای انسان برای یافتن پاسخ یک سوال باشد، اما برای هوش مصنوعی که نتواند بین واقعیت، فن تخیلی و طنز تفاوت قائل شود، چندان خوب نیست. بنابراین وقتی کسی را می بیند که با بی احساسی و بی دقتی می گوید “پریدن از پل گلدن گیت” می تواند افسردگی فردی را درمان کند، هوش مصنوعی نمی تواند درک کند که این شخص در حال ترول کردن بوده است.

بخش دیگری از مشکل این است که گوگل برای رقابت با OpenAI در حال عجله برای ارائه مروری در حالت وحشت است. راه‌های بهتری برای انجام این کار وجود دارد تا این که اعتبار آن را به عنوان یک رهبر موتور جستجو از طریق وادار کردن کاربران به گذر از چیزهای مزخرفی که درخواست نکرده‌اند، خدشه‌دار کنید. حداقل، این باید یک ویژگی اختیاری باشد، اگر نه یک محصول جداگانه.

علاقه مندان، از جمله تیم روابط عمومی گوگل، می گویند: “به مرور زمان بهتر خواهد شد.”

ممکن است اینطور باشد، اما من از ژانویه از این ویژگی استفاده کردم (بخوانید: تحمل کردم)، زمانی که هنوز اختیاری بود، و تغییر کمی در کیفیت خروجی آن مشاهده کردم. بنابراین پریدن از روی باند برای من نیست. گوگل برای این کار بسیار مورد استفاده و اعتماد است.

منبع