یک مطالعه جدید می گوید که تشخیص قابل اعتماد متن تولید شده توسط هوش مصنوعی غیرممکن است

چه اتفاقی افتاده؟ تبلیغات خفه کننده در مورد الگوریتم های مولد و تکثیر بی رویه آنها، بسیاری از افراد را وادار کرده است تا راه حلی قابل اعتماد برای مشکل شناسایی متن هوش مصنوعی بیابند. بر اساس مطالعه ای که اخیراً منتشر شده است، مشکل مذکور حل نشده رها می شود.

در حالی که شرکت‌های دره سیلیکون در حال تغییر مدل‌های کسب‌وکار در مورد کلمات رایج و جدید مانند یادگیری ماشین، ChatpGPT، هوش مصنوعی مولد و مدل‌های زبان بزرگ (LLM) هستند، کسی در تلاش است تا از آینده‌ای که در آن هیچ‌کس قادر به تشخیص متون آماری از آن‌ها نباشد، جلوگیری کند. توسط هوش واقعی انسان جمع آوری شده است.

این مطالعه به روش های پیشرفته تشخیص LLM در حال حاضر در بازار نگاه کرد و نشان داد که یک “حمله نقل قول” ساده برای فریب دادن همه آنها کافی است. یک سرویس هوشمند (یا حتی مخرب) LLM با استفاده از یک بازآرایی کلمه سبک متن تولید شده اولیه، می تواند طیف وسیعی از آشکارسازها را بشکند.

یک راه حل ممکن برای این آشفتگی تولید متن جعلی، تلاش بیشتر برای تأیید منبع اطلاعات متنی است. این دانشمند اشاره می کند که چگونه پلتفرم های اجتماعی شروع به تأیید گسترده حساب ها کرده اند، که می تواند انتشار اطلاعات نادرست مبتنی بر هوش مصنوعی را دشوارتر کند.



منبع

به گفته سهیل فیضی، یکی از نویسندگان این مطالعه، ما فقط باید یاد بگیریم که با این واقعیت زندگی کنیم که “شاید هرگز نتوانیم به طور قابل اعتماد بگوییم که یک متن توسط یک انسان نوشته شده است یا یک هوش مصنوعی.”

بخونید:  مایکروسافت آفیس فقط به 29 دلار کاهش یافته است، بدون نیاز به اشتراک

حتی با استفاده از طرح‌های واترمارکینگ یا اسکنرهای مبتنی بر شبکه عصبی، تشخیص متن مبتنی بر LLM به‌طور قابل‌اطمینانی «تجربی» غیرممکن است. بدترین سناریو، بازنویسی می تواند دقت تشخیص LLM را از پایه 97 درصد به 57 درصد کاهش دهد. دانشمندان خاطرنشان کردند که این بدان معناست که یک آشکارساز بهتر از یک «طبقه‌بندی تصادفی» یا یک پرتاب سکه عمل نمی‌کند.

دانشمندان هشدار می دهند که استفاده بی رویه از LLM می تواند منجر به “عواقب مخرب” مانند سرقت ادبی، اخبار جعلی، ارسال هرزنامه و غیره شود، بنابراین تشخیص قابل اعتماد متن مبتنی بر هوش مصنوعی یک عنصر حیاتی برای اطمینان از استفاده مسئولانه از سرویس هایی مانند ChatGPT خواهد بود. و بارد گوگل

الگوریتم‌های واترمارکینگ، که امضای غیرقابل تشخیصی را روی متن ایجاد شده توسط هوش مصنوعی قرار می‌دهند، با بازنویسی کاملاً پاک می‌شوند و حتی با یک خطر امنیتی اضافی همراه هستند. محققان می‌گویند که یک بازیگر مخرب (انسانی) می‌تواند «امضاهای واترمارکینگ پنهان را استنباط کند و آنها را به متن تولید شده خود اضافه کند»، به طوری که متن مخرب / هرزنامه / جعلی به عنوان متن تولید شده توسط LLM شناسایی شود.

با این حال، طبق مطالعه پنج دانشمند کامپیوتر از دانشگاه مریلند، آینده می تواند همین جا باشد. دانشمندان از خود پرسیدند: “آیا می توان متن تولید شده توسط هوش مصنوعی را به طور قابل اعتماد تشخیص داد؟” پاسخی که آنها به آن رسیدند این بود که متن تولید شده توسط LLM ها را نمی توان به طور قابل اعتماد در سناریوهای عملی، هم از دیدگاه نظری و هم از دیدگاه عملی شناسایی کرد.

بخونید:  نینتندو یک سوییچ پرو را برنامه ریزی کرد، اما کنسول کنسل شد