چه اتفاقی افتاده؟ تبلیغات خفه کننده در مورد الگوریتم های مولد و تکثیر بی رویه آنها، بسیاری از افراد را وادار کرده است تا راه حلی قابل اعتماد برای مشکل شناسایی متن هوش مصنوعی بیابند. بر اساس مطالعه ای که اخیراً منتشر شده است، مشکل مذکور حل نشده رها می شود.
در حالی که شرکتهای دره سیلیکون در حال تغییر مدلهای کسبوکار در مورد کلمات رایج و جدید مانند یادگیری ماشین، ChatpGPT، هوش مصنوعی مولد و مدلهای زبان بزرگ (LLM) هستند، کسی در تلاش است تا از آیندهای که در آن هیچکس قادر به تشخیص متون آماری از آنها نباشد، جلوگیری کند. توسط هوش واقعی انسان جمع آوری شده است.
این مطالعه به روش های پیشرفته تشخیص LLM در حال حاضر در بازار نگاه کرد و نشان داد که یک “حمله نقل قول” ساده برای فریب دادن همه آنها کافی است. یک سرویس هوشمند (یا حتی مخرب) LLM با استفاده از یک بازآرایی کلمه سبک متن تولید شده اولیه، می تواند طیف وسیعی از آشکارسازها را بشکند.
یک راه حل ممکن برای این آشفتگی تولید متن جعلی، تلاش بیشتر برای تأیید منبع اطلاعات متنی است. این دانشمند اشاره می کند که چگونه پلتفرم های اجتماعی شروع به تأیید گسترده حساب ها کرده اند، که می تواند انتشار اطلاعات نادرست مبتنی بر هوش مصنوعی را دشوارتر کند.
به گفته سهیل فیضی، یکی از نویسندگان این مطالعه، ما فقط باید یاد بگیریم که با این واقعیت زندگی کنیم که “شاید هرگز نتوانیم به طور قابل اعتماد بگوییم که یک متن توسط یک انسان نوشته شده است یا یک هوش مصنوعی.”
حتی با استفاده از طرحهای واترمارکینگ یا اسکنرهای مبتنی بر شبکه عصبی، تشخیص متن مبتنی بر LLM بهطور قابلاطمینانی «تجربی» غیرممکن است. بدترین سناریو، بازنویسی می تواند دقت تشخیص LLM را از پایه 97 درصد به 57 درصد کاهش دهد. دانشمندان خاطرنشان کردند که این بدان معناست که یک آشکارساز بهتر از یک «طبقهبندی تصادفی» یا یک پرتاب سکه عمل نمیکند.
دانشمندان هشدار می دهند که استفاده بی رویه از LLM می تواند منجر به “عواقب مخرب” مانند سرقت ادبی، اخبار جعلی، ارسال هرزنامه و غیره شود، بنابراین تشخیص قابل اعتماد متن مبتنی بر هوش مصنوعی یک عنصر حیاتی برای اطمینان از استفاده مسئولانه از سرویس هایی مانند ChatGPT خواهد بود. و بارد گوگل
الگوریتمهای واترمارکینگ، که امضای غیرقابل تشخیصی را روی متن ایجاد شده توسط هوش مصنوعی قرار میدهند، با بازنویسی کاملاً پاک میشوند و حتی با یک خطر امنیتی اضافی همراه هستند. محققان میگویند که یک بازیگر مخرب (انسانی) میتواند «امضاهای واترمارکینگ پنهان را استنباط کند و آنها را به متن تولید شده خود اضافه کند»، به طوری که متن مخرب / هرزنامه / جعلی به عنوان متن تولید شده توسط LLM شناسایی شود.
با این حال، طبق مطالعه پنج دانشمند کامپیوتر از دانشگاه مریلند، آینده می تواند همین جا باشد. دانشمندان از خود پرسیدند: “آیا می توان متن تولید شده توسط هوش مصنوعی را به طور قابل اعتماد تشخیص داد؟” پاسخی که آنها به آن رسیدند این بود که متن تولید شده توسط LLM ها را نمی توان به طور قابل اعتماد در سناریوهای عملی، هم از دیدگاه نظری و هم از دیدگاه عملی شناسایی کرد.