اگر استفاده می کنید #ChatGPT مراقب باش! این خطر وجود دارد که چت شما با سایر کاربران به اشتراک گذاشته شود!
امروز تاریخچه چت کاربر دیگری به من ارائه شد.
من نمی توانستم محتویات را ببینم، اما می توانستم عنوان چت های اخیر آنها را ببینم.#امنیت #حریم خصوصی #openAI #هوش مصنوعی pic.twitter.com/DLX3CZntao
— جردن ال ویلر (@JordanLWheeler) 20 مارس 2023
در نهایت، یوروپل در مورد خطر افشای داده های کاربر ChatGPT، مانند پرس و جوهای حساس، هشدار می دهد. این اتفاق یک هفته پیش رخ داده بود، زمانی که این سرویس پس از شروع نمایش عناوین تاریخچه چت سایر کاربران به طور موقت خاموش شد. محتویات فاش نشدند، اما همچنان یک حادثه مهم حریم خصوصی بود.
یوروپل تنها آژانسی نیست که در مورد خطرات احتمالی ناشی از چت بات ها هشدار می دهد. مرکز امنیت سایبری ملی بریتانیا (NCSC) در اوایل ماه جاری هشدار مشابهی صادر کرد.
اما احتمالاً خطرناک ترین جنبه ChatGPT این است که می تواند کدهای مخرب را برای مجرمان سایبری که دانش کمی از برنامه نویسی دارند یا اصلاً دانش ندارند بنویسد. یوروپل مینویسد که تدابیری که از ارائه کدهای مخرب بالقوه ChatGPT جلوگیری میکند، تنها در صورتی کار میکنند که مدل بفهمد چه کاری انجام میدهد. “اگر دستورات به مراحل جداگانه تقسیم شوند، دور زدن این اقدامات ایمنی امری بی اهمیت است.”
یوروپل خاطرنشان می کند که مدل های زبان بزرگ (LLM) به سرعت در حال پیشرفت هستند و اکنون وارد جریان اصلی شده اند. صنایع متعددی از جمله شرکتهای مجرمانه از LLM استفاده میکنند.
بر اساس گزارش های قبلی، سرویس OpenAI در حال حاضر به این شکل مورد سوء استفاده قرار گرفته است. محققان امنیتی در ژانویه کشف کردند که ChatGPT در انجمنهای جرایم سایبری به عنوان یک ابزار آموزشی و پلتفرم ایجاد بدافزار استفاده میشود. ربات چت همچنین می تواند برای پاسخ به سوالات فنی در مورد هک کردن شبکه ها یا افزایش امتیازات استفاده شود.
علاوه بر این، ChatGPT میتواند متنی با صدای معتبر با سرعت و مقیاس تولید کند و آن را به ابزاری عالی برای اهداف تبلیغاتی و اطلاعات نادرست تبدیل کند.
یوروپل خاطرنشان می کند که توانایی ChatGPT برای پیش نویس متن بر اساس چند دستور، آن را برای حملات فیشینگ ایده آل می کند. این ایمیلها معمولاً با اشتباهات املایی و دستوری یا محتوای مشکوک قابل شناسایی هستند، نشانههایی که ChatGPT میتواند از آنها اجتناب کند. این ابزار همچنین میتواند بر اساس نوع کلاهبرداری به سبکهای خاصی بنویسد و شانس یک بازی مهندسی اجتماعی موفق را افزایش دهد.
یوروپل نوشت: «تاثیری که این نوع مدلها ممکن است بر کار مجریان قانون داشته باشند را میتوان پیشبینی کرد. مجرمان معمولاً به سرعت از فناوریهای جدید بهرهبرداری میکنند و به سرعت شاهد بهرهبرداریهای جنایی مشخصی بودند که اولین نمونههای عملی را تنها چند هفته پس از انتشار عمومی ChatGPT ارائه کردند.
چه اتفاقی افتاده؟ شگفت انگیز است که ChatGPT چقدر می تواند انجام دهد، از نوشتن مقاله و ایمیل گرفته تا ایجاد کد برنامه نویسی. اما به راحتی از توانایی های آن سوء استفاده می شود. آژانس اتحادیه اروپا برای همکاری اجرای قانون (Europol) به آخرین سازمانی تبدیل شده است که هشدار می دهد مجرمان از چت بات برای مواردی مانند فیشینگ، کلاهبرداری، اطلاعات نادرست و جرایم عمومی سایبری استفاده خواهند کرد.
ماست هد: امیلیانو ویتوریوسی
کاربردهای ChatGPT به ایجاد متون یا کد خاص محدود نمی شود. یک مجرم بالقوه میتواند از آن برای یادگیری در مورد یک حوزه جرم خاص، مانند تروریسم یا کودک آزاری استفاده کند. در حالی که این اطلاعات را می توان در اینترنت یافت، ChatGPT به لطف نحوه ارائه نتیجه پرس و جو، کشف و درک آن را آسان تر می کند. همچنین امکان ایجاد یک مدل زبان بدون فیلتر وجود دارد که میتواند روی دادههای مضر آموزش داده شود و در وب تاریک میزبانی شود.