یوروپل در مورد برنامه های جنایی احتمالی ChatGPT هشدار می دهد

اگر استفاده می کنید #ChatGPT مراقب باش! این خطر وجود دارد که چت شما با سایر کاربران به اشتراک گذاشته شود!
امروز تاریخچه چت کاربر دیگری به من ارائه شد.
من نمی توانستم محتویات را ببینم، اما می توانستم عنوان چت های اخیر آنها را ببینم.#امنیت #حریم خصوصی #openAI #هوش مصنوعی pic.twitter.com/DLX3CZntao

— جردن ال ویلر (@JordanLWheeler) 20 مارس 2023

در نهایت، یوروپل در مورد خطر افشای داده های کاربر ChatGPT، مانند پرس و جوهای حساس، هشدار می دهد. این اتفاق یک هفته پیش رخ داده بود، زمانی که این سرویس پس از شروع نمایش عناوین تاریخچه چت سایر کاربران به طور موقت خاموش شد. محتویات فاش نشدند، اما همچنان یک حادثه مهم حریم خصوصی بود.

یوروپل تنها آژانسی نیست که در مورد خطرات احتمالی ناشی از چت بات ها هشدار می دهد. مرکز امنیت سایبری ملی بریتانیا (NCSC) در اوایل ماه جاری هشدار مشابهی صادر کرد.

اما احتمالاً خطرناک ترین جنبه ChatGPT این است که می تواند کدهای مخرب را برای مجرمان سایبری که دانش کمی از برنامه نویسی دارند یا اصلاً دانش ندارند بنویسد. یوروپل می‌نویسد که تدابیری که از ارائه کدهای مخرب بالقوه ChatGPT جلوگیری می‌کند، تنها در صورتی کار می‌کنند که مدل بفهمد چه کاری انجام می‌دهد. “اگر دستورات به مراحل جداگانه تقسیم شوند، دور زدن این اقدامات ایمنی امری بی اهمیت است.”

یوروپل خاطرنشان می کند که مدل های زبان بزرگ (LLM) به سرعت در حال پیشرفت هستند و اکنون وارد جریان اصلی شده اند. صنایع متعددی از جمله شرکت‌های مجرمانه از LLM استفاده می‌کنند.

بخونید:  Samsung 980 Pro دارای یک مشکل سخت افزاری است که می تواند SSD شما را از بین ببرد

بر اساس گزارش های قبلی، سرویس OpenAI در حال حاضر به این شکل مورد سوء استفاده قرار گرفته است. محققان امنیتی در ژانویه کشف کردند که ChatGPT در انجمن‌های جرایم سایبری به عنوان یک ابزار آموزشی و پلتفرم ایجاد بدافزار استفاده می‌شود. ربات چت همچنین می تواند برای پاسخ به سوالات فنی در مورد هک کردن شبکه ها یا افزایش امتیازات استفاده شود.

علاوه بر این، ChatGPT می‌تواند متنی با صدای معتبر با سرعت و مقیاس تولید کند و آن را به ابزاری عالی برای اهداف تبلیغاتی و اطلاعات نادرست تبدیل کند.

یوروپل خاطرنشان می کند که توانایی ChatGPT برای پیش نویس متن بر اساس چند دستور، آن را برای حملات فیشینگ ایده آل می کند. این ایمیل‌ها معمولاً با اشتباهات املایی و دستوری یا محتوای مشکوک قابل شناسایی هستند، نشانه‌هایی که ChatGPT می‌تواند از آنها اجتناب کند. این ابزار همچنین می‌تواند بر اساس نوع کلاهبرداری به سبک‌های خاصی بنویسد و شانس یک بازی مهندسی اجتماعی موفق را افزایش دهد.

یوروپل نوشت: «تاثیری که این نوع مدل‌ها ممکن است بر کار مجریان قانون داشته باشند را می‌توان پیش‌بینی کرد. مجرمان معمولاً به سرعت از فناوری‌های جدید بهره‌برداری می‌کنند و به سرعت شاهد بهره‌برداری‌های جنایی مشخصی بودند که اولین نمونه‌های عملی را تنها چند هفته پس از انتشار عمومی ChatGPT ارائه کردند.

چه اتفاقی افتاده؟ شگفت انگیز است که ChatGPT چقدر می تواند انجام دهد، از نوشتن مقاله و ایمیل گرفته تا ایجاد کد برنامه نویسی. اما به راحتی از توانایی های آن سوء استفاده می شود. آژانس اتحادیه اروپا برای همکاری اجرای قانون (Europol) به آخرین سازمانی تبدیل شده است که هشدار می دهد مجرمان از چت بات برای مواردی مانند فیشینگ، کلاهبرداری، اطلاعات نادرست و جرایم عمومی سایبری استفاده خواهند کرد.

بخونید:  Apple analyst says iPhone 15 Pro overheating problems due to thermal design, not the A17 Pro SoC

ماست هد: امیلیانو ویتوریوسی





منبع

کاربردهای ChatGPT به ایجاد متون یا کد خاص محدود نمی شود. یک مجرم بالقوه می‌تواند از آن برای یادگیری در مورد یک حوزه جرم خاص، مانند تروریسم یا کودک آزاری استفاده کند. در حالی که این اطلاعات را می توان در اینترنت یافت، ChatGPT به لطف نحوه ارائه نتیجه پرس و جو، کشف و درک آن را آسان تر می کند. همچنین امکان ایجاد یک مدل زبان بدون فیلتر وجود دارد که می‌تواند روی داده‌های مضر آموزش داده شود و در وب تاریک میزبانی شود.