یوروپل در مورد برنامه های جنایی احتمالی ChatGPT هشدار می دهد

یوروپل نوشت: «تاثیری که این نوع مدل‌ها ممکن است بر کار مجریان قانون داشته باشند را می‌توان پیش‌بینی کرد. مجرمان معمولاً به سرعت از فناوری‌های جدید بهره‌برداری می‌کنند و به سرعت شاهد بهره‌برداری‌های جنایی مشخصی بودند که اولین نمونه‌های عملی را تنها چند هفته پس از انتشار عمومی ChatGPT ارائه کردند.

علاوه بر این، ChatGPT می‌تواند متنی با صدای معتبر با سرعت و مقیاس تولید کند و آن را به ابزاری عالی برای اهداف تبلیغاتی و اطلاعات نادرست تبدیل کند.

یوروپل خاطرنشان می کند که مدل های زبان بزرگ (LLM) به سرعت در حال پیشرفت هستند و اکنون وارد جریان اصلی شده اند. صنایع متعددی از جمله شرکت‌های مجرمانه از LLM استفاده می‌کنند.

اگر استفاده می کنید #ChatGPT مراقب باش! این خطر وجود دارد که چت شما با سایر کاربران به اشتراک گذاشته شود!
امروز تاریخچه چت کاربر دیگری به من ارائه شد.
من نمی توانستم محتویات را ببینم، اما می توانستم عنوان چت های اخیر آنها را ببینم.#امنیت #حریم خصوصی #openAI #هوش مصنوعی pic.twitter.com/DLX3CZntao

— جردن ال ویلر (@JordanLWheeler) 20 مارس 2023

کاربردهای ChatGPT به ایجاد متون یا کد خاص محدود نمی شود. یک مجرم بالقوه می‌تواند از آن برای یادگیری در مورد یک حوزه جرم خاص، مانند تروریسم یا کودک آزاری استفاده کند. در حالی که این اطلاعات را می توان در اینترنت یافت، ChatGPT به لطف نحوه ارائه نتیجه پرس و جو، کشف و درک آن را آسان تر می کند. همچنین امکان ایجاد یک مدل زبان بدون فیلتر وجود دارد که می‌تواند روی داده‌های مضر آموزش داده شود و در وب تاریک میزبانی شود.