با این حال، مولگرو تنها پس از چند تلاش توانست این کار را انجام دهد. اولین باری که این بدافزار در VirusTotal آپلود شد، پنج فروشنده آن را به عنوان مخرب پرچمگذاری کردند. پس از چند ترفند، کد با موفقیت مخفی شد و هیچ یک از فروشندگان آن را به عنوان بدافزار شناسایی نکردند.
مولگرو که خود را «مبتدی» در توسعه بدافزار توصیف میکند، گفت که از زبان پیادهسازی Go نه تنها برای سهولت توسعه آن استفاده میکند، بلکه به این دلیل که در صورت نیاز میتواند کد را به صورت دستی اشکالزدایی کند. او همچنین از استگانوگرافی استفاده کرد که داده های مخفی را در یک فایل یا پیام معمولی پنهان می کند تا از شناسایی جلوگیری کند.
Aaron Mulgrew از Forcepoint گفت که او در مراحل اولیه ایجاد بدافزار تصمیم گرفت خودش هیچ کدی ننویسد و فقط از تکنیکهای پیشرفتهای استفاده کند که معمولاً توسط بازیگران تهدید پیچیده مانند دولتهای ملت سرکش استفاده میشود.
یک محقق امنیت سایبری ادعا می کند که از ChatGPT برای توسعه یک سوء استفاده روز صفر استفاده کرده است که می تواند داده ها را از یک دستگاه در معرض خطر سرقت کند. به طور نگران کننده ای، این بدافزار حتی از شناسایی همه فروشندگان در VirusTotal طفره رفت.
این بار، او در تلاش خود موفق بود و ChatGPT کد مشاجرهآمیزی را ایجاد کرد که شناسایی توسط همه برنامههای ضد بدافزار در VirusTotal را دور زد. با این حال، مبهم کردن کد برای جلوگیری از شناسایی مشکل بود، زیرا ChatGPT چنین درخواستهایی را غیراخلاقی تشخیص میدهد و از انجام آنها خودداری میکند.
در متن: ChatGPT از زمانی که سال گذشته راه اندازی شد، با توانایی خود در نوشتن مقالات، شعرها، فیلمنامه های فیلم و موارد دیگر، موج هایی را در میان علاقه مندان به فناوری ایجاد کرده است. ابزار هوش مصنوعی حتی میتواند کد عملکردی تولید کند، البته تا زمانی که به آن دستوری به خوبی نوشته و واضح داده شود. در حالی که اکثر توسعه دهندگان از این ویژگی برای مقاصد کاملاً بی ضرر استفاده می کنند، گزارش جدید نشان می دهد که می تواند توسط عوامل مخرب نیز برای ایجاد بدافزار استفاده شود، علیرغم حفاظت های اعمال شده توسط OpenAI.
در حالی که Mulgrew این بدافزار را برای اهداف تحقیقاتی ایجاد کرد، او گفت که یک حمله تئوریک روز صفر با استفاده از چنین ابزاری میتواند افراد با ارزش بالا را هدف قرار دهد تا اسناد مهم را در درایو C استخراج کنند.
Mulgrew با درخواست مستقیم از ChatGPT برای توسعه بدافزار شروع به کار کرد، اما این باعث شد که رباتهای محافظ چت وارد عمل شوند و صراحتاً به دلایل اخلاقی از انجام وظیفه خودداری کردند. سپس تصمیم گرفت خلاقیت به خرج دهد و از ابزار هوش مصنوعی خواست تا قبل از قرار دادن دستی کل فایل اجرایی، قطعات کوچکی از کدهای کمکی تولید کند.
مولگرو گفت که کل فرآیند “تنها چند ساعت” طول کشید. بدون چت بات، او معتقد است که تیمی متشکل از 5 تا 10 هفته از توسعه دهندگان برای ساختن نرم افزار مخرب و اطمینان از اینکه می تواند توسط برنامه های امنیتی شناسایی نشود، طول می کشد.