یک محقق از ChatGPT برای ایجاد بدافزار خطرناک سرقت اطلاعات استفاده کرد

با این حال، مولگرو تنها پس از چند تلاش توانست این کار را انجام دهد. اولین باری که این بدافزار در VirusTotal آپلود شد، پنج فروشنده آن را به عنوان مخرب پرچم‌گذاری کردند. پس از چند ترفند، کد با موفقیت مخفی شد و هیچ یک از فروشندگان آن را به عنوان بدافزار شناسایی نکردند.

مولگرو که خود را «مبتدی» در توسعه بدافزار توصیف می‌کند، گفت که از زبان پیاده‌سازی Go نه تنها برای سهولت توسعه آن استفاده می‌کند، بلکه به این دلیل که در صورت نیاز می‌تواند کد را به صورت دستی اشکال‌زدایی کند. او همچنین از استگانوگرافی استفاده کرد که داده های مخفی را در یک فایل یا پیام معمولی پنهان می کند تا از شناسایی جلوگیری کند.

Aaron Mulgrew از Forcepoint گفت که او در مراحل اولیه ایجاد بدافزار تصمیم گرفت خودش هیچ کدی ننویسد و فقط از تکنیک‌های پیشرفته‌ای استفاده کند که معمولاً توسط بازیگران تهدید پیچیده مانند دولت‌های ملت سرکش استفاده می‌شود.

یک محقق امنیت سایبری ادعا می کند که از ChatGPT برای توسعه یک سوء استفاده روز صفر استفاده کرده است که می تواند داده ها را از یک دستگاه در معرض خطر سرقت کند. به طور نگران کننده ای، این بدافزار حتی از شناسایی همه فروشندگان در VirusTotal طفره رفت.

این بار، او در تلاش خود موفق بود و ChatGPT کد مشاجره‌آمیزی را ایجاد کرد که شناسایی توسط همه برنامه‌های ضد بدافزار در VirusTotal را دور زد. با این حال، مبهم کردن کد برای جلوگیری از شناسایی مشکل بود، زیرا ChatGPT چنین درخواست‌هایی را غیراخلاقی تشخیص می‌دهد و از انجام آن‌ها خودداری می‌کند.

بخونید:  Echo VR خاموش می شود، John Carmack برخی از مسیرهای جایگزین را ارائه می دهد

در متن: ChatGPT از زمانی که سال گذشته راه اندازی شد، با توانایی خود در نوشتن مقالات، شعرها، فیلمنامه های فیلم و موارد دیگر، موج هایی را در میان علاقه مندان به فناوری ایجاد کرده است. ابزار هوش مصنوعی حتی می‌تواند کد عملکردی تولید کند، البته تا زمانی که به آن دستوری به خوبی نوشته و واضح داده شود. در حالی که اکثر توسعه دهندگان از این ویژگی برای مقاصد کاملاً بی ضرر استفاده می کنند، گزارش جدید نشان می دهد که می تواند توسط عوامل مخرب نیز برای ایجاد بدافزار استفاده شود، علیرغم حفاظت های اعمال شده توسط OpenAI.

در حالی که Mulgrew این بدافزار را برای اهداف تحقیقاتی ایجاد کرد، او گفت که یک حمله تئوریک روز صفر با استفاده از چنین ابزاری می‌تواند افراد با ارزش بالا را هدف قرار دهد تا اسناد مهم را در درایو C استخراج کنند.



منبع

Mulgrew با درخواست مستقیم از ChatGPT برای توسعه بدافزار شروع به کار کرد، اما این باعث شد که ربات‌های محافظ چت وارد عمل شوند و صراحتاً به دلایل اخلاقی از انجام وظیفه خودداری کردند. سپس تصمیم گرفت خلاقیت به خرج دهد و از ابزار هوش مصنوعی خواست تا قبل از قرار دادن دستی کل فایل اجرایی، قطعات کوچکی از کدهای کمکی تولید کند.

مولگرو گفت که کل فرآیند “تنها چند ساعت” طول کشید. بدون چت بات، او معتقد است که تیمی متشکل از 5 تا 10 هفته از توسعه دهندگان برای ساختن نرم افزار مخرب و اطمینان از اینکه می تواند توسط برنامه های امنیتی شناسایی نشود، طول می کشد.

بخونید:  ستاره شناسان کشف کردند که منظومه حلقه های زحل جو سیاره را گرم می کند