این مطالعه نشان می‌دهد کد به کمک هوش مصنوعی می‌تواند ذاتاً ناامن باشد

نیل پری، کاندیدای دکترا در استنفورد و یکی از نویسندگان اصلی این مطالعه، گفت که “سیستم های تولید کننده کد در حال حاضر جایگزینی برای توسعه دهندگان انسانی نیستند.” توسعه دهندگان گفته شده می توانند از ابزارهایی با کمک هوش مصنوعی برای تکمیل کارهای خارج از حوزه تخصصی خود یا برای سرعت بخشیدن به یک کار برنامه نویسی که قبلاً در آن مهارت دارند استفاده کنند. نویسنده مطالعه گفت که هر دو باید نگران باشند و همیشه باید دوباره بررسی کنند. کد تولید شده

با نگاهی خاص به Codex، پلتفرم هوش مصنوعی توسعه یافته توسط OpenAI، که همچنین موتور کدسازی GitHub Copilot فوق الذکر است، این مطالعه 47 توسعه دهنده مختلف را به خدمت گرفت. از دانشجویان کارشناسی گرفته تا متخصصان باتجربه، گفت که توسعه دهندگان وظیفه دارند از Codex برای حل مشکلات مربوط به امنیت در پایتون، جاوا اسکریپت، C و سایر زبان های برنامه نویسی سطح بالا استفاده کنند.

محققان گفتند زمانی که برنامه نویسان به هوش مصنوعی Codex دسترسی داشتند، کد به دست آمده در مقایسه با راه حل های «دست ساز» که توسط گروه کنترل تصور می شد، به احتمال زیاد نادرست یا ناایمن بود. علاوه بر این، برنامه نویسانی که راه حل های کمک هوش مصنوعی داشتند، در مقایسه با گروه کنترل فوق، احتمال بیشتری داشت که بگویند کد ناامن آنها ایمن است.

به گفته مگا سریواستاوا، دانشجوی کارشناسی ارشد دانشگاه استنفورد و دومین نویسنده مشترک این مطالعه، Codex چیزی جز بی فایده است: علیرغم کاستی‌های هوش مصنوعی «احمقانه»، سیستم‌های تولید کد زمانی که برای کارهای کم خطر استفاده می‌شوند می‌توانند مفید باشند. Srivastava گفت: علاوه بر این، برنامه نویسان درگیر در این مطالعه تخصص خاصی در مسائل امنیتی نداشتند، که می توانست به شناسایی کدهای آسیب پذیر یا ناامن کمک کند.

بخونید:  Corsair از مانیتور گیمینگ OLED 45 اینچی با قابلیت خم شدن از تخت به خمیده رونمایی کرد.

سیستم‌های هوش مصنوعی مانند GitHub Copilot وعده می‌دهند که با ایجاد تکه‌های کامل کد «جدید» بر اساس ورودی‌های متنی به زبان طبیعی و زمینه از پیش موجود، زندگی برنامه‌نویسان را آسان‌تر کنند. اما الگوریتم‌های تولید کد می‌توانند عامل ناامنی را نیز به میز بیاورند، همانطور که اخیراً یک مطالعه جدید شامل چندین توسعه‌دهنده نشان داده است.

آینده نگر: الگوریتم‌های یادگیری ماشین در حال حاضر بسیار محبوب هستند، زیرا از آنها برای تولید هر نوع محتوای «اصلی» پس از آموزش بر روی مجموعه‌های داده از قبل موجود استفاده می‌شود. با این حال، AIهای تولید کننده کد می توانند یک مشکل واقعی برای امنیت نرم افزار در آینده ایجاد کنند.

همچنین می‌توان الگوریتم‌های هوش مصنوعی را برای بهبود پیشنهادهای کدنویسی خود تنظیم کرد و شرکت‌هایی که سیستم‌های خود را توسعه می‌دهند، می‌توانند با مدلی که کد تولید می‌کند بیشتر مطابق با شیوه‌های امنیتی خودشان باشد، راه‌حل‌های بهتری دریافت کنند. نویسندگان این مطالعه گفتند که فناوری تولید کد یک پیشرفت “هیجان انگیز” است که بسیاری از افراد مشتاق استفاده از آن هستند. فقط این است که هنوز کارهای زیادی برای یافتن راه حل های مناسب برای کاستی های هوش مصنوعی باید انجام شود.



منبع