نیل پری، کاندیدای دکترا در استنفورد و یکی از نویسندگان اصلی این مطالعه، گفت که “سیستم های تولید کننده کد در حال حاضر جایگزینی برای توسعه دهندگان انسانی نیستند.” توسعه دهندگان گفته شده می توانند از ابزارهایی با کمک هوش مصنوعی برای تکمیل کارهای خارج از حوزه تخصصی خود یا برای سرعت بخشیدن به یک کار برنامه نویسی که قبلاً در آن مهارت دارند استفاده کنند. نویسنده مطالعه گفت که هر دو باید نگران باشند و همیشه باید دوباره بررسی کنند. کد تولید شده
با نگاهی خاص به Codex، پلتفرم هوش مصنوعی توسعه یافته توسط OpenAI، که همچنین موتور کدسازی GitHub Copilot فوق الذکر است، این مطالعه 47 توسعه دهنده مختلف را به خدمت گرفت. از دانشجویان کارشناسی گرفته تا متخصصان باتجربه، گفت که توسعه دهندگان وظیفه دارند از Codex برای حل مشکلات مربوط به امنیت در پایتون، جاوا اسکریپت، C و سایر زبان های برنامه نویسی سطح بالا استفاده کنند.
محققان گفتند زمانی که برنامه نویسان به هوش مصنوعی Codex دسترسی داشتند، کد به دست آمده در مقایسه با راه حل های «دست ساز» که توسط گروه کنترل تصور می شد، به احتمال زیاد نادرست یا ناایمن بود. علاوه بر این، برنامه نویسانی که راه حل های کمک هوش مصنوعی داشتند، در مقایسه با گروه کنترل فوق، احتمال بیشتری داشت که بگویند کد ناامن آنها ایمن است.
به گفته مگا سریواستاوا، دانشجوی کارشناسی ارشد دانشگاه استنفورد و دومین نویسنده مشترک این مطالعه، Codex چیزی جز بی فایده است: علیرغم کاستیهای هوش مصنوعی «احمقانه»، سیستمهای تولید کد زمانی که برای کارهای کم خطر استفاده میشوند میتوانند مفید باشند. Srivastava گفت: علاوه بر این، برنامه نویسان درگیر در این مطالعه تخصص خاصی در مسائل امنیتی نداشتند، که می توانست به شناسایی کدهای آسیب پذیر یا ناامن کمک کند.
سیستمهای هوش مصنوعی مانند GitHub Copilot وعده میدهند که با ایجاد تکههای کامل کد «جدید» بر اساس ورودیهای متنی به زبان طبیعی و زمینه از پیش موجود، زندگی برنامهنویسان را آسانتر کنند. اما الگوریتمهای تولید کد میتوانند عامل ناامنی را نیز به میز بیاورند، همانطور که اخیراً یک مطالعه جدید شامل چندین توسعهدهنده نشان داده است.
آینده نگر: الگوریتمهای یادگیری ماشین در حال حاضر بسیار محبوب هستند، زیرا از آنها برای تولید هر نوع محتوای «اصلی» پس از آموزش بر روی مجموعههای داده از قبل موجود استفاده میشود. با این حال، AIهای تولید کننده کد می توانند یک مشکل واقعی برای امنیت نرم افزار در آینده ایجاد کنند.
همچنین میتوان الگوریتمهای هوش مصنوعی را برای بهبود پیشنهادهای کدنویسی خود تنظیم کرد و شرکتهایی که سیستمهای خود را توسعه میدهند، میتوانند با مدلی که کد تولید میکند بیشتر مطابق با شیوههای امنیتی خودشان باشد، راهحلهای بهتری دریافت کنند. نویسندگان این مطالعه گفتند که فناوری تولید کد یک پیشرفت “هیجان انگیز” است که بسیاری از افراد مشتاق استفاده از آن هستند. فقط این است که هنوز کارهای زیادی برای یافتن راه حل های مناسب برای کاستی های هوش مصنوعی باید انجام شود.