کدنویسی هوش مصنوعی احتمال ایجاد آسیب پذیری های امنیتی را بالا می برد!
این مطالعه روی یک روش کدنویسی هوش مصنوعی به نام Codex تمرکز دارد که خطر نوشتن کدهای ناامن و نادرست را افزایش میدهد.
در یک مطالعه جدید مهندسان نرمافزاری که از سیستمهای هوش مصنوعی تولیدکننده کد استفاده میکنند، در برنامههایی که توسعه میدهند، احتمال ایجاد آسیبپذیریهای امنیتی را بالا می برند. این مقاله که توسط تیمی از محققان وابسته به دانشگاه استنفورد تهیه شده است، مشکلات احتمالی کدنویسی هوش مصنوعی را نشان میدهد، درحالیکه فروشندگانی مانند GitHub بهطور جدی شروع به بازاریابی آنها کردهاند.
«نیل پری»، کاندیدای دکترا در استنفورد و یکی از نویسندگان اصلی این مطالعه، گفت:
«کدنویسی هوش مصنوعی درحالحاضر جایگزین مناسبی برای توسعهدهندگان انسانی نیست. توسعهدهندگانی که از آنها برای تکمیل کارهای خارج از حوزه تخصصی خودشان استفاده میکنند، باید نگران باشند و کسانی که از آنها برای سرعت بخشیدن به کارهایی استفاده میکنند که قبلاً در آنها مهارت کسب کردهاند، باید با دقت خروجیها و زمینه استفاده از آنها را در یک پروژه کلی بررسی کنند.»
در این مطالعه، محققان بهطور خاص روی Codex، سیستم تولید کد هوش مصنوعی که توسط OpenAI توسعه یافته است تمرکز کرده اند. محققان 47 توسعه دهنده، از جمله دانشجویان کارشناسی
گرفته تا متخصصان صنعت با چندین دهه تجربه برنامه نویسی را برای استفاده از Codex جهت تکمیل مشکلات مربوط به امنیت در زبان های برنامه نویسی از جمله Python، JavaScript و C به کار گرفتند.
Codex با کمک گرفتن از میلیاردها خط کد عمومی آموزش داده شده است تا خطوط اضافی کد و توابع را با توجه به زمینه کد موجود پیشنهاد کند. این سیستم یک راهحل برنامهنویسی را در پاسخ به توصیفی از آنچه که یک توسعهدهنده میخواهد ارئه می دهد.
به گفته محققان، احتمال بیشتری وجود داشت تا شرکتکنندگانی که به Codex دسترسی داشتند، در مقایسه با گروه کنترل، برای مشکلات برنامهنویسی خود راهحلهای نادرست و ناامنی (از نظر امنیت سایبری) بنویسند. حتی این احتمال وجود دارد که تصور کنند پاسخهای ناامنشان در مقایسه با افراد گروه کنترل، امن است.
بنابراین چگونه ممکن است فروشندگانی مانند GitHub از معرفی نقصهای امنیتی توسط توسعهدهندگانی که از کدنویسی هوش مصنوعی استفاده میکنند، جلوگیری کنند؟ نویسندگان این مطالعه به چند ایده اشاره کردهاند که یکی از آنها شامل استفاده از مکانیزمی برای «تصفیه» درخواستهای کاربران برای ایمنترشدن کدهای آنها میشود.