گوگل از هوش مصنوعی تازهای رونمایی کرده است که نه تنها آسیبپذیریهای نرمافزاری را شناسایی میکند بلکه میتواند کدها را اصلاح و بازنویسی کند تا از بروز سوءاستفادههای احتمالی در آینده جلوگیری شود.
بخش دیپمایند (DeepMind) گوگل این سامانه را «کدمندر» (CodeMender) نامیده است. این ابزار بر پایه تلاشهای پیشین گوگل در زمینه امنیت مبتنی بر هوش مصنوعی توسعه یافته است؛ از جمله پروژههای «بیگ اسلیپ» (Big Sleep) و «اواساس-فاز» (OSS-Fuzz). هدف از ساخت آن، کشف و ترمیم خودکار آسیبپذیریها در نرمافزارهاست.
به گفته دیپمایند، کدمندر هم واکنشی عمل میکند و هم پیشگیرانه. این یعنی در همان لحظهای که آسیبپذیری جدیدی شناسایی میشود، آن را برطرف میکند و در عین حال با بازنویسی کدهای قدیمی، تلاش دارد تا دستهای از مشکلات امنیتی را بهطور کامل حذف کند.
رالوک آدا پوپا و فور فلین، از پژوهشگران دیپمایند، میگویند: «کدمندر با ایجاد و اعمال خودکار وصلههای امنیتی باکیفیت، به توسعهدهندگان و نگهدارندگان نرمافزار کمک میکند تا تمرکز خود را بر ساخت نرمافزارهای بهتر حفظ کنند.»
در شش ماه گذشته، کدمندر توانسته است ۷۲ وصله امنیتی را به پروژههای متنباز ارسال کند؛ از جمله پروژههایی که بیش از ۴.۵ میلیون خط کد دارند.
این سیستم با استفاده از مدلهای «جمینی دیپ تینک» (Gemini Deep Think) گوگل، آسیبپذیریها را شناسایی، رفع و در سطح ریشهای بررسی میکند تا از ایجاد مشکلات جدید جلوگیری شود. همچنین ابزاری مبتنی بر مدل زبانی بزرگ (LLM) در آن تعبیه شده که تفاوت میان نسخه اصلی و اصلاحشده کد را تحلیل کرده و در صورت نیاز، اصلاحات خود را بازبینی میکند.
گوگل اعلام کرده است که قصد دارد با نگهدارندگان پروژههای متنباز مهم همکاری کند تا وصلههای تولیدشده توسط کدمندر را بررسی کرده و بازخورد خود را ارائه دهند تا عملکرد این ابزار به مرور بهبود یابد.
در کنار این پروژه، گوگل از برنامهای با عنوان «پاداش آسیبپذیریهای هوش مصنوعی» (AI VRP) نیز پردهبرداری کرده است. این برنامه از پژوهشگران دعوت میکند تا آسیبپذیریهای مرتبط با هوش مصنوعی مانند تزریق درخواستها، فرار از محدودیتها و مشکلات همراستایی را گزارش دهند. برای چنین گزارشهایی پاداشی تا سقف ۳۰ هزار دلار در نظر گرفته شده است. البته گزارشهایی درباره خطاهای محتوایی، توهمات مدل، یا مسائل مالکیت فکری شامل این طرح نمیشود.
این اقدام در ادامه فعالیت «تیم قرمز هوش مصنوعی» (AI Red Team) گوگل و معرفی نسخه دوم «چارچوب امنیتی هوش مصنوعی» (SAIF) انجام شده است؛ چارچوبی که اکنون بر خطرات امنیتی عاملمحور مانند افشای داده و اقدامات ناخواسته تمرکز دارد.
گوگل در پایان تأکید کرده است که همچنان به استفاده از هوش مصنوعی برای تقویت امنیت سایبری متعهد است و میخواهد با کمک این فناوری، مدافعان فضای دیجیتال را در برابر تهدیدهای روزافزون مجرمان سایبری، کلاهبرداران و حملات تحت حمایت دولتها توانمندتر کند.