Web Analytics Made Easy - Statcounter

هوش مصنوعی گوگل به جنگ آسیب‌پذیری‌های کدنویسی می‌رود

گوگل با معرفی هوش مصنوعی «کدمندر» گامی تازه در امنیت سایبری برداشته است؛ سامانه‌ای که می‌تواند آسیب‌پذیری‌های نرم‌افزار را شناسایی، اصلاح و کد را برای جلوگیری از حملات آینده بازنویسی کند.

هوش مصنوعی گوگل و کدنویسی و دیباگ

گوگل از هوش مصنوعی تازه‌ای رونمایی کرده است که نه تنها آسیب‌پذیری‌های نرم‌افزاری را شناسایی می‌کند بلکه می‌تواند کدها را اصلاح و بازنویسی کند تا از بروز سوء‌استفاده‌های احتمالی در آینده جلوگیری شود.

بخش دیپ‌مایند (DeepMind) گوگل این سامانه را «کدمندر» (CodeMender) نامیده است. این ابزار بر پایه تلاش‌های پیشین گوگل در زمینه امنیت مبتنی بر هوش مصنوعی توسعه یافته است؛ از جمله پروژه‌های «بیگ اسلیپ» (Big Sleep) و «اواس‌اس-فاز» (OSS-Fuzz). هدف از ساخت آن، کشف و ترمیم خودکار آسیب‌پذیری‌ها در نرم‌افزارهاست.

به گفته دیپ‌مایند، کدمندر هم واکنشی عمل می‌کند و هم پیش‌گیرانه. این یعنی در همان لحظه‌ای که آسیب‌پذیری جدیدی شناسایی می‌شود، آن را برطرف می‌کند و در عین حال با بازنویسی کدهای قدیمی، تلاش دارد تا دسته‌ای از مشکلات امنیتی را به‌طور کامل حذف کند.

رالوک آدا پوپا و فور فلین، از پژوهشگران دیپ‌مایند، می‌گویند: «کدمندر با ایجاد و اعمال خودکار وصله‌های امنیتی باکیفیت، به توسعه‌دهندگان و نگه‌دارندگان نرم‌افزار کمک می‌کند تا تمرکز خود را بر ساخت نرم‌افزارهای بهتر حفظ کنند.»

در شش ماه گذشته، کدمندر توانسته است ۷۲ وصله امنیتی را به پروژه‌های متن‌باز ارسال کند؛ از جمله پروژه‌هایی که بیش از ۴.۵ میلیون خط کد دارند.

این سیستم با استفاده از مدل‌های «جمینی دیپ تینک» (Gemini Deep Think) گوگل، آسیب‌پذیری‌ها را شناسایی، رفع و در سطح ریشه‌ای بررسی می‌کند تا از ایجاد مشکلات جدید جلوگیری شود. همچنین ابزاری مبتنی بر مدل زبانی بزرگ (LLM) در آن تعبیه شده که تفاوت میان نسخه اصلی و اصلاح‌شده کد را تحلیل کرده و در صورت نیاز، اصلاحات خود را بازبینی می‌کند.

گوگل اعلام کرده است که قصد دارد با نگه‌دارندگان پروژه‌های متن‌باز مهم همکاری کند تا وصله‌های تولیدشده توسط کدمندر را بررسی کرده و بازخورد خود را ارائه دهند تا عملکرد این ابزار به مرور بهبود یابد.

در کنار این پروژه، گوگل از برنامه‌ای با عنوان «پاداش آسیب‌پذیری‌های هوش مصنوعی» (AI VRP) نیز پرده‌برداری کرده است. این برنامه از پژوهشگران دعوت می‌کند تا آسیب‌پذیری‌های مرتبط با هوش مصنوعی مانند تزریق درخواست‌ها، فرار از محدودیت‌ها و مشکلات هم‌راستایی را گزارش دهند. برای چنین گزارش‌هایی پاداشی تا سقف ۳۰ هزار دلار در نظر گرفته شده است. البته گزارش‌هایی درباره خطاهای محتوایی، توهمات مدل، یا مسائل مالکیت فکری شامل این طرح نمی‌شود.

این اقدام در ادامه فعالیت «تیم قرمز هوش مصنوعی» (AI Red Team) گوگل و معرفی نسخه دوم «چارچوب امنیتی هوش مصنوعی» (SAIF) انجام شده است؛ چارچوبی که اکنون بر خطرات امنیتی عامل‌محور مانند افشای داده و اقدامات ناخواسته تمرکز دارد.

گوگل در پایان تأکید کرده است که همچنان به استفاده از هوش مصنوعی برای تقویت امنیت سایبری متعهد است و می‌خواهد با کمک این فناوری، مدافعان فضای دیجیتال را در برابر تهدیدهای روزافزون مجرمان سایبری، کلاهبرداران و حملات تحت حمایت دولت‌ها توانمندتر کند.