طبق گفته پلتفرم امنیتی ابری ویز، تیم هوش مصنوعی که دادههای آموزشی را آپلود میکرد تا به سایر محققان اجازه دهد مدلهای هوش مصنوعی را برای تشخیص تصویر آموزش دهند؛ بهطور تصادفی دادههایی را که شامل «اطلاعات سری، کلیدهای خصوصی، گذرواژهها و بیش از 30 هزار پیام داخلی تیمهای مایکروسافت» بود، پخش کرد!
مایکروسافت در گزارش خود در مورد این فاش شدن، خاطرنشان کرد که «هیچ اطلاعاتی از مشتری در معرض دید قرار نگرفت و هیچ سرویس داخلی دیگری به دلیل این مشکل در معرض خطر قرار نگرفت».
لینک به این دادهها با استفاده از یک ویژگی در Azure به نام «توکنهای SAS» ایجاد شد که به کاربران اجازه میداد لینکهای قابل اشتراکگذاری ایجاد کنند. ویز برای اولین بار دسترسی به دادهها را در 22 ژوئن کشف کرد و به مایکروسافت هشدار داد. این توکن روز بعد باطل شد و مایکروسافت میگوید که این مشکل را برطرف کرده و توکنهای SAS را تنظیم کرده است که بیش از آنچه در نظر گرفته شده بود، مجاز هستند.
این شرکت گفت:«اطلاعاتی که در معرض دید قرار گرفت شامل اطلاعات دو کارمند سابق مایکروسافت و ورکاستیشنهای این کارمندان سابق بود. هیچ اطلاعات مشتری در معرض دید قرار نگرفت و هیچ سرویس دیگر مایکروسافت به دلیل این مشکل در معرض خطر قرار نگرفت. مشتریان برای حفظ امنیت خود نیازی به هیچ اقدام اضافی ندارند. مانند هر رمز دیگری، توکن های SAS نیز باید به درستی ایجاد و مدیریت شوند. مثل همیشه، ما مشتریان را به شدت تشویق میکنیم تا هنگام استفاده از توکنهای SAS از بهترین شیوههای ما پیروی کنند تا خطر دسترسی یا سوء استفاده ناخواسته را به حداقل برسانند.»
ویز هشدار داد که این نوع اشتباهات ممکن است با آموزش و استفاده بیشتر هوش مصنوعی رایجتر شوند.
این گروه امنیتی میگوید: «این مورد نمونهای از خطرات جدیدی است که سازمانها هنگام شروع به استفاده از قدرت هوش مصنوعی به طور گستردهتر با آن مواجه میشوند، زیرا بسیاری از مهندسان آنها اکنون با حجم عظیمی از دادههای آموزشی کار میکنند. از آنجایی که دانشمندان و مهندسان داده برای ارائه راهحلهای جدید هوش مصنوعی به تولید رقابت میکنند، حجم انبوهی از دادههایی که آنها مدیریت میکنند به بررسیهای امنیتی و پادمانهای بیشتری نیاز دارد.»