Web Analytics Made Easy - Statcounter

گوگل تعهد خود برای عدم استفاده از هوش مصنوعی در تسلیحات و نظارت را کنار گذاشت

گوگل تعهد خود به عدم استفاده از هوش مصنوعی در تسلیحات و نظارت را حذف کرد و سیاست‌هایش را برای همکاری با دولت‌ها در امنیت ملی تغییر داد.
استفاده از هوش مصنوعی در تسلیحات

گوگل به‌طور بی‌سروصدا یکی از تعهدات کلیدی خود را از اصول هوش مصنوعی‌اش حذف کرده و دیگر وعده نمی‌دهد که هوش مصنوعی را برای توسعه تسلیحات یا نظارت به کار نخواهد گرفت.

از سال ۲۰۱۸، دستورالعمل‌های اخلاقی گوگل شامل تعهدی بود که بیان می‌کرد این شرکت از کاربردهایی که ممکن است «به‌طور کلی آسیب‌رسان باشند» اجتناب می‌کند. این بخش اکنون حذف شده است.

روز سه‌شنبه، گوگل اصول هوش مصنوعی خود را به‌روزرسانی کرد. این اصول قبلاً شامل فهرستی از چهار حوزه‌ای بودند که شرکت متعهد بود در آنها فعالیت نکند: توسعه تسلیحات، نظارت، فناوری‌هایی که احتمالاً مضر هستند و کاربردهایی که ناقض قوانین بین‌المللی یا حقوق بشر باشند. یک نسخه آرشیوشده از این صفحه در هفته گذشته هنوز این محدودیت‌ها را نشان می‌داد.

یکی از سخنگویان گوگل از پاسخگویی مستقیم به سؤالات در مورد این تغییرات خودداری کرد اما به یک پست وبلاگی از دمیس حسابیس، رئیس بخش هوش مصنوعی گوگل و جیمز منیگا، معاون ارشد این شرکت، اشاره کرد. این دو مدیر اجرایی مدعی شدند که این تغییرات به دلیل رشد گسترده هوش مصنوعی و نیاز به همکاری شرکت‌های مستقر در کشورهای دموکراتیک با دولت‌ها برای امنیت ملی صورت گرفته است.

آن‌ها نوشتند «یک رقابت جهانی برای رهبری در زمینه هوش مصنوعی در حال وقوع است و در این فضای ژئوپلیتیکی پیچیده دموکراسی‌ها باید پیشگام توسعه هوش مصنوعی باشند درحالی‌که به ارزش‌هایی همچون آزادی، برابری و احترام به حقوق بشر پایبند هستند.» همچنین تأکید کردند که شرکت‌ها و سازمان‌هایی که این ارزش‌ها را دارند باید با یکدیگر همکاری کنند تا اطمینان حاصل شود که هوش مصنوعی برای محافظت از مردم، رشد جهانی و امنیت ملی به‌کار گرفته می‌شود.

اصول جدید گوگل بر نظارت انسانی و آزمایش فناوری‌ها برای کاهش خطرات ناخواسته و اطمینان از انطباق با قوانین بین‌المللی تأکید دارند.

تغییری در موضع گوگل

این تغییر نشان‌دهنده فاصله گرفتن گوگل از مواضع پیشین خود است. در سال ۲۰۱۵، پس از خریداری شرکت DeepMind، دمیس حسابیس اعلام کرد که طبق شرایط این قرارداد فناوری‌های دیپ‌مایند هرگز برای مقاصد نظامی یا نظارتی استفاده نخواهند شد.

گوگل در میان شرکت‌های بزرگ هوش مصنوعی یکی از معدود شرکت‌هایی بود که استفاده از این فناوری برای امنیت ملی را محدود کرده بود. به عنوان مثال، اوپن‌ای‌آی (OpenAI) اخیراً با شرکت فناوری دفاعی Anduril برای توسعه هوش مصنوعی در پنتاگون همکاری کرده است. شرکت Anthropic نیز با پیمانکار دفاعی Palantir شراکت کرده تا نسخه‌هایی از مدل هوش مصنوعی خود را در اختیار آژانس‌های دفاعی و اطلاعاتی ایالات متحده قرار دهد. مایکروسافت و آمازون نیز سال‌هاست که با ارتش آمریکا همکاری می‌کنند.

مایکل هوروویتز، استاد علوم سیاسی در دانشگاه پنسیلوانیا و مشاور سابق پنتاگون در زمینه فناوری‌های نوظهور گفت که اعلامیه گوگل نشان‌دهنده یک روند گسترده‌تر است. او اظهار داشت «رابطه میان شرکت‌های پیشرو هوش مصنوعی و وزارت دفاع ایالات متحده همچنان در حال تقویت است.» همچنین اشاره کرد که هوش مصنوعی و رباتیک به بخش‌های مهمی از استراتژی نظامی تبدیل شده‌اند.

تأثیرات سیاسی و تجاری

این تغییر سیاستی در راستای گرایش کلی صنعت فناوری به اولویت دادن به منافع ملی است. بسیاری از رهبران فناوری از جمله مدیرعامل سابق گوگل، اریک اشمیت و مدیرعامل تسلا، ایلان ماسک سال‌هاست که از همکاری نزدیک‌تر شرکت‌های هوش مصنوعی با دولت آمریکا حمایت کرده‌اند.

این تغییر همچنین در امتداد روندی است که در آن شرکت‌های فناوری از تعهدات قبلی خود نسبت به برابری نژادی، جنسیتی و تنوع نیروی کار فاصله گرفته‌اند—سیاست‌هایی که دولت ترامپ به‌طور علنی با آنها مخالف بود. گوگل همراه با سایر شرکت‌های فناوری بزرگ، کمک‌های مالی هنگفتی به مراسم تحلیف ترامپ کرد و ساندار پیچای، مدیرعامل این شرکت در میان رهبران فناوری بود که در این مراسم جایگاه برجسته‌ای داشتند.

تنش‌های ژئوپلیتیکی و رقابت در هوش مصنوعی

سیاست‌های هوش مصنوعی گوگل اکنون در مرکز تنش‌های ایالات متحده و چین قرار دارند. ساعاتی پس از آنکه ترامپ تعرفه‌های جدیدی بر واردات چین اعمال کرد پکن تحقیقاتی ضدانحصاری را علیه گوگل اعلام کرد و اقدامات تلافی‌جویانه تجاری را در پیش گرفت.

هفته گذشته، یک استارتاپ چینی به نام DeepSeek نسخه‌ای رایگان از یک دستیار هوش مصنوعی مشابه چت‌جی‌پی‌تی (ChatGPT) را منتشر کرد که باعث نگرانی‌هایی درباره عقب‌ماندن ایالات متحده در این حوزه شد.

اعتراضات کارکنان و نگرانی‌های اخلاقی

گوگل در سال ۲۰۱۸ اصول هوش مصنوعی خود را پس از اعتراضات داخلی درباره پروژه Maven، یک قرارداد با پنتاگون برای تجزیه‌وتحلیل تصاویر پهپادها با استفاده از هوش مصنوعی گوگل، منتشر کرد. هزاران کارمند این شرکت نامه‌ای سرگشاده به مدیرعامل گوگل نوشتند که در آن تأکید شده بود «ما معتقدیم که گوگل نباید در تجارت جنگ مشارکت داشته باشد.» در نتیجه این اعتراضات، گوگل تصمیم گرفت که این قرارداد را تمدید نکند.

میراث آن اعتراضات همچنان باقی است. اخیراً، برخی از کارکنان گوگل نسبت به همکاری این شرکت با دولت اسرائیل در زمینه رایانش ابری اعتراض کرده‌اند با این ادعا که این همکاری ممکن است به سیاست‌هایی منجر شود که به فلسطینیان آسیب برساند. گزارش‌های منتشرشده نشان می‌دهد که پس از حمله حماس به اسرائیل در ۷ اکتبر ۲۰۲۳، گوگل دسترسی بیشتری به فناوری‌های هوش مصنوعی خود را در اختیار وزارت دفاع و ارتش اسرائیل قرار داده است.

با این تغییرات، گوگل اکنون به‌طور کامل پذیرای نقش هوش مصنوعی در امنیت ملی به نظر می‌رسد. سرمایه‌گذاران و مدیران صنعت فناوری‌های دفاعی سیلیکون ولی اعتراضات کارکنان گوگل به Project Maven را یک نقطه عطف در این صنعت می‌دانند—اما اکنون این اعتراضات بیشتر به‌عنوان یک استثنا و نه یک سیاست پایدار دیده می‌شوند.