گوگل بهطور بیسروصدا یکی از تعهدات کلیدی خود را از اصول هوش مصنوعیاش حذف کرده و دیگر وعده نمیدهد که هوش مصنوعی را برای توسعه تسلیحات یا نظارت به کار نخواهد گرفت.
از سال ۲۰۱۸، دستورالعملهای اخلاقی گوگل شامل تعهدی بود که بیان میکرد این شرکت از کاربردهایی که ممکن است «بهطور کلی آسیبرسان باشند» اجتناب میکند. این بخش اکنون حذف شده است.
روز سهشنبه، گوگل اصول هوش مصنوعی خود را بهروزرسانی کرد. این اصول قبلاً شامل فهرستی از چهار حوزهای بودند که شرکت متعهد بود در آنها فعالیت نکند: توسعه تسلیحات، نظارت، فناوریهایی که احتمالاً مضر هستند و کاربردهایی که ناقض قوانین بینالمللی یا حقوق بشر باشند. یک نسخه آرشیوشده از این صفحه در هفته گذشته هنوز این محدودیتها را نشان میداد.
یکی از سخنگویان گوگل از پاسخگویی مستقیم به سؤالات در مورد این تغییرات خودداری کرد اما به یک پست وبلاگی از دمیس حسابیس، رئیس بخش هوش مصنوعی گوگل و جیمز منیگا، معاون ارشد این شرکت، اشاره کرد. این دو مدیر اجرایی مدعی شدند که این تغییرات به دلیل رشد گسترده هوش مصنوعی و نیاز به همکاری شرکتهای مستقر در کشورهای دموکراتیک با دولتها برای امنیت ملی صورت گرفته است.
آنها نوشتند «یک رقابت جهانی برای رهبری در زمینه هوش مصنوعی در حال وقوع است و در این فضای ژئوپلیتیکی پیچیده دموکراسیها باید پیشگام توسعه هوش مصنوعی باشند درحالیکه به ارزشهایی همچون آزادی، برابری و احترام به حقوق بشر پایبند هستند.» همچنین تأکید کردند که شرکتها و سازمانهایی که این ارزشها را دارند باید با یکدیگر همکاری کنند تا اطمینان حاصل شود که هوش مصنوعی برای محافظت از مردم، رشد جهانی و امنیت ملی بهکار گرفته میشود.
اصول جدید گوگل بر نظارت انسانی و آزمایش فناوریها برای کاهش خطرات ناخواسته و اطمینان از انطباق با قوانین بینالمللی تأکید دارند.
تغییری در موضع گوگل
این تغییر نشاندهنده فاصله گرفتن گوگل از مواضع پیشین خود است. در سال ۲۰۱۵، پس از خریداری شرکت DeepMind، دمیس حسابیس اعلام کرد که طبق شرایط این قرارداد فناوریهای دیپمایند هرگز برای مقاصد نظامی یا نظارتی استفاده نخواهند شد.
گوگل در میان شرکتهای بزرگ هوش مصنوعی یکی از معدود شرکتهایی بود که استفاده از این فناوری برای امنیت ملی را محدود کرده بود. به عنوان مثال، اوپنایآی (OpenAI) اخیراً با شرکت فناوری دفاعی Anduril برای توسعه هوش مصنوعی در پنتاگون همکاری کرده است. شرکت Anthropic نیز با پیمانکار دفاعی Palantir شراکت کرده تا نسخههایی از مدل هوش مصنوعی خود را در اختیار آژانسهای دفاعی و اطلاعاتی ایالات متحده قرار دهد. مایکروسافت و آمازون نیز سالهاست که با ارتش آمریکا همکاری میکنند.
مایکل هوروویتز، استاد علوم سیاسی در دانشگاه پنسیلوانیا و مشاور سابق پنتاگون در زمینه فناوریهای نوظهور گفت که اعلامیه گوگل نشاندهنده یک روند گستردهتر است. او اظهار داشت «رابطه میان شرکتهای پیشرو هوش مصنوعی و وزارت دفاع ایالات متحده همچنان در حال تقویت است.» همچنین اشاره کرد که هوش مصنوعی و رباتیک به بخشهای مهمی از استراتژی نظامی تبدیل شدهاند.
تأثیرات سیاسی و تجاری
این تغییر سیاستی در راستای گرایش کلی صنعت فناوری به اولویت دادن به منافع ملی است. بسیاری از رهبران فناوری از جمله مدیرعامل سابق گوگل، اریک اشمیت و مدیرعامل تسلا، ایلان ماسک سالهاست که از همکاری نزدیکتر شرکتهای هوش مصنوعی با دولت آمریکا حمایت کردهاند.
این تغییر همچنین در امتداد روندی است که در آن شرکتهای فناوری از تعهدات قبلی خود نسبت به برابری نژادی، جنسیتی و تنوع نیروی کار فاصله گرفتهاند—سیاستهایی که دولت ترامپ بهطور علنی با آنها مخالف بود. گوگل همراه با سایر شرکتهای فناوری بزرگ، کمکهای مالی هنگفتی به مراسم تحلیف ترامپ کرد و ساندار پیچای، مدیرعامل این شرکت در میان رهبران فناوری بود که در این مراسم جایگاه برجستهای داشتند.
تنشهای ژئوپلیتیکی و رقابت در هوش مصنوعی
سیاستهای هوش مصنوعی گوگل اکنون در مرکز تنشهای ایالات متحده و چین قرار دارند. ساعاتی پس از آنکه ترامپ تعرفههای جدیدی بر واردات چین اعمال کرد پکن تحقیقاتی ضدانحصاری را علیه گوگل اعلام کرد و اقدامات تلافیجویانه تجاری را در پیش گرفت.
هفته گذشته، یک استارتاپ چینی به نام DeepSeek نسخهای رایگان از یک دستیار هوش مصنوعی مشابه چتجیپیتی (ChatGPT) را منتشر کرد که باعث نگرانیهایی درباره عقبماندن ایالات متحده در این حوزه شد.
اعتراضات کارکنان و نگرانیهای اخلاقی
گوگل در سال ۲۰۱۸ اصول هوش مصنوعی خود را پس از اعتراضات داخلی درباره پروژه Maven، یک قرارداد با پنتاگون برای تجزیهوتحلیل تصاویر پهپادها با استفاده از هوش مصنوعی گوگل، منتشر کرد. هزاران کارمند این شرکت نامهای سرگشاده به مدیرعامل گوگل نوشتند که در آن تأکید شده بود «ما معتقدیم که گوگل نباید در تجارت جنگ مشارکت داشته باشد.» در نتیجه این اعتراضات، گوگل تصمیم گرفت که این قرارداد را تمدید نکند.
میراث آن اعتراضات همچنان باقی است. اخیراً، برخی از کارکنان گوگل نسبت به همکاری این شرکت با دولت اسرائیل در زمینه رایانش ابری اعتراض کردهاند با این ادعا که این همکاری ممکن است به سیاستهایی منجر شود که به فلسطینیان آسیب برساند. گزارشهای منتشرشده نشان میدهد که پس از حمله حماس به اسرائیل در ۷ اکتبر ۲۰۲۳، گوگل دسترسی بیشتری به فناوریهای هوش مصنوعی خود را در اختیار وزارت دفاع و ارتش اسرائیل قرار داده است.
با این تغییرات، گوگل اکنون بهطور کامل پذیرای نقش هوش مصنوعی در امنیت ملی به نظر میرسد. سرمایهگذاران و مدیران صنعت فناوریهای دفاعی سیلیکون ولی اعتراضات کارکنان گوگل به Project Maven را یک نقطه عطف در این صنعت میدانند—اما اکنون این اعتراضات بیشتر بهعنوان یک استثنا و نه یک سیاست پایدار دیده میشوند.