بلیک لموئین، مهندس گوگل که علناً ادعا کرد هوش مصنوعی ربات محاورهای گوگل با نام لامدا (LaMda) به خودآگاهی و ادراک رسیده است، اخراج شد. در ماه قبل، گوگل پس از اظهارات بلیک لمویین و استخدام وکیل برای نمایندگی لامدا، او را به دلیل نقض محرمانگی قرارداد به مرخصی اجباری با حقوق فرستاد.
بلیک لموئین: ربات لامدا احساسات دارد
لموئین برای آزمایش اینکه آیا این ربات هوش مصنوعی، سخنان ناپسند تولید میکند یا خیر، تعیین شده بود و او بر خلاف قرارداد خود با گوگل، تکههایی از این مکالماتش با ربات را در حساب Medium خود به عنوان مدرک منتشر کرد.
لموئین ادعا میکند که مکالمات او با چت ربات لامدا او را به این باور رسانده که این برنامه به چیزی بیش از یک برنامه مصنوعی تبدیل شده است و اکنون افکار و احساسات خاص خود را دارد، در حالی که این ربات صرفاً مکالمه را به اندازه کافی واقعبینانه تولید میکند که اینگونه به نظر برسد. او استدلال میکند که محققان گوگل باید قبل از اجرای آزمایشهایی روی این ربات از آن رضایت بگیرند!
گوگل ادعای ادراک ربات لامدا را کاملاً بیاساس میداند
با این حال به نظر میرسد جمله پایانی آرزوی موفقیت برای لموئین در بیانیهای که برایان گابریل، سخنگوی گوگل در روز جمعه منتشر کرده بود، اخراج او را تایید میکند. این شرکت اظهار داشت: «لامدا 11 بررسی را پشت سر گذاشته است و ما در اوایل سال جاری یک مقاله تحقیقاتی منتشر کردیم که جزئیات کارهای مربوط به توسعه آن را شرح میداد.» گوگل مدعی است که ادعاهای لموئین را به طور جدی بررسی کرده و دریافته است که آنها کاملاً بیاساس هستند.
این موضوع با گفتههای بسیاری از کارشناسان هوش مصنوعی مطابقت دارد که گفتهاند ادعاهای او با توجه به فناوری امروزی غیرممکن است.
کانال یوتیوب Computerphile توضیحی 9 دقیقهای منتشر کرده که لامدا چگونه کار میکند و چگونه میتواند بدون اینکه واقعاً ادراک باشد، پاسخهایی را ایجاد کند که لموئین را متقاعد کند.
بیانیه گوگل برای اخراج بلیک لموئین
در ادامه بیانیه سخنگوی گوگل را خواهیم خواند که به ادعای لموئین مبنی بر اینکه این شرکت به درستی موضوع را بررسی نکرده است، نیز میپردازد:
«همانطور که به اصول اخلاقی هوش مصنوعی متعهد هستیم، توسعه هوش مصنوعی را بسیار جدی میگیریم و به نوآوری متعهد میمانیم. ربات لامدا 11 آزمایشهای خود را به خوبی پشت سر گذاشته است. ما در اوایل سال جاری یک مقاله تحقیقاتی منتشر کردیم که جزئیات کارهای مربوط به توسعه آن را شرح میداد. اگر کارمندی مانند بلیک نگرانیهای خود را در مورد کار ما به اشتراک بگذارد، آنها را به طور جدی بررسی میکنیم. ما متوجه شدیم که ادعاهای بلیک در مورد لامدا کاملاً بیاساس است و ماهها تلاش کردیم تا این موضوع را برای او روشن کنیم. مایه تاسف است که علیرغم تعامل طولانی در این موضوع، بلیک همچنان تصمیم گرفت به طور مداوم سیاستهای شفاف استخدام و امنیت دادهها را که شامل نیاز به حفاظت از اطلاعات محصول میشود، نقض کند. ما به توسعه دقیق مدلهای هوش مصنوعی ادامه خواهیم داد و برای بلیک آرزوی موفقیت داریم.»