متا نسل جدید مدلهای هوش مصنوعی خود با نام لاما 4 را معرفی کرد. این مجموعه شامل سه مدل جدید به نامهای Llama 4 Scout و Llama 4 Maverick و Llama 4 Behemoth است که همگی با استفاده از حجم عظیمی از دادههای بدون برچسب شامل متن، تصویر و ویدیو آموزش دیدهاند تا درک بصری گستردهتری داشته باشند.
گزارشها حاکی از آن است که موفقیت آزمایشگاه هوش مصنوعی چینی DeepSeek در عرضه مدلهای متنباز که عملکردی مشابه یا بهتر از نسخههای قبلی لاما داشتهاند، باعث شد متا روند توسعه لاما 4 را با سرعت بیشتری دنبال کند. گفته میشود متا تیمهایی را برای تحلیل چگونگی کاهش هزینههای اجرای مدلهایی مانند R1 و V3 توسط DeepSeek تشکیل داده است.
مدلهای Scout و Maverick هماکنون از طریق وبسایت لاما و پلتفرمهایی مانند Hugging Face در دسترس هستند. با این حال، مدل Behemoth هنوز در مرحله آموزش قرار دارد. متا همچنین دستیار هوش مصنوعی خود را که در واتساپ، مسنجر و اینستاگرام در ۴۰ کشور فعال است، به لاما 4 بهروزرسانی کرده است. قابلیتهای چندرسانهای (متن، تصویر و ویدیو) فعلاً فقط در ایالات متحده و به زبان انگلیسی قابل استفاده هستند.
مدل لاما ۴ محدودیت کاربری خواهد داشت
با وجود عرضه عمومی، مجوز استفاده از لاما 4 میتواند مانعی برای برخی توسعهدهندگان باشد. شرکتها و کاربران مقیم اتحادیه اروپا اجازه استفاده یا توزیع این مدلها را ندارند. این اقدام احتمالاً ناشی از الزامات مقرراتی این منطقه در حوزه هوش مصنوعی و حفظ حریم خصوصی دادههاست. متا پیشتر این مقررات را بیش از حد سختگیرانه توصیف کرده بود. همچنین، شرکتهایی با بیش از ۷۰۰ میلیون کاربر فعال ماهانه باید برای استفاده از مدلها مجوز ویژهای از متا دریافت کنند که این شرکت میتواند آن را به صلاحدید خود تأیید یا رد کند.
متا در وبلاگ خود نوشته است: «این مدلهای لاما 4 سرآغاز عصری نو برای اکوسیستم لاما هستند. این تنها آغاز مجموعه لاما 4 است.»
پیشرفتهای فنی: معماری Mixture of Experts
لاما 4 برای نخستین بار در این مجموعه از معماری Mixture of Experts (ترکیب متخصصان) استفاده میکند که باعث افزایش بهرهوری محاسباتی در آموزش و پاسخگویی میشود. این معماری، وظایف را به بخشهای کوچکتر تقسیم کرده و به مدلهای تخصصی واگذار میکند.
مدل Maverick دارای ۴۰۰ میلیارد پارامتر کلی است. با این حال، تنها ۱۷ میلیارد پارامتر فعال دارد که بین ۱۲۸ «متخصص» تقسیم شدهاند. این مدل برای وظایفی مانند چت و نوشتن خلاقانه بهینه شده است. طبق آزمایشهای داخلی متا، Maverick از مدلهایی مانند GPT-4o و Gemini 2.0 در برخی زمینهها مانند برنامهنویسی، استدلال، پشتیبانی چندزبانه، متنهای طولانی و تحلیل تصویر بهتر عمل میکند. اما هنوز به سطح مدلهای پیشرفتهتر مانند Gemini 2.5 Pro، Claude 3.7 Sonnet و GPT-4.5 نرسیده است.
مدل Scout برای خلاصهسازی اسناد و تحلیل کدهای بزرگ مناسب است. این مدل دارای پنجره متنی عظیم ۱۰ میلیون توکن است. یعنی میتواند کتابها یا اسناد بسیار طولانی را تحلیل کند. Scout روی یک کارت گرافیک Nvidia H100 اجرا میشود. این مدل در مجموع ۱۰۹ میلیارد پارامتر دارد که ۱۷ میلیارد پارامتر فعال آن میان ۱۶ متخصص توزیع شدهاند.
مدل Behemoth، که هنوز منتشر نشده، به سختافزار بسیار قویتری نیاز دارد. طبق اعلام متا، این مدل حدود ۲ تریلیون پارامتر کلی، ۲۸۸ میلیارد پارامتر فعال و ۱۶ متخصص دارد. ارزیابیهای داخلی نشان میدهند که Behemoth در آزمونهای مرتبط با مهارتهای STEM مانند ریاضیات، عملکردی بهتر از GPT-4.5 و Claude 3.7 Sonnet و Gemini 2.0 Pro دارد. با این حال، هنوز از Gemini 2.5 Pro عقبتر است.
رویکرد جدید در پاسخها
هیچیک از مدلهای لاما 4 در دسته «مدلهای استدلالی» مانند o1 یا o3-mini متعلق به OpenAI قرار نمیگیرند. این نوع مدلها پاسخهای خود را بررسی و صحتسنجی میکنند و پاسخهای قابلاعتمادتری ارائه میدهند، هرچند کندتر عمل میکنند.
متا همچنین نحوه تنظیم پاسخگویی مدلها را تغییر داده است. اکنون مدلهای لاما 4 کمتر از قبل از پاسخ به سوالات «بحثبرانگیز» یا سیاسی خودداری میکنند. به گفته متا، این مدلها پاسخهایی متعادلتر ارائه میدهند و کمتر تحت تأثیر نوع پرسشها قرار میگیرند.
یکی از سخنگویان متا در گفتوگو با TechCrunch گفته است: «[لاما 4] پاسخهایی مفید، واقعی و بدون قضاوت ارائه میدهد. ما همچنان در حال بهبود لاما هستیم تا به سوالات بیشتری پاسخ دهد، دیدگاههای گوناگون را در نظر بگیرد و جانبداری خاصی نداشته باشد.»
پاسخ به انتقادات سیاسی
این تغییرات در حالی صورت گرفتهاند که برخی سیاستمداران محافظهکار، بهویژه در ایالات متحده، ادعا کردهاند که چتباتهای هوش مصنوعی سوگیری سیاسی دارند. نزدیکان رئیسجمهور آمریکا، از جمله ایلان ماسک و دیوید ساکس، بارها مدعی شدهاند که مدلهایی مانند ChatGPT دیدگاههای محافظهکارانه را سانسور میکنند. ساکس در گذشته ChatGPT را فاقد صداقت در مسائل سیاسی توصیف کرده بود.
در واقع، حذف کامل سوگیری از مدلهای هوش مصنوعی هنوز یک چالش فنی پیچیده است. حتی شرکت xAI متعلق به ماسک نیز نتوانسته مدلی کاملاً بیطرف توسعه دهد.
با این حال، شرکتهایی مانند OpenAI نیز در حال اصلاح مدلهای خود هستند تا امکان پاسخگویی به سوالاتی را که پیشتر فیلتر میشدند، فراهم کنند. بهویژه در حوزه موضوعات حساس و جنجالی.