Web Analytics Made Easy - Statcounter

هوش مصنوعی فعلا نمی‌تواند فروش ضعیف آیفون‌ را افزایش دهد

اپل آیفون ۱۶ را با ویژگی‌های جدید هوش مصنوعی و چیپ‌های A18 معرفی کرد، اما این ویژگی‌ها هنوز آماده نیستند و اجرای هوش مصنوعی در گوشی‌ها همچنان چالش‌برانگیز است.
هوش مصنوعی اپل (اپل اینتلیجنس - apple intelligence)

اپل روز دوشنبه سری جدید آیفون ۱۶ خود را در رویدادی با عنوان «وقت درخشیدن است» رونمایی کرد و فضای نمایشگاه پر از زرق و برق بود. این نام به درخشش سیری، دستیار صوتی تقویت‌شده اپل، اشاره داشت؛ اما به همان اندازه به رنگ جدید مدل آیفون ۱۶ پرو یعنی تیتانیوم بیابانی که به رنگ طلایی شباهت دارد، نیز اشاره می‌کرد.

با این حال، هیجان خاصی در این مراسم وجود نداشت! تیم کوک، مدیرعامل اپل، برای ویژگی‌های هوش مصنوعی این آیفون‌ها که تحت نام «اپل اینتلیجنس (Apple Intelligence)» معرفی شد، تبلیغات زیادی کرده بود.

رونمایی از آیفون ۱۶ و محصولات جدید اپل

اما علیرغم این که گوشی‌های جدید مجهز به چیپ‌های قدرتمند A18 اپل برای انجام وظایف هوش مصنوعی هستند اما خریداران باید حداقل یکی دو ماه منتظر بمانند تا به ویژگی‌های اولیه و آن هم در نسخه بتا دسترسی پیدا کنند. دموهای ارائه شده تاکنون چندان جذاب نبوده‌اند؛ به عنوان مثال، اگر دوربین را به سمت یک رستوران بگیرید، می‌تواند جزئیات منو را به شما بگوید. سیری می‌تواند درخواست‌های تایپ‌شده را بپذیرد و به سوالات پاسخ دهد.

سرمایه‌گذاران امیدوارند که ویژگی‌های پیشرفته‌تر و شخصی‌تر هوش مصنوعی در نهایت فروش آیفون را که اخیراً کاهش یافته را دوباره احیا کند. اما ممکن است مدت زمانی طول بکشد.

اپل یکی از چندین شرکتی است که تلاش می‌کنند قابلیت‌های هوش مصنوعی مولد را از مراکز داده بزرگ و فضای ابری به دستگاه‌های کوچک‌تری مانند گوشی‌های هوشمند، که به عنوان «لبه (Edge)» شناخته می‌شوند، منتقل کنند.

رقبایی مانند سامسونگ که اوایل امسال گوشی گلکسی S24 خود را با برخی ویژگی‌های هوش مصنوعی مولد عرضه کرد و مایکروسافت با رایانه‌های شخصی مبتنی بر هوش مصنوعی خود با نام کوپایلت پلاس قبلاً وارد این فضا شده‌اند. اما این بازار هنوز تا حد زیادی برای تسخیر آماده است و موفقیت در آن چالش بزرگی به شمار می‌رود.

در حال حاضر، مدل‌های زبان بزرگ (LLM) عمدتاً بر روی واحدهای پردازش گرافیکی (GPU) آموزش داده می‌شوند که مصرف انرژی زیادی دارند، به اندازه‌ای که می‌توانند برق یک نیروگاه هسته‌ای را مصرف کنند.

مدل زبان بزرگ - LLM

آن‌ها همچنین به حافظه زیادی و مقادیر عظیمی از داده‌های آموزشی نیاز دارند که هزینه آن‌ها می‌تواند به صدها میلیون دلار برسد. حتی پس از آموزش، اجرای این مدل‌های بزرگ هزینه‌بر است؛ برای مثال، تعامل با ربات ChatGPT ساخته شرکت OpenAI حدود ۳۶ سنت هزینه دارد.

در مقابل، دستگاه‌های لبه از مدل‌های کوچکتری استفاده می‌کنند که از همتایان مبتنی بر ابر خود گرفته شده‌اند و ارزان‌تر و سریع‌تر هستند. هدف این است که تاخیر را به حدی پایین بیاورند که پاسخ‌های هوش مصنوعی تقریباً آنی به نظر برسد. هوش مصنوعی لبه همچنین می‌تواند از تعاملات کاربر با دستگاه یاد بگیرد (اپل به این فرآیند «ایندکس‌گذاری معنایی» می‌گوید)، مانند درک زمانی که آشنایان کاربر تماس می‌گیرند و واکنش مناسب نشان می‌دهد.

با این حال، انتقال هوش مصنوعی به لبه کار ساده‌ای نیست. یکی از چالش‌ها عملکرد است. وظایف پیچیده، مانند برنامه‌ریزی یک تعطیلات با استفاده از یک ربات هوش مصنوعی، همچنان به مدل‌های LLM مبتنی بر ابر نیاز دارند. مشکل دیگر قدرت محاسباتی است؛ حتی مدل‌های کوچکتر هوش مصنوعی نیز به توان پردازشی زیادی نیاز دارند که می‌تواند به سرعت باتری دستگاه را خالی کند و منابع پردازشی را به چالش بکشد.

شرکت‌ها در حال بررسی راه‌های مختلف برای غلبه بر این مشکلات هستند. اپل اینتلیجنس (Apple Intelligence) قصد دارد در صورت امکان وظایف هوش مصنوعی را مستقیماً روی دستگاه انجام دهد و درخواست‌های پیچیده‌تر را به ابر خصوصی خود ارسال کند.

برای درخواست‌های منحصر به فردتر هم از مدل‌های LLM شخص ثالث مانند ChatGPT استفاده خواهد کرد. در حالی که اپل اطمینان می‌دهد که این کار تنها با رضایت کاربر انجام می‌شود، چرا که نگرانی‌های حریم خصوصی همچنان ممکن است وجود داشته باشد. به خصوص در مورد گوشی‌های هوشمند که به مقادیر زیادی از داده‌های شخصی مانند مخاطبین، مکان‌ها، خریدها و حتی عکس‌ها دسترسی دارند که ممکن است برخی از کاربران ترجیح دهند هرگونه پردازش هوش مصنوعی مولد به صورت محلی روی دستگاه انجام شود.

شرکت‌های فناوری همچنین از جایگزین‌هایی برای GPU استفاده می‌کنند، مانند واحدهای پردازش عصبی (NPU)، که برای اجرای مدل‌های هوش مصنوعی روی دستگاه‌های لبه انرژی کمتری مصرف می‌کنند. کوالکام، سازنده NPU و سایر تراشه‌ها برای دستگاه‌های لبه، بر به حداکثر رساندن «عملکرد به ازای هر وات» تمرکز دارد. در مقایسه با GPUها که می‌توانند هزینه‌های بسیار بالایی داشته باشند، NPUها گزینه‌ای اقتصادی‌تر هستند. به هر حال، هیچ‌کس نمی‌خواهد گوشی‌ای داشته باشد که به اندازه یک مرکز داده هزینه داشته باشد!

NPU - واحد پردازش عصبی

شرکت‌های زیادی به انتقال هوش مصنوعی به دستگاه‌ها علاقه‌مند هستند. مدل‌های LLM مبتنی بر ابر به شدت به انویدیا، تولیدکننده پیشرو پردازنده‌های گرافیکی وابسته هستند. در مقابل، وقتی صحبت از هوش مصنوعی لبه می‌شود، به اعتقاد تانر اوزلک از مدیران اجرایی سابق انویدیا «هیچ‌کس به طور کامل در آن مسلط نیست».  او اکنون مدیریت Mythic، یک استارتاپ تولیدکننده تراشه‌های انرژی‌کارآمد برای دستگاه‌های هوش مصنوعی را بر عهده دارد.

در حالی که هیچ شرکتی ممکن است به اندازه انویدیا از هوش مصنوعی لبه بهره‌مند نشود، اما همچنان برندگان بزرگی می‌توانند وجود داشته باشند، به گفته شرکت تحقیقاتی کانترپوینت. اجرای موفقیت‌آمیز این فناوری می‌تواند باعث افزایش فروش دستگاه‌ها شود و فرصت‌های جدیدی در زمینه اپلیکیشن‌ها و تبلیغات دیجیتال ایجاد کند. اما فعلاً، هوش مصنوعی لبه هنوز برای نمایش عمومی هم آماده نیست، چه رسد به درخشیدن!