بسیاری از افراد، یادگیری ماشین را فرزندخواندهی هوش مصنوعی، دستیار آن یا دوقلوی کمتر شناخته شدهاش میدانند. هرچند نام یادگیری ماشین، آن شهرت و اعتبار هوش مصنوعی را ندارد؛ اما اکنون تقریباً هر جنبهای از زندگی ما تحت تأثیر این فناوری و دستاوردهای آن قرار دارد.
در این مقاله از آی تی جو قصد داریم به تاریخچه این فناوری سرنوشتساز بپردازیم. هشت دهه پیش جرقهی این علم در ذهن دانشمندان علوم اعصاب، والتر پیتز (Walter Pitts) و وارن مککالاک (Warren McCulloch) پیش زده شد. مدلسازی ریاضی این دو نفر از یک شبکه عصبی در سال ۱۹۴۳، سال تولد توافقشدهی یادگیری ماشینی محسوب میشود.
یادگیری ماشین چیست؟
یادگیری ماشین شاخهای از هوش مصنوعی است که به کامپیوترها اجازه میدهد بدون برنامهنویسی صریح، از روی دادهها یاد بگیرند و پیشبینی کنند. به عبارت سادهتر، یادگیری ماشین به کامپیوترها این توانایی را میدهد که الگوها را در دادهها شناسایی کرده و بر اساس آنها تصمیمگیری کنند.
از برخی جهات، یادگیری ماشین ممکن است به نوعی مانند یک عروسکگردان برای هوش مصنوعی به شمار آید. بخش زیادی از آنچه امروز هوش مصنوعی مولد را پیش میبرد، از یادگیری ماشین در قالب مدلهای زبان بزرگ (LLM) به دست میآید. یادگیری ماشین با این مدلها حجم عظیمی از دادههای ورودی را تجزیه و تحلیل میکند تا الگوهای کلمات و عبارات را کشف کند.
بسیاری از کاربردهای بیسابقه هوش مصنوعی در کسبوکار و جامعه توسط قابلیتهای گسترده یادگیری ماشین پشتیبانی میشوند، از این قبیل میتوان به تجزیه و تحلیل اینستاگرام، ارزیابی ریسک، پیشبینی خرابی، مسیریابی جادهها یا خنثیسازی حملات سایبری اشاره کرد. امروزه یادگیری ماشین بر عملیات تجاری روزانه اکثر صنایع از جمله تجارت الکترونیک، تولید، مالی، بیمه و داروسازی تأثیر میگذارد.
سیر تکاملی و تاریخچه یادگیری ماشین
از دهه ۱۹۴۰، یادگیری ماشین سال به سال پیشرفت کرد و به جایی رسید که امروز باارزشترین شرکتهای جهان از جمله مایکروسافت، اپل، گوگل و متا مبالغ هنگفتی را در این زمینه سرمایهگذاری میکنند:
- در دهه ۱۹۵۰، پیشگامانی چون تورینگ، ساموئل، مککارتی، مینسکی، ادمانز و نیول، چشمانداز یادگیری ماشین را شکل دادند. در این دوره، آزمون تورینگ، اولین شبکه عصبی مصنوعی و اصطلاحات هوش مصنوعی و یادگیری ماشین مطرح شدند.
- در دهه ۱۹۶۰، الیزای (Eliza) اولین چتبات، شکی (Shakey) اولین ربات هوشمند متحرک، استنفورد کارت (Stanford Cart) یک وسیله نقلیه کنترل از راه دور ویدیویی و پایههای علم یادگیری عمیق (Deep Learning) توسعه یافتند.
- در دهههای ۱۹۷۰ و ۱۹۸۰، برنامههایی که الگوها و کاراکترهای دستنوشته را تشخیص میدادند، مشکلات را بر اساس انتخاب طبیعی حل میکردند، اقدامات مناسب را جستجو میکردند، قوانینی برای حذف اطلاعات غیرضروری ایجاد میکردند و مانند یک کودک یاد میگرفتند که کلمات را تلفظ کند، برجسته شدند.
- در دهه ۱۹۹۰، برنامههایی با قابلیت بازی تختهنرد و شطرنج، برترین بازیکنان جهان را به چالش کشیدند.
- در قرن بیست و یکم و دهههای ۲۰۰۰ و ۲۰۱۰، دستیارهای شخصی، شبکههای مولد متقابل، تشخیص چهره، دیپفیک، سنسورهای حرکتی، خودروهای خودران و ایجاد محتوا و تصویر از طریق ابزارهای هوش مصنوعی مولد ظهور کردند.
دهه 1940 تا 1950
1943: والتر پیتز منطقدان و وارن مککالو عصبشناس، اولین مدل ریاضی از یک شبکه عصبی را برای ایجاد الگوریتمهایی که از فرآیندهای تفکر انسانی تقلید میکنند، منتشر کردند.
1949: دونالد هب کتاب «سازماندهی رفتار: یک نظریه نوروپسیکولوژیکی» را منتشر کرد که کتابی بنیادی در توسعه یادگیری ماشین با تمرکز بر چگونگی ارتباط رفتار و تفکر از نظر فعالیت مغز با شبکههای عصبی است.
1950: آلن تورینگ کتاب «ماشینحساب و هوش» را منتشر کرد که آزمون تورینگ را معرفی کرد و دربهای علمی که بعدها به هوش مصنوعی معروف شد را گشود.
1951: ماروین مینسکی و دین ادمانز، اولین شبکه عصبی مصنوعی (ANN) را با استفاده از 3000 لامپ برای شبیهسازی شبکهای از 40 نورون توسعه دادند.
1952: آرتور ساموئل برنامه بازی چکرز ساموئل را ایجاد کرد که اولین برنامه خودآموز جهان برای بازی کردن بود.
دهه 1950 تا 1960
1956: جان مککارتی، ماروین مینسکی، ناتانیل راچستر و کلود شانون اصطلاح هوش مصنوعی را در پیشنهادی برای یک کارگاه که به عنوان رویداد بنیادی در زمینه هوش مصنوعی شناخته میشود، ابداع کردند.
1956: آلن نیول، هربرت سایمون و کلیف شا، «نظریه منطق» را نوشتند که اولین برنامه هوش مصنوعی بود که عمداً برای انجام استدلال خودکار طراحی شده بود.
1958: فرانک روزنبلات پرسپترون را توسعه داد، یک ANN اولیه که میتوانست از دادهها یاد بگیرد و پایه و اساس شبکههای عصبی مدرن شد.
1959: آرتور ساموئل اصطلاح یادگیری ماشین را در یک مقاله بنیادی ابداع کرد که توضیح میداد کامپیوتر را میتوان برنامهریزی کرد تا از برنامهنویس خود بهتر عمل کند.
1960: جیمز آدامز، دانشجوی کارشناسی ارشد مهندسی مکانیک، استنفورد کارت را برای حمایت از تحقیقات خود در مورد مشکل کنترل یک وسیله نقلیه از راه دور با استفاده از اطلاعات ویدیویی ساخت.
دهه 1960 تا 1970
1963: دونالد میچی برنامهای به نام MENACE یا Matchbox Educable Noughts and Crosses Engine را توسعه داد که یاد گرفت چگونه یک بازی دوز را اجرا کند.
1965: ادوارد فایگنباوم، بروس جی بوکانان، جوشوا لدربرگ و کارل دجراسی، DENDRAL را توسعه دادند که اولین سیستم خبره بود و به شیمیدانان آلی در شناسایی مولکولهای آلی ناشناخته کمک میکرد.
1966: جوزف ویزنبوم برنامه کامپیوتری الیزای ایجاد کرد که قادر به برقراری مکالمه با انسانها و وادار کردن آنها به باور داشتن اینکه نرمافزار دارای احساسات انسانی است، بود.
1966: موسسه تحقیقاتی استنفورد، ربات شکی (Shakey) را توسعه داد که اولین ربات هوشمند متحرک جهان بود که هوش مصنوعی، بینایی کامپیوتری، قابلیت ناوبری و پردازش زبان طبیعی (NLP) را ترکیب میکرد. این ربات به عنوان پدربزرگ خودروهای خودران و پهپادها شناخته شد.
دهه 1960 تا 1970
1967: الگوریتم نزدیکترین همسایه به کامپیوترها توانایی تشخیص الگوهای اولیه را داد و توسط فروشندگان دورهگرد برای برنامهریزی کارآمدترین مسیرها از طریق نزدیکترین شهرها استفاده شد.
1969: آرتور بریسون و یو-چی هو الگوریتم یادگیری پس انتشار را برای فعال کردن ANNهای چند لایه توصیف کردند که پیشرفتی نسبت به پرسپترون و پایه ای برای یادگیری عمیق بود.
1969: ماروین مینسکی و سیمور پاپرت کتاب پرسپترونها را منتشر کردند که محدودیتهای شبکههای عصبی ساده را توصیف میکرد و باعث کاهش تحقیقات شبکه عصبی و رونق تحقیقات هوش مصنوعی نمادین شد.
دهه 1970 تا 1980
1973: جیمز لایتهیل گزارش «هوش مصنوعی: یک بررسی کلی» را منتشر کرد که منجر به کاهش قابل توجه حمایت دولت بریتانیا از تحقیقات هوش مصنوعی شد.
1979: کونیهیکو فوکوشیما کار خود را بر روی نئوکوگنیترون، یک ANN سلسله مراتبی و چند لایه برای وظایف تشخیص الگو منتشر کرد.
1981: جرالد دجونگ یادگیری مبتنی بر توضیح را معرفی کرد که در آن کامپیوتر یاد میگرفت دادههای آموزشی را تجزیه و تحلیل کند و یک قانون کلی برای حذف اطلاعات بیاهمیت ایجاد کند.
1985: تری سجناوسکی برنامهای به نام NetTalk ایجاد کرد که یاد گرفت کلمات را مانند یک کودک یاد بگیرد.
دهه 1980 تا 1990
1989: یان لوکان، یوشوا بنجیو و پاتریک هافنر نشان دادند که چگونه میتوان از شبکههای عصبی کانولوشن (CNN) برای تشخیص کاراکترهای دستنوشته استفاده کرد و نشان داد که شبکههای عصبی میتوانند برای مشکلات دنیای واقعی اعمال شوند.
1989: کریستوفر واتکینز Q-learning را توسعه داد، یک الگوریتم تقویت بدون مدل که به دنبال بهترین اقدام برای انجام در هر حالت فعلی بود.
1989: Axcelis اولین بسته نرمافزاری الگوریتم ژنتیک تجاری برای رایانههای شخصی به نام Evolver را منتشر کرد.
دهه 1990 تا 2000
1992: جرالد تسارو TD-Gammon را اختراع کرد، برنامهای قادر به بازی بکگمون بر اساس یک ANN که با بازیکنان برتر بکگمون رقابت میکرد.
1998: تیمی به رهبری یان لوکان مجموعه دادهای به نام پایگاه داده MNIST یا پایگاه داده اصلاحشده موسسه ملی استانداردها و فناوری را منتشر کرد که به طور گسترده به عنوان یک معیار ارزیابی تشخیص دستنوشته پذیرفته شد.
2000: محققان دانشگاه مونترال “یک مدل زبانی احتمالی عصبی” را منتشر کردند که روشی را برای مدلسازی زبان با استفاده از شبکههای عصبی پیشرو پیشنهاد کرد.
دهه 2000 تا 2010
2002: Torch، اولین کتابخانه یادگیری ماشین منبع باز منتشر شد که رابطهایی برای الگوریتمهای یادگیری عمیق پیادهسازی شده در C ارائه میداد.
2006: جفری هینتون، روانشناس و دانشمند کامپیوتر، اصطلاح یادگیری عمیق را برای توصیف الگوریتمهایی ابداع کرد که به کامپیوترها کمک میکند تا انواع مختلف اشیاء و کاراکترهای متنی را در تصاویر و ویدیوها تشخیص دهند.
2006: فیفی لی شروع به کار روی پایگاه داده بصری ImageNet کرد که در سال 2009 معرفی شد. این پایگاه داده به کاتالیزوری برای رونق هوش مصنوعی و اساس یک رقابت سالانه برای الگوریتمهای تشخیص تصویر تبدیل شد.
2006: نتفلیکس مسابقه جایزه نتفلیکس را با هدف ایجاد یک الگوریتم یادگیری ماشین دقیقتر از نرمافزار توصیه کاربر اختصاصی نتفلیکس راهاندازی کرد.
2006: واتسون IBM با هدف اولیه شکست دادن یک انسان در مسابقه کوییز جئپاردی! آغاز به کار کرد.
دهه 2010 تا 2020
2010: مایکروسافت دستگاه ورودی سنسور حرکتی کینکت (Kinect) را برای کنسول بازی ایکس باکس ۳۶۰ منتشر کرد که میتوانست 20 ویژگی حرکتی مختلف انسان را 30 بار در ثانیه ردیابی کند.
2010: آنتونی گلدبلوم و بن هامر پلتفرم Kaggle را برای مسابقات یادگیری ماشین راهاندازی کردند.
2011: یورگن شمیدهوبر، دان کلاودیو سیراسان، اولی مایر و جاناتان ماسکی اولین CNN را برای دستیابی به عملکرد «فرا انسانی» با برنده شدن در رقابت تشخیص علائم ترافیکی آلمان توسعه دادند.
2011: ابررایانه واتسون IBM توانست کن جنینگز، قهرمان تمام دوران مسابقه تلویزیونی جئوپاردی (Jeopardy!) را شکست دهد.
2012: جفری هینتون، ایلیا سوتسکیور و الکس کریژفسکی یک معماری CNN عمیق را معرفی کردند که چالش تشخیص بصری مقیاس بزرگ ImageNet را برنده شد و انفجار تحقیقات و اجرای یادگیری عمیق را آغاز کرد.
2013: شرکت DeepMind یادگیری تقویتی عمیق را معرفی کرد، یک CNN که بر اساس پاداشها یاد میگرفت و با تکرار بازیها به سطح متخصصان انسانی دست مییافت.
2014: یان گودفلو و همکارانش شبکههای مولد تخاصمی را اختراع کردند که نوعی از چارچوبهای یادگیری ماشینی هستند که برای تولید عکس، تغییر تصاویر و ایجاد دیپفیکها استفاده میشوند.
2014: گوگل پروژه یادگیری ماشین بزرگ مقیاس سیبیل را برای توصیههای پیشبینیکننده کاربر رونمایی کرد.
2014: دیدریک کینگما و مکس ولینگ اتوکدهای واریاسیونی را برای تولید تصاویر، ویدیوها و متن معرفی کردند.
2014: فیسبوک دیپفیس را توسعه داد، یک سیستم تشخیص چهره مبتنی بر یادگیری عمیق که میتواند چهرههای انسان را در تصاویر دیجیتال با دقت نزدیک به انسان شناسایی کند.
2016: اوبر برنامه آزمایشی خودروهای خودران را در پیتسبورگ برای گروهی از کاربران منتخب آغاز کرد.
2017: محققان گوگل مفهوم تبدیلکنندهها را در مقاله تأثیرگذار «توجه همه چیزی است که نیاز دارید» توسعه دادند که تحقیقات بعدی در مورد ابزارهایی را که میتوانند به طور خودکار متن بدون برچسب را به مدلهای زبانی بزرگ (LLM) تبدیل کنند، الهام بخشید.
2018: شرکت OpenAI مدل زبانی GPT را منتشر کرد که راه را برای LLMهای بعدی هموار کرد.
2019: مایکروسافت مدل زبانی مولد تورینگ با 17 میلیارد پارامتر را راهاندازی کرد.
2019: الگوریتم یادگیری عمیق گوگل AI و مرکز پزشکی لانگون در تشخیص بالقوه سرطان ریه از رادیولوژیستها پیشی گرفت.
از 2020 تاکنون
2021: OpenAI سیستم هوش مصنوعی چندوجهی Dall-E را معرفی کرد که میتواند تصاویر را از اعلانهای متنی تولید کند.
2022: دیپ مایند «آلفاتنسور» را برای کشف الگوریتمهای جدید، کارآمد و قابل اثبات رونمایی کرد.
2022: OpenAI در ماه نوامبر چتبات ChatGPT را برای ارائه یک رابط مبتنی بر چت به مدل زبانی GPT 3.5 خود منتشر کرد.
2023: OpenAI مدل زبانی چند وجهی GPT-4 را معرفی کرد که میتواند هم از متن و هم از تصاویر ورودی دریافت کند.
2023: ایلان ماسک، استیو وزنیاک و هزاران امضاکننده دیگر خواستار توقف شش ماهه آموزش “سیستمهای هوش مصنوعی قدرتمندتر از GPT-4” شدند.
2024: انویدیا به عنوان تولیدکننده برتر تراشههای هوش مصنوعی و گرافیک، سال موفقی را پشت سر گذاشت و با اعلام مجموعهای از ارتقاءها، از جمله بلکول و ACE، که به گفته جیسون هوانگ، بنیانگذار و مدیرعامل، “تعامل با رایانهها را به اندازه تعامل با انسانها طبیعی میکند”، خبر داد. این شرکت 30 ساله به جمع شرکتهای با ارزش بازار 3 تریلیون دلاری مانند مایکروسافت و اپل پیوست.
2024: محققان دانشگاه پرینستون با همکاری آژانس پروژههای تحقیقاتی پیشرفته دفاعی ایالات متحده برای توسعه یک تراشه هوش مصنوعی فشرده و کممصرفتر که قادر به مدیریت بارهای کاری مدرن هوش مصنوعی باشد، همکاری کردند.
2024: مایکروسافت ابزاری برای پیشبینی آب و هوا به نام Aurora را راهاندازی کرد که میتواند آلودگی هوا را در سطح جهانی در کمتر از یک دقیقه پیشبینی کند.
2024: رقابت چتباتهای چند وجهی بین ChatGPT، مایکروسافت کوپایلت (بینگچت سابق) و جمینای گوگل (بارد سابق) داغ شد.
پس از سال 2024 باید انتظار چه پیشرفتهایی داشته باشیم؟
یادگیری ماشین همچنان به طور همافزایی از پیشرفتهای هوش مصنوعی مادر غولپیکر خود پشتیبانی و حمایت خواهد کرد. هوش مصنوعی مولد در کوتاهمدت و در نهایت هدف نهایی هوش مصنوعی یعنی هوش عمومی مصنوعی در بلندمدت، تقاضای بیشتری برای دانشمندان داده و متخصصان یادگیری ماشین ایجاد خواهد کرد.
رابطهای چتبات چند وجهی بالغتر و آگاهتر با LLMها میتوانند به ابزار هوش مصنوعی روزمره برای کاربران از همه اقشار تبدیل شوند تا به سرعت متن، تصویر، ویدیو، صدا و کد را تولید کنند که معمولاً تولید آن برای انسانها ساعتها، روزها یا ماهها طول میکشد.
یادگیری ماشین پیشرفتهای بیشتری در هوش مصنوعی خلاق، شرکتهای توزیعشده، بازی، سیستمهای خودمختار، هایپر اتوماسیون و امنیت سایبری ایجاد خواهد کرد. طبق گزارش MarketsandMarkets، بازار هوش مصنوعی سالانه 35 درصد رشد میکند و تا سال 2030 به بیش از 1/3 تریلیون دلار میرسد.
گارتنر تخمین میزند که بخش قابل توجهی از برنامههای تجاری هوش مصنوعی گفتگو محور را در خود جای خواهند داد و بخشی از برنامههای جدید به طور خودکار توسط هوش مصنوعی بدون دخالت انسان تولید خواهند شد. در این فرآیند، مدلهای کسبوکار و نقشهای شغلی میتوانند در یک چشم به هم زدن تغییر کنند.
انتظار میرود با فراگیرشدن یادگیری ماشین و پیچیدهتر مدلهای آن، پیشرفتهایی در فناوریهای زیر حاصل شود:
- هوش مصنوعی چند وجهی برای درک ورودیهای متنی و درک حرکات و احساسات انسان با ترکیب متن عددی، داده، تصویر و ویدیو.
- یادگیری عمیق برای حل دقیقتر مشکلات پیچیده واقعی با تشخیص الگوها در عکسها، متن، صدا و سایر دادهها و خودکارسازی کارهایی که معمولاً نیاز به هوش انسانی دارند.
- مدلهای اقدام بزرگ یا LAM برای درک و پردازش انواع مختلف ورودی داده و همچنین قصد انسان برای انجام روالهای کامل انتها به انتها.
- AutoML برای مدیریت بهتر دادهها و ساخت سریعتر مدلهای هوش مصنوعی.
- ML تعبیه شده یا TinyML برای استفاده کارآمدتر از محاسبات لبه (Edge Computing) در پردازش بلادرنگ.
- MLOps برای سادهسازی توسعه، آموزش و استقرار سیستمهای یادگیری ماشین.
- پلتفرمهای کمکد/ کدلس برای توسعه و پیادهسازی مدلهای ML بدون نیاز به برنامهنویسی گسترده یا تخصص فنی.
- یادگیری بدون نظارت برای برچسبگذاری دادهها و مهندسی ویژگی بدون دخالت انسان.
- یادگیری تقویتی برای توزیع پاداش یا جریمه به الگوریتمها بر اساس اقدامات آنها.
- NLP برای هوش مصنوعی گفتگو روانتر در تعاملات مشتری و توسعه برنامه.
- بینایی کامپیوتری برای تشخیص موثرتر مراقبتهای بهداشتی و پشتیبانی بیشتر از فناوریهای واقعیت افزوده و مجازی.
- ایجاد دوقلوهای دیجیتال برای شبیهسازی، تشخیص و توسعه در طیف گستردهای از کاربردها از سیستمهای شهر هوشمند تا بخشهای بدن انسان.
- پردازش نورومورفیک برای تقلید از سلولهای مغز انسان، امکان کار همزمان برنامههای کامپیوتری به جای اجرای ترتیبی را فراهم میکند.
- رابطهای مغز و کامپیوتر برای بازگرداندن عملکرد مفید به افراد دارای معلولیت ناشی از اختلالات عصبی عضلانی مانند ALS، فلج مغزی، سکته مغزی یا آسیب نخاعی. در میان همه این تحولات، کسبوکار و جامعه همچنان با مسائل مربوط به تعصب، اعتماد، حریم خصوصی، شفافیت، پاسخگویی، اخلاق و انسانیت مواجه خواهند شد که میتواند بر زندگی و معیشت ما تأثیر مثبت یا منفی بگذارد.