Web Analytics Made Easy - Statcounter

تاریخچه یادگیری ماشین (Machine Learning)

یادگیری ماشین - ماشین لرنینگ - Machine Learning

بسیاری از افراد، یادگیری ماشین را فرزندخوانده‌ی هوش مصنوعی، دستیار آن یا دوقلوی کمتر شناخته شده‌اش می‌دانند. هرچند نام یادگیری ماشین، آن شهرت و اعتبار هوش مصنوعی را ندارد؛ اما اکنون تقریباً هر جنبه‌ای از زندگی ما تحت تأثیر این فناوری و دستاوردهای آن قرار دارد.

در این مقاله از آی تی جو قصد داریم به تاریخچه این فناوری سرنوشت‌ساز بپردازیم. هشت دهه پیش جرقه‌ی این علم در ذهن دانشمندان علوم اعصاب، والتر پیتز (Walter Pitts) و وارن مک‌کالاک (Warren McCulloch) پیش زده شد. مدل‌سازی ریاضی این دو نفر از یک شبکه عصبی در سال ۱۹۴۳، سال تولد توافق‌شده‌ی یادگیری ماشینی محسوب می‌شود.

یادگیری ماشین چیست؟

یادگیری ماشین شاخه‌ای از هوش مصنوعی است که به کامپیوترها اجازه می‌دهد بدون برنامه‌نویسی صریح، از روی داده‌ها یاد بگیرند و پیش‌بینی کنند. به عبارت ساده‌تر، یادگیری ماشین به کامپیوترها این توانایی را می‌دهد که الگوها را در داده‌ها شناسایی کرده و بر اساس آن‌ها تصمیم‌گیری کنند.

از برخی جهات، یادگیری ماشین ممکن است به نوعی مانند یک عروسک‌گردان برای هوش مصنوعی به شمار آید. بخش زیادی از آنچه امروز هوش مصنوعی مولد را پیش می‌برد، از یادگیری ماشین در قالب مدل‌های زبان بزرگ (LLM) به دست می‌آید. یادگیری ماشین با این مدل‌ها حجم عظیمی از داده‌های ورودی را تجزیه و تحلیل می‌کند تا الگوهای کلمات و عبارات را کشف کند.

بسیاری از کاربردهای بی‌سابقه هوش مصنوعی در کسب‌وکار و جامعه توسط قابلیت‌های گسترده یادگیری ماشین پشتیبانی می‌شوند، از این قبیل می‌توان به تجزیه و تحلیل اینستاگرام، ارزیابی ریسک، پیش‌بینی خرابی، مسیریابی جاده‌ها یا خنثی‌سازی حملات سایبری اشاره کرد. امروزه یادگیری ماشین بر عملیات تجاری روزانه اکثر صنایع از جمله تجارت الکترونیک، تولید، مالی، بیمه و داروسازی تأثیر می‌گذارد.

سیر تکاملی و تاریخچه یادگیری ماشین

از دهه ۱۹۴۰، یادگیری ماشین سال به سال پیشرفت کرد و به جایی رسید که امروز باارزش‌ترین شرکت‌های جهان از جمله مایکروسافت، اپل، گوگل و متا مبالغ هنگفتی را در این زمینه سرمایه‌گذاری می‌کنند:

  • در دهه ۱۹۵۰، پیشگامانی چون تورینگ، ساموئل، مک‌کارتی، مینسکی، ادمانز و نیول، چشم‌انداز یادگیری ماشین را شکل دادند. در این دوره، آزمون تورینگ، اولین شبکه عصبی مصنوعی و اصطلاحات هوش مصنوعی و یادگیری ماشین مطرح شدند.
  • در دهه ۱۹۶۰، الیزای (Eliza) اولین چت‌بات، شکی (Shakey) اولین ربات هوشمند متحرک، استنفورد کارت (Stanford Cart) یک وسیله نقلیه کنترل از راه دور ویدیویی و پایه‌های علم یادگیری عمیق (Deep Learning) توسعه یافتند.
  • در دهه‌های ۱۹۷۰ و ۱۹۸۰، برنامه‌هایی که الگوها و کاراکترهای دست‌نوشته را تشخیص می‌دادند، مشکلات را بر اساس انتخاب طبیعی حل می‌کردند، اقدامات مناسب را جستجو می‌کردند، قوانینی برای حذف اطلاعات غیرضروری ایجاد می‌کردند و مانند یک کودک یاد می‌گرفتند که کلمات را تلفظ کند، برجسته شدند.
  • در دهه ۱۹۹۰، برنامه‌هایی با قابلیت بازی تخته‌نرد و شطرنج، برترین بازیکنان جهان را به چالش کشیدند.
  • در قرن بیست و یکم و دهه‌های ۲۰۰۰ و ۲۰۱۰، دستیارهای شخصی، شبکه‌های مولد متقابل، تشخیص چهره، دیپ‌فیک، سنسورهای حرکتی، خودروهای خودران و ایجاد محتوا و تصویر از طریق ابزارهای هوش مصنوعی مولد ظهور کردند.

دهه 1940 تا 1950

1943: والتر پیتز منطق‌دان و وارن مک‌کالو عصب‌شناس، اولین مدل ریاضی از یک شبکه عصبی را برای ایجاد الگوریتم‌هایی که از فرآیندهای تفکر انسانی تقلید می‌کنند، منتشر کردند.

1949: دونالد هب کتاب «سازماندهی رفتار: یک نظریه نوروپسیکولوژیکی» را منتشر کرد که کتابی بنیادی در توسعه یادگیری ماشین با تمرکز بر چگونگی ارتباط رفتار و تفکر از نظر فعالیت مغز با شبکه‌های عصبی است.

1950: آلن تورینگ کتاب «ماشین‌حساب و هوش» را منتشر کرد که آزمون تورینگ را معرفی کرد و درب‌های علمی که بعدها به هوش مصنوعی معروف شد را گشود.

1951: ماروین مینسکی و دین ادمانز، اولین شبکه عصبی مصنوعی (ANN) را با استفاده از 3000 لامپ برای شبیه‌سازی شبکه‌ای از 40 نورون توسعه دادند.

1952: آرتور ساموئل برنامه بازی چکرز ساموئل را ایجاد کرد که اولین برنامه خودآموز جهان برای بازی کردن بود.

دهه 1950 تا 1960

1956: جان مک‌کارتی، ماروین مینسکی، ناتانیل راچستر و کلود شانون اصطلاح هوش مصنوعی را در پیشنهادی برای یک کارگاه که به عنوان رویداد بنیادی در زمینه هوش مصنوعی شناخته می‌شود، ابداع کردند.

1956: آلن نیول، هربرت سایمون و کلیف شا، «نظریه منطق» را نوشتند که اولین برنامه هوش مصنوعی بود که عمداً برای انجام استدلال خودکار طراحی شده بود.

1958: فرانک روزنبلات پرسپترون را توسعه داد، یک ANN اولیه که می‌توانست از داده‌ها یاد بگیرد و پایه و اساس شبکه‌های عصبی مدرن شد.

1959: آرتور ساموئل اصطلاح یادگیری ماشین را در یک مقاله بنیادی ابداع کرد که توضیح می‌داد کامپیوتر را می‌توان برنامه‌ریزی کرد تا از برنامه‌نویس خود بهتر عمل کند.

1960: جیمز آدامز، دانشجوی کارشناسی ارشد مهندسی مکانیک، استنفورد کارت را برای حمایت از تحقیقات خود در مورد مشکل کنترل یک وسیله نقلیه از راه دور با استفاده از اطلاعات ویدیویی ساخت.

دهه 1960 تا 1970

1963: دونالد میچی برنامه‌ای به نام MENACE یا Matchbox Educable Noughts and Crosses Engine را توسعه داد که یاد گرفت چگونه یک بازی دوز را اجرا کند.

1965: ادوارد فایگن‌باوم، بروس جی بوکانان، جوشوا لدربرگ و کارل دجراسی، DENDRAL را توسعه دادند که اولین سیستم خبره بود و به شیمی‌دانان آلی در شناسایی مولکول‌های آلی ناشناخته کمک می‌کرد.

1966: جوزف ویزنبوم برنامه کامپیوتری الیزای ایجاد کرد که قادر به برقراری مکالمه با انسان‌ها و وادار کردن آن‌ها به باور داشتن اینکه نرم‌افزار دارای احساسات انسانی است، بود.

1966: موسسه تحقیقاتی استنفورد، ربات شکی (Shakey) را توسعه داد که اولین ربات هوشمند متحرک جهان بود که هوش مصنوعی، بینایی کامپیوتری، قابلیت ناوبری و پردازش زبان طبیعی (NLP) را ترکیب می‌کرد. این ربات به عنوان پدربزرگ خودروهای خودران و پهپادها شناخته شد.

دهه 1960 تا 1970

1967: الگوریتم نزدیک‌ترین همسایه به کامپیوترها توانایی تشخیص الگوهای اولیه را داد و توسط فروشندگان دوره‌گرد برای برنامه‌ریزی کارآمدترین مسیرها از طریق نزدیک‌ترین شهرها استفاده شد.

1969: آرتور بریسون و یو-چی هو الگوریتم یادگیری پس انتشار را برای فعال کردن ANNهای چند لایه توصیف کردند که پیشرفتی نسبت به پرسپترون و پایه ای برای یادگیری عمیق بود.

1969: ماروین مینسکی و سیمور پاپرت کتاب پرسپترون‌ها را منتشر کردند که محدودیت‌های شبکه‌های عصبی ساده را توصیف می‌کرد و باعث کاهش تحقیقات شبکه عصبی و رونق تحقیقات هوش مصنوعی نمادین شد.

دهه 1970 تا 1980

1973: جیمز لایت‌هیل گزارش «هوش مصنوعی: یک بررسی کلی» را منتشر کرد که منجر به کاهش قابل توجه حمایت دولت بریتانیا از تحقیقات هوش مصنوعی شد.

1979: کونی‌هیکو فوکوشیما کار خود را بر روی نئوکوگنیترون، یک ANN سلسله مراتبی و چند لایه برای وظایف تشخیص الگو منتشر کرد.

1981: جرالد دجونگ یادگیری مبتنی بر توضیح را معرفی کرد که در آن کامپیوتر یاد می‌گرفت داده‌های آموزشی را تجزیه و تحلیل کند و یک قانون کلی برای حذف اطلاعات بی‌اهمیت ایجاد کند.

1985: تری سجناوسکی برنامه‌ای به نام NetTalk ایجاد کرد که یاد گرفت کلمات را مانند یک کودک یاد بگیرد.

دهه 1980 تا 1990

1989: یان لوکان، یوشوا بنجیو و پاتریک هافنر نشان دادند که چگونه می‌توان از شبکه‌های عصبی کانولوشن (CNN) برای تشخیص کاراکترهای دست‌نوشته استفاده کرد و نشان داد که شبکه‌های عصبی می‌توانند برای مشکلات دنیای واقعی اعمال شوند.

1989: کریستوفر واتکینز Q-learning را توسعه داد، یک الگوریتم تقویت بدون مدل که به دنبال بهترین اقدام برای انجام در هر حالت فعلی بود.

1989: Axcelis اولین بسته نرم‌افزاری الگوریتم ژنتیک تجاری برای رایانه‌های شخصی به نام Evolver را منتشر کرد.

دهه 1990 تا 2000

1992: جرالد تسارو TD-Gammon را اختراع کرد، برنامه‌ای قادر به بازی بک‌گمون بر اساس یک ANN که با بازیکنان برتر بک‌گمون رقابت می‌کرد.

1998: تیمی به رهبری یان لوکان مجموعه داده‌ای به نام پایگاه داده MNIST یا پایگاه داده اصلاح‌شده موسسه ملی استانداردها و فناوری را منتشر کرد که به طور گسترده به عنوان یک معیار ارزیابی تشخیص دست‌نوشته پذیرفته شد.

2000: محققان دانشگاه مونترال “یک مدل زبانی احتمالی عصبی” را منتشر کردند که روشی را برای مدل‌سازی زبان با استفاده از شبکه‌های عصبی پیش‌رو پیشنهاد کرد.

دهه 2000 تا 2010

2002: Torch، اولین کتابخانه یادگیری ماشین منبع باز منتشر شد که رابط‌هایی برای الگوریتم‌های یادگیری عمیق پیاده‌سازی شده در C ارائه می‌داد.

2006: جفری هینتون، روان‌شناس و دانشمند کامپیوتر، اصطلاح یادگیری عمیق را برای توصیف الگوریتم‌هایی ابداع کرد که به کامپیوترها کمک می‌کند تا انواع مختلف اشیاء و کاراکترهای متنی را در تصاویر و ویدیوها تشخیص دهند.

2006: فی‌فی لی شروع به کار روی پایگاه داده بصری ImageNet کرد که در سال 2009 معرفی شد. این پایگاه داده به کاتالیزوری برای رونق هوش مصنوعی و اساس یک رقابت سالانه برای الگوریتم‌های تشخیص تصویر تبدیل شد.

2006: نتفلیکس مسابقه جایزه نتفلیکس را با هدف ایجاد یک الگوریتم یادگیری ماشین دقیق‌تر از نرم‌افزار توصیه کاربر اختصاصی نتفلیکس راه‌اندازی کرد.

2006: واتسون IBM با هدف اولیه شکست دادن یک انسان در مسابقه کوییز جئپاردی! آغاز به کار کرد.

دهه 2010 تا 2020

2010: مایکروسافت دستگاه ورودی سنسور حرکتی کینکت (Kinect) را برای کنسول بازی ایکس باکس ۳۶۰ منتشر کرد که می‌توانست 20 ویژگی حرکتی مختلف انسان را 30 بار در ثانیه ردیابی کند.

2010: آنتونی گلدبلوم و بن هامر پلتفرم Kaggle را برای مسابقات یادگیری ماشین راه‌اندازی کردند.

2011: یورگن شمیدهوبر، دان کلاودیو سیراسان، اولی مایر و جاناتان ماسکی اولین CNN را برای دستیابی به عملکرد «فرا انسانی» با برنده شدن در رقابت تشخیص علائم ترافیکی آلمان توسعه دادند.

2011: ابررایانه واتسون IBM توانست کن جنینگز، قهرمان تمام دوران مسابقه تلویزیونی جئوپاردی (Jeopardy!) را شکست دهد.

2012: جفری هینتون، ایلیا سوتسکیور و الکس کریژفسکی یک معماری CNN عمیق را معرفی کردند که چالش تشخیص بصری مقیاس بزرگ ImageNet را برنده شد و انفجار تحقیقات و اجرای یادگیری عمیق را آغاز کرد.

2013: شرکت DeepMind یادگیری تقویتی عمیق را معرفی کرد، یک CNN که بر اساس پاداش‌ها یاد می‌گرفت و با تکرار بازی‌ها به سطح متخصصان انسانی دست می‌یافت.

2014: یان گودفلو و همکارانش شبکه‌های مولد تخاصمی را اختراع کردند که نوعی از چارچوب‌های یادگیری ماشینی هستند که برای تولید عکس، تغییر تصاویر و ایجاد دیپ‌فیک‌ها استفاده می‌شوند.

2014: گوگل پروژه یادگیری ماشین بزرگ مقیاس سیبیل را برای توصیه‌های پیش‌بینی‌کننده کاربر رونمایی کرد.

2014: دیدریک کینگما و مکس ولینگ اتوکدهای واریاسیونی را برای تولید تصاویر، ویدیوها و متن معرفی کردند.

2014: فیسبوک دیپ‌فیس را توسعه داد، یک سیستم تشخیص چهره مبتنی بر یادگیری عمیق که می‌تواند چهره‌های انسان را در تصاویر دیجیتال با دقت نزدیک به انسان شناسایی کند.

2016: اوبر برنامه آزمایشی خودروهای خودران را در پیتسبورگ برای گروهی از کاربران منتخب آغاز کرد.

2017: محققان گوگل مفهوم تبدیل‌کننده‌ها را در مقاله تأثیرگذار «توجه همه چیزی است که نیاز دارید» توسعه دادند که تحقیقات بعدی در مورد ابزارهایی را که می‌توانند به طور خودکار متن بدون برچسب را به مدل‌های زبانی بزرگ (LLM) تبدیل کنند، الهام بخشید.

2018: شرکت OpenAI مدل زبانی GPT را منتشر کرد که راه را برای LLM‌های بعدی هموار کرد.

2019: مایکروسافت مدل زبانی مولد تورینگ با 17 میلیارد پارامتر را راه‌اندازی کرد.

2019: الگوریتم یادگیری عمیق گوگل AI و مرکز پزشکی لانگون در تشخیص بالقوه سرطان ریه از رادیولوژیست‌ها پیشی گرفت.

از 2020 تاکنون

2021: OpenAI سیستم هوش مصنوعی چندوجهی Dall-E را معرفی کرد که می‌تواند تصاویر را از اعلان‌های متنی تولید کند.

2022: دیپ مایند «آلفاتنسور» را برای کشف الگوریتم‌های جدید، کارآمد و قابل اثبات رونمایی کرد.

2022: OpenAI در ماه نوامبر چت‌بات ChatGPT را برای ارائه یک رابط مبتنی بر چت به مدل زبانی GPT 3.5 خود منتشر کرد.

2023: OpenAI مدل زبانی چند وجهی GPT-4 را معرفی کرد که می‌تواند هم از متن و هم از تصاویر ورودی دریافت کند.

2023: ایلان ماسک، استیو وزنیاک و هزاران امضاکننده دیگر خواستار توقف شش ماهه آموزش “سیستم‌های هوش مصنوعی قدرتمندتر از GPT-4” شدند.

2024: انویدیا به عنوان تولیدکننده برتر تراشه‌های هوش مصنوعی و گرافیک، سال موفقی را پشت سر گذاشت و با اعلام مجموعه‌ای از ارتقاءها، از جمله بلک‌ول و ACE، که به گفته جیسون هوانگ، بنیانگذار و مدیرعامل، “تعامل با رایانه‌ها را به اندازه تعامل با انسان‌ها طبیعی می‌کند”، خبر داد. این شرکت 30 ساله به جمع شرکت‌های با ارزش بازار 3 تریلیون دلاری مانند مایکروسافت و اپل پیوست.

2024: محققان دانشگاه پرینستون با همکاری آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی ایالات متحده برای توسعه یک تراشه هوش مصنوعی فشرده و کم‌مصرف‌تر که قادر به مدیریت بارهای کاری مدرن هوش مصنوعی باشد، همکاری کردند.

2024: مایکروسافت ابزاری برای پیش‌بینی آب و هوا به نام Aurora را راه‌اندازی کرد که می‌تواند آلودگی هوا را در سطح جهانی در کمتر از یک دقیقه پیش‌بینی کند.

2024: رقابت چت‌بات‌های چند وجهی بین ChatGPT، مایکروسافت کوپایلت (بینگ‌چت سابق) و جمینای گوگل (بارد سابق) داغ شد.

پس از سال 2024 باید انتظار چه پیشرفت‌هایی داشته باشیم؟

یادگیری ماشین همچنان به طور هم‌افزایی از پیشرفت‌های هوش مصنوعی مادر غول‌پیکر خود پشتیبانی و حمایت خواهد کرد. هوش مصنوعی مولد در کوتاه‌مدت و در نهایت هدف نهایی هوش مصنوعی یعنی هوش عمومی مصنوعی در بلندمدت، تقاضای بیشتری برای دانشمندان داده و متخصصان یادگیری ماشین ایجاد خواهد کرد.

رابط‌های چت‌بات چند وجهی بالغ‌تر و آگاه‌تر با LLM‌ها می‌توانند به ابزار هوش مصنوعی روزمره برای کاربران از همه اقشار تبدیل شوند تا به سرعت متن، تصویر، ویدیو، صدا و کد را تولید کنند که معمولاً تولید آن برای انسان‌ها ساعت‌ها، روزها یا ماه‌ها طول می‌کشد.

یادگیری ماشین پیشرفت‌های بیشتری در هوش مصنوعی خلاق، شرکت‌های توزیع‌شده، بازی، سیستم‌های خودمختار، هایپر اتوماسیون و امنیت سایبری ایجاد خواهد کرد. طبق گزارش MarketsandMarkets، بازار هوش مصنوعی سالانه 35 درصد رشد می‌کند و تا سال 2030 به بیش از 1/3 تریلیون دلار می‌رسد.

گارتنر تخمین می‌زند که بخش قابل توجهی از برنامه‌های تجاری هوش مصنوعی گفتگو محور را در خود جای خواهند داد و بخشی از برنامه‌های جدید به طور خودکار توسط هوش مصنوعی بدون دخالت انسان تولید خواهند شد. در این فرآیند، مدل‌های کسب‌وکار و نقش‌های شغلی می‌توانند در یک چشم به هم زدن تغییر کنند.

انتظار می‌رود با فراگیرشدن یادگیری ماشین و پیچیده‌تر مدل‌های آن، پیشرفت‌هایی در فناوری‌های زیر حاصل شود:

  • هوش مصنوعی چند وجهی برای درک ورودی‌های متنی و درک حرکات و احساسات انسان با ترکیب متن عددی، داده، تصویر و ویدیو.
  • یادگیری عمیق برای حل دقیق‌تر مشکلات پیچیده واقعی با تشخیص الگوها در عکس‌ها، متن، صدا و سایر داده‌ها و خودکارسازی کارهایی که معمولاً نیاز به هوش انسانی دارند.
  • مدل‌های اقدام بزرگ یا LAM برای درک و پردازش انواع مختلف ورودی داده و همچنین قصد انسان برای انجام روال‌های کامل انتها به انتها.
  • AutoML برای مدیریت بهتر داده‌ها و ساخت سریع‌تر مدل‌های هوش مصنوعی.
  • ML تعبیه شده یا TinyML برای استفاده کارآمدتر از محاسبات لبه (Edge Computing) در پردازش بلادرنگ.
  • MLOps برای ساده‌سازی توسعه، آموزش و استقرار سیستم‌های یادگیری ماشین.
  • پلتفرم‌های کم‌کد/ کدلس برای توسعه و پیاده‌سازی مدل‌های ML بدون نیاز به برنامه‌نویسی گسترده یا تخصص فنی.
  • یادگیری بدون نظارت برای برچسب‌گذاری داده‌ها و مهندسی ویژگی بدون دخالت انسان.
  • یادگیری تقویتی برای توزیع پاداش یا جریمه به الگوریتم‌ها بر اساس اقدامات آن‌ها.
  • NLP برای هوش مصنوعی گفتگو روان‌تر در تعاملات مشتری و توسعه برنامه.
  • بینایی کامپیوتری برای تشخیص موثرتر مراقبت‌های بهداشتی و پشتیبانی بیشتر از فناوری‌های واقعیت افزوده و مجازی.
  • ایجاد دوقلوهای دیجیتال برای شبیه‌سازی، تشخیص و توسعه در طیف گسترده‌ای از کاربردها از سیستم‌های شهر هوشمند تا بخش‌های بدن انسان.
  • پردازش نورومورفیک برای تقلید از سلول‌های مغز انسان، امکان کار همزمان برنامه‌های کامپیوتری به جای اجرای ترتیبی را فراهم می‌کند.
  • رابط‌های مغز و کامپیوتر برای بازگرداندن عملکرد مفید به افراد دارای معلولیت ناشی از اختلالات عصبی عضلانی مانند ALS، فلج مغزی، سکته مغزی یا آسیب نخاعی. در میان همه این تحولات، کسب‌وکار و جامعه همچنان با مسائل مربوط به تعصب، اعتماد، حریم خصوصی، شفافیت، پاسخگویی، اخلاق و انسانیت مواجه خواهند شد که می‌تواند بر زندگی و معیشت ما تأثیر مثبت یا منفی بگذارد.