هوش مصنوعی

امروزه هوش مصنوعی یک از مهمترین و تاثیرگذارترین ابزار برای بهبود کیفیت زندگی انسان هاست و براهمیت و ارزش آن به صورت روز افزون افزوده میشود.

در دهه ۱۹۵۰، پدران این رشته، مینسکی و مک کارتی، هوش مصنوعی را به عنوان هر وظیفه ای که توسط ماشینی انجام می شود توصیف کردند که قبلاً به هوش انسان نیاز داشت.

بدیهی است که این یک تعریف نسبتاً گسترده است، به همین دلیل است که گاهی اوقات بحث هایی را در مورد اینکه آیا چیزی واقعاً هوش مصنوعی است یا خیر مشاهده می کنید.

تعاریف مدرن از معنای ایجاد هوشمندی دقیق تر است. فرانسوا شولت، محقق هوش مصنوعی در گوگل و خالق کتابخانه نرم‌افزار یادگیری ماشینی Keras، می‌گوید که هوش به توانایی سیستم برای انطباق و بداهه‌سازی در محیط جدید، تعمیم دانش و اعمال آن در سناریوهای ناآشنا گره خورده است.

“هوش کارایی است که با آن مهارت های جدیدی را در کارهایی که قبلاً برای آنها آماده نکرده اید به دست می آورید.”

“هوش به خودی خود مهارت نیست؛ آنچه شما می توانید انجام دهید نیست؛ مهم این است که چگونه می توانید چیزهای جدید را خوب و کارآمد یاد بگیرید.”

این تعریفی است که بر اساس آن سیستم‌های مجهز به هوش مصنوعی مدرن، مانند دستیارهای مجازی، به‌عنوان «هوش مصنوعی باریک» (Narrow AI) مشخص می‌شوند، توانایی تعمیم آموزش خود در هنگام انجام مجموعه‌ای محدود از وظایف، مانند تشخیص گفتار یا بینایی کامپیوتر.

به طور معمول، سیستم‌های هوش مصنوعی حداقل برخی از رفتارهای زیر مرتبط با هوش انسان را نشان می‌دهند: برنامه‌ریزی، یادگیری، استدلال، حل مسئله، بازنمایی دانش، ادراک، حرکت و دستکاری و تا حدی هوش اجتماعی و خلاقیت.

کاربردهای هوش مصنوعی چیست؟

هوش مصنوعی امروزه در همه جا وجود دارد، برای توصیه به خرید بعدی آنلاین ، برای درک آنچه که به دستیاران مجازی (مانند سیری اپل ) می گویید، مانند الکسای آمازون و سیری اپل، برای تشخیص اینکه چه کسی و چه چیزی در یک عکس است، اسپم ها یا هرزنامه را شناسایی کنید.

انواع مختلف هوش مصنوعی چیست؟

در سطح بسیار بالا، هوش مصنوعی را می توان به دو نوع کلی تقسیم کرد:

Narrow AI یا هوش مصنوعی باریک

هوش مصنوعی باریک همان چیزی است که امروزه در اطراف خود در رایانه‌ها می‌بینیم – سیستم‌های هوشمندی که آموزش داده شده یا آموخته‌اند که چگونه وظایف خاصی را بدون برنامه‌ریزی صریح انجام دهند. این نوع هوش ماشینی در تشخیص گفتار و زبان دستیار مجازی Siri در آیفون اپل، در سیستم‌های تشخیص بینایی در ماشین‌های خودران، یا در موتورهای توصیه‌ای که محصولاتی را که ممکن است بر اساس آنچه شما دوست دارید را پیشنهاد کنند، مشهود است. خرید در گذشته برخلاف انسان‌ها، این سیستم‌ها فقط می‌توانند نحوه انجام وظایف تعریف شده را بیاموزند یا به آنها آموزش داده شود، به همین دلیل است که به آنها هوش مصنوعی محدود می‌گویند.

General AI یا هوش مصنوعی عمومی

هوش مصنوعی عمومی بسیار متفاوت است و نوع عقل سازگاری است که در انسان یافت می‌شود  ، نوعی هوش انعطاف‌پذیر است که می‌تواند یاد بگیرد چگونه کارهای بسیار متفاوتی را انجام دهد، از کوتاه کردن مو گرفته تا ساختن صفحات گسترده یا استدلال در مورد موضوعات مختلف بر اساس انباشته‌شده آن و تجربه کردن.

این نوعی از هوش مصنوعی است که بیشتر در فیلم‌ها دیده می‌شود، مانند HAL در سال ۲۰۰۱ یا Skynet در The Terminator، اما امروزه وجود ندارد  و کارشناسان هوش مصنوعی به شدت در مورد اینکه چقدر زود به واقعیت تبدیل خواهد شد، اختلاف نظر دارند.

هوش مصنوعی باریک ( Narrow AI ) چه کاری می تواند انجام دهد؟

تعداد زیادی برنامه کاربردی در حال ظهور برای هوش مصنوعی محدود وجود دارد:

  • تفسیر فیدهای ویدئویی از هواپیماهای بدون سرنشین که بازرسی بصری زیرساخت‌ها را مانند خطوط لوله نفت انجام می‌دهند.
  • سازماندهی تقویم شخصی و کاری
  • پاسخ دادن به سوالات ساده خدمات مشتری
  • هماهنگی با سایر سیستم‌های هوشمند برای انجام کارهایی مانند رزرو هتل در زمان و مکان مناسب.
  • کمک به رادیولوژیست ها برای تشخیص تومورهای احتمالی در اشعه ایکس.
  • پرچم‌گذاری محتوای نامناسب آنلاین، تشخیص فرسودگی آسانسور از داده‌های جمع‌آوری‌شده توسط دستگاه‌های IoT.
  • تولید یک مدل سه بعدی از جهان با استفاده از تصاویر ماهواره ای… این فهرست ادامه دارد و ادامه دارد.

کاربردهای جدید این سیستم های آموزشی همیشه در حال ظهور هستند. طراح کارت گرافیک انویدیا اخیراً یک سیستم مبتنی بر هوش مصنوعی Maxine را معرفی کرده است که به افراد امکان می‌دهد بدون در نظر گرفتن سرعت اتصال به اینترنت، تماس‌های ویدیویی با کیفیت خوبی داشته باشند.

این سیستم پهنای باند مورد نیاز برای چنین تماس‌هایی را با انتقال ندادن جریان کامل ویدیو از طریق اینترنت و به جای متحرک کردن تعداد کمی از تصاویر ثابت تماس‌گیرنده به‌گونه‌ای که برای بازتولید حالات و حرکات چهره تماس‌گیرندگان طراحی شده است، ۱۰ برابر کاهش می‌دهد.

با این حال، به همان اندازه که این سیستم‌ها دارای پتانسیل استفاده نشده هستند، گاهی جاه‌طلبی‌ها برای این فناوری از واقعیت پیشی می‌گیرد. نمونه‌ای از آن خودروهای خودران هستند که خود توسط سیستم‌های مجهز به هوش مصنوعی مانند بینایی کامپیوتری پشتیبانی می‌شوند.

شرکت خودروهای برقی تسلا تا حدودی از جدول زمانی اصلی مدیرعامل ایلان ماسک برای ارتقای سیستم Autopilot خودرو به “خودران کامل” از قابلیت‌های محدودتر کمکی این سیستم عقب مانده است، در حالی که گزینه Full Self-Driving اخیراً در دسترس قرار گرفته است. یک گروه منتخب از درایورهای خبره به عنوان بخشی از یک برنامه آزمایش بتا هستند.

هوش مصنوعی عمومی چه کاری می تواند انجام دهد؟

نظرسنجی انجام شده بین چهار گروه از متخصصان در سال ۲۰۱۲/۲۰۱۳ توسط محققین هوش مصنوعی وینسنت سی مولر و فیلسوف نیک بوستروم، ۵۰ درصد احتمال توسعه هوش عمومی مصنوعی (AGI) را بین سال‌های ۲۰۴۰ تا ۲۰۵۰ گزارش کرد که تا سال ۲۰۷۵ به ۹۰ درصد افزایش می‌یابد.

گروه حتی فراتر رفت و پیش‌بینی کرد که به اصطلاح «فوق هوش» – که بوستروم آن را به عنوان «هر عقلی که تقریباً در همه حوزه‌های مورد علاقه از عملکرد شناختی انسان‌ها فراتر می‌رود» تعریف می‌کند – حدود ۳۰ سال پس از دستیابی به AGI انتظار می‌رفت.

با این حال، ارزیابی‌های اخیر کارشناسان هوش مصنوعی محتاطانه‌تر هستند. پیشگامان در زمینه تحقیقات هوش مصنوعی مدرن مانند جفری هینتون، دمیس حسابیس و یان لیکان می گویند که جامعه به هیچ وجه به توسعه AGI نزدیک نیست.

با توجه به شک و تردید نسبت به چراغ‌های پیشرو در زمینه هوش مصنوعی مدرن و ماهیت بسیار متفاوت سیستم‌های باریک هوش مصنوعی مدرن با AGI، شاید دلیل کمی برای ترس از اینکه هوش مصنوعی عمومی جامعه را در آینده نزدیک مختل کند وجود داشته باشد.

با این حال، برخی از کارشناسان هوش مصنوعی معتقدند با توجه به درک محدود ما از مغز انسان، چنین پیش‌بینی‌هایی بسیار خوش‌بینانه هستند و معتقدند که AGI هنوز قرن‌ها فاصله دارد.

نقاط عطف اخیر در توسعه هوش مصنوعی چیست؟

در حالی که هوش مصنوعی محدود مدرن ممکن است محدود به انجام وظایف خاص باشد، اما این سیستم‌ها گاهی اوقات قادر به عملکرد مافوق بشری هستند، در برخی موارد حتی خلاقیت برتر را نشان می‌دهند، ویژگی که اغلب به عنوان ذاتاً انسانی شناخته می‌شود.

پیشرفت‌های زیادی برای جمع‌آوری یک لیست قطعی وجود دارد، اما برخی از نکات برجسته عبارتند از:

در سال ۲۰۰۹ گوگل نشان داد تویوتا پریوس خودران خود می تواند بیش از ۱۰ سفر به طول ۱۰۰ مایل را طی کند و جامعه را در مسیری به سمت وسایل نقلیه بدون راننده قرار دهد.
در سال ۲۰۱۱، سیستم کامپیوتری IBM Watson با برنده شدن در مسابقه مسابقه آمریکایی Jeopardy!، با شکست دادن دو نفر از بهترین بازیکنانی که این برنامه تا به حال تولید کرده بود، به تیتر خبرهای جهانی تبدیل شد. برای برنده شدن در این نمایش، واتسون از پردازش و تجزیه و تحلیل زبان طبیعی بر روی مخازن وسیعی از داده ها استفاده کرد که برای پاسخ دادن به سوالات انسان، اغلب در کسری از ثانیه، پردازش می شوند.
در سال ۲۰۱۲، یک موفقیت دیگر از پتانسیل هوش مصنوعی برای مقابله با بسیاری از وظایف جدید خبر داد که قبلاً برای هر ماشینی بیش از حد پیچیده تصور می شد. در آن سال، سیستم AlexNet در چالش تشخیص بصری در مقیاس بزرگ ImageNet به طور قاطع پیروز شد. دقت الکس نت به حدی بود که میزان خطا را در مقایسه با سیستم‌های رقیب در مسابقه تشخیص تصویر به نصف کاهش داد.

عملکرد AlexNet قدرت سیستم‌های یادگیری مبتنی بر شبکه‌های عصبی را نشان داد، مدلی برای یادگیری ماشینی که برای دهه‌ها وجود داشت اما در نهایت به دلیل اصلاحات در معماری و جهش در قدرت پردازش موازی که توسط قانون مور امکان‌پذیر شده بود، پتانسیل‌های خود را محقق کرد. مهارت سیستم‌های یادگیری ماشینی در اجرای بینایی رایانه‌ای نیز در آن سال به سرفصل خبرها تبدیل شد و گوگل سیستمی را آموزش داد تا یکی از موارد مورد علاقه اینترنت را تشخیص دهد: تصاویر گربه‌ها.

نمایش بعدی کارآمدی سیستم‌های یادگیری ماشینی که توجه عموم را به خود جلب کرد، پیروزی هوش مصنوعی Google DeepMind AlphaGo در سال ۲۰۱۶ بر یک استاد بزرگ انسانی در Go بود، یک بازی چینی باستانی که پیچیدگی آن برای دهه‌ها کامپیوترها را تحت تأثیر قرار داد. Go حدود ۲۰۰ حرکت در هر نوبت ممکن است در مقایسه با حدود ۲۰ حرکت در شطرنج. در طول بازی Go، حرکات احتمالی بسیار زیادی وجود دارد که جستجو در هر یک از آنها از قبل برای شناسایی بهترین بازی از نظر محاسباتی بسیار پرهزینه است. در عوض، AlphaGo با انجام حرکاتی که توسط متخصصان انسانی در ۳۰ میلیون بازی Go انجام می‌شود و تغذیه آن‌ها در شبکه‌های عصبی عمیق‌آموز، آموزش دید چگونه بازی کند.

آموزش این شبکه‌های یادگیری عمیق می‌تواند زمان بسیار زیادی طول بکشد، و نیاز به دریافت و تکرار مقادیر زیادی داده دارد، زیرا سیستم به تدریج مدل خود را برای دستیابی به بهترین نتیجه اصلاح می‌کند.

با این حال، اخیراً، گوگل فرآیند آموزش را با AlphaGo Zero اصلاح کرده است، سیستمی که بازی‌های کاملاً تصادفی را علیه خودش انجام می‌دهد و سپس از آن یاد می‌گیرد. دمیس حسابیس، مدیر عامل گوگل دیپ مایند نیز از نسخه جدیدی از AlphaGo Zero رونمایی کرده است که در بازی های شطرنج و شوگی تسلط کامل دارد.

هوش مصنوعی همچنان به سرعت از نقاط عطف جدید می گذرد: سیستمی که توسط OpenAI آموزش داده شده است، بازیکنان برتر جهان را در مسابقات تک نفره بازی چند نفره آنلاین Dota 2 شکست داده است.

در همان سال، OpenAI عوامل هوش مصنوعی را ایجاد کرد که زبان خود را برای همکاری و رسیدن به هدف مؤثرتر اختراع کردند و به دنبال آن ماموران فیس بوک برای مذاکره و دروغگویی آموزش دادند.

سال ۲۰۲۰ سالی بود که در آن یک سیستم هوش مصنوعی ظاهراً این توانایی را به دست آورد که تقریباً در مورد هر موضوعی که فکرش را بکنید مانند یک انسان بنویسد و صحبت کند.

سیستم مورد بحث که با نام Generative Pre-trained Transformer 3 یا به اختصار GPT-3 شناخته می شود، یک شبکه عصبی است که بر روی میلیاردها مقاله انگلیسی زبان موجود در وب باز آموزش دیده است.

از زمانی که GPT-3 برای آزمایش توسط سازمان غیر انتفاعی OpenAI در دسترس قرار گرفت، اینترنت پر از توانایی GPT-3 برای تولید مقاله در مورد تقریباً هر موضوعی بود که به آن داده می شد، مقالاتی که در نگاه اول اغلب به سختی می آمدند. از آنهایی که توسط یک انسان نوشته شده است تشخیص دهید. به طور مشابه، نتایج چشمگیر در سایر زمینه ها به دنبال داشت، با توانایی آن برای پاسخ قانع کننده به سؤالات در مورد طیف گسترده ای از موضوعات و حتی برای یک کدنویس جاوا اسکریپت مبتدی.

اما در حالی که بسیاری از مقالات تولید شده توسط GPT-3 حالتی از واقعیت داشتند، آزمایشات بیشتر نشان داد که جملات تولید شده اغلب به نتیجه نمی رسند، و عبارات سطحی قابل قبول اما گیج کننده و همچنین گاهی اوقات بی معنی آشکار را ارائه می دهند.

هنوز علاقه قابل توجهی به استفاده از درک زبان طبیعی مدل در مورد اساس خدمات آینده وجود دارد. برای توسعه دهندگان منتخب برای ایجاد نرم افزار از طریق API بتای OpenAI در دسترس است. همچنین در سرویس‌های آتی که از طریق پلتفرم ابری Azure مایکروسافت در دسترس هستند، گنجانده خواهد شد.

شاید بارزترین نمونه از پتانسیل هوش مصنوعی در اواخر سال ۲۰۲۰ بود، زمانی که شبکه عصبی مبتنی بر توجه گوگل AlphaFold 2 نتیجه ای را نشان داد که برخی آن را شایسته دریافت جایزه نوبل شیمی می دانند.

توانایی سیستم برای نگاه کردن به بلوک‌های سازنده پروتئین، معروف به اسیدهای آمینه، و استخراج ساختار سه‌بعدی آن پروتئین می‌تواند عمیقاً بر سرعت درک بیماری‌ها و توسعه داروها تأثیر بگذارد. در مسابقه ارزیابی انتقادی پیش‌بینی ساختار پروتئین، AlphaFold 2 ساختار سه‌بعدی یک پروتئین را با دقت کریستالوگرافی رقیب، استاندارد طلایی برای مدل‌سازی متقاعدکننده پروتئین‌ها تعیین کرد.

برخلاف کریستالوگرافی که ماه ها طول می کشد تا نتایج را برگرداند، AlphaFold 2 می تواند پروتئین ها را در چند ساعت مدل سازی کند. با توجه به اینکه ساختار سه بعدی پروتئین ها نقش مهمی در زیست شناسی و بیماری های انسان ایفا می کند، چنین سرعت بخشی به عنوان یک پیشرفت برجسته برای علم پزشکی اعلام شده است، بدون اینکه به کاربردهای بالقوه در سایر زمینه هایی که آنزیم ها در بیوتکنولوژی استفاده می شوند اشاره کنیم.

یادگیری ماشینی چیست؟

عملاً تمام دستاوردهایی که تاکنون ذکر شد، از یادگیری ماشینی، زیرمجموعه‌ای از هوش مصنوعی که بیشترین دستاوردهای سال‌های اخیر در این زمینه را به خود اختصاص داده، سرچشمه گرفته است. هنگامی که مردم امروز در مورد هوش مصنوعی صحبت می کنند، به طور کلی در مورد یادگیری ماشین صحبت می کنند.

در حال حاضر از یک تجدید حیات لذت می بریم، به عبارت ساده، یادگیری ماشین جایی است که یک سیستم کامپیوتری به جای اینکه برنامه ریزی شود که چگونه این کار را انجام دهد، یاد می گیرد چگونه یک کار را انجام دهد. این توصیف از یادگیری ماشین به سال ۱۹۵۹ باز می گردد، زمانی که توسط آرتور ساموئل، پیشگام در این زمینه که یکی از اولین سیستم های خودآموز جهان، برنامه بازی چکرز ساموئل را توسعه داد، ابداع شد.

برای یادگیری، به این سیستم ها حجم عظیمی از داده ها داده می شود که سپس از آنها برای یادگیری نحوه انجام یک کار خاص، مانند درک گفتار یا نوشتن شرح عکس استفاده می کنند. کیفیت و اندازه این مجموعه داده برای ساختن سیستمی که بتواند وظایف تعیین شده خود را با دقت انجام دهد مهم است. به عنوان مثال، اگر در حال ساختن یک سیستم یادگیری ماشینی برای پیش‌بینی قیمت خانه بودید، داده‌های آموزشی باید بیش از اندازه ملک، بلکه سایر عوامل برجسته مانند تعداد اتاق خواب یا اندازه باغ را شامل شود.

شبکه های عصبی چیست؟

کلید موفقیت یادگیری ماشین شبکه های عصبی است. این مدل‌های ریاضی می‌توانند پارامترهای داخلی را تغییر دهند تا آنچه را که خروجی می‌دهند تغییر دهند. یک شبکه عصبی از مجموعه داده‌هایی تغذیه می‌کند که به آن می‌آموزد وقتی داده‌های خاصی در طول آموزش ارائه می‌شود، چه چیزی را باید بیرون بیاورد. به عبارت دقیق، شبکه ممکن است تصاویری در مقیاس خاکستری از اعداد بین صفر و ۹، در کنار رشته‌ای از ارقام دودویی – صفر و یک – که نشان می‌دهد کدام عدد در هر تصویر در مقیاس خاکستری نشان داده می‌شود، تغذیه شود. سپس شبکه آموزش داده می‌شود و پارامترهای داخلی خود را تنظیم می‌کند تا زمانی که تعداد نشان‌داده‌شده در هر تصویر را با درجه دقت بالایی طبقه‌بندی کند. این شبکه عصبی آموزش‌دیده می‌تواند سپس برای طبقه‌بندی تصاویر دیگر در مقیاس خاکستری از اعداد بین صفر و ۹ مورد استفاده قرار گیرد. چنین شبکه‌ای در مقاله‌ای که کاربرد شبکه‌های عصبی را نشان می‌دهد که توسط Yann LeCun در سال ۱۹۸۹ منتشر شد، مورد استفاده قرار گرفت و توسط سرویس پست ایالات متحده استفاده شد. برای شناسایی کدهای پستی دست نویس.

ساختار و عملکرد شبکه های عصبی بسیار ضعیف بر اساس ارتباطات بین نورون های مغز است. شبکه‌های عصبی از لایه‌های بهم پیوسته الگوریتم‌هایی تشکیل شده‌اند که داده‌ها را به یکدیگر تغذیه می‌کنند. آنها را می توان با تغییر اهمیتی که به داده ها در هنگام عبور از بین این لایه ها نسبت داده می شود، آموزش داد تا وظایف خاصی را انجام دهند. در طول آموزش این شبکه‌های عصبی، وزن‌های متصل به داده‌ها در حین عبور از بین لایه‌ها، تا زمانی که خروجی شبکه عصبی بسیار نزدیک به آنچه مورد نظر است، تغییر خواهد کرد. در آن نقطه، شبکه نحوه انجام یک کار خاص را “یاد گرفته است”. خروجی مورد نظر می تواند هر چیزی باشد از برچسب زدن صحیح میوه در یک تصویر گرفته تا پیش بینی زمان خرابی آسانسور بر اساس داده های حسگر آن.

زیرمجموعه‌ای از یادگیری ماشینی، یادگیری عمیق است، که در آن شبکه‌های عصبی به شبکه‌های گسترده با تعداد زیادی لایه بزرگ که با استفاده از مقادیر انبوه داده آموزش داده می‌شوند، گسترش می‌یابند. این شبکه‌های عصبی عمیق به جهش فعلی در توانایی رایانه‌ها برای انجام وظایفی مانند تشخیص گفتار و بینایی رایانه کمک کرده‌اند.

انواع مختلفی از شبکه های عصبی با نقاط قوت و ضعف مختلف وجود دارد. شبکه‌های عصبی تکراری (RNN) نوعی شبکه عصبی هستند که به‌خوبی برای پردازش زبان طبیعی (NLP) – درک معنای متن – و تشخیص گفتار مناسب هستند، در حالی که شبکه‌های عصبی کانولوشن ریشه در تشخیص تصویر دارند و کاربردهای متنوعی دارند. به عنوان سیستم های توصیه گر و ان ال پی. طراحی شبکه‌های عصبی نیز در حال تکامل است و محققان شکل مؤثرتری از شبکه عصبی عمیق به نام حافظه کوتاه‌مدت بلند مدت یا LSTM را اصلاح کردند – نوعی معماری RNN که برای کارهایی مانند NLP و برای پیش‌بینی بازار سهام استفاده می‌شود. به اندازه کافی سریع کار می کند تا در سیستم های درخواستی مانند Google Translate مورد استفاده قرار گیرد.

انواع دیگر هوش مصنوعی چیست؟

همانطور که در بالا ذکر شد، بزرگ‌ترین پیشرفت‌ها برای تحقیقات هوش مصنوعی در سال‌های اخیر در زمینه یادگیری ماشینی، به‌ویژه در حوزه یادگیری عمیق بوده است.

این امر تا حدی ناشی از دسترسی آسان داده‌ها بوده است، اما حتی بیشتر از آن به دلیل انفجار در قدرت محاسباتی موازی، که طی آن زمان استفاده از خوشه‌های واحدهای پردازش گرافیکی (GPU) برای آموزش سیستم‌های یادگیری ماشینی رایج‌تر شده است.

این خوشه‌ها نه تنها سیستم‌های بسیار قوی‌تری را برای آموزش مدل‌های یادگیری ماشینی ارائه می‌دهند، بلکه اکنون به‌طور گسترده به‌عنوان سرویس‌های ابری از طریق اینترنت در دسترس هستند. با گذشت زمان، شرکت‌های بزرگ فناوری، مانند گوگل، مایکروسافت و تسلا، به سمت استفاده از تراشه‌های تخصصی متناسب با مدل‌های در حال اجرا و اخیراً آموزشی، روی آورده‌اند.

نمونه‌ای از یکی از این تراشه‌های سفارشی، واحد پردازش تنسور (TPU) گوگل است، که آخرین نسخه آن سرعتی را که مدل‌های یادگیری ماشینی مفید ساخته شده با استفاده از کتابخانه نرم‌افزار TensorFlow Google می‌توانند اطلاعات را از داده‌ها استنتاج کنند، تسریع می‌کند و می توان آنها را آموزش داد.

این تراشه‌ها برای آموزش مدل‌هایی برای DeepMind و Google Brain و مدل‌هایی که زیربنای Google Translate و تشخیص تصویر در Google Photos و سرویس‌هایی هستند استفاده می‌شوند که به عموم مردم امکان می‌دهد با استفاده از TensorFlow Research Cloud Google مدل‌های یادگیری ماشینی بسازند. نسل سوم این تراشه‌ها در کنفرانس I/O گوگل در ماه مه ۲۰۱۸ رونمایی شد و از آن زمان در نیروگاه‌های یادگیری ماشینی به نام پادها بسته‌بندی شده‌اند که می‌توانند بیش از صد هزار تریلیون عملیات ممیز شناور در ثانیه (۱۰۰ پتافلاپ) انجام دهند. به‌روزرسانی‌های مداوم TPU به Google اجازه می‌دهد تا خدمات خود را که بر پایه مدل‌های یادگیری ماشینی ساخته شده‌اند، بهبود بخشد، به‌عنوان مثال، زمان صرف شده برای آموزش مدل‌های استفاده‌شده در Google Translate را به نصف کاهش دهد.

عناصر یادگیری ماشینی چیست؟

همانطور که گفته شد، یادگیری ماشینی زیرمجموعه ای از هوش مصنوعی است و به طور کلی به دو دسته اصلی تقسیم می شود: یادگیری نظارت شده و بدون نظارت.

یادگیری تحت نظارت

یک تکنیک رایج برای آموزش سیستم‌های هوش مصنوعی آموزش آن‌ها با استفاده از نمونه‌های برچسب‌گذاری‌شده متعدد است. این سیستم‌های یادگیری ماشینی مقادیر زیادی از داده‌ها را تغذیه می‌کنند که برای برجسته کردن ویژگی‌های مورد علاقه، حاشیه‌نویسی شده است. اینها ممکن است عکس‌هایی باشند که نشان می‌دهند آیا حاوی یک سگ هستند یا جملات نوشته‌شده‌ای که دارای پاورقی برای نشان دادن اینکه کلمه «باس» به موسیقی یا ماهی مربوط می‌شود، برچسب‌گذاری شده است. پس از آموزش، سیستم می‌تواند این برچسب‌ها را روی داده‌های جدید، به عنوان مثال، روی یک سگ در عکسی که به‌تازگی آپلود شده است، اعمال کند.
به این فرآیند آموزش ماشین با استفاده از مثال، یادگیری نظارت شده می گویند. برچسب زدن این نمونه‌ها معمولاً توسط کارگران آنلاینی که از طریق پلتفرم‌هایی مانند Amazon Mechanical Turk به کار می‌روند انجام می‌شود.

آموزش این سیستم‌ها معمولاً به حجم وسیعی از داده‌ها نیاز دارد، برخی از سیستم‌ها باید میلیون‌ها مثال را جستجو کنند تا یاد بگیرند چگونه یک کار را به طور درست با ضریب خطای پایین انجام دهند ، اگرچه این امر در عصر داده‌های بزرگ و داده‌کاوی گسترده به طور فزاینده‌ای امکان‌پذیر است اما خب سختی های خاص خودش راهم دارد. مجموعه داده‌های آموزشی بسیار بزرگ هستند و اندازه آنها در حال افزایش است.

جالب است بدانید که مجموعه داده‌های Open Images Google حدود نه میلیون تصویر دارد، در حالی که مخزن ویدیوی برچسب‌گذاری شده YouTube-8M به هفت میلیون ویدیوی برچسب‌گذاری شده پیوند دارد. ImageNet، یکی از پایگاه داده های اولیه از این نوع، بیش از ۱۴ میلیون تصویر طبقه بندی شده دارد. که طی دو سال گردآوری شد، نزدیک به ۵۰۰۰۰ نفر  که بیشتر آنها از طریق آمازون مکانیکال ترک استخدام شده بودند محتوا گردآوری شد و تقریباً یک میلیارد عکس منتخب را بررسی، مرتب کردند و برچسب زدند.

دسترسی به مجموعه داده‌های بزرگ برچسب‌گذاری شده نیز ممکن است در درازمدت اهمیت کمتری نسبت به دسترسی به مقادیر زیاد با توان محاسباتی بالا داشته باشد.

در سال‌های اخیر، شبکه‌های متخاصم مولد (GAN) در سیستم‌های یادگیری ماشینی مورد استفاده قرار گرفته‌اند که فقط به مقدار کمی از داده‌های برچسب‌گذاری‌شده در کنار مقدار زیادی داده بدون برچسب نیاز دارند، که همانطور که از نام آن پیداست، برای آماده‌سازی به کار دستی کمتری نیاز است.

این رویکرد می‌تواند به افزایش استفاده از یادگیری نیمه‌نظارت‌شده اجازه دهد، جایی که سیستم‌ها می‌توانند نحوه انجام وظایف را با استفاده از مقدار بسیار کمتری از داده‌های برچسب‌گذاری شده نسبت به آنچه برای سیستم‌های آموزشی با استفاده از یادگیری نظارت شده امروزی ضروری است، یاد بگیرند.

یادگیری بدون نظارت

در مقابل، یادگیری بدون نظارت از رویکرد متفاوتی استفاده می‌کند، جایی که الگوریتم‌ها سعی می‌کنند الگوهای موجود در داده‌ها را شناسایی کنند، و به دنبال شباهت‌هایی هستند که می‌توانند برای دسته‌بندی آن داده‌ها استفاده شوند.

به عنوان مثال می توان میوه هایی با وزن مشابه یا خودروهایی با اندازه موتور مشابه را در کنار هم قرار داد.

الگوریتم از قبل تنظیم نشده است تا انواع خاصی از داده ها را انتخاب کند. به‌سادگی به دنبال داده‌هایی می‌گردد که شباهت‌های آن می‌تواند گروه‌بندی شود، به‌عنوان مثال، Google News هر روز داستان‌هایی را در مورد موضوعات مشابه گروه‌بندی می‌کند.

یادگیری تقویتی

یک تشبیه مناسب برای یادگیری تقویتی، پاداش دادن به حیوان خانگی با یک ترفند است. در یادگیری تقویتی، سیستم تلاش می‌کند تا بر اساس داده‌های ورودی خود، پاداش را به حداکثر برساند و اساساً تا زمانی که به بهترین نتیجه ممکن برسد، فرآیند آزمون و خطا را پشت سر می‌گذارد.

نمونه ای از یادگیری تقویتی، شبکه Deep Q گوگل دیپ مایند است که برای بهترین عملکرد انسان در انواع بازی های ویدئویی کلاسیک استفاده شده است. این سیستم پیکسل های هر بازی را تغذیه می کند و اطلاعات مختلفی مانند فاصله بین اشیاء روی صفحه نمایش را تعیین می کند.

با مشاهده امتیاز به دست آمده در هر بازی، سیستم مدلی را ایجاد می کند که عملکرد آن امتیاز را در شرایط مختلف به حداکثر می رساند، به عنوان مثال، در مورد بازی ویدیویی Breakout، جایی که پارو باید به منظور رهگیری به آن جابجا شود.

این رویکرد همچنین در تحقیقات رباتیک استفاده می‌شود، جایی که یادگیری تقویتی می‌تواند به آموزش روش‌های بهینه برای رفتار در محیط‌های دنیای واقعی به روبات‌های مستقل کمک کند.

امکان ارسال دیدگاه وجود ندارد.