عملاً تمام دستاوردهایی که تاکنون ذکر شد، از یادگیری ماشینی، زیرمجموعهای از هوش مصنوعی که اکثریت عظیمی از دستاوردهای این حوزه در سالهای اخیر را به خود اختصاص میدهد، سرچشمه میگیرد. وقتی امروزه مردم در مورد هوش مصنوعی صحبت می کنند، عموماً در مورد یادگیری ماشین صحبت می کنند.
در حال حاضر لذت بردن از چیزی شبیه تجدید حیات، به عبارت ساده، یادگیری ماشین جایی است که یک سیستم کامپیوتری به جای اینکه برنامه ریزی شود که چگونه آن کار را انجام دهد، یاد می گیرد که چگونه یک کار را انجام دهد. این توصیف از یادگیری ماشین به سال 1959 باز می گردد، زمانی که توسط آرتور ساموئل، پیشگام در این زمینه که یکی از اولین سیستم های خودآموز جهان، برنامه بازی چکرز ساموئل را توسعه داد، ابداع شد.
برای یادگیری، به این سیستم ها حجم عظیمی از داده ها داده می شود که سپس از آنها برای یادگیری نحوه انجام یک کار خاص مانند درک گفتار یا نوشتن شرح عکس استفاده می کنند. کیفیت و اندازه این مجموعه داده برای ساختن سیستمی که بتواند وظیفه تعیین شده خود را با دقت انجام دهد، مهم است. برای مثال، اگر در حال ساختن یک سیستم یادگیری ماشینی برای پیشبینی قیمت خانه بودید، دادههای آموزشی باید بیش از اندازه ملک، بلکه سایر عوامل برجسته مانند تعداد اتاق خواب یا اندازه باغ را شامل شود.
کلید موفقیت یادگیری ماشین شبکه های عصبی است. این مدلهای ریاضی میتوانند پارامترهای داخلی را تغییر دهند تا خروجیشان را تغییر دهند. یک شبکه عصبی از مجموعه دادههایی تغذیه میکند که به آن میآموزد وقتی دادههای خاصی در طول آموزش ارائه میشود، چه چیزی را باید بیرون بیاورد. به عبارت دقیق، شبکه ممکن است تصاویری در مقیاس خاکستری از اعداد بین صفر و 9، در کنار رشتهای از ارقام دودویی - صفر و یک - تغذیه شود که نشان میدهد کدام عدد در هر تصویر مقیاس خاکستری نشان داده شده است. سپس شبکه آموزش داده می شود و پارامترهای داخلی خود را تنظیم می کند تا زمانی که عدد نشان داده شده در هر تصویر را با درجه بالایی از دقت طبقه بندی کند. این شبکه عصبی آموزشدیده میتواند سپس برای طبقهبندی تصاویر دیگر در مقیاس خاکستری از اعداد بین صفر و 9 استفاده شود. چنین شبکهای در مقالهای که کاربرد شبکههای عصبی را نشان میدهد که توسط Yann LeCun در سال 1989 منتشر شد، مورد استفاده قرار گرفت و توسط سرویس پست ایالات متحده مورد استفاده قرار گرفت. برای تشخیص کدهای پستی دست نویس.
ساختار و عملکرد شبکه های عصبی بسیار ضعیف بر اساس ارتباطات بین نورون های مغز است. شبکه های عصبی از لایه های به هم پیوسته الگوریتم هایی تشکیل شده اند که داده ها را به یکدیگر تغذیه می کنند. آنها را می توان برای انجام وظایف خاص با تغییر اهمیتی که به داده ها هنگام عبور از بین این لایه ها نسبت داده می شود، آموزش داد. در طول آموزش این شبکههای عصبی، وزنهای متصل به دادهها هنگام عبور از بین لایهها، تا زمانی که خروجی شبکه عصبی بسیار نزدیک به آنچه مورد نظر است، تغییر میکند. در آن مرحله، شبکه یاد گرفته است که چگونه یک کار خاص را انجام دهد. خروجی مورد نظر می تواند هر چیزی باشد، از برچسب زدن صحیح میوه در تصویر گرفته تا پیش بینی زمان خرابی آسانسور بر اساس داده های حسگر آن.
زیرمجموعه ای از یادگیری ماشینی، یادگیری عمیق است، که در آن شبکههای عصبی به شبکههای گسترده با تعداد زیادی لایه بزرگ که با استفاده از حجم عظیمی از داده آموزش داده میشوند، گسترش مییابند. این شبکههای عصبی عمیق به جهش فعلی در توانایی رایانهها برای انجام وظایفی مانند تشخیص گفتار و بینایی رایانه دامن زدهاند.
انواع مختلفی از شبکه های عصبی با نقاط قوت و ضعف متفاوت وجود دارد. شبکههای عصبی بازگشتی (RNN) نوعی شبکه عصبی هستند که مخصوصاً برای پردازش زبان طبیعی (NLP) - درک معنای متن - و تشخیص گفتار مناسب هستند، در حالی که شبکههای عصبی کانولوشن ریشه در تشخیص تصویر دارند و کاربردهای متنوعی دارند. به عنوان سیستم های توصیه گر و NLP. طراحی شبکههای عصبی نیز در حال تکامل است و محققان شکل مؤثرتری از شبکه عصبی عمیق به نام حافظه کوتاهمدت بلند مدت یا LSTM را - نوعی معماری RNN که برای کارهایی مانند NLP و برای پیشبینیهای بازار سهام استفاده میشود - اصلاح کردند.همچنین به اندازه کافی سریع عمل می کند تا در سیستم های درخواستی مانند Google Translate استفاده شود.