یکی دیگر از زمینه های تحقیقات هوش مصنوعی، محاسبات تکاملی است.
از نظریه انتخاب طبیعی داروین منشا گرفته است. این الگوریتمهای ژنتیک را در تلاش برای تکامل راهحل بهینه برای یک مسئله معین، تحت جهشها و ترکیبهای تصادفی بین نسلها میبیند.
این رویکرد حتی برای کمک به طراحی مدلهای هوش مصنوعی، بهطور موثر از هوش مصنوعی برای کمک به ساخت هوش مصنوعی استفاده شده است. این استفاده از الگوریتم های تکاملی برای بهینه سازی شبکه های عصبی را تکامل عصبی می نامند. این می تواند نقش مهمی در کمک به طراحی هوش مصنوعی کارآمد داشته باشد، زیرا استفاده از سیستم های هوشمند رایج تر می شود، به خصوص که تقاضا برای دانشمندان داده اغلب از عرضه بیشتر است. این تکنیک توسط آزمایشگاه هوش مصنوعی Uber به نمایش گذاشته شد که مقالاتی در مورد استفاده از الگوریتمهای ژنتیک برای آموزش شبکههای عصبی عمیق برای مشکلات یادگیری تقویتی منتشر کرد.
در نهایت، سیستمهای خبرهای وجود دارند که در آن رایانهها با قوانینی برنامهریزی میشوند که به آنها اجازه میدهد یک سری تصمیمات را بر اساس تعداد زیادی ورودی اتخاذ کنند و به آن ماشین اجازه میدهد رفتار یک متخصص انسانی را در یک حوزه خاص تقلید کند. نمونه ای از این سیستم های مبتنی بر دانش ممکن است، برای مثال، یک سیستم خلبان خودکار در حال پرواز با هواپیما باشد.
همانطور که در مطالب فوق ذکر شد، بزرگترین پیشرفتها برای تحقیقات هوش مصنوعی در سالهای اخیر در زمینه یادگیری ماشین، بهویژه در زمینه یادگیری عمیق بوده است.
این امر تا حدی ناشی از دسترسی آسان دادهها بوده است، اما حتی بیشتر از آن به دلیل انفجار قدرت محاسباتی موازی، که در طی آن زمان استفاده از خوشههای واحدهای پردازش گرافیکی (GPU) برای آموزش سیستمهای یادگیری ماشینی رایجتر شده است.
این خوشهها نه تنها سیستمهای بسیار قدرتمندتری را برای آموزش مدلهای یادگیری ماشینی ارائه میدهند، بلکه اکنون بهطور گسترده به عنوان خدمات ابری از طریق اینترنت در دسترس هستند. با گذشت زمان، شرکتهای بزرگ فناوری، مانند گوگل، مایکروسافت و تسلا، به سمت استفاده از تراشههای تخصصی متناسب با مدلهای در حال اجرا و اخیراً آموزشی، حرکت کردند.
نمونهای از یکی از این تراشههای سفارشی، واحد پردازش تنسور (TPU) گوگل است که آخرین نسخه آن سرعتی را که مدلهای یادگیری ماشینی مفید ساخته شده با استفاده از کتابخانه نرمافزار TensorFlow Google میتوانند اطلاعات را از دادهها استنتاج کنند، تسریع میدهد. که می توان آنها را آموزش داد.
این تراشهها برای آموزش مدلهایی برای DeepMind و Google Brain و مدلهایی که زیربنای Google Translate و تشخیص تصویر در Google Photos و سرویسهایی هستند که به عموم مردم اجازه میدهند مدلهای یادگیری ماشینی با استفاده از TensorFlow Research Cloud Google بسازند، استفاده میشوند. نسل سوم این تراشه ها در کنفرانس I/O گوگل در ماه می 2018 رونمایی شد و از آن زمان در نیروگاه های یادگیری ماشینی به نام پادها بسته بندی شده اند که می توانند بیش از صد هزار تریلیون عملیات ممیز شناور در ثانیه (100 پتافلاپ) انجام دهند. بهروزرسانیهای مداوم TPU به Google اجازه میدهد تا خدمات خود را که بر پایه مدلهای یادگیری ماشینی ساخته شدهاند، بهبود بخشد، برای مثال، زمان صرف شده برای آموزش مدلهای مورد استفاده در Google Translate را به نصف کاهش دهد.
از آنجایی که هوش مصنوعی نقش مهمی را در نرمافزارها و خدمات مدرن ایفا میکند، هر شرکت فناوری بزرگ در حال مبارزه برای توسعه فناوری یادگیری ماشینی قوی برای استفاده در داخل و فروش به عموم از طریق خدمات ابری است.
هر یک به طور منظم برای ایجاد زمینه های جدید در تحقیقات هوش مصنوعی تیتر یک می شوند، اگرچه احتمالاً این گوگل با سیستم های DeepMind AI AlphaFold و AlphaGo خود است که احتمالاً بیشترین تأثیر را بر آگاهی عمومی از هوش مصنوعی گذاشته است.
همه پلتفرمهای ابری اصلی - خدمات وب آمازون، مایکروسافت آژور و پلتفرم ابری گوگل - دسترسی به آرایههای GPU را برای آموزش و اجرای مدلهای یادگیری ماشینی فراهم میکنند و Google نیز آماده میشود تا به کاربران اجازه دهد از واحدهای پردازش تنسور خود استفاده کنند - سفارشی تراشه هایی که طراحی آنها برای آموزش و اجرای مدل های یادگیری ماشینی بهینه شده است.
تمام زیرساختها و سرویسهای مرتبط ضروری از سه مورد بزرگ، ذخیرهسازی دادههای مبتنی بر ابر، قابلیت نگهداری حجم وسیعی از دادههای مورد نیاز برای آموزش مدلهای یادگیری ماشینی، خدمات تبدیل دادهها برای آمادهسازی آنها برای تجزیه و تحلیل، ابزارهای تجسم در دسترس هستند. برای نمایش نتایج به وضوح، و نرم افزاری که ساخت مدل ها را ساده می کند.
این پلتفرمهای ابری حتی ایجاد مدلهای یادگیری ماشینی سفارشی را سادهتر میکنند و گوگل سرویسی به نام Cloud AutoML ارائه میدهد که ایجاد مدلهای هوش مصنوعی را خودکار میکند.
خدمات یادگیری ماشینی مبتنی بر ابر به طور مداوم در حال تکامل هستند. آمازون اکنون مجموعهای از پیشنهادات AWS را ارائه میکند که برای سادهسازی فرآیند آموزش مدلهای یادگیری ماشینی طراحی شدهاند و اخیراً Amazon SageMaker Clarify را راهاندازی کرده است، ابزاری برای کمک به سازمانها برای ریشهیابی سوگیریها و عدم تعادل در دادههای آموزشی که میتواند منجر به پیشبینیهای نادرست توسط مدل آموزشدیده شود. .
برای آن دسته از شرکتهایی که نمیخواهند مدلهای یادگیری ماشینی خود را بسازند، اما در عوض میخواهند از خدمات مبتنی بر هوش مصنوعی، مانند تشخیص صدا، بینایی و تشخیص زبان استفاده کنند، Microsoft Azure به دلیل وسعت خدمات در این زمینه متمایز است.