تاریخ انتشار :سه شنبه ۱۵ اسفند ۱۴۰۲ ساعت ۱۲:۰۰
جالب است ۰
در حالی که دنیا تشنه GPUهای انویدیا برای هوش مصنوعی است، گوگل می‌گوید هنوز هم CPUهای معمولی قلب استتناج‌های هوش مصنوعی هستند. با در نظر گرفتن این واقعیت که گوگل یکی از بزرگ‌ترین کمپانی‌های ارائه‌دهنده خدمات تحت کلاد است، این اظهارات بسیار جالب به نظر می‌رسد.
نظر عجیب گوگل درباره جایگاه CPU در هوش مصنوعی
به گزارش مردم فردا،همانطور که می‌دانید، پردازنده‌های گرافیکی (GPU) دارای ده‌ها هزار هسته پردازشی هستند که باعث می‌شود نسبت به پردازنده‌های مرکزی با نهایتاً چند صد هسته پردازشی، قدرت پردازشی به مراتب بیشتری در پردازش موازی داشته باشند. همین ویژگی باعث شده در بسیاری از حوزه‌ها از GPUها به عنوان شتاب‌دهنده استفاده شود که یکی از مهم‌ترین و برجسته‌ترین آنها هوش مصنوعی (AI) است.

اخیراً مدیر محصول بخش محاسبات گوگل در جریان یک سخنرانی به موضوع جالبی اشاره کرده و به تشریح نقش CPUها در هوش مصنوعی پرداخته است. چرخه هوش مصنوعی را می‌توان به دو بخش یادگیری و استتناج تقسیم کرد. در مرحله یادگیری به منابع پردازشی عظیم و حجم سرسام‌آوری حافظه رم نیاز است تا به مدل هوش مصنوعی آموزش داده شود. مدل‌هایی چون GPT-4 و Gemini دارای میلیاردها پارامتر هستند و آموزش به آنها نیازمند هزاران کارت گرافیک یا شتاب‌دهنده پردازشی است.

در طرف دیگر مرحله استتناج که همان اجرا و استفاده از مدل تعلیم‌دیده است، به منابع پردازشی کمتری نیاز است؛ هرچند که هنوز بکارگیری شتاب‌دهنده‌گرافیکی به آن کمک می‌کند. هرچند این مرحله به منابع پردازشی کمتری نیاز دارد، اما به شدت تاخیر و قدرت محاسباتی بر روی سرعت انجام آن تاثیر گذار هستند و بدون داشتن سرعت کافی و تاخیر پایین، نمی‌توان با مدل‌های هوش مصنوعی به صورت آنی تعامل کرد.

گوگل می‌گوید به این نتیجه رسیده است که با وجود ایده‌آل بودن GPUها برای مرحله آموزش (یادگیری)، مدل‌های هوش مصنوعی عمدتاً برای اجرای بهینه بر روی CPUها بهینه‌سازی شده‌اند و در مرحله استتناج بیشتر از GPU، به CPU متکی هستند. این واقعیت باعث شده برخی مشتریان گوگل CPU را به عنوان پردازنده اصلی برای اجرای مدل‌های هوش مصنوعی خود انتخاب کنند.

با وجود ادعاهای یاد شده، یکی از دلایل ترجیح دادن CPUها می‌تواند هزینه پایین‌تر باشد. می‌دانیم CPUهای معمولی به وفور و با قیمت بسیار کمتر نسبت به شتاب‌دهنده‌های گرافیکی رده بالا انویدیا در دسترس هستند. همچنین توسعه مدل‌های هوش مصنوعی برای CPU آسان‌تر از GPU است و در مدل‌های کوچک‌تر می‌تواند مناسب‌تر باشد. در طرف دیگر بهره‌جستن از توانایی بالای GPUها در پردازش موازی پیچیدگی بالایی هم دارد.

یکی دیگر از مزایای اجرای مدل‌های هوش مصنوعی بر روی CPU، تاخیر کمتر است که در کاربردهایی چون چت‌بات، بسیار حائز اهمیت است.

هم‌زمان ظهور پردازنده‌های سریع‌تر با تعداد بیشتری هسته پردازشی و پشتیبانی از دستورالعمل‌های جدید چون AVX-512 و AMX، باعث شده بهینه‌سازی برای اجرای مدل‌های هوش مصنوعی بر روی CPU به سرعت در حال افزایش باشد. پیش‌تر اینتل گفته بود مدل‌های هوش مصنوعی با حداکثر 20 میلیارد پارامتر به خوبی بر روی CPUها قابل اجرا هستند، اما با عبور از این حد، به شتاب‌دهنده‌های تخصصی نیاز خواهد بود.
https://mardomefarda.ir/vdciuqar.t1apv2bcct.html
منبع : شهر سخت افزار
ارسال نظر
نام شما
آدرس ايميل شما