همکاری Red Hat و Amazon برای استفاده هوش مصنوعی مولد

Red Hat، بزرگ‌ترین ارائه‌دهنده راهکارهای متن‌باز در جهان، از گسترش همکاری خود با آمازون وب‌سرویس (AWS) خبر داده است تا هوش مصنوعی مولد سازمانی (Generative AI) را با ترکیب Red Hat AI و تراشه‌های اختصاصی هوش مصنوعی AWS تقویت کنند.

هدف این همکاری، فراهم‌کردن امکان اجرای استنتاج هوش مصنوعی با کارایی بالا و مصرف بهینه، در مقیاسی گسترده و بدون وابستگی به نوع سخت‌افزار است.

همکاری جدید برای تقویت هوش مصنوعی مولد سازمانی

به گفته شرکت کامارک، این همکاری به مشتریان مسیر ساده و پشتیبانی‌شده‌ای برای استقرار هوش مصنوعی مولد در مقیاس بزرگ می‌دهد و انعطاف‌پذیری نرم‌افزار متن‌باز را با زیرساخت و شتاب‌دهنده‌های اختصاصی AWS ترکیب می‌کند.

ظهور هوش مصنوعی مولد و نیاز روزافزون به استنتاج در مقیاس، بسیاری از سازمان‌ها را مجبور کرده تا زیرساخت‌های IT خود را بازنگری کنند. طبق پیش‌بینی IDC، تا سال ۲۰۲۷ حدود ۴۰ درصد از سازمان‌ها از تراشه‌های اختصاصی — از جمله پردازنده‌های ARM یا چیپ‌های مخصوص AI/ML — استفاده خواهند کرد تا نیازهای مربوط به بهینه‌سازی عملکرد، کاهش هزینه‌ها و پردازش تخصصی را تأمین کنند. این موضوع نشان می‌دهد که بازار به‌شدت به راهکارهای بهینه برای ارتقای قدرت پردازش، کاهش هزینه و سرعت‌بخشیدن به نوآوری در برنامه‌های AI نیاز دارد.

ویژگی‌های اصلی همکاری Red Hat و AWS۱.

سرور استنتاج Red Hat AI روی تراشه‌های AWS:

سرور Red Hat AI Inference Server (مبتنی بر vLLM) قادر خواهد بود روی تراشه‌های Inferentia2 و Trainium3 اجرا شود و یک لایه استنتاج مشترک برای تمام مدل‌های هوش مصنوعی مولد ارائه دهد. این ترکیب می‌تواند عملکرد بهتر، تأخیر کمتر و هزینه پایین‌تر فراهم کند—تا ۳۰ تا ۴۰ درصد قیمت/کارایی بهتر نسبت به نمونه‌های GPUمحور فعلی Amazon EC2

۲. فعال‌سازی هوش مصنوعی در Red Hat OpenShift:

Red Hat و AWS با همکاری یک اپراتور AWS Neuron برای پلتفرم OpenShift ساخته‌اند تا اجرای بارهای کاری هوش مصنوعی روی شتاب‌دهنده‌های AWS را آسان‌تر و یکپارچه‌تر کنند.

۳. دسترسی آسان‌تر به شتاب‌دهنده‌ها:

با پشتیبانی از تراشه‌های AI آمازون، کاربران Red Hat روی AWS به شتاب‌دهنده‌های قوی و پرتقاضا آسان‌تر دسترسی پیدا می‌کنند. همچنین Red Hat نسخه amazon.ai از مجموعه Ansible را منتشر کرده تا استقرار سرویس‌های AI روی AWS را خودکار کند.

۴. همکاری در توسعه متن‌باز (Upstream):

Red Hat و AWS در حال بهینه‌سازی افزونه تراشه‌های AI برای vLLM هستند. Red Hat که بزرگ‌ترین مشارکت‌کننده تجاری vLLM است، متعهد به بهبود توانایی‌های استنتاج و آموزش روی AWS است. vLLM همچنین هسته اصلی پروژه متن‌باز llm-d است که برای استنتاج در مقیاس طراحی شده و اکنون در Red Hat OpenShift AI 3 با پشتیبانی تجاری ارائه می‌شود.

ادامه همکاری بلندمدت Red Hat و AWS

Red Hat سابقه طولانی همکاری با AWS دارد؛ از دیتاسنتر تا شبکه. این همکاری جدید با هدف رفع نیازهای رو‌به‌رشد سازمان‌ها برای ادغام هوش مصنوعی در راهبردهای ابری هیبریدی انجام شده است.

زمان عرضه

اپراتور AWS Neuron هم‌اکنون در OperatorHub پلتفرم OpenShift در دسترس است. پشتیبانی از سرور استنتاج Red Hat AI روی تراشه‌های AWS در ژانویه ۲۰۲۶ به‌صورت نسخه پیش‌نمایش توسعه‌دهنده منتشر می‌شود.

نظری بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *