همکاری Red Hat و Amazon برای استفاده هوش مصنوعی مولد
Red Hat، بزرگترین ارائهدهنده راهکارهای متنباز در جهان، از گسترش همکاری خود با آمازون وبسرویس (AWS) خبر داده است تا هوش مصنوعی مولد سازمانی (Generative AI) را با ترکیب Red Hat AI و تراشههای اختصاصی هوش مصنوعی AWS تقویت کنند.

هدف این همکاری، فراهمکردن امکان اجرای استنتاج هوش مصنوعی با کارایی بالا و مصرف بهینه، در مقیاسی گسترده و بدون وابستگی به نوع سختافزار است.
همکاری جدید برای تقویت هوش مصنوعی مولد سازمانی
به گفته شرکت کامارک، این همکاری به مشتریان مسیر ساده و پشتیبانیشدهای برای استقرار هوش مصنوعی مولد در مقیاس بزرگ میدهد و انعطافپذیری نرمافزار متنباز را با زیرساخت و شتابدهندههای اختصاصی AWS ترکیب میکند.
ظهور هوش مصنوعی مولد و نیاز روزافزون به استنتاج در مقیاس، بسیاری از سازمانها را مجبور کرده تا زیرساختهای IT خود را بازنگری کنند. طبق پیشبینی IDC، تا سال ۲۰۲۷ حدود ۴۰ درصد از سازمانها از تراشههای اختصاصی — از جمله پردازندههای ARM یا چیپهای مخصوص AI/ML — استفاده خواهند کرد تا نیازهای مربوط به بهینهسازی عملکرد، کاهش هزینهها و پردازش تخصصی را تأمین کنند. این موضوع نشان میدهد که بازار بهشدت به راهکارهای بهینه برای ارتقای قدرت پردازش، کاهش هزینه و سرعتبخشیدن به نوآوری در برنامههای AI نیاز دارد.
ویژگیهای اصلی همکاری Red Hat و AWS۱.
سرور استنتاج Red Hat AI روی تراشههای AWS:
سرور Red Hat AI Inference Server (مبتنی بر vLLM) قادر خواهد بود روی تراشههای Inferentia2 و Trainium3 اجرا شود و یک لایه استنتاج مشترک برای تمام مدلهای هوش مصنوعی مولد ارائه دهد. این ترکیب میتواند عملکرد بهتر، تأخیر کمتر و هزینه پایینتر فراهم کند—تا ۳۰ تا ۴۰ درصد قیمت/کارایی بهتر نسبت به نمونههای GPUمحور فعلی Amazon EC2
۲. فعالسازی هوش مصنوعی در Red Hat OpenShift:
Red Hat و AWS با همکاری یک اپراتور AWS Neuron برای پلتفرم OpenShift ساختهاند تا اجرای بارهای کاری هوش مصنوعی روی شتابدهندههای AWS را آسانتر و یکپارچهتر کنند.
۳. دسترسی آسانتر به شتابدهندهها:
با پشتیبانی از تراشههای AI آمازون، کاربران Red Hat روی AWS به شتابدهندههای قوی و پرتقاضا آسانتر دسترسی پیدا میکنند. همچنین Red Hat نسخه amazon.ai از مجموعه Ansible را منتشر کرده تا استقرار سرویسهای AI روی AWS را خودکار کند.
۴. همکاری در توسعه متنباز (Upstream):
Red Hat و AWS در حال بهینهسازی افزونه تراشههای AI برای vLLM هستند. Red Hat که بزرگترین مشارکتکننده تجاری vLLM است، متعهد به بهبود تواناییهای استنتاج و آموزش روی AWS است. vLLM همچنین هسته اصلی پروژه متنباز llm-d است که برای استنتاج در مقیاس طراحی شده و اکنون در Red Hat OpenShift AI 3 با پشتیبانی تجاری ارائه میشود.
ادامه همکاری بلندمدت Red Hat و AWS
Red Hat سابقه طولانی همکاری با AWS دارد؛ از دیتاسنتر تا شبکه. این همکاری جدید با هدف رفع نیازهای روبهرشد سازمانها برای ادغام هوش مصنوعی در راهبردهای ابری هیبریدی انجام شده است.
زمان عرضه
اپراتور AWS Neuron هماکنون در OperatorHub پلتفرم OpenShift در دسترس است. پشتیبانی از سرور استنتاج Red Hat AI روی تراشههای AWS در ژانویه ۲۰۲۶ بهصورت نسخه پیشنمایش توسعهدهنده منتشر میشود.
