Amazon AWS پیشنهادات محاسباتی را گسترش می دهد، تراشه جدید قدرتمند Graviton3E را به نمایش می گذارد


از زمانی که آمازون بازوی خدمات محاسبات ابری خود را در سال 2006 راه اندازی کرد – که به طور گسترده با نام AWS (سرویس های وب آمازون) شناخته می شود – این شرکت در حال تبدیل کردن جهان به دیدگاه خود در مورد چگونگی خرید و استقرار منابع محاسباتی است، اما همچنین تا آنجا که ممکن است آنها را در همه جا حاضر کنید. این استراتژی در re:Invent امسال به نمایش گذاشته شد.

AWS چندین گزینه محاسباتی جدید را معرفی کرد که برخی بر اساس طرح‌های سیلیکونی سفارشی جدید خود و همچنین مجموعه‌ای خیره‌کننده از سازمان‌دهی داده‌ها، تجزیه و تحلیل، و ابزارها و خدمات اتصال است. تعداد زیاد و پیچیدگی بسیاری از ویژگی‌ها و خدمات جدیدی که رونمایی شده‌اند، پیگیری همه گزینه‌های موجود در حال حاضر برای مشتریان را دشوار می‌سازد. با این حال، به جای اینکه نتیجه توسعه کنترل نشده باشد، فراوانی قابلیت ها ناشی از طراحی است.

مدیر عامل جدید AWS، آدام سلیپسکی، مشتاق بود در طول سخنرانی خود (تماشا در بالا) و سایر موارد ظاهری اشاره کند که سازمان “مشتری وسواس” دارد. در نتیجه، بیشتر تصمیمات و استراتژی های محصول آن بر اساس درخواست مشتری است. معلوم می‌شود که وقتی انواع مختلفی از مشتریان با انواع حجم کاری و نیازهای مختلف دارید، در نهایت با مجموعه‌ای از انتخاب‌های پیچیده مواجه می‌شوید.

به طور واقع بینانه، این نوع رویکرد در نقطه‌ای به حد منطقی خواهد رسید، اما در این میان، به این معنی است که طیف گسترده محصولات و خدمات AWS احتمالاً تصویری آینه‌ای از کلیت (و پیچیدگی) چشم‌انداز محاسباتی سازمانی امروزی است. در واقع، بینش فراوانی در مورد روندهای محاسباتی سازمانی وجود دارد که منتظر است تا از تجزیه و تحلیل این که چه خدماتی به چه درجه ای استفاده می شود و چگونه در طول زمان تغییر کرده است، جمع آوری شود، اما این موضوع برای زمان دیگری است.

در دنیای گزینه‌های محاسباتی، این شرکت اذعان کرد که اکنون بیش از 600 نمونه محاسباتی مختلف EC2 (Elastic Compute Cloud) دارد که هر کدام از ترکیب‌های مختلفی از CPU و سایر سیلیکون‌های شتاب، حافظه، اتصالات شبکه و موارد دیگر تشکیل شده‌اند. در حالی که ارزیابی کامل این عدد سخت است، اما یک بار دیگر نشان می دهد که تقاضاهای محاسباتی امروزی چقدر متنوع شده اند. از برنامه‌های داخلی ابری، مبتنی بر هوش مصنوعی یا ML، برنامه‌های کانتینری که به آخرین شتاب‌دهنده‌های هوش مصنوعی یا GPUهای اختصاصی نیاز دارند تا برنامه‌های قدیمی سازمانی «افزایش‌شده و جابجاشده» که فقط از CPU‌های قدیمی‌تر x86 استفاده می‌کنند، سرویس‌های رایانش ابری مانند AWS اکنون باید قادر به مدیریت همه چیز باشند. از موارد فوق

ورودی های جدید اعلام شده در سال جاری شامل چندین مورد بر اساس پردازنده های نسل سوم Xeon Scalable اینتل است. با این حال، آنچه بیش از همه مورد توجه قرار گرفت، مواردی بود که بر اساس سه طرح سیلیکونی جدید خود آمازون بود. نمونه Hpc7g بر اساس یک نسخه به روز شده از پردازنده Graviton3 مبتنی بر Arm با نام Graviton3E است که شرکت ادعا می کند 2 برابر عملکرد ممیز شناور نمونه قبلی Hpc6g و 20٪ عملکرد کلی در مقایسه با Hpc6a فعلی ارائه می دهد.

همانند بسیاری از نمونه‌ها، Hpc7g در مجموعه‌ای از حجم‌های کاری مشخص است – در این مورد محاسبات با عملکرد بالا (HPC)، مانند پیش‌بینی آب و هوا، پردازش ژنومیک، دینامیک سیالات و موارد دیگر. به طور خاص، برای مدل‌های ML بزرگ‌تر طراحی شده است که اغلب در هزاران هسته اجرا می‌شوند. نکته جالب در این مورد این است که هم نشان می‌دهد که پردازنده‌های مبتنی بر Arm از نظر نوع بار کاری که برای آن استفاده شده‌اند تا چه حد پیشرفت کرده‌اند، و همچنین میزان بهبودی که AWS در نمونه‌های مختلف EC2 خود به ارمغان می‌آورد.

همچنین بخوانید: چرا آمازون در حال ساخت CPU است؟

به طور جداگانه، در چندین جلسه دیگر، AWS حرکت به سمت استفاده از Graviton را برای بسیاری از انواع بارهای کاری دیگر نیز برجسته کرد، به ویژه برای برنامه های کاربردی کانتینری بومی ابری از مشتریان AWS مانند DirecTV و Stripe.

یک بینش جالب که از این جلسات به دست آمد این است که به دلیل ماهیت ابزارهای مورد استفاده برای توسعه این نوع برنامه‌ها، چالش‌های انتقال کد از x86 به دستورالعمل‌های بومی Arm (که زمانی تصور می‌شد نقطه توقف بزرگی برای پذیرش سرور مبتنی بر بازو) تا حد زیادی از بین رفته است.

در عوض، تنها چیزی که لازم است، سوئیچ ساده چند گزینه قبل از تکمیل کد و استقرار در نمونه است. این امر پتانسیل رشد بیشتر رایانش ابری مبتنی بر بازو را به‌ویژه در برنامه‌های جدیدتر محتمل‌تر می‌کند.

البته، برخی از این سازمان‌ها در تلاش هستند تا در آینده برنامه‌های کاربردی آگنوستیک مجموعه دستورالعمل‌ها را کاملاً بسازند، که ظاهراً انتخاب مجموعه دستورالعمل‌ها را بی‌ربط می‌سازد. با این حال، حتی در آن شرایط، نمونه‌های محاسباتی که نسبت‌های قیمت/عملکرد یا عملکرد/وات بهتری را ارائه می‌دهند، که CPU‌های مبتنی بر Arm اغلب دارند، گزینه جذاب‌تری هستند.

برای بارهای کاری ML، آمازون از نسل دوم پردازنده Inferentia خود به عنوان بخشی از نمونه جدید Inf2 خود رونمایی کرد. Inferentia2 برای پشتیبانی از استنتاج ML بر روی مدل هایی با میلیاردها پارامتر، مانند بسیاری از مدل های زبان بزرگ جدید برای برنامه هایی مانند تشخیص گفتار بلادرنگ که در حال حاضر در حال توسعه هستند، طراحی شده است.

معماری جدید به گونه‌ای طراحی شده است که هزاران هسته را در مقیاس بزرگ قرار دهد، چیزی که این مدل‌های جدید عظیم مانند GPT-3 به آن نیاز دارند. علاوه بر این، Inferentia2 شامل پشتیبانی از یک تکنیک ریاضی شناخته شده به عنوان گرد کردن تصادفی است، که AWS آن را به عنوان “روشی برای گرد کردن احتمالاتی که عملکرد بالا و دقت بالاتر را در مقایسه با حالت های گرد کردن قدیمی امکان پذیر می کند” توصیف می کند. برای استفاده بهینه از محاسبات توزیع شده، نمونه Inf2 همچنین از نسخه نسل بعدی معماری شبکه حلقه NeuronLink شرکت پشتیبانی می کند که ظاهراً 4 برابر عملکرد و 1/10 تأخیر نمونه های Inf1 موجود را ارائه می دهد. نتیجه نهایی این است که می تواند 45 درصد عملکرد بالاتر در هر وات را برای استنباط نسبت به هر گزینه دیگری، از جمله گزینه های مجهز به GPU ارائه دهد. با توجه به اینکه استنباط نیازهای مصرف برق اغلب 9 برابر بیشتر از آنچه برای آموزش مدل مورد نیاز است طبق AWS است، این یک مشکل بزرگ است.

سومین نمونه سفارشی مبتنی بر سیلیکون C7gn نام دارد و دارای یک کارت شبکه جدید AWS Nitro مجهز به تراشه های نسل پنجم نیترو است. C7gn که به طور خاص برای بارهای کاری که نیاز به توان عملیاتی بسیار بالایی دارند، مانند فایروال ها، شبکه مجازی و رمزگذاری/رمزگشایی داده ها در زمان واقعی طراحی شده است، ظاهراً دارای 2 برابر پهنای باند شبکه و 50٪ پردازش بسته های بالاتر در هر ثانیه نسبت به نمونه های قبلی است. نکته مهم این است که کارت‌های نیترو جدید می‌توانند با 40 درصد بهبود عملکرد در هر وات نسبت به نسخه‌های قبلی خود، به این سطوح دست یابند.

در مجموع، تاکید آمازون بر سیلیکون سفارشی و گستره متنوع و فزاینده‌ای از گزینه‌های محاسباتی، مجموعه‌ای از ابزارها را برای شرکت‌هایی که به دنبال انتقال بیشتر حجم کاری خود به فضای ابری هستند، نشان می‌دهد. مانند بسیاری از جنبه‌های دیگر ارائه‌های AWS خود، این شرکت همچنان به اصلاح و ارتقای ابزارهایی که آشکارا به مجموعه‌ای از ابزارهای بسیار پیچیده و بالغ تبدیل شده‌اند، ادامه می‌دهد. در مجموع، آنها دیدگاه قابل توجه و امیدوار کننده ای را به آینده محاسبات و انواع جدیدی از برنامه هایی که می توانند فعال کنند ارائه می دهند.

Bob O’Donnell بنیانگذار و تحلیلگر ارشد TECHnalysis Research، LLC یک شرکت مشاوره فناوری است که خدمات مشاوره استراتژیک و تحقیقات بازار را به صنعت فناوری و جامعه مالی حرفه ای ارائه می دهد. می توانید او را در توییتر دنبال کنید @bobodtech.





منبع