از زمانی که آمازون بازوی خدمات محاسبات ابری خود را در سال 2006 راه اندازی کرد – که به طور گسترده با نام AWS (سرویس های وب آمازون) شناخته می شود – این شرکت در حال تبدیل کردن جهان به دیدگاه خود در مورد چگونگی خرید و استقرار منابع محاسباتی است، اما همچنین تا آنجا که ممکن است آنها را در همه جا حاضر کنید. این استراتژی در re:Invent امسال به نمایش گذاشته شد.
AWS چندین گزینه محاسباتی جدید را معرفی کرد که برخی بر اساس طرحهای سیلیکونی سفارشی جدید خود و همچنین مجموعهای خیرهکننده از سازماندهی دادهها، تجزیه و تحلیل، و ابزارها و خدمات اتصال است. تعداد زیاد و پیچیدگی بسیاری از ویژگیها و خدمات جدیدی که رونمایی شدهاند، پیگیری همه گزینههای موجود در حال حاضر برای مشتریان را دشوار میسازد. با این حال، به جای اینکه نتیجه توسعه کنترل نشده باشد، فراوانی قابلیت ها ناشی از طراحی است.
مدیر عامل جدید AWS، آدام سلیپسکی، مشتاق بود در طول سخنرانی خود (تماشا در بالا) و سایر موارد ظاهری اشاره کند که سازمان “مشتری وسواس” دارد. در نتیجه، بیشتر تصمیمات و استراتژی های محصول آن بر اساس درخواست مشتری است. معلوم میشود که وقتی انواع مختلفی از مشتریان با انواع حجم کاری و نیازهای مختلف دارید، در نهایت با مجموعهای از انتخابهای پیچیده مواجه میشوید.
به طور واقع بینانه، این نوع رویکرد در نقطهای به حد منطقی خواهد رسید، اما در این میان، به این معنی است که طیف گسترده محصولات و خدمات AWS احتمالاً تصویری آینهای از کلیت (و پیچیدگی) چشمانداز محاسباتی سازمانی امروزی است. در واقع، بینش فراوانی در مورد روندهای محاسباتی سازمانی وجود دارد که منتظر است تا از تجزیه و تحلیل این که چه خدماتی به چه درجه ای استفاده می شود و چگونه در طول زمان تغییر کرده است، جمع آوری شود، اما این موضوع برای زمان دیگری است.
در دنیای گزینههای محاسباتی، این شرکت اذعان کرد که اکنون بیش از 600 نمونه محاسباتی مختلف EC2 (Elastic Compute Cloud) دارد که هر کدام از ترکیبهای مختلفی از CPU و سایر سیلیکونهای شتاب، حافظه، اتصالات شبکه و موارد دیگر تشکیل شدهاند. در حالی که ارزیابی کامل این عدد سخت است، اما یک بار دیگر نشان می دهد که تقاضاهای محاسباتی امروزی چقدر متنوع شده اند. از برنامههای داخلی ابری، مبتنی بر هوش مصنوعی یا ML، برنامههای کانتینری که به آخرین شتابدهندههای هوش مصنوعی یا GPUهای اختصاصی نیاز دارند تا برنامههای قدیمی سازمانی «افزایششده و جابجاشده» که فقط از CPUهای قدیمیتر x86 استفاده میکنند، سرویسهای رایانش ابری مانند AWS اکنون باید قادر به مدیریت همه چیز باشند. از موارد فوق
ورودی های جدید اعلام شده در سال جاری شامل چندین مورد بر اساس پردازنده های نسل سوم Xeon Scalable اینتل است. با این حال، آنچه بیش از همه مورد توجه قرار گرفت، مواردی بود که بر اساس سه طرح سیلیکونی جدید خود آمازون بود. نمونه Hpc7g بر اساس یک نسخه به روز شده از پردازنده Graviton3 مبتنی بر Arm با نام Graviton3E است که شرکت ادعا می کند 2 برابر عملکرد ممیز شناور نمونه قبلی Hpc6g و 20٪ عملکرد کلی در مقایسه با Hpc6a فعلی ارائه می دهد.
همانند بسیاری از نمونهها، Hpc7g در مجموعهای از حجمهای کاری مشخص است – در این مورد محاسبات با عملکرد بالا (HPC)، مانند پیشبینی آب و هوا، پردازش ژنومیک، دینامیک سیالات و موارد دیگر. به طور خاص، برای مدلهای ML بزرگتر طراحی شده است که اغلب در هزاران هسته اجرا میشوند. نکته جالب در این مورد این است که هم نشان میدهد که پردازندههای مبتنی بر Arm از نظر نوع بار کاری که برای آن استفاده شدهاند تا چه حد پیشرفت کردهاند، و همچنین میزان بهبودی که AWS در نمونههای مختلف EC2 خود به ارمغان میآورد.
همچنین بخوانید: چرا آمازون در حال ساخت CPU است؟
به طور جداگانه، در چندین جلسه دیگر، AWS حرکت به سمت استفاده از Graviton را برای بسیاری از انواع بارهای کاری دیگر نیز برجسته کرد، به ویژه برای برنامه های کاربردی کانتینری بومی ابری از مشتریان AWS مانند DirecTV و Stripe.
یک بینش جالب که از این جلسات به دست آمد این است که به دلیل ماهیت ابزارهای مورد استفاده برای توسعه این نوع برنامهها، چالشهای انتقال کد از x86 به دستورالعملهای بومی Arm (که زمانی تصور میشد نقطه توقف بزرگی برای پذیرش سرور مبتنی بر بازو) تا حد زیادی از بین رفته است.
در عوض، تنها چیزی که لازم است، سوئیچ ساده چند گزینه قبل از تکمیل کد و استقرار در نمونه است. این امر پتانسیل رشد بیشتر رایانش ابری مبتنی بر بازو را بهویژه در برنامههای جدیدتر محتملتر میکند.
البته، برخی از این سازمانها در تلاش هستند تا در آینده برنامههای کاربردی آگنوستیک مجموعه دستورالعملها را کاملاً بسازند، که ظاهراً انتخاب مجموعه دستورالعملها را بیربط میسازد. با این حال، حتی در آن شرایط، نمونههای محاسباتی که نسبتهای قیمت/عملکرد یا عملکرد/وات بهتری را ارائه میدهند، که CPUهای مبتنی بر Arm اغلب دارند، گزینه جذابتری هستند.
برای بارهای کاری ML، آمازون از نسل دوم پردازنده Inferentia خود به عنوان بخشی از نمونه جدید Inf2 خود رونمایی کرد. Inferentia2 برای پشتیبانی از استنتاج ML بر روی مدل هایی با میلیاردها پارامتر، مانند بسیاری از مدل های زبان بزرگ جدید برای برنامه هایی مانند تشخیص گفتار بلادرنگ که در حال حاضر در حال توسعه هستند، طراحی شده است.
معماری جدید به گونهای طراحی شده است که هزاران هسته را در مقیاس بزرگ قرار دهد، چیزی که این مدلهای جدید عظیم مانند GPT-3 به آن نیاز دارند. علاوه بر این، Inferentia2 شامل پشتیبانی از یک تکنیک ریاضی شناخته شده به عنوان گرد کردن تصادفی است، که AWS آن را به عنوان “روشی برای گرد کردن احتمالاتی که عملکرد بالا و دقت بالاتر را در مقایسه با حالت های گرد کردن قدیمی امکان پذیر می کند” توصیف می کند. برای استفاده بهینه از محاسبات توزیع شده، نمونه Inf2 همچنین از نسخه نسل بعدی معماری شبکه حلقه NeuronLink شرکت پشتیبانی می کند که ظاهراً 4 برابر عملکرد و 1/10 تأخیر نمونه های Inf1 موجود را ارائه می دهد. نتیجه نهایی این است که می تواند 45 درصد عملکرد بالاتر در هر وات را برای استنباط نسبت به هر گزینه دیگری، از جمله گزینه های مجهز به GPU ارائه دهد. با توجه به اینکه استنباط نیازهای مصرف برق اغلب 9 برابر بیشتر از آنچه برای آموزش مدل مورد نیاز است طبق AWS است، این یک مشکل بزرگ است.
سومین نمونه سفارشی مبتنی بر سیلیکون C7gn نام دارد و دارای یک کارت شبکه جدید AWS Nitro مجهز به تراشه های نسل پنجم نیترو است. C7gn که به طور خاص برای بارهای کاری که نیاز به توان عملیاتی بسیار بالایی دارند، مانند فایروال ها، شبکه مجازی و رمزگذاری/رمزگشایی داده ها در زمان واقعی طراحی شده است، ظاهراً دارای 2 برابر پهنای باند شبکه و 50٪ پردازش بسته های بالاتر در هر ثانیه نسبت به نمونه های قبلی است. نکته مهم این است که کارتهای نیترو جدید میتوانند با 40 درصد بهبود عملکرد در هر وات نسبت به نسخههای قبلی خود، به این سطوح دست یابند.
در مجموع، تاکید آمازون بر سیلیکون سفارشی و گستره متنوع و فزایندهای از گزینههای محاسباتی، مجموعهای از ابزارها را برای شرکتهایی که به دنبال انتقال بیشتر حجم کاری خود به فضای ابری هستند، نشان میدهد. مانند بسیاری از جنبههای دیگر ارائههای AWS خود، این شرکت همچنان به اصلاح و ارتقای ابزارهایی که آشکارا به مجموعهای از ابزارهای بسیار پیچیده و بالغ تبدیل شدهاند، ادامه میدهد. در مجموع، آنها دیدگاه قابل توجه و امیدوار کننده ای را به آینده محاسبات و انواع جدیدی از برنامه هایی که می توانند فعال کنند ارائه می دهند.
Bob O’Donnell بنیانگذار و تحلیلگر ارشد TECHnalysis Research، LLC یک شرکت مشاوره فناوری است که خدمات مشاوره استراتژیک و تحقیقات بازار را به صنعت فناوری و جامعه مالی حرفه ای ارائه می دهد. می توانید او را در توییتر دنبال کنید @bobodtech.