یادداشت ویراستار:
نویسنده مهمان، جاناتان گلدبرگ، بنیانگذار D2D Advisory، یک شرکت مشاوره چند منظوره است. جاناتان استراتژیهای رشد و اتحادهایی را برای شرکتهایی در صنعت موبایل، شبکه، بازی و نرمافزار ایجاد کرده است.
جهان مملو از پروتکل های شبکه است – راه هایی که تجهیزات الکترونیکی و رایانه ها با هم ارتباط برقرار می کنند. استفاده زیادی از این پروتکل ها را می توان در مراکز داده، به ویژه در میان مقیاس های بزرگ مانند گوگل و آمازون یافت.
ما شاهد بنبست جدیدی در مرکز داده هستیم که در آن پیشرفتها در محاسبات توزیعشده به دلیل عدم پیشبینیپذیری عملکرد و انزوا در شبکههای مرکز داده چند مستاجر به طور فزایندهای محدود میشود. دو تا سه مرتبه تفاوت عملکرد در هدف طراحان پارچه شبکه و برنامههایی که میتوانند انتظار داشته باشند و برنامهریزی کنند، غیرمعمول نیست و سرعت نوآوری را در سیستمهای توزیعشده مبتنی بر خوشههای سطح بالاتر به شدت محدود میکند.
پاسخ احتمالاً «شبکههای عصبی هوش مصنوعی» است – که روشی جالب برای گفتن ضرب ماتریس است. گلوگاهی که بسیاری از سیستمهای هوش مصنوعی با آن روبهرو هستند این است که هنگام محاسبه مدلهای عظیم، مراحل مختلف ریاضی بر یکدیگر تأثیر میگذارند – یک محاسبه قبل از اینکه کامل شود به راهحل محاسبه دیگری نیاز دارد.
ما می دانیم که آکویلا بسیار متفاوت است. اما ارزش این را دارد که تا چه اندازه از فناوری یک آونگ است. سوئیچینگ مداری جای خود را به سوئیچینگ بسته های اینترنتی طی چندین دهه دردناک و طاقت فرسا انتقال داد. و اکنون که در نقطهای هستیم که پروتکلهای اینترنت تقریباً تمام شبکههای مخابراتی را در آنجا نیرو میدهند، وضعیت هنر در حال بازگشت به تحویل قطعی با کانالهای اختصاصی است.
اول اینکه گوگل چه برنامه هایی می سازد که آنقدر پیچیده هستند که به این راه حل نیاز دارند. گوگل به دلیل تلاش خود برای تجاری سازی راه حل های محاسباتی توزیع شده مشهور است. آنها بسیاری از متداولترین ابزارها و مفاهیم را برای تقسیم کردن مسائل بزرگ و پیچیده محاسباتی به کارهای کوچک و مجزا که میتوان به صورت موازی انجام داد، اختراع کردند. اما در اینجا، آنها به دنبال متمرکز کردن همه اینها هستند.
تفاوتهای کلیدی در این تنظیمات تخصصیتر نسبت به محیطهای مرکز داده تولید عبارتند از: ۱) توانایی در نظر گرفتن استقرار یک مستاجر یا حداقل اشتراکگذاری فضا به جای اشتراک زمانی. ii) کاهش نگرانی در مورد رسیدگی به شکست. و iii) تمایل به پذیرش فناوریهای شبکه ناسازگار با عقب از جمله فرمتهای سیمی.
به جای وظایف مجزا، گوگل در عوض برنامههایی را میسازد که ارتباط نزدیک و وابسته به یکدیگر دارند، به طوری که نیاز به اشتراکگذاری دادهها به گونهای دارند که میکروثانیهها کل چیز را با «دو تا سه مرتبه بزرگی» مختل کنند.
گوگل در جستجوی چنین چیزی تنها نیست. سوئیچینگ بسته به طور کلی و اینترنت به طور خاص دارای محدودیت های جدی هستند. ده ها گروه در جهان به دنبال رفع این محدودیت ها هستند. این گروهها از پیشگامان اینترنت مانند پروفسور تیم برنرز لی و ابتکار Solid او گرفته تا IP جدید هوآوی (دیدگاه کمی متفاوت از آن) را شامل میشوند.
نکته اینجاست که گوگل میخواست Aquila مسیرهای شبکه اختصاصی را برای یک کاربر فراهم کند، تحویل تضمینی پیام را ارائه دهد و از پروتکلهای ارتباطی قدیمیتر پشتیبانی کند. البته مجموعهای از فناوریهای شبکه وجود دارد که قبلاً این کار را انجام میدهند – ما آنها را مینامیم سوئیچینگ مدار، و بیش از صد سال است که توسط اپراتورهای مخابراتی استفاده می شود.
به قول گوگل:
نکته این نیست که گوگل قهقرایی است، فقط این است که فناوری دارای معاوضه هایی است و برنامه های کاربردی مختلف به راه حل های متفاوتی نیاز دارند. به یاد داشته باشید که دفعه بعد کسی جنگ مقدسی را بر سر این یا آن پروتکل به راه انداخت.
با تجزیه این مقاله متراکم دو سوال برای ما برجسته بود.
مشقات شرکتهای تراشههای هوش مصنوعی استارتاپی را بررسی کنید و بسیاری از آنها در این نوع مسائل بنیانگذارند. گوگل باید مدل هایی به قدری بزرگ داشته باشد که این وابستگی های متقابل به گلوگاه هایی تبدیل شوند که فقط در مقیاس مرکز داده قابل حل باشد. یکی از نامزدهای احتمالی در اینجا این است که گوگل برای آموزش مدل های رانندگی خودران به چیزی شبیه به این نیاز دارد – که باید تعداد زیادی متغیر وابسته به هم را در نظر بگیرد. به عنوان مثال، آیا آن جسم روی لیدار همان چیزی است که دوربین می بیند، فاصله آن چقدر است و چقدر طول می کشد تا با آن تصادف کنیم؟
همچنین ممکن است گوگل در حال کار بر روی محاسبات بسیار شدید دیگری باشد. این مقاله مکرراً در مورد محاسبات با عملکرد بالا (HPC) بحث میکند، که معمولاً قلمرو ابر رایانههایی است که آب و هوا و واکنشهای هستهای را شبیهسازی میکنند. شایان ذکر است که گوگل در اینجا روی چه چیزی کار می کند، فکر کنید زیرا احتمالاً در آینده بسیار مهم خواهد بود.
همانطور که گفته شد، عامل دومی که در این مقاله برای ما برجسته بود، احساس کنایه شدید است.
اتصال تمام سرورهای داخل یک مرکز داده یک عملیات شبکه با شدت بالا است و برای چندین دهه این اپراتورها از رایج ترین پروتکل های ارتباطی مانند اترنت برای اتصال فیزیکی همه آن سرورها و سوئیچ ها استفاده می کردند. (بله، بسیاری از موارد دیگر هنوز در حال استفاده هستند، اما اترنت اکثر موارد مورد بحث ما را تشکیل می دهد). اترنت مدت زیادی است که وجود داشته است، زیرا بسیار انعطاف پذیر، مقیاس پذیر و همه چیزهای دیگر است. اما مانند همه چیز در فناوری، محدودیت های خود را دارد.
اوایل سال جاری، گوگل از پروتکل شبکه جدید خود به نام Aquila رونمایی کرد که در آن به نظر میرسد گوگل بر روی یک محدودیت بزرگ اترنت تمرکز میکند – تأخیر در شبکه یا تأخیرهای ناشی از مدت زمان لازم برای جابجایی اشیا در شبکه اترنت. مسلماً، ما تأخیر را در میلیونم ثانیه (میکروثانیه، میکروثانیه) اندازهگیری میکنیم، اما در مقیاسی که در مورد آن صحبت میکنیم، این تأخیرها جمع میشوند.
این پروژه ها بدیهی است که اهداف بسیار متفاوتی دارند، اما همه آنها از مشکل غلبه بر یک پایگاه نصب شده در سراسر جهان رنج می برند. در مقابل، گوگل به دنبال تغییر جهان نیست، فقط بخشی از آن است.
ما متوجه شدیم که این پاراگراف به طور خاص بسیار طنزآمیز است (که قطعاً بیش از هر چیز دیگری در مورد حس شوخ طبعی ما می گوید):