شبکه سازی: هر چه چیزها بیشتر تغییر کنند، بیشتر ثابت می مانند


جهان مملو از پروتکل های شبکه است – راه هایی که تجهیزات الکترونیکی و رایانه ها با هم ارتباط برقرار می کنند. استفاده زیادی از این پروتکل ها را می توان در مراکز داده، به ویژه در میان مقیاس های بزرگ مانند گوگل و آمازون یافت.

اتصال تمام سرورهای داخل یک مرکز داده یک عملیات شبکه با شدت بالا است و برای چندین دهه این اپراتورها از رایج ترین پروتکل های ارتباطی مانند اترنت برای اتصال فیزیکی همه آن سرورها و سوئیچ ها استفاده می کردند. (بله، بسیاری از موارد دیگر هنوز در حال استفاده هستند، اما اترنت اکثر موارد مورد بحث ما را تشکیل می دهد). اترنت مدت زیادی است که وجود داشته است، زیرا بسیار انعطاف پذیر، مقیاس پذیر و همه چیزهای دیگر است. اما مانند همه چیز در فناوری، محدودیت های خود را دارد.

یادداشت ویراستار:
نویسنده مهمان، جاناتان گلدبرگ، بنیانگذار D2D Advisory، یک شرکت مشاوره چند منظوره است. جاناتان استراتژی‌های رشد و اتحادهایی را برای شرکت‌هایی در صنعت موبایل، شبکه، بازی و نرم‌افزار ایجاد کرده است.

اوایل سال جاری، گوگل از پروتکل شبکه جدید خود به نام Aquila رونمایی کرد که در آن به نظر می‌رسد گوگل بر روی یک محدودیت بزرگ اترنت تمرکز می‌کند – تأخیر در شبکه یا تأخیرهای ناشی از مدت زمان لازم برای جابجایی اشیا در شبکه اترنت. مسلماً، ما تأخیر را در میلیونم ثانیه (میکروثانیه، میکروثانیه) اندازه‌گیری می‌کنیم، اما در مقیاسی که در مورد آن صحبت می‌کنیم، این تأخیرها جمع می‌شوند.

به قول گوگل:

ما شاهد بن‌بست جدیدی در مرکز داده هستیم که در آن پیشرفت‌ها در محاسبات توزیع‌شده به دلیل عدم پیش‌بینی‌پذیری عملکرد و انزوا در شبکه‌های مرکز داده چند مستاجر به طور فزاینده‌ای محدود می‌شود. دو تا سه مرتبه تفاوت عملکرد در هدف طراحان پارچه شبکه و برنامه‌هایی که می‌توانند انتظار داشته باشند و برنامه‌ریزی کنند، غیرمعمول نیست و سرعت نوآوری را در سیستم‌های توزیع‌شده مبتنی بر خوشه‌های سطح بالاتر به شدت محدود می‌کند.

با تجزیه این مقاله متراکم دو سوال برای ما برجسته بود.

اول اینکه گوگل چه برنامه هایی می سازد که آنقدر پیچیده هستند که به این راه حل نیاز دارند. گوگل به دلیل تلاش خود برای تجاری سازی راه حل های محاسباتی توزیع شده مشهور است. آنها بسیاری از متداول‌ترین ابزارها و مفاهیم را برای تقسیم کردن مسائل بزرگ و پیچیده محاسباتی به کارهای کوچک و مجزا که می‌توان به صورت موازی انجام داد، اختراع کردند. اما در اینجا، آنها به دنبال متمرکز کردن همه اینها هستند.

به جای وظایف مجزا، گوگل در عوض برنامه‌هایی را می‌سازد که ارتباط نزدیک و وابسته به یکدیگر دارند، به طوری که نیاز به اشتراک‌گذاری داده‌ها به گونه‌ای دارند که میکروثانیه‌ها کل چیز را با «دو تا سه مرتبه بزرگی» مختل کنند.

پاسخ احتمالاً «شبکه‌های عصبی هوش مصنوعی» است – که روشی جالب برای گفتن ضرب ماتریس است. گلوگاهی که بسیاری از سیستم‌های هوش مصنوعی با آن روبه‌رو هستند این است که هنگام محاسبه مدل‌های عظیم، مراحل مختلف ریاضی بر یکدیگر تأثیر می‌گذارند – یک محاسبه قبل از اینکه کامل شود به راه‌حل محاسبه دیگری نیاز دارد.

مشقات شرکت‌های تراشه‌های هوش مصنوعی استارتاپی را بررسی کنید و بسیاری از آنها در این نوع مسائل بنیان‌گذارند. گوگل باید مدل هایی به قدری بزرگ داشته باشد که این وابستگی های متقابل به گلوگاه هایی تبدیل شوند که فقط در مقیاس مرکز داده قابل حل باشد. یکی از نامزدهای احتمالی در اینجا این است که گوگل برای آموزش مدل های رانندگی خودران به چیزی شبیه به این نیاز دارد – که باید تعداد زیادی متغیر وابسته به هم را در نظر بگیرد. به عنوان مثال، آیا آن جسم روی لیدار همان چیزی است که دوربین می بیند، فاصله آن چقدر است و چقدر طول می کشد تا با آن تصادف کنیم؟

همچنین ممکن است گوگل در حال کار بر روی محاسبات بسیار شدید دیگری باشد. این مقاله مکرراً در مورد محاسبات با عملکرد بالا (HPC) بحث می‌کند، که معمولاً قلمرو ابر رایانه‌هایی است که آب و هوا و واکنش‌های هسته‌ای را شبیه‌سازی می‌کنند. شایان ذکر است که گوگل در اینجا روی چه چیزی کار می کند، فکر کنید زیرا احتمالاً در آینده بسیار مهم خواهد بود.

همان‌طور که گفته شد، عامل دومی که در این مقاله برای ما برجسته بود، احساس کنایه شدید است.

ما متوجه شدیم که این پاراگراف به طور خاص بسیار طنزآمیز است (که قطعاً بیش از هر چیز دیگری در مورد حس شوخ طبعی ما می گوید):

تفاوت‌های کلیدی در این تنظیمات تخصصی‌تر نسبت به محیط‌های مرکز داده تولید عبارتند از: ۱) توانایی در نظر گرفتن استقرار یک مستاجر یا حداقل اشتراک‌گذاری فضا به جای اشتراک زمانی. ii) کاهش نگرانی در مورد رسیدگی به شکست. و iii) تمایل به پذیرش فناوری‌های شبکه ناسازگار با عقب از جمله فرمت‌های سیمی.

نکته اینجاست که گوگل می‌خواست Aquila مسیرهای شبکه اختصاصی را برای یک کاربر فراهم کند، تحویل تضمینی پیام را ارائه دهد و از پروتکل‌های ارتباطی قدیمی‌تر پشتیبانی کند. البته مجموعه‌ای از فناوری‌های شبکه وجود دارد که قبلاً این کار را انجام می‌دهند – ما آنها را می‌نامیم سوئیچینگ مدار، و بیش از صد سال است که توسط اپراتورهای مخابراتی استفاده می شود.

ما می دانیم که آکویلا بسیار متفاوت است. اما ارزش این را دارد که تا چه اندازه از فناوری یک آونگ است. سوئیچینگ مداری جای خود را به سوئیچینگ بسته های اینترنتی طی چندین دهه دردناک و طاقت فرسا انتقال داد. و اکنون که در نقطه‌ای هستیم که پروتکل‌های اینترنت تقریباً تمام شبکه‌های مخابراتی را در آنجا نیرو می‌دهند، وضعیت هنر در حال بازگشت به تحویل قطعی با کانال‌های اختصاصی است.

نکته این نیست که گوگل قهقرایی است، فقط این است که فناوری دارای معاوضه هایی است و برنامه های کاربردی مختلف به راه حل های متفاوتی نیاز دارند. به یاد داشته باشید که دفعه بعد کسی جنگ مقدسی را بر سر این یا آن پروتکل به راه انداخت.

گوگل در جستجوی چنین چیزی تنها نیست. سوئیچینگ بسته به طور کلی و اینترنت به طور خاص دارای محدودیت های جدی هستند. ده ها گروه در جهان به دنبال رفع این محدودیت ها هستند. این گروه‌ها از پیشگامان اینترنت مانند پروفسور تیم برنرز لی و ابتکار Solid او گرفته تا IP جدید هوآوی (دیدگاه کمی متفاوت از آن) را شامل می‌شوند.

این پروژه ها بدیهی است که اهداف بسیار متفاوتی دارند، اما همه آنها از مشکل غلبه بر یک پایگاه نصب شده در سراسر جهان رنج می برند. در مقابل، گوگل به دنبال تغییر جهان نیست، فقط بخشی از آن است.



منبع