Deprecated: mysql_pconnect(): The mysql extension is deprecated and will be removed in the future: use mysqli or PDO instead in /home/ertcaspi/public_html/Connections/db.php on line 9
نسل آینده مراکز داده - بخش اول | ارتباط کاسپین

نسل آینده مراکز داده - بخش اول


بررسی 6 جریان تأثیرگذار بر شبکه‌های آینده

ماهنامه شبکه - خرداد 1392 شماره 145


منبع: آرس‌تکنيکا ترجمه: احمد شريف‌پور


اشاره:

ماهنامه شبکه - مراکز داده سازمانی در حال تجربه تغییری اساسی هستند. تغییری که مشابه آن از زمان جایگزین شدن مین‌فریم‌ها با سرورهای اینتلی، دیده نشده بود. موضوع تنها پلتفرم سرور نیست. کل زیرساخت این مراکز داده از پایین تا بالا دستخوش تغییر خواهد شد ...




 


مراکز داده سازمانی در حال تجربه تغییری اساسی هستند. تغییری که مشابه آن از زمان جایگزین شدن مین‌فریم‌ها با سرورهای اینتلی، دیده نشده بود. موضوع تنها پلتفرم سرور نیست. کل زیرساخت این مراکز داده از پایین تا بالا دستخوش تغییر خواهد شد چرا‌که کاربری‌های مختلف این مراکز داده در حال مهاجرت به سمت ابرهای خصوصی و عمومی هستند، شبکه‌ها سریع‌تر می‌شوند و مجازی‌سازی به چیزی طبیعی تبدیل شده است. همه این‌ تحولات به این معنی است که مراکز داده آینده با نمونه‌های کنونی به شدت متفاوت خواهند بود. پردازنده‌ها، سیستم‌ها و فضای ذخیره‌سازی بهتر با یکدیگر یکپارچه و بیش از پیش مجازی خواهند شد. همچنین بهتر می‌توانند از شبکه‌های بهتر و پهنای باند اینترنت استفاده کنند. پیشرفت‌های حاصل در شبکه‌ها در قلب تمام این تغییرات قرار دارند. در این نوشتار به بررسی 6 جریانی خواهیم پرداخت که نیروی محرکه انقلاب نسل‌بعدی مراکز داده را تأمین می‌کنند و می‌بینیم که دست‌اندرکاران IT و حتی استفاده کنندگان نهایی برای کسب آمادگی لازم برای روبه‌رویی با این تغییرات به چه اقداماتی نیاز دارند.







فراتر از شبکه‌های 10 گیگابیت بر ثانیه

به‌یقین می‌دانیم که اتصالات شبکه‌ای روز‌به‌روز سریع‌تر می‌شوند. این روزها دیدن اتصالات اترنت 10 گیگابیتی (GbE) در سرورهای بزرگ بسیار معمول است. اما حتی 10GbE هم به اندازه کافی برای مراکز داده به شدت مجازی شده یا برای کاربردهایی که نیازمند استریم صوت و تصویر در مقیاس وسیع هستند، مناسب نیست. با افزایش تعداد سرورهای مجازی به شبکه‌های سریع‌تری نیاز داریم تا بار اطلاعات مورد نیاز برای پردازش‌های آن‌ها را مدیریت کنند. راه‌اندازی یک سرور مجازی ممکن است باعث صرفه‌جویی در هزینه خرید سرورهای فیزیکی شود، اما میزان ترافیک اطلاعات را در شبکه شما کاهش نمی‌دهد. درواقع بسته به این که زیرساخت مجازی‌سازی شما چگونه کار می‌کند، تأثیر یک سرور مجازی روی شبکه شما ممکن است بیش از یک سرور فیزیکی باشد و با توجه به استفاده روزافزون از صوت و تصویر در سازمان‌ها و موقعیت‌های معمول تجاری، حجم فایل‌ها هم روزانه بیشتر می‌شود. نتیجه این امر به وجود آمدن فایل‌های چند گیگابایتی است که به‌سادگی ممکن است ظرفیت شبکه شما را پر کنند، حتی اگر شبکه داخلی مرکز داده شما 10GbE باشد.

بخشی از فرآیند کنار آمدن با این معضل در انتقال داده هوشمندی بیشتر در زمینه تشخیص گلوگاه‌های شبکه و برطرف کردن آن‌ها است. درایورهای ناکامل کارت‌های شبکه که خروجی دستگاه‌ها را محدود می‌کنند نمونه‌ای از این گلوگاه‌ها هستند. مسیرهای نامناسب یا مشکل‌دار انتقال داده نیز ممکن است باعث بروز تأخیر در انتقال داده‌ها شوند. به‌صورت معمول، هیچ‌کس این درایورهای نامناسب و مسیرهای انتقال ناکارآمد را به دقت بررسی نکرده است، زیرا در شبکه‌های با ترافیک کمتر به طور معمول، مشکلی ایجاد نمی‌کنند.

البته، توجه به این نکته مانع این امر نمی‌شود که پهنای باند بیشتر در برخی مواقع به سخت‌افزارهای جدید احتیاج دارد. تولیدکنندگان این محصولات نیز به‌خوبی آماده‌اند و هم‌اکنون هم تعداد زیادی روتر، سوئیچ و کارت شبکه موجود هستند که به با سرعت‌های 40 و حتی صد گیگابیت کار می‌کنند. بسیاری از تولیدکنندگان این تجهیزات را می‌فروشند. بخش Force10 شرکت دل، ملانوکس (Mellanox)، اچ‌پی، اکستریم‌نت‌ورکز (Extreme Networks) و بروکید (Brocade) نمونه‌هایی از این تولیدکنندگان هستند. داشتن امکان انتخاب بسیار خوب است، اما نرخ سازگاری با شبکه‌های 40 گیگابیتی هنوز پایین است.

دو موضوع استفاده از چنین تجهیزات پر سرعتی را با مشکل مواجه می‌کند. نخست مسئله قیمت است، چرا‌که این تجهیزات چندان ارزان نیستند. هزینه هر پورت 40 گیگابیتی روی سوئیچ به صورت میانگین 2500 دلار است که بسیار بیش از پورت‌های 10 گیگابیتی است. بسته به ماهیت کسب‌وکار شما ممکن است این هزینه اولیه چندان مهم نباشد، اما این تنها هزینه مورد نیاز نیست. بیشتر این تجهیزات به کابل‌ها و سوکت‌های اتصال جدیدی احتیاج دارند که پیاده‌سازی 40GbE را با مشکل مواجه می‌کند. به این ترتیب، یک مدیر IT باید در هنگام مطالعه برای فراتر رفتن از سرعت 10GbE هزینه کلی استفاده از چنین سیستمی را در نظر بگیرد.

با سریع و سریع‌تر شدن اترنت برنامه کابل‌کشی برای این شبکه‌های سریع‌تر نیز به تدریج متحول شده است. کابل‌های مسی قدیمی RJ45 در رده‌های CAT5 و CAT6 و حتی اتصالات فیبرنوری معمول دیگر با سرعت 40GbE سازگار نیستند. اتصالات جدید باید از استاندارد QSFP (سرنام Quad Small Form-factor Pluggable) استفاده کنند. کابل‌های دارای کانکتور QSFP را نمی‌توان در محل برید یا به سوکت متصل کرد. به این معنی که دیگر پرسنل IT نمی‌توانند کابل‌ها را بر‌اساس نیاز به طول دلخواه بریده و سوکت‌های SC یا LC را به آن‌ها متصل کنند. مراکز داده باید سیستم کابل‌کشی و طول‌های موردنیاز را به دقت تعیین کرده و آن‌ها را سفارش دهند تا سوکت‌ها در کارخانه به کابل‌ها متصل شوند. این موضوع نیز مانع بزرگی بر سر راه مهاجرت مراکز داده معمولی به‌شمار می‌رود. چرا‌که آن‌ها تا‌کنون به استفاده از سیم‌های مسی عادت کرده‌اند. معنای دیگر این است که تمام هزینه‌های انجام شده برای کابل‌های نوری هدر رفته است. (شکل 1)


شکل 1: چیدمان‌های مختلف کانکتورهای QSFP برای شبکه‌های 40GbE و سایر مشخصات آن‌ها



در عین حال، با افزایش درک مدیران IT از اتصالات QSFP ما استفاده بیشتری از شبکه‌های 40 و 100 گیگابیت برثانیه را شاهد خواهیم بود. حتی اگر این کاربردها در مسیرهای کوتاهی، مثلا میان دو رک مختلف در خود مرکز داده باشد. این سوئیچ‌ها را «سوئیچ‌های بالای رک» (Top Of Rack) می‌نامند. آن‌ها یک سوئیچ مرکزی یا مجموعه‌ای از سوئیچ‌ها را با یک اتصال پرسرعت به سرورهای داخل یک رک متصل می‌کنند که معمولاً اتصالات ضعیف‌تری را پشتیبانی می‌کند. یکی از تنظیم‌ها یا چیدمان‌های احتمالی می‌تواند این باشد که سرورهای داخل یک رک با اتصالات یک یا ده گیگابیتی با یک سوئیچ در داخل همان رک ارتباط برقرار کنند و آن سوئیچ با اتصالی 40 گیگابیتی به بخش‌های دیگر مرکز داده یا سوئیچ‌های مرکزی متصل شود. با پیاده‌سازی چنین شبکه‌های پرسرعتی باید در زمینه مدیریت شبکه، فایروال‌ها و سایر کاربردها منتظر ایجاد تغییراتی برای مدیریت بهتر این حجم عظیم انتقال داده نیز باشیم.


رک به‌عنوان یک مرکز داده کوچک

در روزهای خوش گذشته که سرورهای x86 تازه پا به درون مراکز داده گذاشته بودند، به‌طور معمول، سیستم‌های اطلاعاتی در ساختار سه لایه سامان‌دهی می‌شدند. کامپیوترهای دسکتاپ رابط کاربری یا نرم‌افزار ارائه را اجرا می‌کردند. لایه میانی شامل منطق درونی مرکز داده و کدهای در حال اجرا بود و در نهایت لایه داده درون سرورها و پایگاه‌های داده قرار داشت. این روزهای سادگی امور دیگر گذشته است!

چیزی که هنوز از آن دوران باقی مانده است، همان کارکنان، همان ابزارهای مدیریت سرورها، فضای ذخیره‌سازی روترها و دیگر اجزای شبکه و در نهایت همان رک‌های مجزا از هم درون مرکز داده است. این سیستم زمانی که کاربردهای مراکز داده مستقل از هم و بدون وابستگی بودند به‌خوبی کار می‌کرد. اما امروزه که کاربری‌های مراکز داده دارای لایه‌های متعدد بوده و به‌گونه‌ای ساخته شده‌اند که با یکدیگر در ارتباط باشند(مانند یک سرور وب که به سرور پایگاه داده یا یک سرور زمان‌بندی یا یک سیستم ابری متصل می‌شود)، دیگر جواب نمی‌دهد. تمام این اجزا اکنون روی ماشین‌های مجازی اجرا می‌شوند.

رک‌های کنونی بیشتر و بیشتر همگرا و مجتمع شده و مدیریت فضای ذخیره‌سازی، سرورها و عملیات شبکه را در کنار هم انجام می‌دهند. ظهور فناوری سرورهای تیغه‌ای که تمام این اجزای اساسی یک کامپیوتر را به‌صورت یک کارت درآورد و توانست به‌سادگی آن را در شکاف‌های توسعه یک کیس (رک) جای دهد، نخستین نشانه‌های چنین اندیشه‌ای بود. سرورهای تیغه‌ای سال‌ها است که در دسترس هستند، اما جهش اساسی زمانی اتفاق افتاد که آن‌ها به همراه مدیریت صحیح و نرم‌افزارهای مجازی‌سازی به کار گرفته شدند تا نمونه‌های جدیدی از سرورها، فضاهای ذخیره‌سازی و شبکه‌ها را به وجود بیاورند. همچنین جای دادن تعداد زیادی سرور تیغه‌ای در یک کیس واحد بزرگ، چگالی رک‌ها را به شکل خیره‌ای کننده‌ای افزایش داد.

این کاری چیزی فراتر از جای دادن مجموعه‌ای از قطعات در یک رک است. تولیدکنندگانی که شروع به فروش این راه‌حل‌های «مرکز داده در یک رک» کرده‌اند، سرویس‌های آزمایش مهندسی و یکپارچگی سیستم را پیش آماده کرده‌اند. آن‌ها همچنین طرح‌های نمونه‌ای را در‌اختیار دارند که می‌تواند به صاحبان مراکز داده کمک کند سیستم‌ها را طوری انتخاب کنند که با کمترین دردسر در زمینه کابل‌کشی روبه‌رو شوند. این تولیدکنندگان حتی نرم‌افزارهایی برای خودکار کردن فرآیندهای مدیریتی تهیه کرده‌اند. چیدمان‌های پیشنهادی آن‌ها خروجی سیستم را بهتر کرده و باعث می‌شود مدیریت بخش‌های مختلف ساده‌تر باشد. شرکت‌های بسیاری هستند که چنین خدماتی را عرضه می‌کنند که به‌عنوان نمونه می‌توان از خدمات Active Infrastructure شرکت دل و PureSystems شرکت آی‌بی‌ام نام برد. پیش از این، لازم بود که بخش‌های مختلف دپارتمان IT اجزای مختلف سیستم را تنظیم کنند. یک گروه مسئولیت سرورها را بر عهده داشت، گروه دیگری زیرساخت شبکه را کنترل می‌کرد و گروه دیگر به مدیریت فضاهای ذخیره‌سازی می‌پرداخت. این شیوه اداره مرکز داده به تلاش و هماهنگی زیادی نیاز داشت. اکنون تمام این کارها را می‌توان با هماهنگی کامل و تنها از طریق یک منبع واحد به انجام رساند. (شکل2)


شکل 2: سیستم سرورهای تیغه‌ای دل با نام PowerEdge



بد نیست برای نمونه به Active Infrastructure دل نگاهی داشته باشیم. دل ادعا می‌کند که در این سیستم 755 مرحله از مراحل مورد نیاز برای راه‌اندازی یک سرور و اتصال آن به شبکه را از سر راه برداشته است. این محصول با سرورهای اینتلی PowerEdge در یک رک عرضه می‌شود، آرایه‌ SANهای آن از محصولات بخش Compellent دل است و سرورهای تیغه‌ای که برای جمع‌آوری ورودی و خروجی و اتصالات پرسرعت شبکه مورد استفاده قرار می‌گیرند از محصولات بخش Force10 دل هستند. کل این بسته به لحاظ مصرف انرژی بهره‌وری بالایی دارد و راه‌اندازی آن بسیار ساده است. ما دموهایی از دل و آی‌بی‌ام را دیده‌ایم که در آن‌ها کل کلاستر شبکه ظرف کمتر از یک ساعت از حالت خاموش به حالت آماده به کار درآمده‌اند و تمام کارهای مدیریتی آن‌ها از طریق مدیر سیستمی انجام شده است که می‌تواند در آن سر دنیا باشد و فقط از طریق یک مرورگر وب به سیستم متصل شود.


فراتر از SANهای ساده

با توسعه SANها (سرنام Storage Area Network) این سیستم‌ها نیز پیچیده‌تر شده‌اند. امروزه SANها از ابزارهای مدیریت ذخیره‌سازی قدرتمندتری بهره‌مند هستند که این سیستم‌ها را کارآمدتر و انعطاف‌پذیرتر می‌کند. تاکنون مدیریت SANها براساس نظم و قوانین خاصی انجام می‌شد و نیازمند مهارت‌های خاص و درک عمیق از تنظیمات SANها برای دستیابی به کارایی بهتر بود. اما این وضعیت دیگر ادامه نخواهد داشت، با پیشرفت ابزارهای مدیریت SAN حتی افرادی که آشنایی اندکی با IT داشته باشند می‌توانند یکی از آن‌ها را به راه بیاندازند.

مرکز داده Active Infrastructure دل که پیشتر از آن سخن گفتیم نشان می‌دهد که SANها تا چه اندازه در سیستم‌های دیگر ادغام شده‌اند. علاوه‌بر چنین تلاش‌هایی، گروهی از ابزارهای مدیریت در حال توسعه و رشد نیز وجود دارند که مشاهده و مدیریت کل زیرساخت SAN را برای مدیران سیستم به‌سادگی «آب خوردن» می‌کنند. این ابزارها حتی می‌توانند مجموعه دیسک‌های مجازی مرکز داده را بسیار کارآمدتر کنند (شکل3).




شکل 3: نرم‌افزار مدیریت فضای ذخیره‌سازی SANSymphony که محصول Datacore Software است چیدن و تنظیم ظرفیت ذخیره‌سازی، به گونه‌ای که کارایی آن بسیار بالاتر رود، را برای مدیر سیستم به شدت ساده می‌کند.



یکی از مشکلات ذخیره‌سازی مجازی این است که شما ممکن است حجم زیادی از فضای خالی در‌اختیار داشته باشید که هیچ‌گاه توسط هیچ یک از ماشین‌های مجازی مورد استفاده قرار نمی‌گیرد. در یک سناریوی کاملاً معمول، ممکن است یک ترابایت فضای ذخیره‌سازی را به مجموعه‌ای از ماشین‌های مجازی نسبت دهید و تنها صد گیگابایت آن واقعاً توسط سیستم‌عامل و برنامه‌های ماشین مجازی مورد استفاده قرار بگیرد.

مسئله این است که باید فضای کافی در اختیار داشته باشید تا درایوهای مجازی شما در صورت نیاز بتوانند بزرگ‌تر شوند، به همین دلیل همیشه باید فضای ذخیره‌سازی‌ای را کنار بگذارید که در غیر این صورت می‌توانست توسط ماشین‌های دیگر مورد استفاده قرار بگیرد. این‌جا است که تخصیص داینامیک فضای اندک (Dynamic thin Provisioning) به کمک می‌آید. بیشتر آرایه‌های SAN نوعی از سیستم تخصیص فضای اندک را به صورت توکار دارند و به شما اجازه می‌دهند بدون تخصیص «واقعی» فضا آن را میان ماشین‌های مجازی تقسیم کنید. یک درایو یک ترابایتی که با تخصیص فضای اندک تهیه شده باشد، حجم خود را به سیستم یک ترابایت «اعلام» می‌کند، اما در واقع تنها حجمی به اندازه داده‌های خود اشغال می‌کند. به عبارت دیگر یک فضای ذخیره‌سازی یک ترابایتی فیزیکی را می‌توان به‌صورت کلان به عنوان یک درایو یک ترابایتی به سیستم معرفی کرد یا آن را به کمک تخصیص فضای اندک به یک دوجین درایو کوچک‌تر تقسیم کرد که خود را یک ترابایتی معرفی می‌کنند. تخصیص فضای اندک می‌تواند نقش مهمی در پیش‌بینی هزینه‌های سازمانی برای تهیه فضای ذخیره‌سازی داشته باشد. با تخصیص فضای اندک این امکان فراهم می‌شود که درایوهای‌تان را با حداکثر اندازه راه‌اندازی کنید، اما تنها در هنگام نیاز دیسک‌های فیزیکی را خریداری کنید.

یکی دیگر از کارهایی که SANهای امروزی می‌توانند انجام دهند حذف داده‌های تکراری (Deduplication) است. شیوه‌های مختلفی برای این کار وجود دارد، و هر تولیدکننده‌ای حقه‌ها و رازهای مخصوص خود را در پیاده‌سازی آن دارد. اما هدف همه آن‌ها کاهش یا حذف داده‌های تکراری است که چندین بار ذخیره شده‌اند. هنگامی که این فضاهای ذخیره‌سازی با ماشین‌های مجازی مورد استفاده قرار بگیرند، حذف داده‌های تکراری به این معناست که فایل‌های معمول سیستم‌عامل و برنامه‌ها لازم نیست روی چندین درایو مجازی جداگانه کپی شوند بلکه می‌توانند از یک محل واحد مشترک خوانده شوند. به این ترتیب می‌توان از فضای زیادی که این داده‌ها اشغال می‌کردند برای کارهای بهتری استفاده کرد. به عنوان مثال صدها ماشین مجازی ویندوز را در نظر بگیرید. آن‌ها به‌طور معمول، همه در پوشه Windows، پوشه Program Files و بسیاری جاهای دیگر خود داده‌های یکسانی دارند. Deduplication این اطمینان را فراهم می‌کند که این حجم عظیم از داده‌های مشترک و عمومی تنها یک بار ذخیره شوند و به این ترتیب، حجم عظیمی از فضای ذخیره‌سازی آزاد می‌شود.

رایامحک پردازش
.

www.rayamahak.ir

نسل آینده مراکز داده - بخش اول


بررسی 6 جریان تأثیرگذار بر شبکه‌های آینده

ماهنامه شبکه - خرداد 1392 شماره 145


منبع: آرس‌تکنيکا ترجمه: احمد شريف‌پور


اشاره:

ماهنامه شبکه - مراکز داده سازمانی در حال تجربه تغییری اساسی هستند. تغییری که مشابه آن از زمان جایگزین شدن مین‌فریم‌ها با سرورهای اینتلی، دیده نشده بود. موضوع تنها پلتفرم سرور نیست. کل زیرساخت این مراکز داده از پایین تا بالا دستخوش تغییر خواهد شد ...




 


مراکز داده سازمانی در حال تجربه تغییری اساسی هستند. تغییری که مشابه آن از زمان جایگزین شدن مین‌فریم‌ها با سرورهای اینتلی، دیده نشده بود. موضوع تنها پلتفرم سرور نیست. کل زیرساخت این مراکز داده از پایین تا بالا دستخوش تغییر خواهد شد چرا‌که کاربری‌های مختلف این مراکز داده در حال مهاجرت به سمت ابرهای خصوصی و عمومی هستند، شبکه‌ها سریع‌تر می‌شوند و مجازی‌سازی به چیزی طبیعی تبدیل شده است. همه این‌ تحولات به این معنی است که مراکز داده آینده با نمونه‌های کنونی به شدت متفاوت خواهند بود. پردازنده‌ها، سیستم‌ها و فضای ذخیره‌سازی بهتر با یکدیگر یکپارچه و بیش از پیش مجازی خواهند شد. همچنین بهتر می‌توانند از شبکه‌های بهتر و پهنای باند اینترنت استفاده کنند. پیشرفت‌های حاصل در شبکه‌ها در قلب تمام این تغییرات قرار دارند. در این نوشتار به بررسی 6 جریانی خواهیم پرداخت که نیروی محرکه انقلاب نسل‌بعدی مراکز داده را تأمین می‌کنند و می‌بینیم که دست‌اندرکاران IT و حتی استفاده کنندگان نهایی برای کسب آمادگی لازم برای روبه‌رویی با این تغییرات به چه اقداماتی نیاز دارند.







فراتر از شبکه‌های 10 گیگابیت بر ثانیه

به‌یقین می‌دانیم که اتصالات شبکه‌ای روز‌به‌روز سریع‌تر می‌شوند. این روزها دیدن اتصالات اترنت 10 گیگابیتی (GbE) در سرورهای بزرگ بسیار معمول است. اما حتی 10GbE هم به اندازه کافی برای مراکز داده به شدت مجازی شده یا برای کاربردهایی که نیازمند استریم صوت و تصویر در مقیاس وسیع هستند، مناسب نیست. با افزایش تعداد سرورهای مجازی به شبکه‌های سریع‌تری نیاز داریم تا بار اطلاعات مورد نیاز برای پردازش‌های آن‌ها را مدیریت کنند. راه‌اندازی یک سرور مجازی ممکن است باعث صرفه‌جویی در هزینه خرید سرورهای فیزیکی شود، اما میزان ترافیک اطلاعات را در شبکه شما کاهش نمی‌دهد. درواقع بسته به این که زیرساخت مجازی‌سازی شما چگونه کار می‌کند، تأثیر یک سرور مجازی روی شبکه شما ممکن است بیش از یک سرور فیزیکی باشد و با توجه به استفاده روزافزون از صوت و تصویر در سازمان‌ها و موقعیت‌های معمول تجاری، حجم فایل‌ها هم روزانه بیشتر می‌شود. نتیجه این امر به وجود آمدن فایل‌های چند گیگابایتی است که به‌سادگی ممکن است ظرفیت شبکه شما را پر کنند، حتی اگر شبکه داخلی مرکز داده شما 10GbE باشد.

بخشی از فرآیند کنار آمدن با این معضل در انتقال داده هوشمندی بیشتر در زمینه تشخیص گلوگاه‌های شبکه و برطرف کردن آن‌ها است. درایورهای ناکامل کارت‌های شبکه که خروجی دستگاه‌ها را محدود می‌کنند نمونه‌ای از این گلوگاه‌ها هستند. مسیرهای نامناسب یا مشکل‌دار انتقال داده نیز ممکن است باعث بروز تأخیر در انتقال داده‌ها شوند. به‌صورت معمول، هیچ‌کس این درایورهای نامناسب و مسیرهای انتقال ناکارآمد را به دقت بررسی نکرده است، زیرا در شبکه‌های با ترافیک کمتر به طور معمول، مشکلی ایجاد نمی‌کنند.

البته، توجه به این نکته مانع این امر نمی‌شود که پهنای باند بیشتر در برخی مواقع به سخت‌افزارهای جدید احتیاج دارد. تولیدکنندگان این محصولات نیز به‌خوبی آماده‌اند و هم‌اکنون هم تعداد زیادی روتر، سوئیچ و کارت شبکه موجود هستند که به با سرعت‌های 40 و حتی صد گیگابیت کار می‌کنند. بسیاری از تولیدکنندگان این تجهیزات را می‌فروشند. بخش Force10 شرکت دل، ملانوکس (Mellanox)، اچ‌پی، اکستریم‌نت‌ورکز (Extreme Networks) و بروکید (Brocade) نمونه‌هایی از این تولیدکنندگان هستند. داشتن امکان انتخاب بسیار خوب است، اما نرخ سازگاری با شبکه‌های 40 گیگابیتی هنوز پایین است.

دو موضوع استفاده از چنین تجهیزات پر سرعتی را با مشکل مواجه می‌کند. نخست مسئله قیمت است، چرا‌که این تجهیزات چندان ارزان نیستند. هزینه هر پورت 40 گیگابیتی روی سوئیچ به صورت میانگین 2500 دلار است که بسیار بیش از پورت‌های 10 گیگابیتی است. بسته به ماهیت کسب‌وکار شما ممکن است این هزینه اولیه چندان مهم نباشد، اما این تنها هزینه مورد نیاز نیست. بیشتر این تجهیزات به کابل‌ها و سوکت‌های اتصال جدیدی احتیاج دارند که پیاده‌سازی 40GbE را با مشکل مواجه می‌کند. به این ترتیب، یک مدیر IT باید در هنگام مطالعه برای فراتر رفتن از سرعت 10GbE هزینه کلی استفاده از چنین سیستمی را در نظر بگیرد.

با سریع و سریع‌تر شدن اترنت برنامه کابل‌کشی برای این شبکه‌های سریع‌تر نیز به تدریج متحول شده است. کابل‌های مسی قدیمی RJ45 در رده‌های CAT5 و CAT6 و حتی اتصالات فیبرنوری معمول دیگر با سرعت 40GbE سازگار نیستند. اتصالات جدید باید از استاندارد QSFP (سرنام Quad Small Form-factor Pluggable) استفاده کنند. کابل‌های دارای کانکتور QSFP را نمی‌توان در محل برید یا به سوکت متصل کرد. به این معنی که دیگر پرسنل IT نمی‌توانند کابل‌ها را بر‌اساس نیاز به طول دلخواه بریده و سوکت‌های SC یا LC را به آن‌ها متصل کنند. مراکز داده باید سیستم کابل‌کشی و طول‌های موردنیاز را به دقت تعیین کرده و آن‌ها را سفارش دهند تا سوکت‌ها در کارخانه به کابل‌ها متصل شوند. این موضوع نیز مانع بزرگی بر سر راه مهاجرت مراکز داده معمولی به‌شمار می‌رود. چرا‌که آن‌ها تا‌کنون به استفاده از سیم‌های مسی عادت کرده‌اند. معنای دیگر این است که تمام هزینه‌های انجام شده برای کابل‌های نوری هدر رفته است. (شکل 1)


شکل 1: چیدمان‌های مختلف کانکتورهای QSFP برای شبکه‌های 40GbE و سایر مشخصات آن‌ها



در عین حال، با افزایش درک مدیران IT از اتصالات QSFP ما استفاده بیشتری از شبکه‌های 40 و 100 گیگابیت برثانیه را شاهد خواهیم بود. حتی اگر این کاربردها در مسیرهای کوتاهی، مثلا میان دو رک مختلف در خود مرکز داده باشد. این سوئیچ‌ها را «سوئیچ‌های بالای رک» (Top Of Rack) می‌نامند. آن‌ها یک سوئیچ مرکزی یا مجموعه‌ای از سوئیچ‌ها را با یک اتصال پرسرعت به سرورهای داخل یک رک متصل می‌کنند که معمولاً اتصالات ضعیف‌تری را پشتیبانی می‌کند. یکی از تنظیم‌ها یا چیدمان‌های احتمالی می‌تواند این باشد که سرورهای داخل یک رک با اتصالات یک یا ده گیگابیتی با یک سوئیچ در داخل همان رک ارتباط برقرار کنند و آن سوئیچ با اتصالی 40 گیگابیتی به بخش‌های دیگر مرکز داده یا سوئیچ‌های مرکزی متصل شود. با پیاده‌سازی چنین شبکه‌های پرسرعتی باید در زمینه مدیریت شبکه، فایروال‌ها و سایر کاربردها منتظر ایجاد تغییراتی برای مدیریت بهتر این حجم عظیم انتقال داده نیز باشیم.


رک به‌عنوان یک مرکز داده کوچک

در روزهای خوش گذشته که سرورهای x86 تازه پا به درون مراکز داده گذاشته بودند، به‌طور معمول، سیستم‌های اطلاعاتی در ساختار سه لایه سامان‌دهی می‌شدند. کامپیوترهای دسکتاپ رابط کاربری یا نرم‌افزار ارائه را اجرا می‌کردند. لایه میانی شامل منطق درونی مرکز داده و کدهای در حال اجرا بود و در نهایت لایه داده درون سرورها و پایگاه‌های داده قرار داشت. این روزهای سادگی امور دیگر گذشته است!

چیزی که هنوز از آن دوران باقی مانده است، همان کارکنان، همان ابزارهای مدیریت سرورها، فضای ذخیره‌سازی روترها و دیگر اجزای شبکه و در نهایت همان رک‌های مجزا از هم درون مرکز داده است. این سیستم زمانی که کاربردهای مراکز داده مستقل از هم و بدون وابستگی بودند به‌خوبی کار می‌کرد. اما امروزه که کاربری‌های مراکز داده دارای لایه‌های متعدد بوده و به‌گونه‌ای ساخته شده‌اند که با یکدیگر در ارتباط باشند(مانند یک سرور وب که به سرور پایگاه داده یا یک سرور زمان‌بندی یا یک سیستم ابری متصل می‌شود)، دیگر جواب نمی‌دهد. تمام این اجزا اکنون روی ماشین‌های مجازی اجرا می‌شوند.

رک‌های کنونی بیشتر و بیشتر همگرا و مجتمع شده و مدیریت فضای ذخیره‌سازی، سرورها و عملیات شبکه را در کنار هم انجام می‌دهند. ظهور فناوری سرورهای تیغه‌ای که تمام این اجزای اساسی یک کامپیوتر را به‌صورت یک کارت درآورد و توانست به‌سادگی آن را در شکاف‌های توسعه یک کیس (رک) جای دهد، نخستین نشانه‌های چنین اندیشه‌ای بود. سرورهای تیغه‌ای سال‌ها است که در دسترس هستند، اما جهش اساسی زمانی اتفاق افتاد که آن‌ها به همراه مدیریت صحیح و نرم‌افزارهای مجازی‌سازی به کار گرفته شدند تا نمونه‌های جدیدی از سرورها، فضاهای ذخیره‌سازی و شبکه‌ها را به وجود بیاورند. همچنین جای دادن تعداد زیادی سرور تیغه‌ای در یک کیس واحد بزرگ، چگالی رک‌ها را به شکل خیره‌ای کننده‌ای افزایش داد.

این کاری چیزی فراتر از جای دادن مجموعه‌ای از قطعات در یک رک است. تولیدکنندگانی که شروع به فروش این راه‌حل‌های «مرکز داده در یک رک» کرده‌اند، سرویس‌های آزمایش مهندسی و یکپارچگی سیستم را پیش آماده کرده‌اند. آن‌ها همچنین طرح‌های نمونه‌ای را در‌اختیار دارند که می‌تواند به صاحبان مراکز داده کمک کند سیستم‌ها را طوری انتخاب کنند که با کمترین دردسر در زمینه کابل‌کشی روبه‌رو شوند. این تولیدکنندگان حتی نرم‌افزارهایی برای خودکار کردن فرآیندهای مدیریتی تهیه کرده‌اند. چیدمان‌های پیشنهادی آن‌ها خروجی سیستم را بهتر کرده و باعث می‌شود مدیریت بخش‌های مختلف ساده‌تر باشد. شرکت‌های بسیاری هستند که چنین خدماتی را عرضه می‌کنند که به‌عنوان نمونه می‌توان از خدمات Active Infrastructure شرکت دل و PureSystems شرکت آی‌بی‌ام نام برد. پیش از این، لازم بود که بخش‌های مختلف دپارتمان IT اجزای مختلف سیستم را تنظیم کنند. یک گروه مسئولیت سرورها را بر عهده داشت، گروه دیگری زیرساخت شبکه را کنترل می‌کرد و گروه دیگر به مدیریت فضاهای ذخیره‌سازی می‌پرداخت. این شیوه اداره مرکز داده به تلاش و هماهنگی زیادی نیاز داشت. اکنون تمام این کارها را می‌توان با هماهنگی کامل و تنها از طریق یک منبع واحد به انجام رساند. (شکل2)


شکل 2: سیستم سرورهای تیغه‌ای دل با نام PowerEdge



بد نیست برای نمونه به Active Infrastructure دل نگاهی داشته باشیم. دل ادعا می‌کند که در این سیستم 755 مرحله از مراحل مورد نیاز برای راه‌اندازی یک سرور و اتصال آن به شبکه را از سر راه برداشته است. این محصول با سرورهای اینتلی PowerEdge در یک رک عرضه می‌شود، آرایه‌ SANهای آن از محصولات بخش Compellent دل است و سرورهای تیغه‌ای که برای جمع‌آوری ورودی و خروجی و اتصالات پرسرعت شبکه مورد استفاده قرار می‌گیرند از محصولات بخش Force10 دل هستند. کل این بسته به لحاظ مصرف انرژی بهره‌وری بالایی دارد و راه‌اندازی آن بسیار ساده است. ما دموهایی از دل و آی‌بی‌ام را دیده‌ایم که در آن‌ها کل کلاستر شبکه ظرف کمتر از یک ساعت از حالت خاموش به حالت آماده به کار درآمده‌اند و تمام کارهای مدیریتی آن‌ها از طریق مدیر سیستمی انجام شده است که می‌تواند در آن سر دنیا باشد و فقط از طریق یک مرورگر وب به سیستم متصل شود.


فراتر از SANهای ساده

با توسعه SANها (سرنام Storage Area Network) این سیستم‌ها نیز پیچیده‌تر شده‌اند. امروزه SANها از ابزارهای مدیریت ذخیره‌سازی قدرتمندتری بهره‌مند هستند که این سیستم‌ها را کارآمدتر و انعطاف‌پذیرتر می‌کند. تاکنون مدیریت SANها براساس نظم و قوانین خاصی انجام می‌شد و نیازمند مهارت‌های خاص و درک عمیق از تنظیمات SANها برای دستیابی به کارایی بهتر بود. اما این وضعیت دیگر ادامه نخواهد داشت، با پیشرفت ابزارهای مدیریت SAN حتی افرادی که آشنایی اندکی با IT داشته باشند می‌توانند یکی از آن‌ها را به راه بیاندازند.

مرکز داده Active Infrastructure دل که پیشتر از آن سخن گفتیم نشان می‌دهد که SANها تا چه اندازه در سیستم‌های دیگر ادغام شده‌اند. علاوه‌بر چنین تلاش‌هایی، گروهی از ابزارهای مدیریت در حال توسعه و رشد نیز وجود دارند که مشاهده و مدیریت کل زیرساخت SAN را برای مدیران سیستم به‌سادگی «آب خوردن» می‌کنند. این ابزارها حتی می‌توانند مجموعه دیسک‌های مجازی مرکز داده را بسیار کارآمدتر کنند (شکل3).




شکل 3: نرم‌افزار مدیریت فضای ذخیره‌سازی SANSymphony که محصول Datacore Software است چیدن و تنظیم ظرفیت ذخیره‌سازی، به گونه‌ای که کارایی آن بسیار بالاتر رود، را برای مدیر سیستم به شدت ساده می‌کند.



یکی از مشکلات ذخیره‌سازی مجازی این است که شما ممکن است حجم زیادی از فضای خالی در‌اختیار داشته باشید که هیچ‌گاه توسط هیچ یک از ماشین‌های مجازی مورد استفاده قرار نمی‌گیرد. در یک سناریوی کاملاً معمول، ممکن است یک ترابایت فضای ذخیره‌سازی را به مجموعه‌ای از ماشین‌های مجازی نسبت دهید و تنها صد گیگابایت آن واقعاً توسط سیستم‌عامل و برنامه‌های ماشین مجازی مورد استفاده قرار بگیرد.

مسئله این است که باید فضای کافی در اختیار داشته باشید تا درایوهای مجازی شما در صورت نیاز بتوانند بزرگ‌تر شوند، به همین دلیل همیشه باید فضای ذخیره‌سازی‌ای را کنار بگذارید که در غیر این صورت می‌توانست توسط ماشین‌های دیگر مورد استفاده قرار بگیرد. این‌جا است که تخصیص داینامیک فضای اندک (Dynamic thin Provisioning) به کمک می‌آید. بیشتر آرایه‌های SAN نوعی از سیستم تخصیص فضای اندک را به صورت توکار دارند و به شما اجازه می‌دهند بدون تخصیص «واقعی» فضا آن را میان ماشین‌های مجازی تقسیم کنید. یک درایو یک ترابایتی که با تخصیص فضای اندک تهیه شده باشد، حجم خود را به سیستم یک ترابایت «اعلام» می‌کند، اما در واقع تنها حجمی به اندازه داده‌های خود اشغال می‌کند. به عبارت دیگر یک فضای ذخیره‌سازی یک ترابایتی فیزیکی را می‌توان به‌صورت کلان به عنوان یک درایو یک ترابایتی به سیستم معرفی کرد یا آن را به کمک تخصیص فضای اندک به یک دوجین درایو کوچک‌تر تقسیم کرد که خود را یک ترابایتی معرفی می‌کنند. تخصیص فضای اندک می‌تواند نقش مهمی در پیش‌بینی هزینه‌های سازمانی برای تهیه فضای ذخیره‌سازی داشته باشد. با تخصیص فضای اندک این امکان فراهم می‌شود که درایوهای‌تان را با حداکثر اندازه راه‌اندازی کنید، اما تنها در هنگام نیاز دیسک‌های فیزیکی را خریداری کنید.

یکی دیگر از کارهایی که SANهای امروزی می‌توانند انجام دهند حذف داده‌های تکراری (Deduplication) است. شیوه‌های مختلفی برای این کار وجود دارد، و هر تولیدکننده‌ای حقه‌ها و رازهای مخصوص خود را در پیاده‌سازی آن دارد. اما هدف همه آن‌ها کاهش یا حذف داده‌های تکراری است که چندین بار ذخیره شده‌اند. هنگامی که این فضاهای ذخیره‌سازی با ماشین‌های مجازی مورد استفاده قرار بگیرند، حذف داده‌های تکراری به این معناست که فایل‌های معمول سیستم‌عامل و برنامه‌ها لازم نیست روی چندین درایو مجازی جداگانه کپی شوند بلکه می‌توانند از یک محل واحد مشترک خوانده شوند. به این ترتیب می‌توان از فضای زیادی که این داده‌ها اشغال می‌کردند برای کارهای بهتری استفاده کرد. به عنوان مثال صدها ماشین مجازی ویندوز را در نظر بگیرید. آن‌ها به‌طور معمول، همه در پوشه Windows، پوشه Program Files و بسیاری جاهای دیگر خود داده‌های یکسانی دارند. Deduplication این اطمینان را فراهم می‌کند که این حجم عظیم از داده‌های مشترک و عمومی تنها یک بار ذخیره شوند و به این ترتیب، حجم عظیمی از فضای ذخیره‌سازی آزاد می‌شود.

رایامحک پردازش
.

www.rayamahak.ir

  نسل آینده مراکز داده - بخش اول