hpc چیست؟

محاسبات با کارایی بالا (HPC) توانایی پردازش داده ها و انجام محاسبات پیچیده با سرعت بالا است. برای درک بهتر، یک لپ تاپ یا دسکتاپ با پردازنده 3 گیگاهرتز می تواند حدود 3 میلیارد محاسبه در ثانیه انجام دهد. در حالی که این بسیار سریعتر از هر انسانی است، اما در مقایسه با راه حل های HPC که می توانند چهار میلیارد محاسبه در ثانیه انجام دهند، کم رنگ است.

یکی از شناخته شده ترین انواع راه حل های HPC، ابررایانه ها هستند. یک ابر رایانه شامل هزاران گره محاسباتی است که با هم کار می کنند تا یک یا چند کار را انجام دهند. این پردازش موازی نامیده می شود. این شبیه به داشتن هزاران رایانه شخصی است که با هم شبکه شده اند و قدرت محاسباتی را برای انجام سریعتر کارها ترکیب می کنند.

چرا HPC مهم است؟

از طریق داده ها است که اکتشافات علمی پیشگامانه انجام می شود، نوآوری های تغییر دهنده بازی تقویت می شود و کیفیت زندگی برای میلیاردها نفر در سراسر جهان بهبود می یابد. HPC پایه و اساس پیشرفت های علمی، صنعتی و اجتماعی است.

همانطور که فناوری هایی مانند اینترنت اشیا (IoT)، هوش مصنوعی (AI) و تصویربرداری سه بعدی تکامل می یابند، اندازه و مقدار داده هایی که سازمان ها باید با آنها کار کنند به طور تصاعدی در حال رشد است. برای بسیاری از اهداف، مانند پخش جریانی یک رویداد ورزشی زنده، ردیابی طوفان در حال توسعه، آزمایش محصولات جدید، یا تجزیه و تحلیل روند سهام، توانایی پردازش داده ها در زمان واقعی بسیار مهم است.

برای نگه داشتن یک گام جلوتر از رقبا، سازمان ها به زیرساخت های فناوری اطلاعات سریع و بسیار قابل اعتماد برای پردازش، ذخیره و تجزیه و تحلیل حجم عظیمی از داده ها نیاز دارند.

HPC چگونه کار می کند؟

راه حل های HPC سه جزء اصلی دارند:

محاسبه کنید

شبکه

ذخیره سازی

برای ایجاد یک معماری محاسباتی با کارایی بالا، سرورهای محاسباتی با هم در یک کلاستر شبکه می شوند. برنامه ها و الگوریتم های نرم افزاری به طور همزمان بر روی سرورهای موجود در کلاستر اجرا می شوند. خوشه به ذخیره سازی داده ها شبکه می شود تا خروجی را بگیرد. این اجزا با هم به طور یکپارچه عمل می کنند تا مجموعه متنوعی از وظایف را تکمیل کنند.

برای کارکرد با حداکثر کارایی، هر جزء باید همگام با بقیه باشد. برای مثال، جزء ذخیره‌سازی باید بتواند داده‌ها را به همان سرعتی که پردازش می‌شود به و از سرورهای محاسباتی تغذیه و وارد کند. به همین ترتیب، اجزای شبکه باید قادر به پشتیبانی از انتقال سریع داده ها بین سرورهای محاسباتی و ذخیره سازی داده باشند. اگر یک جزء نتواند با بقیه هماهنگی داشته باشد، عملکرد کل زیرساخت HPC آسیب می بیند.

خوشه HPC چیست؟

یک خوشه HPC از صدها یا هزاران سرور محاسباتی تشکیل شده است که با هم شبکه شده اند. هر سرور یک گره نامیده می شود. گره ها در هر خوشه به موازات یکدیگر کار می کنند و سرعت پردازش را برای ارائه محاسبات با کارایی بالا افزایش می دهند.

← مرکز محاسبات سریع شبیه‌سازان امیرکبیر  →

اینجا کلیک کنید!

موارد استفاده HPC

راه‌حل‌های HPC که در محل، لبه یا در فضای ابری مستقر شده‌اند، برای اهداف مختلف در صنایع مختلف استفاده می‌شوند. مثالها عبارتند از:

آزمایشگاه های تحقیقاتی HPC برای کمک به دانشمندان در یافتن منابع انرژی تجدیدپذیر، درک تکامل جهان، پیش‌بینی و ردیابی طوفان‌ها و ایجاد مواد جدید استفاده می‌شود.

رسانه و سرگرمی. HPC برای ویرایش فیلم های بلند، ارائه جلوه های ویژه شگفت انگیز و پخش جریانی رویدادهای زنده در سراسر جهان استفاده می شود.

نفت و گاز. HPC برای شناسایی دقیق‌تر محل حفاری چاه‌های جدید و کمک به افزایش تولید از چاه‌های موجود استفاده می‌شود.

هوش مصنوعی و یادگیری ماشینی HPC برای شناسایی تقلب در کارت اعتباری، ارائه پشتیبانی فنی خودراهنما، آموزش وسایل نقلیه خودران و بهبود تکنیک های غربالگری سرطان استفاده می شود.

خدمات مالی. HPC برای ردیابی روندهای سهام در زمان واقعی و معاملات خودکار استفاده می شود.

HPC برای طراحی محصولات جدید، شبیه سازی سناریوهای آزمایش و اطمینان از اینکه قطعات در انبار نگهداری می شوند تا خطوط تولید متوقف نشوند، استفاده می شود.

HPC برای کمک به توسعه درمان بیماری هایی مانند دیابت و سرطان و امکان تشخیص سریع تر و دقیق تر بیمار استفاده می شود.

NetApp و HPC

راه حل NetApp HPC دارای خط کاملی از سیستم های ذخیره سازی سری E با کارایی بالا و چگالی بالا است. یک معماری ماژولار با قیمت/عملکرد پیشرو در صنعت، راه حلی واقعی برای پشتیبانی از نیازهای ذخیره سازی برای مجموعه داده های چند پتابایتی ارائه می دهد. این سیستم با سیستم های فایل HPC پیشرو، از جمله Lustre، IBM Spectrum Scale، BeeGFS، و سایر موارد ادغام شده است تا نیازهای عملکرد و قابلیت اطمینان بزرگترین زیرساخت های محاسباتی جهان را مدیریت کند.

سیستم‌های سری E عملکرد، قابلیت اطمینان، مقیاس‌پذیری، سادگی و TCO کمتری را که برای مقابله با چالش‌های پشتیبانی از بار کاری شدید لازم است را ارائه می‌کنند:

کارایی. حداکثر 1 میلیون IOPS خواندن تصادفی و 13 گیگابایت در ثانیه پهنای باند نوشتن پایدار (حداکثر انفجار) را در هر بلوک ساختمانی مقیاس‌پذیر ارائه می‌کند. راه حل NetApp HPC که برای رسانه های فلش و چرخان بهینه شده است، دارای فناوری داخلی است که بارهای کاری را نظارت می کند و به طور خودکار تنظیمات را برای به حداکثر رساندن عملکرد تنظیم می کند.

قابلیت اطمینان. طراحی مقاوم در برابر خطا بیش از 99.9999٪ در دسترس بودن را ارائه می دهد که توسط بیش از 1 میلیون سیستم مستقر شده اثبات شده است. ویژگی‌های داخلی تضمین داده کمک می‌کند مطمئن شوید که داده‌ها بدون افت، خرابی یا بیت‌های از دست رفته دقیق هستند.

آسان برای استقرار و مدیریت. طراحی مدولار، تکثیر همزمان بلوک‌های ذخیره‌سازی («برش و چسباندن»)، نظارت فعال، و اسکریپت‌های اتوماسیون، همگی مدیریت آسان، سریع و انعطاف‌پذیر را به همراه دارند.

مقیاس پذیری یک رویکرد گرانول و ساختاری برای رشد که با افزودن ظرفیت در هر افزایش – یک یا چند درایو در یک زمان، مقیاس‌پذیری یکپارچه را از ترابایت تا پتابایت امکان‌پذیر می‌سازد.

TCO پایین تر بلوک‌های ساختمانی بهینه‌سازی قیمت/عملکرد و بهترین چگالی صنعت به ازای هر دستگاه، هزینه‌های کم انرژی، خنک‌کننده و پشتیبانی و نرخ خرابی 4 برابر کمتر از دستگاه‌های HDD و SSD کالا را ارائه می‌دهد.