HPE و NVIDIA با راه حلی جدید، سرعت آموزش هوش مصنوعی را افزایش دادند
راهحل جدید برای مراکز تحقیقاتی و شرکتهای بزرگ برای تسریع هوش مصنوعی مولد، نرمافزار، سختافزار، شبکه و خدمات پیشرو در صنعت را ادغام میکند.
شرکت هیولت پاکارد انترپرایز (HPE) امروز یک راه حل رایانش ابری برای هوش مصنوعی را معرفی کرد که برای شرکت های بزرگ، مؤسسات تحقیقاتی و سازمان های دولتی طراحی شده است تا آموزش توسط مدلهای هوش مصنوعی را با استفاده از مجموعه دادههای خصوصی تسریع کند. این راه حل شامل یک مجموعه نرم افزاری است که به مشتریان امکان میدهد مدلها را تنظیم کرده و برنامههای کاربردی مورد نظر خود را توسط هوش مصنوعی ایجاد کنند. این راه حل همچنین شامل ابررایانههای خنک شونده با مایع، محاسبه شتاب یافته، شبکه، ذخیره سازی و خدمات برای کمک به سازمان ها برای سریع تر کردن ارزش هوش مصنوعی است.
شرکت ها و مراکز تحقیقاتی پیشرو در جهان در حال آموزش و تنظیم مدل های هوش مصنوعی برای پیشبرد نوآوری و دستیابی به پیشرفت در تحقیقات هستند، اما برای انجام این کار به طور مؤثر و کارآمد، به راه حل های هدفمند نیاز دارند. برای پشتیبانی از هوش مصنوعی مولد، سازمان ها باید از راه حل هایی استفاده کنند که پایدار هستند و عملکرد و مقیاس اختصاصی یک ابررایانه را برای پشتیبانی از آموزش مدل های هوش مصنوعی ارائه می دهند. ما از گسترش همکاری خود با NVIDIA برای ارائه یک راه حل کلید در دست مبتنی بر هوش مصنوعی هیجان زده هستیم که به مشتریان ما کمک می کند تا آموزش و نتایج مدل های هوش مصنوعی را به طور قابل توجهی تسریع کنند.
جاستین هوتارد، معاون اجرایی و مدیر عامل HPC، هوش مصنوعی و آزمایشگاههای شرکت HPE
ابزارهای نرمافزاری برای ساخت برنامههای هوش مصنوعی، سفارشیسازی مدلهای پیشساخته و توسعه و اصلاح کد، اجزای کلیدی این راه حل رایانش ابری برای هوش مصنوعی مولد هستند. این نرمافزار با فناوری رایانش ابری HPE Cray ادغام شده است که بر اساس همان معماری قدرتمند استفاده شده در سریعترین ابررایانه جهان و با استفاده از ابرتراشههای NVIDIA Grace Hopper GH200 ساخته شده است. این راه حل در مجموع به سازمانها مقیاس و عملکرد بیسابقهای را ارائه میدهد که برای بارهای کاری بزرگ هوش مصنوعی، مانند آموزش مدلهای زبان بزرگ (LLM) و مدلهای توصیهی یادگیری عمیق (DLRM) ضروری است. با استفاده از HPE Machine Learning Development Environment در این سیستم، مدل Llama 2 با 70 میلیارد پارامتر منبع باز در کمتر از 3 دقیقه بهینه شد، که به طور مستقیم به کاهش زمان دستیابی به ارزش برای مشتریان منجر میشود. قابلیتهای پیشرفته رایانش ابری HPE که توسط فناوری NVIDIA پشتیبانی میشود، عملکرد سیستم را 2-3 برابر بهبود میبخشد.
یک راه حل قدرتمند و یکپارچه هوش مصنوعی:
راه حل رایانش ابری برای هوش مصنوعی مولد یک پیشنهاد هدفمند، یکپارچه و مبتنی بر هوش مصنوعی است که شامل فناوری ها و خدمات زیر است:
نرم افزار شتابدهی AI/ML: مجموعهای از سه ابزار نرمافزاری که به مشتریان کمک میکند مدلهای هوش مصنوعی را آموزش و تنظیم کنند و برنامههای کاربردی هوش مصنوعی خود را ایجاد کنند. محیط توسعه یادگیری ماشین HPE: یک پلتفرم نرمافزاری یادگیری ماشین (ML) است که به مشتریان امکان میدهد با ادغام با فریمورکهای ML محبوب و سادهسازی آمادهسازی دادهها، سریعتر مدلهای هوش مصنوعی را توسعه و مستقر کنند. NVIDIA AI Enterprise: سازمانها را با امنیت، پایداری، قابلیت مدیریت و پشتیبانی به هوش مصنوعی پیشرو میرساند. فریمورکهای گسترده، مدلهای از پیش آموزشدیده و ابزارهایی را ارائه میدهد که توسعه و استقرار هوش مصنوعی تولید را ساده میکنند. مجموعه محیط برنامهنویسی HPE Cray: مجموعهای کامل از ابزارها را برای توسعه، پورت، اشکالزدایی و اصلاح کد به برنامهنویسان ارائه میدهد.
طراحی شده برای مقیاس: این راه حل بر اساس HPE Cray EX2500، یک سیستم کلاس اگزاسکیل، و با استفاده از ابرتراشههای پیشرو در صنعت NVIDIA GH200 Grace Hopper، میتواند تا هزاران واحد پردازش گرافیکی (GPU) با توانایی اختصاص کل ظرفیت گرهها برای پشتیبانی از یک بار کاری هوش مصنوعی برای دستیابی سریعتر به ارزش مقیاس شود.
شبکهای برای هوش مصنوعی بلادرنگ: HPE Slingshot Interconnect یک شبکه پرسرعت باز مبتنی بر اترنت را ارائه میکند که برای پشتیبانی از بارهای کاری کلاس اگزاسکیل طراحی شده است. این اتصال قابل تنظیم مبتنی بر فناوری HPE Cray، عملکرد کل سیستم را با امکان شبکهسازی با سرعت بسیار بالا تقویت میکند.
سادگی کلید در دست: این راه حل با خدمات HPE Complete Care که متخصصان جهانی را برای تنظیم، نصب و پشتیبانی کامل از چرخه عمر ارائه می دهد، تکمیل می شود تا پذیرش هوش مصنوعی را ساده کند.
آینده رایانش ابری و هوش مصنوعی پایدارتر خواهد بود
تا سال 2028، برآورد میشود که رشد بارهای کاری هوش مصنوعی به حدود 20 گیگاوات توان در مراکز داده نیاز داشته باشد. مشتریان به راه حل هایی نیاز خواهند داشت که سطح جدیدی از بهره وری انرژی را ارائه دهند تا تأثیر بر ردپای کربنی خود را به حداقل برسانند.
بهرهوری انرژی هسته ابتکارات محاسباتی HPE است که راه حل هایی را با قابلیت های خنک کننده مایع ارائه می دهد که می تواند بهبود عملکرد تا 20 درصد در هر کیلووات در مقایسه با راه حل های خنک کننده هوا ایجاد کند و 15 درصد انرژی کمتری مصرف کند.
امروزه، HPE با استفاده از خنک کننده مایع مستقیم (DLC) که در راه حل رایانش ابری برای هوش مصنوعی مولد ارائه شده است، اکثر 10 ابررایانه کارآمد برتر جهان را ارائه می دهد که برای خنک کردن کارآمد سیستم ها در عین کاهش مصرف انرژی برای برنامه های کاربردی با محاسبات فشرده استفاده می شود.
HPE در موقعیت منحصر به فردی قرار دارد تا به سازمان ها کمک کند تا قدرتمندترین فناوری محاسبات را برای پیشبرد اهداف هوش مصنوعی خود آزاد کنند و در عین حال به کاهش مصرف انرژی خود کمک کنند.
منبع: HPE