HPC DAY 2013 – Суперкомп’ютери виходять за межі лабораторій

Восьмий щорічний конференційний день високопродуктивних обчислень HPC Day відбувся на базі Національного технічного університету України “Київський політехнічний інститут”. Вже традиційно конференція була присвячена технологіям, апаратному та програмному забезпеченню для створення потужних обчислювальних кластерів та суперкомп’ютерів, GRID-технологіям, а також інфраструктурі для забезпечення їх неперервної роботи. Близько 300 фахівців брали участь у конференції, а за останні сім років їх кількість перевищила 2000 осіб.

Вже тардиційно разом із HPC DAY проводилась наукова конференція HPC-UA 2013. Таку конференцію НТУУ «КПІ» спільно з Інститутом кібернетики ім. В.М. Глушкова НАН України проводять уже втретє. Її тематика охоплює широке коло проблем: кластерні обчислення у фізиці, астрономії, нанотехнологіях, обчислювальній біології, математиці, використання суперкомп’ютерів у промисловості, паралельне програмування, масштабування паралельних алгоритмів, проектування кластерних архітектур, планувальники, керування обчислювальними ресурсами кластера, гібридні обчислення з використанням GPU, паралельні сховища даних, GRID, Сloud, розподілені обчислення як сервіс тощо

Конференція HPC DAY тривала два дні, незважаючи на слово “день” у її назві. Перший день був присвячений практичним семінарам. Зокрема, тренер зі науково-освітнього центру “Applied Parallel Computing” Олександр Шевченко ознайомив слухачів з особливостями паралельних обчислень NVIDIA CUDA версії 5.5, яка дозволяє використовувати обчислювальну потужність сучасних графічних процесорів. Вони також дізналися, як ефективно використовувати нововведення версії для паралельного програмування сучасних апаратних графічних прискорювачів TESLA, і про особливості оновленого інструментарію Nsight Visual Studio Edition 3.1. Директор з продуктів Дмитро Ткачев з Massive Solutions, Чехія, розповів, як за допомогою сучасних інтерфейсів зв’язку InfiniBand FDR 56 Gbps можна суттєво покращити функціонування хмарної інфраструктури, забезпечуючи в п’ять і більше разів вищу швидкість передачі даних між серверами та значно менші затримки порівняно з технологією 10 GbE.

У другий день відбулися технологічні презентації. Сесію відкрив доповідь директора з продажів HPC-систем в регіоні EMEA Філіппа Траутманна про зміни у світі обчислень, які він охарактеризував “олімпійським” гаслом: швидше, простіше, надійніше. Перш за все, він відзначив виход високопродуктивних обчислень з академічних колах в сектор реальної промисловості та широкий їх розповсюдження. Поле їх застосування включає біологію, геофізику, метеорологію, наукові дослідження, військові розробки. Найбільшим замовником HPC-систем є нафтогазова промисловість. Тут вартість експлуатації родовищ настільки висока, що придбання дорогих суперкомп’ютерів для симуляції процесів є вполне виправданим. До них також входять організації, такі як DARPA та ФБР. За словами доповідача, один з замовників HР з Міністерства оборони США використовує додаток, який потребує настільки великої кількості стійок з серверами, що для їх розміщення потрібна половина футбольного поля.

На завершення своєї презентації доповідач навів ряд прикладів HPC-систем на базі продуктів НР. Це найшвидший у університетському середовищі суперкомп’ютер Conte в Університеті Пердю, США (#28 у списку Top500, пікова продуктивність 1,635 PFLOPS), най”зеленіший” Tsubame 2.0 в Токійському технологічному інституті (#4 у списку Top500, пікова продуктивність 2,4 PFLOPS) та інші.

Очевидно, для побудови високопродуктивних обчислювальних кластерів необхідні відповідні мережеві технології, які об’єднують вузли. Про те, що в цій області пропонує HP, розповів фахівець з бізнес-підрозділу HP Networking Владислав Михайлюк.

Внутрішня мережа кластера HP повинна відповідати двом основним вимогам: високій пропускній здатності та якомога меншій затримці. Для вирішення цих завдань було розроблено ряд технологій, однією з яких є InfiniBand. Однак привабливим є використання Ethernet для міжвузлових з’єднань, що дозволяє мати однорідну мережу як всередині, так і ззовні. Сьогодні швидкість передачі даних по Ethernet дозволяє задовольнити першу вимогу, проте проблема затримок, пов’язаних з особливостями стека протоколів, залишається. Тому у 2002 році RDMA Consortium розробило протокол iWARP (Internet Wide Area RDMA Protocol), який розширює можливості TCP/IP.

Практично є фактом, що висока продуктивність сучасних суперкомп’ютерів багато в чому досягнута за рахунок використання графічних прискорювачів (GPU). Про їхню роль у високопродуктивних обчисленнях і вирішенні реальних проблем бізнесу розповів менеджер з роботи з системними інтеграторами Дмитро Конягін з NVIDIA.

За його словами, сьогодні ніхто вже не сумнівається в тому, що майбутні високопродуктивні системи матимуть гібридну архітектуру. Підтвердженням цієї тези можна отримати зі списку Top 500 суперкомп’ютерів – 19% всіх FLOPS забезпечуються за рахунок CUDA (Compute Unified Device Architecture), а також експоненційним зростанням обчислень на GPU, починаючи з 2008 року. Наприклад, протягом п’яти років кількість суперкомп’ютерів з гібридною моделлю обчислень зросла з 1 до 50. Багато основних застосувань у сфері інженерного аналізу, квантової хімії, молекулярної динаміки та багатьох інших (в сумі – понад 200) підтримують обчислення на GPU. Ведучі світові лабораторії з розробки нейронних мереж і алгоритмів штучного інтелекту використовують графічні прискорювачі. Проте, крім лабораторій, гібридні обчислення активно проникають і в комерційний сегмент.

Відомою наслідком масовості і доступності процесорів архітектури х86 стало те, що велика частина HPC-систем побудована на технологіях Intel. Про це повідомив менеджер з маркетингу СХД в СНД Володимир Сав’як з HP. За його словами, Intel робить багато для розвитку сегмента HPC. Окрім процесорів, компанія постачає засоби міжкомпонентного зв’язку на основі технологій Ethernet та InfiniBand, мережеві карти 10 GbE, SSD, файлову систему Lustre, багато серверів зберігання будуються на технологіях Intel.

За словами доповідача, в 2013 році відбулася якась зміна в поглядах корпоративних замовників на твердотільні диски. Дуже багато компаній прийняли рішення, що використання SSD у СХД є пріоритетним. Для своїх продуктів Intel гарантує певний високий показник продуктивності, стабільний протягом досить тривалого часу.

Важливим доповненням конференції стала доповідь Adaptive Computing, яка працює в області розробки управлінського програмного забезпечення для високопродуктивних обчислювальних систем (НРС). Вони мають досвід у цій сфері протягом більше 12 років і успішно управляють понад 30% суперкомп’ютерів зі списку Top 500. Досягнення Adaptive Computing полягає в тому, що вони знаходяться на стику двох актуальних напрямків – управління НРС та облачними обчисленнями. Оскільки обидва ці напрямки стають все більш інтегрованими, компанія має вигоду з можливості створювати управляюче програмне забезпечення як для НРС, так і для хмарних обчислень. Це зумовлено тим, що їхні продукти базуються на одній і тій же модульній системі для прийняття рішень.

Директор «Терминал-Сервис» Сергей Дудінов  зробив доповідь про розробку збалансованого кластера з обмеженим бюджетом. Доповідач аналізував питання використання GPU, вибору платформи (AMD або Intel), оптимальної кількості процесорів на вузол, внутрішньої зв’язку (Ethernet або InfiniBand), об’єму обчислювальних вузлів та інших аспектів.

За результатами аналізу було встановлено, що майбутні обчислювальні архітектури для завдань з високим рівнем паралелізму будуть гібридними, з використанням графічних процесорів, які працюватимуть у співпраці з багатоядерними центральними процесорами (ЦП).

 


Posted

in

by