Описание гибридного вычислительного кластера
Гибридный вычислительный кластер СФМЭИ работает под управлением программы SLURM (Simple Linux Utility for Resource Management) – открытый (open source) менеджер управления ресурсами, предназначенный для оптимизации размещения вычислительных ресурсов, обладающий возможностью постановки задач в различные типы очередей, а также поддерживающий разграничение доступа пользователей к вычислительной системе.
В настоящее время вычислительный кластер состоит из 2-х отдельных узлов (node), предназначенных для выполнения различных задач - работа с технологиями CUDA (на 2-х видеокартах GeForce GTX Titan Black на узле main), а также поддержка технологии OpenCL (на 2-х видеокартах ATI Tahiti XT на узле node1 - рисунок 3). Также, в состав кластера входит дополнительный 3-й модуль, предназначенный для запуска виртуальных машин.
Узлы кластера установлены в серверную стойку (рисунок 1-2).
Рисунок 1 - Гибридный вычислительный кластер |
Рисунок 2 - Гибридный вычислительный кластер (открыта крышка узла node1) |
Помимо возможности вычислений с использованием GPU (видеокарты), каждый вычислительный узел содержит два 10-ядерых процессора Intel Xeon CPU E5-2690 v2. Каждое ядро работает в два потока. Таким образом, CPU в двух вычислительных узлах могут реализовать 80 потоков.
Рисунок 3 - Вычислительный узел node1 со снятой крышкой |
Суммарный объем оперативной памяти узлов 120Гб.
Теоретическая производительность графических процессоров вычислительных узлов кластера в вычислениях с плавающей точкой одинарной точности составляет: 2×5645 Гфлопс для видеокарт узла 1 (графический процессор NVIDIA GK-110- Bl) и 2×4384 Гфлопс для видеокарт узла 2 (графический процессор Tahiti XTL), в сумме - 20058 Гфлопс для всего кластера[1].
Список использованных источников:
1. Борисов В. В., Зернов М. М., Федулов А. С., Якушевский К. А. Исследование характеристик гибридного вычислительного кластера // Системы управления, связи и безопасности. 2016. №4. С. 129-146.