77356

Описание параллельных вычислений при помощи замыканий

Научная статья

Информатика, кибернетика и программирование

Переменная n из множества NMES принимает значение истина только в том случае когда вычислен блок данных с именем являющимся и именем n. Для вычисления в функцию F передаются 1 список аргументов RGS 2 битовый вектор со значениями переменных NMES и 3 вычисленные блоки данных имена которых совпадают с именами переменных из...

Русский

2015-02-02

35 KB

0 чел.

Описание параллельных вычислений при помощи замыканий

М.О. Бахтерев

ИММ УрО РАН, Екатеринбург

Существует необходимость в разработке новых подходов к параллельному программированию, отличных от применяемых в стандартных инструментах разработки параллельных приложений, таких как OpenMP и MPI. Несмотря на многолетний опыт использования и длительное развитие этих инструментов, они не позволяют ни использовать преимущества современных аппаратных платформ, ни эффективно обходить их недостатки. Так, например, в OpenMP до настоящего времени не реализована поддержка систем с архитектурой NUMA, а MPI не позволяет создавать эффективные программы для систем с общей памятью. Кроме того, MPI и OpenMP не позволяют распределять вычисления в неоднородных системах, таких как Roadrunner.

В данной работе рассматривается один из альтернативных методов - программирование параллельных вычислений при помощи замыканий. Эта техника является развитием идей, на которых основывалось ранее предлагавшееся программирование с графом потоков данных (DFG). При попытках разрабатывать в рамках DFG некоторые реальные приложения выяснилось следующее. (1) подход, как и ожидалось, позволяет избавить программиста от значительного объёма работ по созданию подпрограмм для перераспределения данных во время вычисления. (2) как и ожидалось, он позволяет получить такое представление параллельной программы, которое можно эффективно исполнять на разнородном вычислительно оборудовании. (3) но, несмотря на указанные преимущества, программирование в рамках DFG оказалось затруднено необходимостью явно описывать управление потоками данных - в зависимости от условий приостанавливать и возобновлять активность потоков. Это описание часто нужно наделять высокой логической сложностью, особенно в тех случаях, когда граф должен быть перестраиваемым под разное количество вычислительных узлов.

Во время исследований DFG было обнаружено, что вычисления, задаваемые конечным графом потоков данных, можно также задать при помощи бесконечного графа с узлами намного более простой (по сравнению с конечным представлением) логической структуры. Далее обнаружилось, что процесс, определяемый таким бесконечным графом, можно задать конечным способом, если использовать вычисление замыканий.

Замыканием здесь называется объект: 'F logical_term(NAMES) : ARGS', где F - функция, которая вычисляется после того, как истинным становится logical_term - логическое выражение от множества именованных переменных NAMES. Переменная n из множества NAMES принимает значение истина только в том случае, когда вычислен блок данных с именем, являющимся и именем n. Для вычисления в функцию F передаются (1) список аргументов ARGS, (2) битовый вектор со значениями переменных NAMES и (3) вычисленные блоки данных, имена которых совпадают с именами переменных из NAMES, значения которых на момент начала вычисления F истинны. Результатом вычисления функции F являются множество новых замыканий и/или именованные блоки данных. В такой системе понятий параллельное умножение матрицы на вектор может быть описано программой:

 closure(string_printf("split A : %u %s"; K; expand_string("A.%u"; K)));


closure(string_printf("split b : %u %s"; K; expand_string("b.%u"; K)));



(i = 0; i < K; i = i + 1).do(


 closure("multiply A." + i + " b." + i + " : c." + i)


);



closure(string_printf("join %s : c", expand_string("c.%u & ", K - 1) + "c." + K))

 Видно, что предлагаемый метод очень похож на хорошо известные метод программирования для UNIX-shell (файлы соответствуют именованным блокам данных) и метод развёртки/сокращения (unwind/reduce) в lambda-вычислениях. Представляется, что этот подход с некоторыми техническими расширениями, определяющими способ уничтожения становящихся ненужными блоков данных, может облегчить разработку параллельных программ без ущерба эффективности их исполнения на разнообразном неоднородном оборудовании.

Parallel calculus specification with closures

M.O. Bakhterev

IMM UrB RAS, Yekaterinburg

It is necessary to develop new approaches to parallel programming, which differ from those used in standard parallel application engineering tools such as OpenMP and MPI. In spite of many years experience in use and long-term evolution of these tools, they allow neither to use the advantages of modern hardware nor to avoid its drawbacks. For instance, there is no support for systems with NUMA architecture in OpenMP, and MPI does not provide the creation of effective software for systems with shared memory. Moreover, MPI and OpenMPI do not support distribution of computation in heterogeneous systems, such as Roadrunner.

In this work one alternative method - parallel programming with closures - is considered. This technique is development of ideas, which were the basis for earlier proposed programming with data flow graph (DFG). During attempts to develop some real applications with DFG framework the following was discovered. (1) the approach, as expected, allows to save programmer from considerable volume of works on computation time data distribution subroutines. (2) as expected, it allows to obtain such parallel program representation, that may be efficiently executed on heterogeneous hardware. (3) but despite mentioned advantages, programming with DFG framework turned out to be complicated with need to describe directly the data flow management - the suspending or the resuming of flows depending on conditions. It is often necessary to endow that description with high logic complexity, especially in those cases, where the graph should be reshape-able for various amounts of computational nodes.

During the research of DFG the following was found out. The computations specified by finite data flow graph also may be defined by infinite graph with nodes of much simpler (as compared with finite representation) logical structure. Then it was found out, that the process defined by such infinite graph may be specified with finite way using closure calculus.

The term 'closure' is used here to denote object: 'F logical_term(NAMES) : ARGA', where F is a function, which is calculated after logical expression of the set of the named variables, NAMES - logical_term becomes true. Variable n from NAMES takes true value, if and only if the data block with the exactly same name as the name of n. In order to compute F, the following arguments are passed in this function call. (1) the list of arguments ARGS, (2) bit vector of the values of variables from NAMES and (3) computed blocks of data, whose names equal to the names of variables in NAMES, whose values are true at the moment of calling F. The results of F computation  are new closures and/or new named blocks of data. Using such system of notions one can describe parallel matrix-vector multiplication with program:

closure(string_printf("split A : %u %s"; K; expand_string("A.%u"; K)));
closure(string_printf("split b : %u %s"; K; expand_string("b.%u"; K)));



(i = 0; i < K; i = i + 1).do(


 closure("multiply A." + i + " b." + i + " : c." + i)


);



closure(string_printf("join %s : c", expand_string("c.%u & ", K - 1) + "c." + K))

As it can be seen, that proposing method looks like well known methods: programming in UNIX-Shell with files (where files correspond to named blocks of data) and method of unwind/reduce at lambda-calculus. It may be supposed, that this approach with some technical extensions, determining the way of the deallocation of data blocks becoming useless during computation, may ease parallel programs developing without the loss of the efficiency of these programs execution on different heterogeneous equipment.


 

А также другие работы, которые могут Вас заинтересовать

7124. ОБЩИЕ ТЕОРЕМЫ ДИНАМИКИ ТОЧКИ 476 KB
  В первых четырёх лекциях, для исследования движения материальной точки, нами применялся математический аппарат дифференциальных уравнений, который позволяет проводить исследование движения точки во всех его деталях. Одна...
7125. Введение. Предмет культурологии. Культура как социально-историческое явление 108.5 KB
  Лекция 1. Введение. Предмет культурологии. Культура как социально-историческое явление. Специфика культурологического знания. Возрастание роли культурологического знания и мышления в жизни общества и личности. Сущность культуры. Ку...
7126. Понятие о вариационных задачах механики 269 KB
  Понятие о вариационных задачах механики Принцип Гамильтона, рассмотренный выше, является одним из, так называемых, вариационных принципов механики. Эти принципы нашли широкое применение в математике, являясь основой вариационного исчисления. Так, на...
7127. Преимущества ВОЛС перед другими направляющими системами передачи 1.02 MB
  1. Преимущества ВОЛС перед другими направляющими системами передачи. Оптическое волокно в настоящее время считается самой совершенной физической средой для передачи информации, а также самой перспективной средой для передачи больших потоков информац...
7128. Параметры сигнала 451.5 KB
  Лекция №1 Тема: Параметры сигнала Сигналами называются физические процессы, параметры которых содержат информацию. При этом носителем информации является изменяющиеся во времени ток или напряжение. По своей природе все сигналы являются аналого...
7129. Культурологические школы и направления 58.5 KB
  Лекция 2. Культурологические школы и направления А. Биологическое направление. Б. Социально-психологическое направление. В. Структурализм. Г. Теория культурных миграций. Д. Теория локальных цивилизаций. Е. Эволюционизм. Ж. Этологически...
7130. Основы пожарной тактики 94.5 KB
  Основы пожарной тактики Успех тушения пожаров достигается комплексом служебных и оперативно-технических действий. Среди них особое значение имеют: ...
7131. Синтез комбинационных систем 82 KB
  Лекция 2 Тема: Синтез комбинационных систем Под комбинационной схемой понимается цифровой автомат без памяти. Схема однозначно преобразует входные сигналы в выходные, без предистории. Под комбинационной схемой понимается такая схема...
7132. Музыкальное воспитание младших школьников 155.5 KB
  Музыкальное воспитание младших школьников Введение Музыкальное воспитание младших школьников все настойчивее входит в разряд первостепенных задач, волнующих общественность, что дает простор для радикального решения ряда важнейших аспектов про...