arma-thesis

git clone https://git.igankevich.com/arma-thesis.git
Log | Files | Refs | LICENSE

commit bf2c1950b72c8089e2abb652d627590d96b416d7
parent 1870883a310001626c8d2e9cba453abfc7930559
Author: Ivan Gankevich <igankevich@ya.ru>
Date:   Fri,  3 Nov 2017 13:09:01 +0300

Edit p1.

Diffstat:
arma-thesis-ru.org | 21+++++++++++++++++++++
arma-thesis.org | 22++++++++++++----------
2 files changed, 33 insertions(+), 10 deletions(-)

diff --git a/arma-thesis-ru.org b/arma-thesis-ru.org @@ -3774,7 +3774,28 @@ title(xlab="Размер взволнованной поверхности", yla приложений. ** Реализация для систем с распределенной памятью (MPP) +:PROPERTIES: +:CUSTOM_ID: sec:arma-mpp +:END: + **** Распределенный алгоритм для модели АР. +Этот алгоритм в отличие от параллельной версии, использует копирование данных +для того чтобы выполнить вычисления на других узлах кластера, и, поскольку +пропускная способность сети гораздо меньше, чем у памяти, размер передаваемых по +сети данных должен быть оптимизирован для получения большей производительности, +чем на системе с общей памятью. Один из способов добиться этого\nbsp{}--- это +распределить части взволнованной поверхности между узлами кластера, копируя на +узлы коэффициенты и необходимы точки на границах, и, копируя обратно +сгенерированную часть взволнованной поверхности. Авторегрессионные зависимости +не позволяют создать все части сразу и статически распределить их между узлами +кластера, поэтому части создаются динамически на первом узле, когда точки, от +которых они зависят, становятся доступны. Таким образом, распределенный алгоритм +для модели АР является алгоритмом типа ведущий-ведомый, в котором ведущий +динамически создает задачи для каждой части взволнованной поверхности, принимая +во внимание авторегрессионные зависимости между точками, и отправляет их на +подчиненные узлы, а ведомые вычисляют каждую часть взволнованной поверхности и +отпавляют ее обратно ведущему. + **** Производительность реализации распределенного алгоритма для АР модели. * Заключение **** Итоги исследования. diff --git a/arma-thesis.org b/arma-thesis.org @@ -3546,20 +3546,22 @@ without interruption. :PROPERTIES: :CUSTOM_ID: sec:arma-mpp :END: + **** Distributed AR model algorithm. This algorithm, unlike its parallel counterpart, employs copying of data to -execute computation on a different cluster node, and since network bandwidth is +execute computation on different cluster nodes, and since network throughput is much lower than memory bandwidth, the size of data that is sent over the network have to be optimised to get better performance than on SMP system. One way to -accomplish this is to distribute them between cluster nodes copying in the -coefficients and all the boundary points, and copying out generated wavy surface -part. Autoregressive dependencies prevent from creating all the parts at once -and statically distributing them between cluster nodes, so the parts are created -dynamically on the first node, when dependent points become available. So, -distributed AR model algorithm is a "master-slave" algorithm in which the master -dynamically creates tasks for each wavy surface part taking into account -autoregressive dependencies between points and sends them to slaves, and slaves -compute each wavy surface part and send them back to the master. +accomplish this is to distribute wavy surface parts between cluster nodes +copying in the coefficients and all the boundary points, and copying out +generated wavy surface part. Autoregressive dependencies prevent from creating +all the parts at once and statically distributing them between cluster nodes, so +the parts are created dynamically on the first node, when points on which they +depend become available. So, distributed AR model algorithm is a master-slave +algorithm in which the master dynamically creates tasks for each wavy surface +part taking into account autoregressive dependencies between points and sends +them to slaves, and slaves compute each wavy surface part and send them back to +the master. In MPP implementation each task is modelled by a kernel: there is a master kernel that creates slave kernels on demand, and a slave kernel that computes