commit f39bf7056650ab1824dd8e4308dc5adab7ce72ef
parent b5f0a3ae7252099cf2fda66d4be65e2d55a122c0
Author: Ivan Gankevich <igankevich@ya.ru>
Date: Tue, 31 Oct 2017 16:04:41 +0300
Edit p6.
Diffstat:
2 files changed, 18 insertions(+), 7 deletions(-)
diff --git a/arma-thesis-ru.org b/arma-thesis-ru.org
@@ -1841,6 +1841,16 @@ MPP части, от которых зависит данная, должны б
предотвращения маскированных ошибок: без него результатом вычислений была бы
циклическая свертка.
+Несмотря на то что алгоритм модели СС разбивает поверхность на те же самые части
+(но, возможно, другого размера), что и алгоритм модели АР, отсутствие
+авторегрессионных зависимостей между ними позволяет вычислять из параллельно без
+использования специализированного планировщика задач. Однако, этот алгоритм
+также требует дополнение каждой части нулями, чтобы результат вычислений
+совпадал с результатом, полученным по исходной формуле модели СС. Таким образом,
+алгоритм модели СС лучше масштабируется а большое количество узлов ввиду
+отсутствия информационных зависимостей между частями, но размер частей больше,
+чем в алгоритме модели АР.
+
**** Производительность реализаций на OpenMP и OpenCL.
**** Производительность ввода-вывода.
**** Параллельное вычисление поля потенциала скорости.
diff --git a/arma-thesis.org b/arma-thesis.org
@@ -1812,13 +1812,14 @@ algorithm is commonly known in signal processing as
prevent aliasing errors: without it the result would be circular convolution.
Despite the fact that MA model algorithm partitions the surface into the same
-parts (but possible of different sizes), the vicinity of autoregressive
-dependencies between them allows to compute them in parallel without the use of
-specialised job scheduler. However, it requires padding with noughts to make the
-result correspond to the original MA model's formula. So, MA model's algorithm
-is more scalable to a large number of nodes as it has less dependencies between
-parts computed in parallel, but the size of the parts is greater than in AR
-model, so they are slower to compute.
+parts (but possibly of different sizes) as AR model algorithm, the vicinity of
+autoregressive dependencies between them allows to compute them in parallel
+without the use of specialised job scheduler. However, this algorithm requires
+padding parts with noughts to make the result of calculations correspond to the
+result obtained with original MA model's formula. So, MA model's algorithm is
+more scalable to a large number of nodes as it has no information dependencies
+between parts, but the size of the parts is greater than in AR model's
+algorithm.
The distinct feature of LH model's algorithm is its simplicity: to make it
parallel, the surface is partitioned into parts of equal sizes and each part is