Обсуждение участника:Анюшева Ирина

Материал из Алговики
Перейти к навигации Перейти к поиску

--Evgeny Mortikov (обсуждение) 04:05, 3 декабря 2016 (MSK) К работе есть несколько замечаний по содержанию (отмечены моей подписью), помимо выполнения требований к работе


1 Пункт 2.4

Dan (обсуждение) 17:03, 3 декабря 2016 (MSK) Добавьте строки запуска и компиляции со всеми ключами


2 Пункт 1.1

--Evgeny Mortikov (обсуждение) 04:05, 3 декабря 2016 (MSK)

Обобщенный метод минимальных невязок (GMRES) для решения системы линейных алгебраических уравнений аппроксимирует решение с помощью вектора в подпространстве Крылова с минимальным остатком.

Что здесь подразумевается по «минимальным остатком»?


Метод по праву считается одним из самых эффективных численных методов решения несимметричных систем.

Чем GMRES эффективнее с вычислительной точки зрения, например, других итерационных Крыловских методов для несимметричных матриц?

Метод обобщенных минимальных невязок популярен из-за наличия ряда преимуществ: он ошибкоустойчив, допускает эффективное распараллеливание, не требует нахождения параметра релаксации, обладает суперлинейной скоростью сходимости.

Нужно пояснить, что подразумевается под ошибкоустойчивостью метода? Причем здесь параметр релаксации? Обычно вместо «суперлинейной сходимости», пишут сверхлинейная сходимость. Хорошо бы выделить класс методов, с которыми сравнивается GMRES в плане эффективности и преимуществ. Так, например, стабилизированный метод бисопряженных градиентов также «допускает эффективное распараллеливание и не требует нахождения параметра релаксации».


Зато широкое распространение получила перезапускаемая версия метода, подоразумевающая перезапуск метода каждые m итераций.

Сохраняются ли преимущества метода для версии метода GMRES с рестартами? Например, сверхлинейная сходимость и ошибкоустойчивость? Свойства (достоинства и недостатки) GMRES(m) лучше описать подробнее.

Опечатка - подоразумевающая перезапуск метода каждые m итераций


3 Пункт 1.2.1

--Evgeny Mortikov (обсуждение) 04:05, 3 декабря 2016 (MSK)

Нужно уточнить какая норма здесь рассматривается. Также в нескольких местах (в этом и следующих разделах) при записи нормы пропущена одна правая вертикальная скобка.


4 Пункт 1.5.1

--Evgeny Mortikov (обсуждение) 04:05, 3 декабря 2016 (MSK)

Выбрать произвольное [math]x_0[/math];


Для любого [math]x_0[/math] достигается сходимость?


5 Пункт 1.6

--Evgeny Mortikov (обсуждение) 04:05, 3 декабря 2016 (MSK)

Нужно дополнить раздел оценками для разреженной матрицы по числу ненулевых элементов.


6 Пункт 1.7

--Evgeny Mortikov (обсуждение) 04:05, 3 декабря 2016 (MSK)

Хорошо бы подробнее описать структуру алгоритма в блоках ортогонализации и минимизации невязки.


7 Пункт 1.8

--Evgeny Mortikov (обсуждение) 04:05, 3 декабря 2016 (MSK)

Для нахождения матрично-векторных произведений при вычислении невязок матрица СЛАУ должна быть подвергнута декомпозиции на строчные блоки, размеры которых определяются требованиями равномерности загрузки.

Можно ли рассматривать декомпозицию матрицы по «двумерным» блокам, а не только по строкам?

Обработка вектора решения дублируется на всех процессах.

В практических задачах размерность вектора решения может быть очень большой и не помещаться в память процессора. Как предлагается решать такие задачи? Если такие задачи не рассматриваются, то это нужно явно прописать.


8 Пункт 1.10

--Evgeny Mortikov (обсуждение) 04:05, 3 декабря 2016 (MSK)

Однако, есть примеры, в которых видно, что первые [math]m-1[/math] итераций дают невязку, равную некой константе, а на итерации под номером [math]m[/math] получаем точное решение

Нужно привести такие примеры и описать подробнее данные случаи или указать ссылку на работу, где такие примеры построены.


9 Пункт 2.4

--Evgeny Mortikov (обсуждение) 04:05, 3 декабря 2016 (MSK)

Нужно описать структуру матрицы, которая рассматривалась в экспериментах. Какое условие на выход из итерационного процесса использовалось в расчетах?

С чем связана такая низкая эффективность реализации?

Из рисунков видно, что при увеличении количества процессов, а также при увеличении размерности задачи, производительность параллельной реализации алгоритма уменьшается, что говорит о плохой масштабируемости.

Нужно объяснить в чем причина плохой масштабируемости алгоритма. Особенно с учетом того, что в разделе 1.1 Вы пишите о том, что метод GMRES «допускает эффективное распараллеливание».