Участник:Vlamakarenko/Трассировка лучей
авторы: В.А.Макаренко, Р.А.Габдуллин
Содержание
- 1 Свойства и структура алгоритма
- 1.1 Общее описание алгоритма
- 1.2 Математическое описание алгоритма
- 1.3 Вычислительное ядро алгоритма
- 1.4 Макроструктура алгоритма
- 1.5 Схема реализации последовательного алгоритма
- 1.6 Последовательная сложность алгоритма
- 1.7 Информационный граф
- 1.8 Ресурс параллелизма алгоритма
- 1.9 Входные и выходные данные алгоритма
- 1.10 Свойства алгоритма
- 2 Программная реализация алгоритма
- 2.1 Особенности реализации последовательного алгоритма
- 2.2 Локальность данных и вычислений
- 2.3 Возможные способы и особенности параллельной реализации алгоритма
- 2.4 Масштабируемость алгоритма и его реализации
- 2.5 Динамические характеристики и эффективность реализации алгоритма
- 2.6 Выводы для классов архитектур
- 2.7 Существующие реализации алгоритма
- 3 Литература
- 4 Полученные изображения
1 Свойства и структура алгоритма
1.1 Общее описание алгоритма
Трассировка лучей - это технология визуализации трехмерных сцен путем отслеживания обратной траектории лучей света (от наблюдателя к источнику). Достоинствами данного метода являются реалистичность итоговых изображений, возможность визуализации гладких объектов без аппроксимации полигональными поверхностями, простота реализации отражений, преломлений, взятия в фокус, реалистичного освещения; возможность параллельной обработки лучей.
1.2 Математическое описание алгоритма
1.2.1 Некоторые понятия из радиометрии
Энергия излучения - энергия, переносимая оптическим излучением. Обозначается через Q.
Поток излучения - мощность, переносимая оптическим излучением через какую-либо поверхность. \Phi = \frac{dQ}{dt}.
Плотность потока излучения - отношение потока излучения, проходящего через малый участок поверхности, к площади этой поверхности. \frac{d\Phi}{dA}, где dA - дифференциал поверхности.
Облученность - отношение потока излучения, падающего на малый участок поверхности, к площади этой поверхности. E=\frac{d\Phi}{dA}, где dA - дифференциал поверхности.
Энергетическая светимость - отношение потока излучения, испускаемого малым участком поверхности, к площади этой поверхности. M=\frac{d\Phi}{dA}, где dA - дифференциал поверхности.
Сила излучения - мощность излучения источника света в некотором направлении. Равна отношению потока излучения, исходящего от источника, к малому телесному углу. I=\frac{d\Phi}{d\omega}.
Энергетическая яркость - отношение потока излучения через малую площадку поверхности и распространяющегося в малом телесном угле, к площади проекции этой площадки на плоскость, перпендикулярную направлению распространения, и величине телесного угла. L=\frac{d^2\Phi}{dA\cdot d\omega \cdot \cos \theta}
Энергетическую яркость, падающую на элемент поверхности, будем назвать падающей яркостью и обозначать L_i. Энергетическую яркость, отраженную элементом поверхности, будем называть отраженной яркостью и обозначать L_o.
Из определений следует, что:
1) dE_i(\overline{p}, \overline{\omega}_i) = L_i(\overline{p}, \overline{\omega}_i)\cos \theta_i \, d\omega_i
2) E(\overline{p}) = \int_{\Omega_i} L_i(\overline{p}, \overline{\omega}_i)\cos \theta_i \, d\omega_i, где интегрирование проводится по направлениям \overline{\omega}_i таким, что (\overline{n}, \overline{\omega}_i) > 0, то есть по полусфере.
(\overline{n} - нормаль к поверхности в точке \overline{p}, \Omega_i = 2\pi^{+}).
Пусть \overline{p} - точка поверхности, \overline{n} - нормаль в этой точке, \overline{\omega}_i, \overline{\omega}_o - единичные вектора такие, что (\overline{n}, \overline{\omega}_i) \gt 0, \,\, (\overline{n}, \overline{\omega}_o) \gt 0
Будем считать, что dL_o(\overline{p}, \overline{\omega}_o) пропорционален dE_i(\overline{p},\overline{\omega}_i):
dL_o(\overline{p}, \overline{\omega}_o) \sim dE_i(\overline{p},\overline{\omega}_i).
Функция f_r(\overline{p}, \overline{\omega}_i, \overline{\omega}_o) = \frac{dL_o(\overline{p}, \overline{\omega}_o)}{dE_i(\overline{p},\overline{\omega}_i)} = \frac{dL_o(\overline{p}, \overline{\omega}_o)}{L_i(\overline{p}, \overline{\omega}_i)\cos \theta_i d\omega_i} называется двулучевой функцией отражательной способности (BRDF).
В точке \overline{p} может быть задано несколько BRDF - множество \{f_{r_k}(\overline{p}, \overline{\omega}_i, \overline{\omega}_o)\}.
Тогда итоговая BRDF просто равна сумме BRDF из этого множества: f_r(\overline{p}, \overline{\omega}_i, \overline{\omega}_o) = \sum_k f_{r_k}(\overline{p}, \overline{\omega}_i, \overline{\omega}_o).
L_o(\overline{p}, \overline{\omega}_o) = \int_{\Omega_i} f_r(\overline{p}, \overline{\omega}_i, \overline{\omega}_o) L_i(\overline{p}, \overline{\omega}_i)\cos \theta_i d\omega_i. - уравнение отражений.
Важная часть алгоритма трассировки лучей - определить отраженную яркость по падающим яркостям, то есть посчитать этот интеграл. Обычно для вычисления интеграла применяют метод Монте-Карло.
1.2.1.1 Уравнение рендеринга
Уравнение рендеринга - это интегральное уравнение, которое определяет количество излученного в определенном направлении света как сумму отраженного и собственного излучения. Физической основой для уравнения рендеринга является закон сохранения энергии.
Уравнение отражений является частью уравнения рендеринга, поэтому остается только добавить собственное излучение объектов L_e(\overline{p}, \overline{\omega}_o).
Уравнение рендеринга имеет вид L_o(\overline{p}, \overline{\omega}_o) = L_e(\overline{p}, \overline{\omega}_o) + \int_{\Omega_i} f_r(\overline{p}, \overline{\omega}_i, \overline{\omega}_o) L_i(\overline{p}, \overline{\omega}_i)\cos \theta_i d\omega_i.
По сути, алгоритмы рендеринга, в том числе и трассировка лучей, занимаются поиском приближенного решения уравнения рендеринга.
1.2.1.2 Поиск приближенного решения уравнения рендеринга
Введем оператор поиска первого пересечения. r_c(\overline{p}, \overline{\omega}) - оператор, который находит точку первого пересечения с объектами луча, выпускаемого из точки \overline{p} по направлению \overline{\omega}.
Воспользуемся предположением, что количество излучения, распространяющегося вдоль одной прямой одинаково в любой точке прямой. Тогда:
L_i(\overline{p},\overline{\omega}_i) = L_o(r_c(\overline{p}, \overline{\omega}_i), -\overline{\omega}_i) .
и уравнение рендеринга превратится в уравнение Фредгольма второго рода
L_o(\overline{p},\overline{\omega}_o) = L_e(\overline{p},\overline{\omega}_o) + \int_{\Omega_i} f_{r}(\overline{p},\overline{\omega}_i,\overline{\omega}_o)L_o(r_c(\overline{p}, \overline{\omega}_i), -\overline{\omega}_i) \cos\theta_i d\omega_i .
Обозначим интеграл в правой части как K \circ L_o . Тогда уравнение рендеринга перепишется, как
L_o = L_e + K \circ L_o .
Искать решение будем итерационным методом: выберем какое-либо начальное приближение L_{o}^{(0)} . Найдем значение правой части L_o^{(1)} = L_e + K \circ L_o^{(0)}, воспользуемся им для поиска следующего приближенного решения L_o^{(2)} = L_e + K \circ L_o^{(1)} = L_e + K \circ ( L_e + L_o^{(0)} ) = L_e + K \circ L_e + K^2 \circ L_o^{(0)} и т.д.
В конечном итоге получим, что L_o = \sum \limits_{n=0}^\infty K^n \circ L_o^{(0)}.
Этот метод называется методом последовательных приближений.
1.2.2 Определения
Объект - поверхность в трехмерном пространстве.
Материал объекта - множество BRDF.
Сцена - четверка {камера, объекты, источники света, видовая плоскость}.
1.2.2.1 Камера
Камера - "виртуальный глаз", через который мы видим объекты сцены.
Камера задается положением в пространстве и ортонормированным базисом (\overline{u}_c, \overline{v}_c, \overline{w}_c) (локальная система координат). \overline{u}_c направлен вправо относительно наблюдателя, \overline{v}_c - вверх, \overline{w}_c - на наблюдателя. Таким образом, (\overline{u}_c, \overline{v}_c, \overline{w}_c) - правая тройка векторов. Вектор направления камеры в своей системе координат: (0, 0, -1).
1.2.2.2 Видовая плоскость
Перед камерой на расстоянии d поставим пиксельную сетку w \times h с размером пикселя s \times s так, чтобы камера была направлена в ее центр. Итоговое изображение будет получено из этой сетки покраской пикселей в нужный цвет.
p(i, j), где i=\overline{0,h-1}, \quad j=\overline{0,w-1} - пиксел i-ой строки снизу j-го столбца слева.
Заметим, что с увеличением d уменьшается угол обзора, а s влияет на масштаб.
1.2.2.3 Источники света
Типы источников света:
1) Point light - точка, излучающая свет одиноково во всех направлениях.
2) Directional light - бесконечно удаленный источник света, задается единичным направлением на себя.
3) Area light - объект, излучающий свет одинаково во всех направлениях.
1.2.3 Алгоритм трассировки лучей
1.2.3.1 Генерация луча
Перед камерой на расстоянии d поставим пиксельную сетку w \times h с размером пикселя s \times s так, чтобы камера была направлена в центр сетки. Итоговое изображение будет получено из этой сетки покраской пикселей в нужный цвет.
Пусть p(i, j), где i=\overline{0,h-1}, \quad j=\overline{0,w-1} - пиксел i-ой строки снизу j-го столбца слева. Проведем пучок лучей из камеры через пиксел в локальной системе координат камеры. Начало каждого луча в точке \overline{pos}=(0,0,0). Найдем вектора направления \overline{dir}_n:
\overline{dir}_n.x = s \cdot (j + \delta_n.x -\frac{w}{2} + \frac{1}{2})
\overline{dir}_n.y = s \cdot (i + \delta_n.y -\frac{h}{2} + \frac{1}{2})
\overline{dir}_n.z = d,
где \delta_n = (\delta_n.x, \delta_n.y) \in [0;1]^2 - смещения начала n-ого луча.
Нормируем вектора \overline{dir}_n и переведем лучи в глобальную систему координат.
1.2.3.2 Пересечение луча с объектами сцены
Все точки луча ray(\overline{p}, \overline{d}) можно представить в виде:
h(x,y,z)=\overline{p}+t \cdot \overline{d}, \quad t \in [0;\infty) .
Луч пересекает объект O_i тогда и только тогда, когда t_i = \inf\{t \gt 0 \, | \quad \overline{p}+t \cdot \overline{d} \in O_i\} \, \lt \infty
Если луч пересекает объект O_i, то h_i(x,y,z) = \overline{p}+t_i \cdot \overline{d} - их первое пересечение, t_i - расстояние от начала луча до точки пересечения.
1.2.3.3 Вычисление энергитической яркости L_o, выходящей из точки пересечения
Найдем T = \{t_i\} - параметры пересечения с объектами (см. предыдущий пункт).
t_{min} = \min \{t_i\}, \quad O_{min} = \{O_i | t_i = t_{min}\}
Если t_{min} = \infty, то луч не пересекает ни один объект и нужно покрасить соответствующий пиксел в черный цвет (цвет фона).
Если t_{min} \lt \infty, то нужно найти выходящее излучение (цвет) из точки пересечения в камеру. Выходящее излучение зависит от свойств материала объекта и входящего излучения в точку пересечения.
Чтобы вычислить входящее излучение, находится приближенное значение интеграла \int_{\Omega_i} f_{r}(\overline{p},\overline{\omega}_i,\overline{\omega}_o)L_o(r_c(\overline{p}, \overline{\omega}_i), -\overline{\omega}_i) \cos\theta_i d\omega_i методом Монте-Карло.
Заметим, что каждый луч необходимо продолжить в некотором направлении(а не создавать новый пучок), так как необходимое количество лучей для численного интегрирования можно заранее сгенерировать в камере.
Таким образом, алгоритм моделирует обратное движение пучка лучей света, который пришел в камеру. Пучок лучей движется из камеры и, сталкиваясь с объектами, распространяется в пространство в случайных направлениях, согласно свойствам материалов объектов.
1.2.4 Улучшение визуальных качеств изображения
Чтобы сгладить изображение и избавиться от шума, обычно через пиксел проводят не один луч, а достаточно много лучей, для каждого считают цвет, а потом усредняют по всем лучам (берут среднее арифметическое).
1.3 Вычислительное ядро алгоритма
Основные вычисления связаны с поиском пересечения луча с объектами сцены.
1.4 Макроструктура алгоритма
Для каждого пикселя изображения генерируется пучок лучей, проходящих через этот пиксел. Для каждого луча находится первое пересечение с объектами сцены, расчитывается прямое и непрямое входящие излучения и итоговое выходящее. После этого цвет усредняется по всем лучам данного пикселя.
1.5 Схема реализации последовательного алгоритма
Здесь приведен псевдокод ключевых моментов алгоритма.
//Покраска пикселей изображения
for (uint r = 0; r < h; r++) //строки
{
for (uint c = 0; c < w; c++) //столбцы
{
image(r,c) = renderPixel(r, c); //вычисляем цвет в пикселе
}
}
//renderPixel(r, c)
pixel_color = {0,0,0};
for (uint j = 0; j < num_rays_per_pixel; j++)
{
pp = generatePoint(); //генерируем произвольное смещение внутри пикеля
//вычисляем координаты точки на полотне
x = s * (c - 0.5 * w + pp.x);
y = s * (r - 0.5 * h + pp.y);
//cоздаем луч
Ray ray({0,0,0}, normalize({x,y,-d}));
Ray worldRay = convertToWorldCoords(ray);
pixel_color += traceRay(worldRay, 0) * 1.0 / num_rays_per_pixel; //вычисляем цвет для каждого луча и усредняем
}
//traceRay(ray, depth)
if (depth > max_depth) //превысили максимальную глубину луча, дальше не идем
{
return black; //возвращаем черный цвет
}
Intersection is = hitObjects(ray); //нашли первое пересечение с объектами сцены и записали информацию о нем в is:
//материал объекта, расстояние, нормаль и т. п.
if (is) //если есть пересечение
{
is.ray = ray; //запомнили луч
is.depth = depth; // и глубину
return shade(is); //расчитали цвет в точке пересечения в зависимости
//от материала объекта, используя информацию о пересечении
}
return getBackgroundColor(ray); //вернули цвет фона
//shade(is)
//цвета
direct_illumination = {0,0,0};
indirect_illumintaion = {0,0,0};
for (uint i = 0; i < light_count; i++)
{
if (light[i].isVisible(is)) //если источник света виден из точки пересечения
{
direct_illumination = getIllumination(light[i], is); //рассчитываем прямое излучение от i-го источника света
}
}
if (isReflective(is.object))
{
indirect_illumination = traceRay(reflecedRay(is.ray), is.depth + 1);
}
//зная входящее излучение, расчитываем выходящее в зависимости от свойств материала объекта
//...
1.6 Последовательная сложность алгоритма
w - ширина полотна
h - высота полотна
depth_{max} - максимальная глубина луча в рекурсии (помимо первичного луча)
N_{obj} - количество объектов сцены
N_{lights} - количество источников света сцены
N_{rays} - число лучей на один пиксел
На каждой итерации ищется пересечение луча со всеми объектами: O(N_{obj})
После нахождения точки пересечения, выясняется, виден ли каждый источник света из этой точки. Для этого нужно найти первое пересечение теневого луча (начало в точке пересечения, направлен к источнику света) и сравнить расстояние до точки пересечения с расстоянием до источника света. Для всего этого требуется O(N_{lights} \cdot N_{obj}) операций.
Для каждого луча понадобится O(depth_{max}(N_{obj} + N_{obj} \cdot N_{lights})) = O(depth_{max}\cdot N_{obj} \cdot N_{lights}) операций.
Всего лучей, выходящих из камеры w \cdot h \cdot N_{rays}.
В итоге получаем O(depth_{max}\cdot N_{obj} \cdot N_{lights} \cdot w \cdot h \cdot N_{rays}) операций.
1.7 Информационный граф
1.8 Ресурс параллелизма алгоритма
1.9 Входные и выходные данные алгоритма
На вход алгоритму подается описание сцены (описание камеры, видовой плоскости, объектов и их материалов, источников света).
Выходные данные алгоритма - изображение.
1.10 Свойства алгоритма
2 Программная реализация алгоритма
2.1 Особенности реализации последовательного алгоритма
2.2 Локальность данных и вычислений
2.3 Возможные способы и особенности параллельной реализации алгоритма
2.4 Масштабируемость алгоритма и его реализации
2.5 Динамические характеристики и эффективность реализации алгоритма
2.6 Выводы для классов архитектур
2.7 Существующие реализации алгоритма
RenderMan
V-Ray
NVIDIA IRay
NVIDIA mental ray
Hydra Renderer
3 Литература
http://www.raytracegroundup.com/