0
Апр 09
В последнее время у программеров стала модной фишкой технология Nvidia CUDA, позволяющая повысить производительность расчетов за счет использования мощностей видеокарты. Такая технология могла бы существенно увеличить производительность Eclipse, установленных на РС. В связи с этим вопрос, планирует ли Шлюмберже использование этой технологии в будующих релизах симулятора?
Опубликовано
09 Апр 2009
Активность
7
ответов
3328
просмотров
6
участников
0
Рейтинг
Контекст
Eclipse x221
а как видюха симулятору то поможет? я понимаю, там когда 3d geo-bodies extraction or smth like that..
Теоретически (как мне кажется) можно использовать шейдеры.
Перфоманс можно улучшить за счет алгоритмизации.
я думаю в симуляторах ещё есть куда работать и без "железного" ускорения
Еще можно посмотреть это - ffA_NVIDIA_Benchmarks.pdf
Эти операции производятся с какими числами? С целыми или с плавающей точкой? Если с плавающей точкой, то какого типа single или double? Насколько я помню, для достижения симулятором расчетной точности нужны переменные типа double.
Высокая производительность вычислений на графических картах достигается за счёт суперпараллелизма (разбиение задачи на большое количество подзадач, сотни или тысячи подзадач)
Технология CUDA поддерживает вычисления с плавающей запятой и вычисления с двойной точностью.
На сегодняшний день существует несколько основных ограничений использования вычислений на граф. картах в гидродинамических расчётах:
- суперпараллельные вычисления хорошо себя показывают в случае если нет необходимости обмениваться информацией между задачами. В случае гидродинамических расчётов скорость и объем трафика между потоками параллельного расчёта являются важными критериями масштабируемости расчета (уменьшение времени расчёта при увеличении числа потоков).
- в настоящий момент только одно из восьми ядер каждого блока (ядра скомпонованы блоками по 8 штук) поддерживает вычисления с двойной точностью, возможно ситуация улучшится к концу этого года.
- объем памяти на видеокарты это 2-4 GB что явно недостаточно для проведения ГД расчётов. Не смотря на доступ GPU к оперативной памяти через PCI X16 эффективность вычислений на граф картах значительно снижается.
Т.О. до начала разработки прототипов гидродинамического симулятора использующего GPU вычисления, довольно далеко, не говоря уже о полноценном симуляторе.
P.S. научное подразделение шлюма (в том числе в России) ведет исследования применимости GPU вычислений.
Мне кажется для эффективного применения видекарт при расчетах ГД надо будет переделать принцип работы симулятора. Например использовать основной процессор / последовательные вычисления для грубого расчета поля давления - и паралельный счет при расчете насыщенности где намного легче добиться масштабируемости. Получится эдакий гибрид стримлайн и конечно-разностного симулятора или вложенных разностных симуляторов работающих на разных сетках.