0
Окт 19
Привет, товарищи !
Обзор различных материалов и статей по внедрению МО для нефтегазовых задач показал тренд на повсеместные попытки по внедрению этого инструмента. Однако реальный результат иногда (или даже в большинстве случаев) крайне сомнителен.
Как (оптимистично/пессимистично с оценкой на результат) Вы относитесь к применению инструмента МО в задачах petroleum инжинирнга ?
Кто реально интересуется этим и занимается на работе, расскажите, пожалуйста, свое видение по данной теме (где и как следует реально пытаться применять МО и ждать эффекта ?). Желательно указать задачи по разработке/добыче нефти и газа.
Спасибо за ответ.
Опубликовано
24 Окт 2019
Активность
64
ответа
5967
просмотров
24
участника
31
Рейтинг
SPE посетили?
Все красиво на бумаге, но в нефтяной реалии очень много оврагов. Я бы даже сказал что одни овраги. На каждом этапе приходится сталкиваться с тем, что данные являются "фейковыми". От банальных ошибок ввода, оцифровки, до коррекции руками показателей для получения нужного экономического эффекта. Все надо просматривать, допиливать, выяснять как на самом деле было и т.д. В итоге уже сам все оценишь и поймешь без всяких "машин".
Газпромнефть активно носится с МО, однако все это хорошо для прожектерства. Это щас такой фетиш цифровизации, анализ bigdata. Зная, как получены bigdata для всех этих расчетов, хочется плакать. У нас нет чистых и правдивых массивов bigdata.
Это раз.
А второе - это то, что на любой презентации, когда ты скажешь, что прогноз получен путем вытаскивания решения из черного ящика, в которых ты запихал погоду на марсе, данные замерных за октябрь месяц, температуру соплей в носу геолога из ЦДНГ, - тебя поднимут на смех (в лучшем случае), или ты узнаешь о себе все эпитеты в матерном стиле (так будет по факту). При принятии решений по движению денег не может быть непрозрачной логики. Такой подход работает только на уровне брокера программиста, который сам делает бота, и сам свои деньги раскидывает по акциям. Акционеры - они люди попроще.
Для начала "Слава роботам!". По данной теме мне очень понравился пост на форуме специалистов атомной промышленности "Вообще, общий принцип: везде, где реально написать пригодный алгоритм, нужно применять именно алгоритм. Нейросети и "ИИ" нужны для плохо формализуемых задач... но неясно-как-работающий атомный реактор - штука сама по себе очень стрёмная". Этот тезис без труда ложится на реалии нефтегазовой отрасли.
ЭРА, Применить ИИ на работе!
ИИ применен мой господин!
Вот так сейчас это выглядит в газпроме)
sNeG, поясни подробнее, не совсем понятна твоя шутка без контекста)
https://ntc.gazprom-neft.ru/technological-strategy/priorities/it/
видео смотри обязателньо
по новостям показывали - "сделай оптимальную схему разработки месторождения", ок, и сделано (пока кофе готовился).
ТРАНДЕЦ, друзья иои.
Это ОНИ СЕРЬЕЗНО.
Идиократия на марше.
Смех - смехом, но комментарии на всякий случай к тому видео отключены.
Спасибо за мнения.
Но неужели все так призрачно и не поддается реальному практическому внедрению МО ?
Myp3uJIKA, ты написал, что первая проблема в данных.
Эта проблема состоит из двух частей (но это субъективное текущее мнение, если есть мнения иные пишите в комментариях):
Первая - сама природа данных (исследуемые объекты находятся в недосигаемых для прямого измерения условиях - коллектор, флюид, скважина - в большинстве случаев получаемые данные не соответствуют действительности или описывают их только косвенно).
Вторая - отношение к данным (промысловики в основном не руководствуются каким-то стандартом сбора данных - могут замерять/не замерять давления (на забое и т.д.) и вносить рандомные значения в систему).
И это в основном в России или же везде так (что, например, происходит в BP, Shell, Total или в американских) ?
Надеюсь, что данное видео из этой жанра
http://button.dekel.ru/
Вот ребята (ccord.ru) с помощью методов МО смогли повысить эффективность проведения ГРП на одном из месторождений в 2 раза! Тест проводили в слепую: заказчик оплатил вторую половину договора только после успешного подтверждения повышения эффективности проведения ГРП на предложенных компанией скважинах кандидатах.
У них много и других работ по повышению точности предсказания значений начального дебита скважины по нефти и оптимизации режимов работы скважин, которые на реальных месторождениях давали эффекты по увеличению добычи нефти на 20% и более.
Причем они успешно используют различные методы МО уже более 10 лет! Среди этих методов есть метод, который называется процедура Вальда и который ещё применялся в отрасли ещё в советские времена!
С этим ИИ надо аккуратнее.
Слышал, что в начале 2000-х в одном НГДУ внедрили одну(!) умную скважину, так она оказалась умнее главного инженера и в итоге заняла его место.
Тут дело такое... я тоже могу подобрать хороших кандидатов, а потом сказать что это МО, ИИ, Скайнет и т.д., чтобы попроще было договора заключать на модной волне. А тест вслепую это не про оплату, а когда по половине скважин данных не дают, а потом БЕЗ участия подрядчика на готовом инструменте сами выбирают из них кандидатов и получают такой же эффект относительно базы.
Бесспорно, при установке ПО на свои компьютеры заказчик получает максимальный контроль над получением результата и может независимо оценивать качество работы алгоритмов. То, что я приводил выше - это было лет 7-12 назад, когда ещё не было такого хайпа вокруг применения методов МО в нефтянке и эта компания была одной из первых на рынке предоставления услуг по применению методов МО в российской нефтянке. Работали на первых версиях своего софта и получали обьяснимые результаты с прозрачной логикой.
Сейчас программный Комплекс КОНКОРД уже установлен в несколько крупных нефтяных компаниях и работает в промышленном/тестовом режиме, помогая быстро и качественно получать информацию для принятия решения. И я уверен, что он приносит большую пользу! Но, как известно, после промышленного внедрения заказчик уже не обязан делиться обратной связью по эффективности применения ПО.
Может быть Вам известны случаи, когда ПО, основанное на применении методов МО, помогало приносить существенную пользу нефтяным компаниям?
У меня знакомый ещё в 70-е годы внедрял АСУ режимами работы скважин на кустах и получал отличный прирост добычи нефти! Ему даже премии и награды за это давали!
К сожалению, довольно часто это бывает так. Приходится выгребать из всей этой кучи "данных" информацию, которая реально помогает строить прогнозные модели. Есть специальнве методы оценки статистической и информационной значимости данных. И конечно, надо смотреть на получаемое качество обучения, теста и экзамена, которое говорит о потенциальной возможности что-то спрогнозировать. Не забываем также про возможность переобучения)
Но в любом случае, при нормальных исходных данных методы МО позволяют выявить скрытые закономерности, которые обычный инденер просто не в состоянии связать в своей голове и эксельке без спец.софта, т.к. между десятками и сотнями параметров могут быть тысячи нелинейных взаимосвязей. И это конечно не понацея, т.к. все равно приходится проверять и оценивать адекватность полученных результатов и только потом принимать окончательное решение.
Преимущество статистических методов при грамотно работаюшем и настроеном ПО как раз и заключается в способности давать быструю инженерную оценку в условиях отсутствия времени. К сожалению, и зачастую ГДМ не может дать такой быстрой и достаточно точной оценки для краткосрочных и локальных задач.
презентации с шлюмского форума. там бороздили космические просторы в том числе и на тему ML
https://www.software.slb.com/sis-global-forum/news/technical-presentation-content-now-available#DA
Форум проводился в Монако. Чувствуется размах.
Увадаемые коллеги, мы, GridPoint Dynamics, сейчас успешно сейчас применяем разновидности AI-related технологий в новых версиях ПО. По направлению Machine Learning на данных сейсморазведки используются алгоритмы компьютерного зрения для автоматического выделения разломов в продукте PRO-S
Презентация с описанием принципа работы и примерами использрвания.
Для автоматического прослеживания горизонтов тоже разрабатываются методы с иcпользованием ML, в ближайшем релизе 1.6 они уже будут доступны для пользователей.
Если кому-то интересно, могу предоставить дополнительные материалы для ознакомления.
Еще еще кластеризация и классификация сейсмофаций по нейросетям на основе сейсмики как со скважинными данными, так и без, но этим уже ни кого не удивить)
Проблема в основном в том, что в этом нередко заинтересован сам менеджмент, а не конечные пользователи, инженеры. Вернее те кто продаёт AI/ML, смогли заинтересовать начальство или менеджмент. Мало кто знает непосредственно подноготную алгоритмов AI или ML (и их ограничения), могут подбирать методы или аглоритмы "наощупь" или вернее по образцу и подобию на kaggle том же.
В то время как проблемы сбора данных, замеров дебитов, ГФ, установка забойных датчиков и др., никуда не ушли. Лучше наверное инвестировать в сбор данных и их качество чем в ML/AI пока. И потом проблемы обычных инженерных расчетов по гтм никуда не ушли, которыми можно заниматься и которые могут по-прежнему приносить компании пользу. А так если использовал метод МНК хоть раз, то вот тебе и ML. В упрощенном виде. Почти всегда это тот или иной тип регрессии. Те же методы были и 20-30 лет назад, может и ранее. Как пример задач это может быть распознование скан образов каротажа, изолиний на картах, сбор факторов и мотивов поведений человека для определения вероятности HSE происшествий, сбор данных по работе шгн для определения времени обрыва штанг или подобного.
10 лет назад были нанотехнологии, поэтому может скоро еще что модно будет.
Самое паршивое в работе, когда тебе говорят посчитай, а времени нет физически на осмысление. И ты вынужден вступать на крайне тонкий лед "быстрой инженерной оценки".
"Быстрая инженерная оценка на базе ИИ" - это такая разновидность русской рулетки стоя на том же тонком льду. Ты чего то получаешь, чего то прогнозируешь, потом говоришь - бурим тут! И дрожащим пальцем тыкаешь куда то за контур.
И тут все начинает зависеть от руководства. Если ему важнее освоить, продемонстрировать потуги ГРР, чем получить прибыль - то это приемлемо и риски в лучшем случае получить от руководства дозу склонений в стиле "а, это типа как Пупкин предлагал, нет спасибо". Ну, а если наоборот, то цена ошибки - должность, а то и работа в данном месте.
Не бывает внезапно открытых скрытых связей. Это не полет в другую галактику, где другие вещества и 5 измерений. Это все мусолится уже век. Все материи, связи параметров и прочее. Дураков раньше было гораздо меньше и всё фундаментальное умными людьми уже выявлено до нас.
Если связь есть, то ее видно, видно по улучшению корреляции с каким то отдельными параметрами, и т.д. Не бывает такого, что по отдельности корреляция 0, а вместе в одной кастрюле корреляция стала 0.9. Это нонсенс.
Упаси вас бог строить прогнозы на базе " между десятками и сотнями параметров могут быть тысячи нелинейных взаимосвязей". Это шаманство чистой воды.
Я работал с нейронными сетями плотно лет 8 назад. Все это было - переобучение, прогнозы на базе всего что есть и т.д. КПД не нулевой, но заход был сделан не с той стороны, как я сейчас осознаю.
Выходит Зима искусственного интеллекта не за горами?
Интересный феномен, не слышал.
Я думаю прям зимы не будет, ибо мотивирующий фактор не исчезнет.
У нас сейчас, к сожалению раздут пузырь ИИ. Прежде всего, он обусловлен тем, что запасы кончаются, ловушек новых нет, нефть нужна. Детерминистические методы говорят - всё, геймовер. И тут, когда пациент при смерти, всегда появляются целители, шарлатаны, и прочие товарищи, которые берут клиента тепленьким. Никто не понимает как они работают, есть ли эффект от их работы, но они всегда дают надежду, и поэтому очень хочется им верить. И у нас такая же ситуация.
Подход безусловно передовой, но надо применять его в нужных местах.
Очень правильная область - анализ данных real-time, которые получаются напрямую от датчиков физ. параметров (комп. зрение, биржевые роботы и подобные). Эти данные как правило точны.
Ну и я думаю доверять ИИ принятие решений в текущем его уровне развития нельзя. Нырять ИИ пока рано, а вот нужные ключи подавать он уже вполне способен. Если мы даже сделаем просто автоматизацию рутины на базе ИИ - это будет уже большой оптимизационный эффект.
Интересная презентация, представленная в посте Mikhail-а Gorlov-a.
Ну а в целом в нефтяной индустрии этот сильно раздутый хайп вокруг ML-AI очень сильно мне напоминает, так называемый Карго-культ (религия Джона Фрума). Погуглите термин если интересно.
За редким исключением, не разобравшись толком в теме, и главное не подготовив должным образом данные, мы пытаемся строить настоящие самолеты, которые должны летать, а получаются пока только бамбуковые, как у жителей Вануату.
Сейчас крупные компании взяли моду проводить конкурсы на использование ИИ в различных задачах.
Первой начала Газпромнефть, потом подхватила Роснефть. И вот недавно Сауди Арамко.
Вызывает интерес результаты этих чемпионатов, но конечный продукт я думаю мы увидим не скоро.
П.С. вспоминается история про опытного агронома, который всегда точно знал, когда, в какой день нужно сеять пшеницу, чтобы потом получить хороший урожай.
Мы не скоро, в самих компаниях скорее скоро
Поэтому лучше пользоваться уже зарекомендовавшими себя методами в индустрии: метод Вальда и прозрачные для анализа и логики принятия решения: деревья решающих правил.
И даже расчеты ГДМ могут ускоряться путем решения дифференциальных уравнений с помощью нейронных сетей:
https://cyberleninka.ru/article/n/o-primenenii-neyronnyh-setey-dlya-resheniya-differentsialnyh-uravneniy-v-chastnyh-proizvodnyh
Так что методы МО пока рано скидывать на свалку истории)
Про:
Не бывает внезапно открытых скрытых связей. Это не полет в другую галактику, где другие вещества и 5 измерений. Это все мусолится уже век. Все материи, связи параметров и прочее. Дураков раньше было гораздо меньше и всё фундаментальное умными людьми уже выявлено до нас.
Такими шагами мы уйдем в каменный век)
Давайте тогда забудем все научные открытия 20 и 21 века и останемся довольствоваться классической физикой. Ведь ученые уже до этого всё мусолили и мусолили физику много столетий)
Вы утрируете) Причем тут научные открытия 20-21 веков? Кто вам сказал что их надо забывать? Почувствуйте разницу между тем, что было выведено и логически объяснено и тем, что вы получаете из нейронных сетей.
Можете логически объяснить получение одного параметра из черного ящика, в который вы в качестве входных сигналов вставили "сотни параметров"? Сомневаюсь. А признанные открытия (имею ввиду связи между параметрами) делают обоснованно и строго с детерминистических позиций.
Наблюдение феномена, какой бы он фантастический ни был, само по себе не является ни научным открытием, ни доказательством чего то.
Да, согласен, что на текущий момент в большинстве случаев при принятии окончательного решения нельзя полагаться только на нейронные сети. Более правильно использовать НС в качестве одного из экспертных мнений среди множества других подходов.
По моему опыту и как это было показано в научных статьях, целевая функция не всегда зависит линейно от различных параметров. И это приводит к тому, что при некоторых комбинациях значений физических величин и их производных, при использовании деревьев решающих правил и контроле со стороны инженера достигается существенно более лучшее
качество обучения и прогноза, чем это возможно только на основе мнения одного эксперта. Приведу пример: ретроспективных анализ качества прогноза начальных дебитов нефти новых скважин только экспертами-разработчиками, геолонами и гидродинамиками обеспечивал нулевое значение показателя корреляции R2 с фактическими значениями. Наша прогнозная система показывала значения аналогичного показателя на уровне от 0.3 до 0.9 по различным выборкам. И это был огромный успех и прорыв в прогнозировании на этом месторождении!
Причем на одном из совещаний с участием недропользователя по программе бурения новых скважин я смог убедить рассмотреть возможность бурения скважины уплотняющего фонда рядом с нагнетательными скважинами, которая в итоге дала отличный начальный дебит нефти несмотря на бурные возражения отдельных экспертов о том, что там уже промытые зоны. И этот результат был получен именно на основе использовании инструментов машинного обучения!
Причем деревья решающих правил могут предлагать инженеру новые и нестандартные гипотезы.
Но основная фишка инструментов на оснрве МО: выбор наиболее информативных параметров и показателей и формирование новых, усиливающих качество обучения атрибутов, которые были наработаны за более чем десятилетний период работы. Я уверен, что большинство инженеров не использовали эти атрибуты в своей практике прогнозирования.
Есть ссылка на публикацию по данной работе? Прям-таки заинтересовали
Да, тоже интересно было бы посмотреть (в статье?), если это не пустые слова.
При горизонтальном бурении может использоваться микропалеонтологический анализ шлама, для определения относительного геологического возраста шлама и следовательно фактического стратиграфического уровня (по ископаемым микроорганизмам). ИИ моментально распознает и подсчитывает ископаемых. На видео пример работы ИИ. Распознает изображения в движении, то есть анализирует видео. https://www.youtube.com/watch?v=M5LTI7SwHgI
На видео какая-то хрень неинформативная. Есть ссылки на SPE-статьи хотя бы? У кого из сервиса эта услуга допилена до промышленного поточного уровня? В чем преимущества по сравнению с обычным MWD?
К сожалению, нет статьи.
Не сочтите за рекламу, но у этих ребят всё автоматизировано, их система подключается к БД недропольщователя и автоматизировано предлагает мероприятия и режимы работы скважин:
http://nestlab.ru/
На мой взгляд удачное сочетание МО на основе нейросетей и классического подхода по анализу и оптимизации системы разработки.
Результаты впечатляют!
Ты что, это ИИ! Аджайл!
Зачем нужен этот относительный палеонтологический возраст при бурении?
Сайтопостроение - просто сказка!
Но и аппроксимация кривых тоже какое-то сказочное:
http://nestlab.ru/gtm/
там если по-нормальному тренды выстроить, а не тупо по линейке, то эффект от проведенных мероприятий будет меньше. А раз доп.эффект - меньше, то сразу же возникает вопрос о совокупной рентабельности этих проведённых 58 мероприятий.
14 оптимизаций вытянут проект всё равно :)
Интересно другое, почему недропользователь сам не видел эти ГТМ, ведь оптимизация считается наиболее очевидно.
Кирилл, как 14 определил - поделись секретом? ))
Там же указано 14 мероприятий по увеличению отборов :)
Это конечно да. Но вопрос заключается: на каких скважинах, когда и какие режимы. Не всегда бывает так, что нужно тянуть из болота умирающие скважины. Чаще всего эффект приносит вклад в лидеров, хотя недропользователь часто боится их трогать. И надо не забывать, что оптимизация приносит максимальный эффект только в комлексе мероприятий по всем скважинам: если сильно поднять добычу на одной скважине, то через время на соседних она может снизиться примерно на такую же величину.
Еще компенсация 185% в базовом варианте удивила.
М.б. это с учетом потерь закачки, которые пока не успели индентифицировать.
Но вопрос конечно правильный.
Новости от Microsoft - DeepSeismic codebase:
Repository shows you how to perform seismic imaging and interpretation on Azure. It empowers geophysicists and data scientists to run seismic experiments using state-of-art DSL-based PDE solvers and segmentation algorithms on Azure.
https://github.com/microsoft/seismic-deeplearning
Резонный вопрос: как вы считаете, почему эта зона оказалась непромытой, и какие факторы позволили это идентифицировать?
При обучении мы использовали достаточно много параметров и сыграла конечно комбинация факторов. Основные - это наличие достаточной плотности остаточных подвижных запасов нефти и фактор существенной неравномерности процесов вытеснения, т.к. преимущественная фильтрация осуществлялась по зонам разуплотнения коллектора и по промытым зонам(нефть высоковязкая). Более подробно можно почитать в моей диссертации. Если кому интересно, то могу выслать.
Напиши название диссертации если возможно - может сами возьмем на dissercat
Оптимизация систем разработки залежей нефти с неоднородным коллектором сложного строения (на примере юрских отложений месторождений Кумколь и Северные Бузачи)
Газпромнефть НТЦ много статей по data driven reservoir management написало за последнее время. Интересно, они что-то в реальности внедрили?
Лучше избегать крайностей. Как писали выше, нейросети и "ИИ" нужны для плохо формализуемых задач. Например, распознавание образов. Пример с подсчётом ископаемых микроорганизмов на видео и фото, на мой взгляд, заслуживает внимания.
То же относится к подсчёту запасов. Аудиторы вряд ли оценят "тысячи нелинейных взаимосвязей между десятками и сотнями параметров".
ЭРА, знакомься с цифровым близнецом из BP https://www.youtube.com/watch?v=q_gcioB0ao8
Кто-нибудь знает О.Н. Пичугина из Конкорд http://ccord.ru? Он 15-20 лет назад не работал в Лукойле на Сущёвском Валу? Я тогда там применял "обучение без учителя" для анализа результатов ГРП. Метод описан в SPE 84211.
Спасибо! На самом деле соглашусь, есть такая проблематика. Здесь ничто приниципиально не мешает производить "карго" самим, притом не скрывая в т.ч. от пользователей что все эти ML суть ребрендинг довольно старых вещей, но если ориентироваться на сам результат, то обертка не так и важна. А пустышку с одним маркетингом конечно никто не возьмет, потестируют раз и вежливо откланяются.
Про качество данных как раз это то, от чего в числе других ключевых факторов и "пляшем". Если про те же разломы в двух словах, то ant tracking уже довольно старый и вследствие программных особенностей Петреля этот workflow можно и по времени оптимизировать, и по качеству итогового результата, что уже давно пользователи наши тестируют, пока конечно алгоритмы требуют доработки, но сами идеи как мне и знакомым пользователям представляется, имеют по крайней мере, право на шанс ( о них тут не буду лишний раз спамить рекламой, у нас скоро Юбилейный Форум, где все наработки будут показаны вживую - http://forum.geoplat.pro/ ,если кто заинтересуется, у меня в профиле есть адрес почты)
Страницы