Форум » ПЕТРОФИЗИЧЕСКИЙ СОФТ - PETROPHYSICAL SOFTWARE » Нейронные сети » Ответить

Нейронные сети

bne: Тема уже поднималась (в связи с задачей оценки литологии и в связи с реализацией сетей Кохонена в ModERn) В частности, смотри по ссылке http://petrophysics.borda.ru/?1-1-0-00000005-000 Здесь наверное пойдет пока складировние аннотаций

Ответов - 16

Myp3uJIKA: Занимался нейронными сетями для прогноза пористости. Вещь конечно очень тонкая. Как и все мат методы требует максимального уточнения исходных данных (обучающей выборки), чтобы она была представительна, увязана, наиболее точна в значениях и т.д. Но, если связь ФЕС с ГИС есть - сеть ее найдет. Это главное. Плюс есть определенная устойчивость к несвязанным с результатом данным, проверял специально - добавлял рандомный лог, прогноз почти не менялся. Минус есть, это осреднение обучающей выборки. В целом всегда получится что низкие значения параметра переоценены, а высокие - недооценены. Однако главной проблемой продвижения нейронных сетей пока является проблема в психологии. В добывающей конторе сидят люди "далеко за", которые не понимают методы, не выраженные формулой вида Кп=а*аПС+в. Лично слышал и видел все это. Нейронную сеть можно лишь показать в действии, вот это исходные данные, накоторых она училась, вот - прогноз и сравнение по керну. Больше никак.

Boris_Home: Но основная проблема остается не за технологией (регрессии, кластеры, размытые множества, ассоциативные правила, разные типы нейронных сетей), а за организацией обучающей выборки и экзамена (притом без потери однородности) А линейная связь пористости и ПС это диагноз ;-)

bne: И еще На самом деле две темы критичны 1) Длина объема обучения (для нейронных алгоритмов она велика) 2) Чувствительность к экстраполяции 3) Возможность адаптации разнообразной априорной информации с минимумом искажений


bne: Tohru Nitta "Complex-valued Neural Networks: Utilizing High-dimensional Parameters" Information Science Reference | English | 2009-01-30 | ISBN: 1605662143 | 504 pages Recent research indicates that complex-valued neural networks whose parameters (weights and threshold values) are all complex numbers are in fact useful, containing characteristics bringing about many significant applications. Complex-Valued Neural Networks: Utilizing High-Dimensional Parameters covers the current state-of-the-art theories and applications of neural networks with high-dimensional parameters such as complex-valued neural networks, quantum neural networks, quaternary neural networks, and Clifford neural networks, which have been developing in recent years. Graduate students and researchers will easily acquire the fundamental knowledge needed to be at the forefront of research, while practitioners will readily absorb the materials required for the applications.

Bne_Home7: Б. Г. ИЛЬЯСОВ, К.Ф. ТАГИРОВА, А. П. ЕФРЕМОВ РАЗРАБОТКА ПРОГРАММНОГО КОМПЛЕКСА ОЦЕНКИ ПРОНИЦАЕМОСТИ КОЛЛЕКТОРА НА ОСНОВЕ НЕЙРОСЕТЕВЫХ АЛГОРИТМОВ Рассматривается новый подход для оценки дебита нефтяной скважины за счет более точного определения проницаемости пласта с помощью нейрон- ных сетей. Приводится его практическое применение на одном из месторождений Западной Сибири. Геофизические исследования скважин; нейронные сети; моделирование Уфа : УГАТУ, 2008 Вестник УГАТУ 􀀀 Управление, ВТиИ T. 11, №1 (28). C. 73–78 АВТОМАТИЗАЦИЯ И УПРАВЛЕНИЕ ТЕХНОЛОГИЧЕСКИМИ ПРОЦЕССАМИ И ПРОИЗВОДСТВАМИ http://www.ugatu.ac.ru/publish/vu/stat/UGATU-2008-1%2828%29/09.pdf

viking23: все хочу заняться анализом нейронных сетей. довольно интересно по разбираться в алгоритме и соответствено в логике выбора того или иного параметра.

bne: Уважаемые коллеги, студенты, аспиранты! Приглашаем Вас 20 октября 2011 г. c 1745 до 1900 на очередной семинар "Нейробиология, нейроинформатика и когнитивные исследования". Доклад Владимира Дмитриевича Цыганкова «Нейрокомпьютерная квантовая модель сознания, виртуальный мозг и феномен раздвоения личности» Владимир Дмитриевич Цыганков - директор по науке НПК «БИОМЕДИС», к.т.н., член-корр. Международной Академии Информатизации. Аннотация доклада: Сознание – это один из фундаментальных феноменов живого субстрата, понимание сущности и моделирование которого на неживом субстрате составляет основную задачу института на данном этапе. Если согласиться с аргументированными Р.ПЕНРОУЗОМ доводами, что сознание – это невычислительный квантовый процесс в сложной динамической системе, имеющей особую организационную структуру, подобной нейронной структуре мозга, то перед нами налицо ряд условий для постановки и решения актуальных прикладных задач создания искусственного сознающего существа или устройства. Такие устройства относятся к так называемым системам типа «системы с искусственным интеллектом». Одним из основных направлений на ближайший период на пути практического построения мозгоподобных устройств выбрана парадигма «ЭМБРИОН», разработанная В.Д. Цыганковым, которая включает в себя разработку и изготовление виртуальных нейрокомпьютеров в виде нейрочипов, содержащих огромное число (около миллиона) нейронов, соединенных в сложные нейронные сети. Как экспрессия триплета кода генетической матрицы нейрокомпьютера «ЭМБРИОН» формирует и детерминирует поведение робота - анимата, управляемого этим нейрокомпьютером? Представленные в докладе результаты экспериментальных исследований, возможно, помогут понять интимные мозговые механизмы сознания и формирования квантовой психологии поведения. *** Время и место проведения семинара: Четверг 20-ого октября 2011 г., с 17.45 до 19.40, по адресу: Москва, Каширское шоссе, д. 31, главный корпус НИЯУ МИФИ (4-й этаж), аудитория 405. Проезд от ст. метро «Каширская» (первый вагон из центра): одна остановка автобусами 95, 117, 148, 162, 192, 275, 280, 709, 738, 740, 766, троллейбусами 11, 67, 71 до остановки «МИФИ». Для прохода в НИЯУ МИФИ необходимо заранее (как минимум, накануне) заказать пропуск по E-mail (tiuq@yandex.ru) или по SMS (8 916 9284934). Необходимо указать полностью ФИО и место работы или учебы. Убедительно просим обязательно иметь при себе паспорт.

bne: Обнаружил в библиотке статей SPE сразу несколько новых про применение нейронных сетей Нет сомнений что авторы в своей мечте освчастливить человечество пошли понаиболее трудному пути - подобрав у коллег массив данных попытались описать его с помощью нейронных сетей и поправить Козени и Кармана Жаль только, что продолжения эти работы не имеют, поскольку получаемые соотношения обладают низкой устойчивостью к смене геологических условий

bne: Б. Г. ИЛЬЯСОВ, К. Ф. ТАГИРОВА, А. П. ЕФРЕМОВ РАЗРАБОТКА ПРОГРАММНОГО КОМПЛЕКСА ОЦЕНКИ ПРОНИЦАЕМОСТИ КОЛЛЕКТОРА НА ОСНОВЕ НЕЙРОСЕТЕВЫХ АЛГОРИТМОВ Рассматривается новый подход для оценки дебита нефтяной скважины за счет более точного определения проницаемости пласта с помощью нейронных сетей. Приводится его практическое применение на одном из месторождений Западной Сибири. Геофизические исследования скважин; нейронные сети; моделирование Уфа : УГАТУ, 2008 Вестник УГАТУ Управление, ВТ и И T. 11, № 1 (28). C. 73–78 АВТОМАТИЗАЦИЯ И УПРАВЛЕНИЕ ТЕХНОЛОГИЧЕСКИМИ ПРОЦЕССАМИ И ПРОИЗВОДСТВАМИ http://www.ugatu.ac.ru/publish/vu/stat/UGATU-2008-1(28)/09.pdf

bne: Basbug, B., & Karpyn, Z. T. (2007). Estimation of Permeability from Porosity, Specific Surface Area, and Irreducible Water Saturation using an Artificial Neural Network. Latin American & Caribbean Petroleum Engineering Conference. Использован массив из книги Багринцевой На этом массиве данных линейная регрессия не уступает играм в нейронные сети

bne: Middle-East Journal of Scientific Research 13 (9): 1217-1223, 2013 ISSN 1990-9233 © IDOSI Publications, 2013 DOI: 10.5829/idosi.mejsr.2013.13.9.927 Corresponding Author: Amir Hatampour, Faculty of Chemical Engineering, Dashtestan branch of Islamic Azad University, Dashtestan, Iran, Tel: 0098 939 160 5121. 1217 Improving Performance of a Neural Network Model by Artificial Ant Colony Optimization for Predicting Permeability of Petroleum Reservoir Rocks Amir Hatampour, Rasul Razmi and Mohammad Hossein Sedaghat Faculty of Chemical Engineering, Dashtestan Branch of Islamic Azad University, Dashtestan, Iran Abstract: Over recent years, oil and gas exploration has been beloved due to extended needs for petroleum and energy sources. In this way, the capabilities of intelligent techniques are studied by researchers in different fields of petroleum industry and geosciences, whereas it seems that these techniques can improve the prediction accuracy of exploration and production of the hydrocarbon reservoir. The performance indices of the artificial models have proven to be better than the conventional linear and non-linear statistical models. Artificial intelligence models are extremely useful for reservoir characterization, which requires a high-accuracy prediction for a good exploitation of the oil and gas resources. The present paper introduces an optimized neural network (NN) for predicting permeability based on a relatively new swarm intelligent approach, named ant colony optimization. Ant colony optimization (ACO) is a relatively new computational intelligent approach, which was initially inspired by the observation of ants. The number of neurons in hidden layer, weights and bias are optimized in the proposed NN using the ACO. The data of a gas reservoir in the South Pars Gas Field of Iran was used for analyzing the accuracy of optimized NN in a real case study. Finally, to clarify the advantages of the optimized NN, its outcomes were compared with the results of a simple NN model, in which the aforementioned parameters were determined through a try-and-error process. The MSEs of the optimized and simple NN were equal to 7.95 md and 12.84 md, respectively, which correspond to the correlation coefficient (R) of 0.94 and 0.866, respectively.

bne: Ключевой момент (керн через 1.5 дюйма сопоставляется с каротажем) Data Description: In this study, the well log data and corresponding core data of three wells were employed for training and examining the validation of the proposed method. Firstly, the data sets were processed and bad- hole intervals, in which the derivation between the caliper and bit-size logs is larger than 1.5 inch, were removed. To ensure the correct reading of well-log data against core permeability, a depth-matching procedure was carried out.Normalization of data is another task, which could be done for better prediction of outputs. In the training data, permeability range changes from 0.007 to 271 md. This wide range causes low performance of the model in permeability prediction; therefore, the normalized data have been used to enhance the performance of prediction. A total of 301 core samples were available for this research, among them 218 samples were from Well A and B (train wells) and 83 samples were used for validating purposes. The train and test wells should be located in a suitable distance from each other. In a suitable distance, the geological and petrophysical rock properties that affect the reservoir characteristics are consistent. The available well log data for this study were gamma ray (GR), sonic (DT), bulk density (RHOB), deep laterolog (LLD), photo electric factor (PEFZ) and corrected neutron porosity (NPHI). При известных параметрах осреднения и неоднородности IMHO остается недоумевать по поводу прыти авторов

bne: First EAGE/PESGB Workshop Machine Learning Ш.А.Губерман выпустил сборник трудов МИНХиГП по результатам подобной встречи в 1964 году Страница Ш.А.Губермана https://www.researchgate.net/profile/Shelia_Guberman3

bne: Газпром нефть определила победителей конкурса на применение методов искусственного интеллекта в нефтедобыче Декабрь 10, 2018 7 декабря в Санкт-Петербурге состоялся финальный этап конкурса Gazprom neft SmartOil Contest по поиску алгоритмов машинного обучения для эффективной добычи энергоресурсов. Организаторами выступили Научно-Технический Центр «Газпром нефти» и компания «Иннопрактика». Ключевая задача конкурса — поиск новых алгоритмов в области анализа данных. Во время заочного этапа участникам было предложено решить задачи на наиболее точный прогноз объемов добычи углеводородов из скважин с использованием производственных данных с шести нефтяных месторождений. Свои решения на второй этап Gazprom neft SmartOil Contest представили 287 участников из 166 команд со всей страны. По итогам финала победителями стали авторы семи лучших проектов, которые разделили между собой призовой фонд — 760 тыс. руб.: I место — Команда Pavel Mazaev, Москва. Участник — Павел Мазаев II место — Команда CheatCode, Москва. Участник — Александр Ничипоренко III место — Команда Viktor Yanush, Москва. Участник — Виктор Януш IV место — Команда c1, Москва. Участник — Константин Жариков V место — Команда «Бенчмарк ВМК МГУ 2018», Москва. Участник — Александр Дьяконов VI место — Команда Sergey Serov (MMP MSU), Москва. Участник — Сергей Серов VII место — Команда Honey Badger, Санкт-Петербург. Участник — Богдан Печенкин. Помимо денежного гранта победители получат возможность стать частью команды, которая работает над созданием самообучающегося цифрового помощника инженера-нефтяника в рамках технологического направления Электронная разработка активов (ЭРА)* «Газпром нефти». Основной функцией программы будет обработка Big Data, собираемых цифровыми системами с месторождений, для определения оптимальных технологических и экономических решений по добыче нефти. «Современная «нефтянка» — это работа на стыке науки, высоких технологий, инжиниринга и программных решений. Сегодня цифровые данные ценятся зачастую не меньше, чем физические активы — ежедневно любая крупная компания генерирует огромный объем информации. Найти ключи, чтобы извлекать из этого потока максимальную выгоду — одна из стратегических задач отрасли. Именно поэтому мы стараемся вовлекать как можно больше партнеров в процессы создания новых алгоритмов и программных продуктов, которые в будущем кардинально изменят нефтяную промышленность и позволят эффективно разрабатывать все более сложные запасы», — отметил генеральный директор Научно-Технического Центра «Газпром нефти» Марс Хасанов. «Одна из задач в рамках цифровой трансформации — сделать так, чтобы человек смог принимать решения более качественно, объективно, на основе совокупности данных. Конкурс Gazprom neft SmartOil Contest показал огромный интерес со стороны сообщества Data Scientist к проектам «Газпром нефти». Обладая уникальными наборами промышленных, геологических и других видов данных, мы хотим, чтобы люди с компетенциями в области машинного обучения и искусственного интеллекта применяли свои способности именно в этих направлениях: цифровые двойники, когнитивные помощники, предиктивная аналитика технологических решений, несущих максимальный экономический эффект для компании», — подчеркнул директор по цифровой трансформации «Газпром нефти» Андрей Белевцев. Конкурс был запущен в конце августа и состоял из двух независимых сессий — летней и осенней, каждая из которых включала заочный и очный этапы. Вторая сессия стартовала 17 октября. Общий призовой фонд конкурса превысил 1,5 млн руб. https://visitor.constantcontact.com/do?p=oo&m=001Rwg9MK_BilMNCe7i8yOTcA%3D%3D&ch=660e1db0-34df-11e4-8df5-d4ae52733bf0&ca=d41d95a6-cb5f-4733-b692-017d0c4004f4

БНЕ_Home0: Бин Ким — разработчица технологии <i>TCAV</i>. Бин Ким — разработчица технологии TCAV. 0 Если врач сказал, что вам нужна операция, вы, наверное, захотите узнать, почему. И будете ожидать, что объяснение будет вам понятно, даже если вы никогда не учились в медицинском вузе. Бин Ким (Been Kim), исследовательница из Google Brain, считает, что для искусственного интеллекта в таких случаях не стоит понижать планку. Она — специалист по «интерпретируемому» машинному обучению, и её цель — создать такой ИИ, который сможет объяснять свои решения обычным людям. За последние десять лет нейронные сети, со своей способностью учиться и выявлять закономерности в данных, изменили множество вещей — от электронной почты до процесса разработки лекарств. Но не обошлось и без подвоха: та самая сложность, которая позволяет современным нейросетям учиться вождению автомобиля и выявлять случаи мошенничества, приводит к тому, что понять их внутреннее устройство почти невозможно — и это проблема даже для экспертов. Если нейронная сеть выявляет пациентов с риском развития рака печени — как, например, система Deep patient — точно определить, на какие именно свойства данных она обращает внимание, нельзя. Ответ на этот вопрос распределён по многочисленным слоям нейронной сети, каждый из которых имеет сотни или тысячи межнейронных связей. По мере того, как всё больше отраслей пытаются с помощью ИИ улучшить или автоматизировать процесс принятия решений, проблема «чёрного ящика» кажется всё более серьёзным недостатком. Эта тема заинтересовала даже Управление перспективных исследовательских проектов (Defense Advanced Research Projects Agency, DAPRA) Министерства обороны США. Там запустили проект по созданию интерпретируемого ИИ под названием XAI. Обеспечение интерпретируемости перестало быть маргинальной задачей, теперь это одна из центральных задач исследований машинного обучения. «Сейчас для ИИ настал критический момент: человечество пытается решить, хороша эта технология для нас или нет, — говорит Ким. — Если мы не решим проблему интерпретируемости, вряд ли мы возьмём эту технологию с собой в будущее. Может быть, человечество просто забудет про неё». Ким и её коллеги из Google Brain недавно разработали систему под названием «Тестирование с помощью векторов активации концепций» (Testing with Concept Activation Vectors, TCAV). Исследовательница описывает её как «переводчик на человеческий язык». Система позволяет пользователю спрашивать у «чёрного ящика», насколько на полученный результат повлияла та или иная высокоуровневая концепция. Например, если система машинного обучения была обучена распознавать зебр, то с помощью TCAV можно узнать, каким весом при принятии решения обладает «полосатость». Изначально TCAV тестировали на моделях, обученных распознавать изображения, но его также можно использовать в моделях, работающих с текстом или с определёнными видами визуализации данных, например, с графиками ЭЭГ. «Эта система универсальная и простая — её можно использовать с разными моделями», — говорит Ким. Журнал Quanta поговорил с Ким о том, что означает интерпретируемость, кому она нужна и почему важна. Далее мы приводим отредактированную и сжатую версию интервью. Джон Павлус (John Pavlus). Вы сосредоточили карьеру на «интерпретируемости» в машинном обучении. Но что именно означает этот термин? Бин Ким. Есть две разновидности интерпретируемости. Одна — это интерпретируемость для науки: если рассматривать нейронную сеть как объект исследования, то можно провести научные эксперименты, чтобы по-настоящему понять скрытые характеристики модели, как она реагирует на различные стимулы и т.д. Вторая разновидность интерпретируемости, которой я, в основном, занимаюсь, это интерпретируемость «ответственного ИИ». Не нужно понимать о модели всё, достаточно лишь понимать, как безопасно ей пользоваться. Это и есть наша цель. Павлус. Но как можно доверять системе, если не до конца понимаешь, как она работает? Б. К. Приведу аналогию. Допустим, у меня на заднем дворе растёт дерево, и я хочу его спилить. Можно было бы для этого использовать бензопилу. Хотя я не совсем понимаю, как она работает. Но в инструкции сказано: «Вот ситуации, в которых вы должны быть осторожны, чтобы не отпилить себе палец». Учитывая, что у меня есть инструкция, я бы предпочла использовать бензопилу, а не ручную пилу. Устройство обычной пилы, конечно, легче понять, но я бы тогда пилила дерево пять часов. Павлус. Вы понимаете, что такое «пилить», хотя и не понимаете до конца, как механизм это делает. Б. К. Да. Вторая разновидности интерпретируемости пытается ответить на вопрос: понимаем ли мы инструмент достаточно, чтобы можно было безопасно его использовать? И мы можем получить это понимание, подтвердив, что в инструменте отражены полезные человеческие знания. Been Kim Павлус. Как тот факт, что инструмент «отражает человеческие знания», делает чёрный ящик искусственного интеллекта более понятным? Б. К. Вот ещё пример. Если врач ставит диагноз «рак», прибегая к помощи инструмента машинного обучения, он наверно захочет заранее знать, не опирается ли модель на какую-то случайную корреляцию в данных, которая для врача совсем не важна. Один из способов убедиться в этом — удостовериться, что модель машинного обучения делает то же, что сделал бы врач. Другими словами, показать, что знания врача о том, как ставить диагноз, отражены в модели. Поэтому, если бы врачи смотрели на образец клеток, чтобы диагностировать рак, они, вероятно, искали бы в нём нечто вроде «слившихся желёз» (fused glands). Можно также учесть возраст пациента и то, проходил ли он в прошлом химиотерапию. Это такие факторы, на которые врачи обращают внимание, когда диагностируют рак. Если мы сможем показать, что ИИ-модель также учитывает эти факторы, мы будем её лучше понимать: она отражает знания врачей. Павлус. TCAV делает именно это? Показывает, какие высокоуровневые концепции использует ИИ-модель для принятия решений? Б. К. Да. Методы интерпретации, которые у нас были до этого, могли объяснить только то, что нейронные сети делают с точки зрения «входных характеристик». Что я имею в виду под этим? Если у вас есть изображение, то каждый его пиксель будет входной характеристикой. На самом деле, Ян Лекун (Yann LeCun) [первопроходец в области глубокого обучения и в настоящее время директор по исследованиям ИИ в Facebook] сказал, что он считает, что наши модели уже и так суперинтерпретируемые: можно посмотреть на каждый узел нейронной сети и увидеть, какие числовые значения соответствуют каждой входной характеристике. Да, компьютеры это могут, но люди так не мыслят. Я же не говорю вам: «О, посмотрите на пиксели от 100 до 200, их значения RGB равны 0,2 и 0,3». Вместо этого я говорю: «Здесь изображена собака, у неё пушистая шерсть». Вот как общаются люди — с помощью концепций. Павлус. Как TCAV выполняет перевод с языка входных характеристик на язык понятий? Б. К. Давайте вернёмся к примеру с врачом, который использует ИИ-модель, обученную отличать изображения потенциально злокачественных образцов клеток. Если бы вы были врачом, вы, наверное, захотели бы узнать, какой вес в модели имеет понятие «слившиеся железы» при прогнозировании рака. Сначала нужно собрать несколько изображений — скажем, 20 — с примерами слившихся желёз, и потом включить эти размеченные примеры в модель. TCAV делает так называемое тестирование чувствительности (sensitivity testing). Когда мы добавляем эти маркированные изображения слившихся желёз, насколько увеличивается вероятность положительного прогноза рака? На этот вопрос можно получить ответ — число от нуля до единицы. Вот и всё. Это ваш балл TCAV. Если вероятность возросла, это была важная для модели концепция. А если нет — то неважная. Павлус. «Концепция» — это нечёткий термин. Есть ли какие-то концепции, с которыми TCAV не будет работать? Б. К. Если вы не сможете выразить свою концепцию, используя некоторое подмножество среды [набора данных], то да, работать не будет. Если ваша ИИ-модель обучена на изображениях, то концепция должна быть визуально выражаема. Допустим, я если я захочу визуально выразить понятие «любовь», это будет очень сложно. Мы также тщательно проверяем концепцию. У нас есть процедура статистического тестирования, которая отклоняет вектор концепции, если он оказывает на модель такое же влияние, что и случайный вектор. Если ваша концепция не пройдёт этот тест, то TCAV скажет: «Не знаю, кажется эта концепция не важна для этой модели». Павлус. В сущности, TCAV используется скорее для создания доверия к искусственному интеллекту, чем для его подлинного понимания? Б. К. Это не так — и я объясню, почему. Нужно уметь различать эти вещи. Из ряда исследований в области когнитивной науки и психологии мы знаем, что люди очень доверчивы. Это означает, что на самом деле довольно легко обмануть человека и заставить его чему-то верить. Цель интерпретируемости машинного обучения совершенно другая. Её цель — в случае чего оповестить людей о том, что система небезопасна. Речь идёт о раскрытии правды, так что «доверие» тут — не то слово. Павлус. То есть, смысл интерпретируемости заключается в том, чтобы выявить потенциальные недостатки в рассуждениях ИИ? Б. К. Да, именно. Павлус. И как это можно сделать? МБ. К. Можно использовать TCAV, чтобы спросить обученную модель, какие концепции для неё нерелевантны. Возвращаясь к примеру врачей, использующих искусственный интеллект для прогнозирования рака. Врачи могут внезапно подумать: «Похоже, что наша модель даёт положительные прогнозы по раку для многих изображений, в которых есть своеобразный синеватый артефакт. Сомнительно, что этот фактор следует принимать во внимание». Если они получат высокий балл TCAV по концепции «синий», они выявят проблему в своей модели машинного обучения. Павлус. Система TCAV предназначена для использования с существующими системами искусственного интеллекта, которые не поддаются интерпретации. Почему бы тогда не делать системы интерпретируемыми с самого начала — не чёрными ящиками, как сейчас? Б. К. Есть направление исследований интерпретируемости, в центре которого — построение изначально интерпретируемых моделей, которые бы отражали то, как люди рассуждают. Но моё мнение таково: сейчас у нас много таких ИИ-моделей, в которых интерпретируемость не была учтена с начала, и которые уже делают важные вещи. Это факт. У нас в Google таких много! Вы можете сказать: «Интерпретируемость очень полезна, давайте я построю вам другую модель, чтобы заменить ту, которая у вас». Ага, удачи. Ну и что же нам делать? Нам ещё предстоит принять критически важное решение и определиться: хороша ли технология нейронных сетей для нас или нет. Вот почему я работаю с апостериорными методами интерпретации. Если у вас есть модель, которую кто-то вам дал, и которую вы не можете изменить, то как вы будете получать объяснения её поведения, чтобы безопасно её использовать? В этом и заключается функция TCAV. Павлус. TCAV позволяет людям спрашивать ИИ, имеют ли определённые понятия для него значение. Но что, если мы не будем знать, что спросить — что если мы захотим, чтобы система сама всё объяснила? Б. К. Мы сейчас работаем над статьёй, в которой описываем, как система сможет автоматически находить концепции. Мы называем это DTCAV — обнаруживающая (discovery) TCAV. Но я считаю, что участие людей в процессе, обеспечение возможности общения между машинами и людьми — основа интерпретируемости. Работа над статьёй Во многих случаях в важных сферах применения у экспертов уже есть список понятий, которые для них важны. В Google Brain, в ходе нашей работы над медицинскими проектами, мы видим это снова и снова. Исследователи не хотят, чтобы им давали готовый набор понятий — они хотят «скормить» модели те понятия, которые их интересуют. Как-то раз мы работали с врачом, которая лечила диабетическую ретинопатию, такое заболевание глаз. И когда мы рассказали ей о TCAV, она была очень заинтересована, потому что у неё уже было множество гипотез о том, что делает модель. А с TCAV она может проверить эти гипотезы. На самом деле это огромное достоинство, это ориентированный на пользователя способ обучения машин в коллаборации. Павлус. Вы считаете, что без интерпретируемости человечество может отказаться от технологии ИИ. Вы действительно думаете, что это возможно, учитывая, насколько это мощный инструмент? Б. К. Да. Давайте посмотрим, что случилось с экспертными системами. [В 1980-х] мы установили, что при выполнении определённых задач использовать их дешевле, чем операторов-людей. Но кто сейчас применяет экспертные системы? Никто. И после этого наступила зима искусственного интеллекта. Не думаю, что это произойдёт прямо сейчас, когда вокруг ИИ много шумихи и денег. Но я думаю, что в долгосрочной перспективе человечество может решить — возможно, из-за страха, возможно, из-за отсутствия доказательств [безопасности] — что эта технология не для нас. Может так случиться. Подготовка материала Александра «Renoire» Алексеева https://22century.ru/popular-science-publications/understanding-machines

bne: Automatic Interpretation of Well Logs with Lithology-Specific Deep-Learning Methods AuthorsAymeric-Pierre Peyret (The University of Texas at Austin) | Joaquín Ambía (The University of Texas at Austin) | Carlos Torres-Verdín (The University of Texas at Austin) | Joachim Strobel (Wintershall GmbH) Document IDSPWLA-2019-SSSSPublisherSociety of Petrophysicists and Well-Log AnalystsSource SPWLA 60th Annual Logging Symposium, 15-19 June, The Woodlands, Texas, USA Publication Date2019 ABSTRACT Accurate and reliable interpretation of well logs often requires a high level of expertise from a petrophysicist along with enough relevant borehole and core measurements. As an alternative and complementary approach, deep learning has been proposed to capture the experiential knowledge gained from petrophysical interpretations, as well as the physical and heuristic models often used for that purpose. We test the latter idea using a set of wells previously interpreted and explore the critical aspects that can yield a successful automatic well log interpretation. Some of the questions we attempt to answer here, as a guide for future applications of artificial neural networks (ANNs), are: how much data does the petrophysicist need to explicitly interpret before relying on ANNs? What is the best suited deep-learning network architecture? How widely can the ANNs be generalized? Can we automatically classify different wells for improved ANN usage? In this study, all the wells used come from the same hydrocarbon reservoir and intersect multiple formations. The focus is on estimating clay fraction (VCL), effective porosity (PHIE), water saturation (SW), and permeability (K). We compare the performance of various architectures of deep artificial neural networks (ANNs) using different numbers of layers and neurons in each layer. Once an ideal ANN architecture was found for a specific formation, it was tested against different formations, but results were relatively poor, corroborating the specificity of ANNs to the lithology where they were trained. Furthermore, we propose a self-organizing map (SOM) as a way of partitioning wells into classes, which should be treated separately (independent ANNs). This strategy yielded the best results. The amount of data required to train our ANNs was relatively small (5-9 wells), considering the amount of data typically required for training more general ANNs. This is only possible if different lithologies and/or rock classes are treated independently. INTRODUCTION The use of artificial intelligence (AI) in well-log interpretation has been proposed multiple times, and for different purposes. Classification of facies within well trajectories has been done by relying on well logs, and using ANNs (Saumen, et al., 2007; Rogers et al., 1992), modular neural networks (Bhatt, and Helle, 2002(1)), deep convolutional neural networks (CNN) (Imamverdiyev, and Sukhostat, 2019), and SOMs (Fung, et al., 1995).



полная версия страницы