Форум » ПЕТРОФИЗИЧЕСКИЙ СОФТ - PETROPHYSICAL SOFTWARE » ModERn-2017 » Ответить

ModERn-2017

bne: Накопились проблемы (в частности в связи со сборкой мусора, новым MSOffice и ключами после XP) Это тормозит работу и создает обидные проблемы там где их быть не должно Сейчас первоочередное - попытка перейти на более свежие версии DELPHI Начал с работой по вводу и выводу в MSOffice Это должно освободить от ряда проблем и придать новый интерес и личный импульс к разработке

Ответов - 32

bne: Приходится разбираться с путаницей и разночтениями и различием Но сегодня столкнулся с тем, что в свежей книге по петрофизике (2015) в двух разных разделах константы во второй цифре различны Притом у книги единственный автор А у Кожевникова Pef воды похоже завышено в 1000раз Также весело ;-(

bne: Выработан перечень серьезных модификаций и расширений Планируется завершить бета версию к концу сентября 2016 года

bne: Проблемы начались с ключом и с поддержкой новых версий EXCEL Ну и с плотной работой по петрофизике и по интерпретации Сейчас есть шанс немного разгрестись, чем и занят Установил у себя DELPHI 10.1.2 Berlin но хочется обойтись без экстрима (тем более с Help тут все неуютно) Помимо указанного большой портфель важных доработок Но начать надо с двух вышеуказанных проблем


bne: Планирую к этому времени сделать новую версию Много работы

bne: Сравниваю новые и старые алгоритмы с линейной алгеброй на подобранных тестах Различие результатов на сложных тестах серьезно впечатляет

bne: Тяжело отстроиться от зуда разработки и проверки идей новых алгоритмов Но снова нет времени на это Но идея квантования по разложению на сумму взвешенных просns[ сомнижителей с подстрой весов (внешне как в задаче о генах) смотрится очень заманчиво Но лучше всего она должна работать в ортогональных случаях

bne: Экспериментирую с алгоритмами кластеризации с сопоставлением на традиционном полигоне - ирисах Фишера Похоже, что есть заметная чувствительность к розыгрышу начальных приближений, но стохастика помогает Таки некоторый опыт работы с численными алгоритмами есть и за счёт этого быстродействие удается увеличить, а степень близости к глобальному минимуму повысить Надеюсь не сглазить< хотя понятно, что универсальные параметры у алгоритмов отсутствуют

bne: Приличный датчик для многомерного нормального распределения (нужный тест для кластерных алгоритмов) найти не смог А старые распечатки остались в ЦГЭ (вернее их выбросили на помойку вблизи ЦГЭ) Придется переписывать

bne: Начал переписывать блоки Lawson-Hansen Искренне надеюсь за пару дней справиться Но потом придется всё это вписывать в ModERn, также время потребуется

bne: 27 точек и 2 переменные (известный тест про заклепки) четыре программы для расчета линейной регрессии дают разные результаты по коэффициентам Прогнозы также заметно отличаются При этом везде EXTENDED Конечно, понятно, что трюком с предобуславливанием можно ситуацию попытаться улучшить Но пока всё именно так

bne: Любопытно сравнение регрессий с разным показателем степени - Lp Значения констант и прогноза плавно меняются с изменение степени (но до какого-то предела)

bne: Унифицирую отлаженные в 90-х на FORTRAN программы оптимизации Но EC идея объединять их в один пакет даже в голову не приходила

bne: В связи с растущей популярностью среди неофитов (от ИФЗ и СНИИГИМС до разного рода самоделькиных) поискового метода оптимизации "Nelder-Mid" решил и с ним разобраться в своём пакете для нелинейной оптимизации и статистического оценивания Често передул его (копированием и перелицовкой из FORTRAN) из второй переведенной книги Химмельблау и стал тестировать По ходу дела (поскольку распознавание при копировании шло с ошибками) пришлось разбираться Обнаружил смешные вещи 1) Программист на каждой итерации повторно вычисляет значение функции Примерно 30 процентов обращений к счету функционала лишние Хотел бы я глянуть код умельцв и посмотреть разобрались ли они с этим 2) На тестовой функции ROS2 уже при размерности N=6 метод не сходится Это я обнаруживал еще в 80-е годы но тексты у меня стащил бывший коллега по работе Пришлось повторять работу А публика с важным видом про применение этого метода рассказывает Таки провинция (и предмеитная и региональная) ;-((

bne: Модификация двух кластерных алгоритмов (которые отладил в прошлом году) под работу в режиме распознавания с учителем

bne: На этой неделе три дня искал ошибку с динамическими массивами, которую вляпнул в обновленный блок Всё перерыл вдоль и поперек Многое вспомнил Много нового про себя сам себе сказал... ;-( Можно было бы и плюнуть и отступиться, но в этом я упрямый.. Ошибка вышла такая досадная, что сказал себе ещё... ;-( Надеюсь, что теперь буду аккуратнее c запланированными нововведениями ;-)

bne: Основная проблема тут в интерфейсе пользователя -прозрачном для понимания, -полном для возможностей -комфортном при использовании -позволяющем сохранять результаты предшествующей работы Было бы опрометчиво говорить, что всего с этим добился, но пока есть ощущение продвижения

bne: Забавно, но по ирисам кластеризация вручную (довел её в первом варианте) и по KMean довольно близки Но ручные классы задают и естественную для интерпретатора семантику

bne: Пока с 7-й было всё терпимо Ввод и запись EXCEL и приличный набор новинок (как программных, так и методических) под ModERn

bne: Получил в фирме новый комп (Windows-10 Pro ENG), на котором установил транслятор и требуемые компоненты Трансляция программы уже проходит и она запускается Теперь нужно внимательно оттестировать (включая и мои достижения последних лет)

bne: С момента ввода (без обходов) сделал расчет процентилей по числовым столбцам Они потом в нескольких местах заметно облегчают жизнь

bne: Доделан новый блок с моделированием терригенного разреза при этом результат можно записать в EXCEL Почти все константы (включая даже закономерности чередования и мощности разных литотипов) вынесены наружу - удобно для тестирования и сравнения алгоритмов и обучения работе Планирую широко его использовать в этих целях

bne: Теперь намного проще генерировать тестовый разрез с желаемыми характеристиками (подобрав вручную параметры алгоритма генерации) Красивые результаты, оттестировал на них два алгоритма кластерного анализа и подготовил как тезисы в Питер Вполне сойдет и за описание теста и за работу с кластерами Попутно выловил две сильно застарелые неточности и одну ошибку!

Boris_Home: Сам не ожидал, но при обработке длинного массива (60 000строк) придумал вначале одну, а потом довел брошенный ранее код и изобрел ещё две Смотрится реально полезным при разведочном анализе Честно говоря аналогов не видел

bne: Сделан новый интерфейс (позволяющий прозрачнее и гибче работать с весьма длинными массивами до 60 000 строк), усилены меры борьбы с преждевременной сходимостью и добавлены новые взаимосвязи Тестирование на взаимосвязях плотности с глубиной + геофизика Аналогично - интервальное время

bne: возможность нарезки массивов на подмассивы с их записью по лититипам или иным классификаторам и диапазонам

bne: Для работы оказалось важным проводить цензурирование Параллельно улучшил код блока

bne: Для этого добавлена соответствующая функция Здорово облегчила реальную работу Вроде как и не вижу, что именно стоит еще дорисовать ------------ Полдня ловил (наряду с описанием отчета по прогнозу плотности) мерцающую ошибку Как она появилась (зависимость от состояния памяти) просто не понимаю ;-(

bne: - смена света-формы и размера по действиям пользователя Сам широко этим пользуюсь

bne: кросс-плотов Отловил ошибку в датском прототипе модулей визуализации Проблема в том, что есть несколько различных клонов этих модулей (с немного разным интерфейсом) Аккуратно всё перенести сложно

bne: Возникла идея отдельной поставки темплайтов по тематическим коллекциям Их использование при анализе может быть крайне эффектным и полезным для осмысления Пытаюсь опробовать на примере порядка 10 темплайтов

bne: Какое число строк нужно обрабатывать при кросс-плоте Тут вопросы с памятью и округлениями Если брать 60 000 строк то это явный перебор Использовать напрямую SVD для этого накладно по памяти Вижу два пути Или простенько исключением (по заранее сформированной матрице от отнормированных переменных) или выбирать наиболее часто встречаемые значения (притом удаленные от центра с весом) и делать SVD по ним Придется проверять оба варианта И срочно!

bne: Прицепил почти классику - Форсайта алгоритм Памяти и впрямь мало нужно А матрицу корреляций и коэффициенты приходится нормировать А для плохого случая выход на гребневой алгоритм



полная версия страницы