![]() |
Здравствуйте, гость ( Вход | Регистрация )
![]() |
![]()
Сообщение
#1
|
|
Группа: Пользователи Сообщений: 5 Регистрация: 5.02.2014 Пользователь №: 25976 ![]() |
Здравствуйте, коллеги. Очень прошу вашей профессиональной помощи. имеются 3 фактора, значимо различающиеся между группами с исходом 1 и 0. Построена нейронная сеть, дискриминантная модель, которые на основании этих факторов предсказывают исход с точностью 87-94%. Задача в формировании наглядного практического руководства к действию, если это возможно. Связать вместе эти три кофактора - напрямую друг от друга не зависят, разложить их, по осям например, и определить зоны риска, цветом (как плоскости или тернарные графики), чтобы отложив по осям имеющиеся значения каждого из факторов точка соединения показывала бы вероятность развития исходов 1 и 0 и было видно как изменить показатели, чтобы улучшить исход. Спасибо заранее.
|
|
![]() |
![]() |
![]() |
![]()
Сообщение
#2
|
|
Группа: Пользователи Сообщений: 1325 Регистрация: 27.11.2007 Пользователь №: 4573 ![]() |
Я как то сравнивала на одних данных возможности трех методов классификации дискриминантный анадиз, нейронные сети и деревья классификации, получила 72%, 76% и 74% соответственно. Классификационное дерево дает прекрасную графическую иллюстрацию и процесса и результата, которую понимает любой доктор, она и висит в ординаторской, красиво раскрашенная
![]() |
|
![]() |
![]() |
![]()
Сообщение
#3
|
|
Группа: Пользователи Сообщений: 1219 Регистрация: 13.01.2008 Из: Челябинск Пользователь №: 4704 ![]() |
Я как то сравнивала на одних данных возможности трех методов классификации дискриминантный анадиз, нейронные сети и деревья классификации, получила 72%, 76% и 74% соответственно. Классификационное дерево дает прекрасную графическую иллюстрацию и процесса и результата, которую понимает любой доктор, она и висит в ординаторской, красиво раскрашенная ![]() Тоже думал насчёт дерева классификации, очень наглядно, нравятся! Одно удачное дерево и теперь меня сложно переубедить, что оксалатная мочекаменная болезнь это - в первую очередь генетика, во вторую - генетическая предрасположенность и только потом питание ![]() |
|
![]() |
![]() |
![]()
Сообщение
#4
|
|
Группа: Пользователи Сообщений: 5 Регистрация: 5.02.2014 Пользователь №: 25976 ![]() |
Тоже думал насчёт дерева классификации, очень наглядно, нравятся! Одно удачное дерево и теперь меня сложно переубедить, что оксалатная мочекаменная болезнь это - в первую очередь генетика, во вторую - генетическая предрасположенность и только потом питание ![]() Спасибо, за отклики! Показателей всего 9, они работают в дискриминантной и нейросетевой модели. Но эти модели не дают практических рекомендаций, а только говорят - будет исход 0 или 1. Фишка в том, что врач в технологическом процессе непосредственно может повлиять ТОЛЬКО на 3 ЭТИХ фактора, остальные либо не модифицируются, либо опосредованы. Задача прогнозирования решена, осталось решит задачу с четкими практическими рекомендациями типа: если А 120, а В 200, а С 23, то поверни пимпочку вправо, а скорость увеличь на 5 оборотов. Как-то так. Random forest классифицируют данные с точностью 0,65. Это как примерно в анекдоте про блондинку и снежного человека: "или встречу или не встречу". Хотя, может, я и ошибаюсь ![]() |
|
![]() |
![]() |
![]()
Сообщение
#5
|
|
![]() Группа: Пользователи Сообщений: 1091 Регистрация: 26.08.2010 Пользователь №: 22699 ![]() |
Спасибо, за отклики! Показателей всего 9, они работают в дискриминантной и нейросетевой модели. Но эти модели не дают практических рекомендаций, а только говорят - будет исход 0 или 1. Фишка в том, что врач в технологическом процессе непосредственно может повлиять ТОЛЬКО на 3 ЭТИХ фактора, остальные либо не модифицируются, либо опосредованы. Задача прогнозирования решена, осталось решит задачу с четкими практическими рекомендациями типа: если А 120, а В 200, а С 23, то поверни пимпочку вправо, а скорость увеличь на 5 оборотов. Как-то так. Random forest классифицируют данные с точностью 0,65. Это как примерно в анекдоте про блондинку и снежного человека: "или встречу или не встречу". Хотя, может, я и ошибаюсь ![]() Это тревожный звоночек, рандом форест дает результат распознания по данным не участвовавшим в построении модели и поэтому практически не подвержен переобучению. С другой стороны у Вас мало параметров в модели и исходные настройки фореста могут строить очень маленькое дерево включая, например, всего по три параметра одновременно. Можно его заставить включать большее число параметров в модель насильно. Для рандом фореста есть процедуры объективного исключения "лишних" параметров модели (я давал пример использования пакета Boruta). Можно выявить такие переменные и построить рандом форест модель принудительно включающую их всех. ![]() |
|
![]() |
![]() |
![]() ![]() |