Помощь - Поиск - Пользователи - Календарь
Полная версия этой страницы: Отбор лучших переменных
Форум врачей-аспирантов > Разделы форума > Медицинская статистика
Страницы: 1, 2
p2004r
Цитата(малой @ 21.02.2016 - 17:37) *
Спасибо. Напишите пожалуйста свою почту


Давайте получим эталонный результат алгоритмом Boruta ?

Мой емайл p2004r@gmail.com
DrgLena
Цитата(малой @ 21.02.2016 - 18:37) *
Спасибо. Напишите пожалуйста свою почту

На форуме есть возможность посылать личные сообщения. Я прошу предоставить обсуждаемые данные для общего обозрения. Есть желающие вам помочь на этом форуме, хоть вы, наверное, не врач, поскольку с латынью не дружите, хотя и с арифметикой тоже, но переменные у вас крутые.
малой
Цитата(DrgLena @ 21.02.2016 - 18:03) *
На форуме есть возможность посылать личные сообщения. Я прошу предоставить обсуждаемые данные для общего обозрения. Есть желающие вам помочь на этом форуме, хоть вы, наверное, не врач, поскольку с латынью не дружите, хотя и с арифметикой тоже, но переменные у вас крутые.


Отправил
DrgLena
Если продолжать мучить SPSS, то будет так, руками для этого примера:
Z= 0,286*15+1,191+1,921-3,905=3,497
exp(-3,497)= 0,030288 p=1/1,030288=0,9706 (программа использует больше значащих цифр чем 3 после запятой, поэтому 0,97044)


DrgLena
Обратите внимание на табличку Categorical Var Codings, эти кодировки зависят от вашего выбора, какое значение сделать референтным.
малой
Цитата(DrgLena @ 21.02.2016 - 20:35) *
Если продолжать мучить SPSS, то будет так, руками для этого примера:
Z= 0,286*15+1,191+1,921-3,905=3,497
exp(-3,497)= 0,030288 p=1/1,030288=0,9706 (программа использует больше значащих цифр чем 3 после запятой, поэтому 0,97044)


Это первый пациент судя по вероятности. Если не трудно, напишите пожалуйста коэффициенты для всех значений и константу получившиеся у Вас.
100$
Цитата(DrgLena @ 21.02.2016 - 20:35) *
Если продолжать мучить SPSS, то будет так, руками для этого примера:
Z= 0,286*15+1,191+1,921-3,905=3,497
exp(-3,497)= 0,030288 p=1/1,030288=0,9706 (программа использует больше значащих цифр чем 3 после запятой, поэтому 0,97044)


DrgLena,
а почему ,286*15, а не -,286*15?
И что такое -3,905 в этой истории?
малой
Цитата(100$ @ 21.02.2016 - 22:38) *
DrgLena,
а почему ,286*15, а не -,286*15?
И что такое -3,905 в этой истории?


Да и ещё почему 1,921 а не 1,642*2?
DrgLena
Цитата(100$ @ 21.02.2016 - 22:38) *
DrgLena,
а почему ,286*15, а не -,286*15?
И что такое -3,905 в этой истории?

-3,905 свободный член, он может быть и -0,07746 собственно. Правую и левую части можно уравнять разным способом. Я просто привыкла в качестве референтного значения категориальной переменной выбирать первую категорию, которая "0".
DrgLena
Цитата(малой @ 21.02.2016 - 22:40) *
Да и ещё почему 1,921 а не 1,642*2?


Для того же первого пациента:
Z=-1,982 (свободный член)+0,28567*15+1,19099*1 (и все!)=3,49
Вы не поняли, что такое кодирование категориальной переменной в этом модуле SPSS, вам ведь огурцов уже писал, что на 2 умножать ничего не нужно, а вы вообще согласились с тем, что референтная категория у вас LAST, а при этом ни один из двух коэффициентов не нужен (0 0).

DrgLena
Можно использовать и полученные малым коэффициенты, при этом прогнозируется "0" здоровые и Z=-0,07746-(0,28567*15)+0,87103=-3,49148 exp(3,49148)=32,834506 р=0,029555 , и наконец, вероятность повтора суицида 1-0,029555=0,97044 , что и следовало показать. В данном случае бинарная переменная имеющая значение "0" использует ко?ффициент, а имеющая значение "1" нет. И может теперь будет понятно, что на 2 не нужно умножать коэффициент для ранговой переменной.
100$
Цитата(DrgLena @ 22.02.2016 - 01:44) *
Можно использовать и полученные малым коэффициенты, при этом прогнозируется "0" здоровые и Z=-0,07746-(0,28567*15)+0,87103=-3,49148 exp(3,49148)=32,834506 р=0,029555 , и наконец, вероятность повтора суицида 1-0,029555=0,97044 , что и следовало показать. В данном случае бинарная переменная имеющая значение "0" использует ко?ффициент, а имеющая значение "1" нет. И может теперь будет понятно, что на 2 не нужно умножать коэффициент для ранговой переменной.


Спасибо за разъяснения. Я всегда подозревал, что все эти дамми-переменные - абсолютное зло.)
DrgLena
Согласна, потому то ручками полезно иногда покопаться, чтобы понять, что машина за тебя делает. Но абсолютное зло - изучение статистики посредством нажимания кнопок в профессиональных пакетах.
100$
Цитата(DrgLena @ 22.02.2016 - 10:05) *
Но абсолютное зло - изучение статистики посредством нажимания кнопок в профессиональных пакетах.


Афоризм, достойный быть отлитым в граните )
малой
Руками я научился считать. Всё вроде пока сходится)) Не могу только теперь найти табличку Categorical Var Codings. Выложите пожалуйста scrin. Хочется, чтоб по-людски было уже ))
DrgLena
Цитата(малой @ 22.02.2016 - 15:45) *
Не могу только теперь найти табличку Categorical Var Codings.

Var =Variables, может теперь найдете, в самом начале, до коэффициентов, а если не получится, скопируйте весь отчет в ворд и запустите поиск smile.gif

Вы не сделали домашнее задание, я дважды просила вас сделать таблицу сопряженности, но вы не сделали, а потому и страдаете с категориальной переменной, которая легко может быть редуцирована до бинарной, поскольку не имеет значения одна или больше судимостей, сам факт ее наличия повышает шанс повторного суицида OR= 5,43. А по поводу количественной переменной, которая является сумммой по какой то известной шкале (методика), то она сама по себе является хорошим инструментом диагностирования с чувствительностью в точке>7 баллов 96,7%, при более скромной специфичности. Домашнее задание, посчитать OR для этой бинарной переменной.
Добавляя в модель другие переменные, которые имеют значимые корреляции с методикой, вы снижаете чувствительность, совсем незначительно повышая специфичность. Подумайте, что вам важнее гипо или гипердиагностика?
малой
Если балл 7 и более по методике, то OR=66
DrgLena
Да, для этой точки так. Я привела чувствительность для точки больше 7.
p2004r
Цитата(DrgLena @ 22.02.2016 - 01:44) *
Можно использовать и полученные малым коэффициенты, при этом прогнозируется "0" здоровые и Z=-0,07746-(0,28567*15)+0,87103=-3,49148 exp(3,49148)=32,834506 р=0,029555 , и наконец, вероятность повтора суицида 1-0,029555=0,97044 , что и следовало показать. В данном случае бинарная переменная имеющая значение "0" использует ко?ффициент, а имеющая значение "1" нет. И может теперь будет понятно, что на 2 не нужно умножать коэффициент для ранговой переменной.


Ну нормальные переменные представляющие уровни факторов вводятся через контрасты и не имеют избыточности (3 уровня - 2 "думми" в контрасте). Тогда правда все чешут репу как собрать из контрастов опять "общие коэффициенты" smile.gif
малой
Скажите пожалуйста, пороги отсечения для полученных вероятностей принято делать по вероятностям первой группы или с заданным интервалом, например 0,1;0,2;0,3... ?
DrgLena
... ?

малой
таблица с порогами - https://basegroup.ru/community/articles/logis-medic-scoring

там пороги 0,25;0,26;0,27... и так до конца прибавляется каждый порог по одной сотой. А если всех по порядку значений нет в моих вероятностях, то можно пропускать значения или нужно всё равно все просчитать прибавляя по одной сотой?
DrgLena
Вы поняли, что в этой ссылке назвали порогом? Как получен ряд этих чисел?
100$
Цитата(малой @ 22.02.2016 - 21:41) *
таблица с порогами - https://basegroup.ru/community/articles/logis-medic-scoring

там пороги 0,25;0,26;0,27... и так до конца прибавляется каждый порог по одной сотой. А если всех по порядку значений нет в моих вероятностях, то можно пропускать значения или нужно всё равно все просчитать прибавляя по одной сотой?


График логистической кривой (сигмоида) при любом раскладе пересекает ось ординат в точке ,5. Это - порог по умолчанию. Поэтому, если для пациента рассчитанная вероятность (н-р, ,97044) превышает этот порог, то считаем, что реализовалось событие, закодированное "1"(объект относим к классу "1"), если рассчитанная вероятность меньше порога - событие с кодом "0". ROC-кривая строится в координатах -"Чувствительность - Специфичность", рассчитанных для каждого порога с произвольным шагом (хошь - ,1, хошь -,001,). Желательно отрезок [0;1] разбить на равновеликие интервалы.
малой
Цитата(DrgLena @ 22.02.2016 - 22:14) *
Вы поняли, что в этой ссылке назвали порогом? Как получен ряд этих чисел?


Вроде да)) Например для порога 0,37 моей модели (сделал все три добавочных переменных дихотомическими): se=0,92 sp=0,68 ac=0,80. Для голой методики при пороге 8 баллов и более se=0,97 sp=0,62 ac=0,79
DrgLena
Цитата(малой @ 22.02.2016 - 22:41) *
таблица с порогами - https://basegroup.ru/community/articles/logis-medic-scoring

там пороги 0,25;0,26;0,27... и так до конца прибавляется каждый порог по одной сотой. А если всех по порядку значений нет в моих вероятностях, то можно пропускать значения или нужно всё равно все просчитать прибавляя по одной сотой?

В этой ссылку порогаМИ назвали все значения расчетной вероятности, полученной в модели с большим числом количественных предикторов (табл из MedCalc), возможных комбинаций значений очень много и ничего там не прибавляется по одной сотой, у них есть эти значения и они их представляют, чтобы вы выбрали ПОРОГ, т.е. то значение которое разделит этот ряд на до и после. И к этой точке разделения представляют чувствительность и специфичность. 100$ вам пишет, что когда их много, то можно выбрать шаг, с которым их представлять. По вашей модели нет всех расчетных вероятностей и они не могут быть, нет таких данных. Но они все и не нужны, поскольку нужна только граница раздела. Я не поняла куда вы хотите прибавлять по одной сотой? Вы что хотите решить обратную задачу, по значениям пропущенных вероятностей посчитать какие должны быть предикторы?

Иногда в публикациях приводят не одну точку разделения, а две или даже три, чтобы показать какие значения можно использовать и с какими последствиями.
малой
Всё проще. Я хочу знать на сколько подробно принято привадить такие пороги в публикациях. Например, по моей методике все понятно, 8 вопросов и максимум два балла за каждый: 8*2= 16. И все 16 порогов можно показать с чувствительностью и специфичностью. А в модели как оптимально продемонстрировать пороги? Их слишком ведь много для того, чтоб все возможные варианты демонстрировать.
DrgLena
Цитата(малой @ 23.02.2016 - 21:04) *
И все 16 порогов можно показать с чувствительностью и специфичностью.

А зачем? Вы же должны настроить приемник smile.gif

Посмотрите публикации по ROC, слово порогИ вы не найдете. На русском встречаются: оптимальная точка разделения, порог принятия решения, точка баланса между чувствительностью и специфичностью. На английском проще, cut-off point, cut-off value, optimal cut-off.

Еще, кроме чувствительности и специфичности принято приводить +LR это отношение характеризует тест одновременно по чувствительности и специфичности.
малой
Я на вики забрёл когда-то, и там там вообще сумасшедший набор характеристик для полученных результатов - https://en.wikipedia.org/wiki/Receiver_oper..._characteristic

Я использовал для характеристики отношения чувствительности/специфичности их сумму и accuracy (ACC)

Подскажите пожалуйста в чем преимущество +LR, почему именно его принято показывать в статьях?
DrgLena
Цитата(малой @ 24.02.2016 - 00:17) *
Я на вики забрёл когда-то,


Пора уже открыть какую то книгу по статистике или доказательной медицине, где ясно и просто показано, что такое характеристики диагностического теста, Флетчер Р. вполне подойдет.

А если еще раз на вики забредете, то
https://en.wikipedia.org/wiki/Likelihood_ra...gnostic_testing
малой
Если во главу угла ставлю чувствительность а специфичность получается более скромная, то есть ли нижний предел достаточной специфичности? Существует утвержденная градация чувствительности и специфичности? Вот в некоторых статьях пишут чувствительность/ специфичность "хорошая" или "очень хорошая", "отличная".

А в одной из статьей указали, что специфичность ниже 0,7 не позволяет методику использовать как самостоятельный инструмент. Что уже говорить про мою специфичность - 0,6 ))
DrgLena
Вы перепутали чувствительность и специфичность.
малой
Уже исправил )) Извините пожалуйста
Для просмотра полной версии этой страницы, пожалуйста, пройдите по ссылке.
Форум IP.Board © 2001-2025 IPS, Inc.