Логистическая регрессия, помогите понять |
Здравствуйте, гость ( Вход | Регистрация )
Логистическая регрессия, помогите понять |
2.01.2020 - 08:23
Сообщение
#1
|
|
Группа: Пользователи Сообщений: 10 Регистрация: 30.04.2018 Пользователь №: 31313 |
Доброго времени суток!
понять в примере по логистической регрессии в R, как получается коэффициент вероятности 0.854 при GRE-790, GPA-3.8, rank-1. Я так понимаю это можно сделать из коэф. 'estimate' https://towardsdatascience.com/simply-expla...-r-b919acb1d6b3 |
|
2.01.2020 - 19:54
Сообщение
#2
|
|
Группа: Пользователи Сообщений: 1202 Регистрация: 13.01.2008 Из: Челябинск Пользователь №: 4704 |
Доброго времени суток! понять в примере по логистической регрессии в R, как получается коэффициент вероятности 0.854 при GRE-790, GPA-3.8, rank-1. Я так понимаю это можно сделать из коэф. 'estimate' https://towardsdatascience.com/simply-expla...-r-b919acb1d6b3 У автора цитируемого блога в расчётах есть ошибка. Спорно. Категориальные факторы однозначно следует вводить для номинальных предикторов, но не порядковых. Тогда все эти as.factor не нужны. Хотя так делают, если есть основания считать, что ранги не могут быть интерпретированы в линейной шкале. Покажу на имеющемся этом примере. Логит=Свободный член + Фактор1*Коэффициент1 + Фактор2*Коэффициент2 + ... Логит=-3,989979+790*0,002264+3,8*0,804038=0,8539254 Именно это значение выдаётся в качестве прогноза по predict(logit,x)=0.85426 (это без ошибок округления при моём ручном расчёте выше). Ошибка. Но это не Р, а именно Логит при значениях факторов (gre=790,gpa=3.8,rank=as.factor(1)) для подогнанной модели Р=1/(1+е^(-Логит)), где е - основание натурального логарифма. Соответственно конец нужно исправить на: > predicted.logit<-predict(logit,x) > predicted.logit 1 0.85426 > p=1/(1+exp(-predicted.logit)) > p 1 0.70146 Соответственно, вероятность Р=0,70146 (а если не рассматривать порядковые данные как номинальные, то P=0,6803324) Сообщение отредактировал nokh - 2.01.2020 - 20:34 |
|
8.01.2020 - 16:59
Сообщение
#3
|
|
Группа: Пользователи Сообщений: 1114 Регистрация: 10.04.2007 Пользователь №: 4040 |
У автора цитируемого блога в расчётах есть ошибка. Спорно. Категориальные факторы однозначно следует вводить для номинальных предикторов, но не порядковых. Тогда все эти as.factor не нужны. Хотя так делают, если есть основания считать, что ранги не могут быть интерпретированы в линейной шкале. Покажу на имеющемся этом примере. Логит=Свободный член + Фактор1*Коэффициент1 + Фактор2*Коэффициент2 + ... Логит=-3,989979+790*0,002264+3,8*0,804038=0,8539254 Именно это значение выдаётся в качестве прогноза по predict(logit,x)=0.85426 (это без ошибок округления при моём ручном расчёте выше). Ошибка. Но это не Р, а именно Логит при значениях факторов (gre=790,gpa=3.8,rank=as.factor(1)) для подогнанной модели Р=1/(1+е^(-Логит)), где е - основание натурального логарифма. Соответственно конец нужно исправить на: Не могу согласиться с данным во втором и третьем абзацах определением логита. Ebsignasnan prei wissant Deiws ainat! As gijwans! Sta ast stas arwis!
|
|
8.01.2020 - 17:14
Сообщение
#4
|
|
Группа: Пользователи Сообщений: 902 Регистрация: 23.08.2010 Пользователь №: 22694 |
|
|
8.01.2020 - 20:06
Сообщение
#5
|
|
Группа: Пользователи Сообщений: 1114 Регистрация: 10.04.2007 Пользователь №: 4040 |
Ибо истинный Логит - это логарифм отношения вероятности наступления события к вероятности того, что оно не произойдет. Какое отношение данное замечание имеет к обсуждаемой в теме логистической регрессии? Достаточно взять любой источник и убедиться, что выражение, называемое коллегой логитом, является множественной линейной регрессией. Сообщение отредактировал Игорь - 8.01.2020 - 20:07 Ebsignasnan prei wissant Deiws ainat! As gijwans! Sta ast stas arwis!
|
|
8.01.2020 - 22:29
Сообщение
#6
|
|
Группа: Пользователи Сообщений: 902 Регистрация: 23.08.2010 Пользователь №: 22694 |
Какое отношение данное замечание имеет к обсуждаемой в теме логистической регрессии? Непосредственное. Цитата Достаточно взять любой источник и убедиться, что выражение, называемое коллегой логитом, является множественной линейной регрессией. Которая моделирует Ln(Pi/(1-Pi)) Вы растренировались, Игорь. |
|
10.01.2020 - 08:20
Сообщение
#7
|
|
Группа: Пользователи Сообщений: 1114 Регистрация: 10.04.2007 Пользователь №: 4040 |
Непосредственное. Которая моделирует Ln(Pi/(1-Pi)) Вы растренировались, Игорь. Понимаете, если бы это был просто троллинг (которым он и является по факту), на этом можно было закончить обсуждение. В принципе, ничего экстраординарного - так обычно развлекаются весьма подготовленные люди на специализированных форумах, отбивая у новичков желание общаться и сводя ценность опубликованной информации к нулю. Для этого применяют ряд методов, основные из которых - необоснованное расширение темы обсуждения и увод обсуждения от основной темы во второстепенные ветки. Методы обычные для "научной" дискуссии. Но человек написал "помогите понять". А начинается понимание с четкого определения понятий и заканчивая нюансами. Свое мнение я изложил в работе, где логистическая регрессия практически полностью описана на 1 странице, включая ссылки на авторитеные источники, и добавить более нечего. Ebsignasnan prei wissant Deiws ainat! As gijwans! Sta ast stas arwis!
|
|
10.01.2020 - 13:53
Сообщение
#8
|
|
Группа: Пользователи Сообщений: 902 Регистрация: 23.08.2010 Пользователь №: 22694 |
Понимаете, если бы это был просто троллинг (которым он и является по факту), на этом можно было закончить обсуждение. В принципе, ничего экстраординарного - так обычно развлекаются весьма подготовленные люди на специализированных форумах, отбивая у новичков желание общаться и сводя ценность опубликованной информации к нулю. Для этого применяют ряд методов, основные из которых - необоснованное расширение темы обсуждения и увод обсуждения от основной темы во второстепенные ветки. Методы обычные для "научной" дискуссии. Но человек написал "помогите понять". А начинается понимание с четкого определения понятий и заканчивая нюансами. Свое мнение я изложил в работе, где логистическая регрессия практически полностью описана на 1 странице, включая ссылки на авторитеные источники, и добавить более нечего. Игорь, дайте, пожалуйста, отдохнуть вашему фонтану. |
|