![]() |
Здравствуйте, гость ( Вход | Регистрация )
![]() |
![]()
Сообщение
#1
|
|
Группа: Пользователи Сообщений: 35 Регистрация: 3.10.2008 Из: Москва Пользователь №: 5369 ![]() |
Уважаемые форумчане! Всем добрый день. С монофакторным анализом я вроде бы разобралась. Теперь нужно сделать многофакторный. Я постараюсь коротко изложить задачу, которая передо мной стоит и очень надеюсь на вашу помощь.
Есть следующие данные - построены в табличке примерно такой: №||Результат:1-есть,0-нет ||Признак А:1-есть признак,0 -нет признака ||Признак В:1- есть,0 -нет ||Признак С:1-есть, 0 - нет || и т.д. 1 | 1 | 0 | 0 | 0 | 2 | 1 | 0 | 0 | 1 | 3 | 0 | 1 | 0 | 0 | 4 | 1 | 0 | 0 | 1 | 5 | 0 | 1 | 1 | 0 | 6 | 0 | 1 | 0 | 0 | 7 | 1 | 0 | 1 | 0 | и т.д. Я ввожу эти данные в программу Статистика. А вот что делать дальше - это уже сложнее. На выходе мне нужно получить примерно следующий результат: Для комбинациии признаков АВ Относительный риск =...., ДИ = ...., Р= ....., Для комбинации признаков АВС Относительный риск =...., ДИ = ...., Р= ....., Для комбинации признаков АС Относительный риск =...., ДИ = ...., Р= ....., и т.д. по разным комбинациям. Подскажите пожалуйса, на какие кнопки последовательно жать и в получившихся данных где искать ответы на мои вопросы. Там же в резульатах всегда много цифр и не всегда понятно, что есть что. Очень надеюсь на вашу помощь. Сообщение отредактировал Solo... - 21.12.2008 - 11:03 |
|
![]() |
![]() |
![]() |
![]()
Сообщение
#2
|
|
Группа: Пользователи Сообщений: 1325 Регистрация: 27.11.2007 Пользователь №: 4573 ![]() |
Если можно, поподробнее, плохая обусловленность какой матрицы нам угрожает в логистической регрессии? Игорь, вам она не угрожает, вы с ней справитесь. Но, я пыталась объяснить Solo, почему в Statistica она, на имеющихся данных, не может сделать множественную регрессию. Потому, что при сильной взаимной коррелированности переменных матрица задачи становится плохо обусловленной, что резко сказывается на погрешностях расчетов. http://www.statsoft.ru/home/portal/glossar...onditioning.htm |
|
![]() |
![]() |
![]()
Сообщение
#3
|
|
Группа: Пользователи Сообщений: 381 Регистрация: 18.08.2008 Из: Москва Златоглавая Пользователь №: 5224 ![]() |
при сильной взаимной коррелированности переменных матрица задачи становится плохо обусловленной, что резко сказывается на погрешностях расчетов. Если использовать пошаговый метод включения в логистической регрессии FORWARD LR, то из нескольких сильнокоррелированных переменных будет выбрана лишь одна. В этом случае плохая обусловленность матрицы предикторов не должна мешать вычислениям.
Сообщение отредактировал DoctorStat - 25.12.2008 - 13:57 ![]() Просто включи мозги => http://doctorstat.narod.ru
|
|
![]() |
![]() |
![]()
Сообщение
#4
|
|
Группа: Пользователи Сообщений: 1013 Регистрация: 4.10.2006 Пользователь №: 1933 ![]() |
Если использовать пошаговый метод включения в логистической регрессии FORWARD LR, то из нескольких сильнокоррелированных переменных будет выбрана лишь одна. В этом случае плохая обусловленность матрицы предикторов не должна мешать вычислениям. К сожалению это не решает проблему. Даже если используется "лобовая" методика отбора (включение одного, расчет остатков и т.д.), то проблемы выбора одного из двух коррелированных показателей остается - если один имеет корреляцию с исходов, скажем 0,955, а второй - 0,957, то будет выбран второй (для простоты я говорю о линейной регрессии, распределение функции ошибок и связующая функция роли не играют). Однако речь идет о выборочных коэффициентах, поэтому истинные коэффициенты корреляции могут иметь другие значения, скажем 0,97 и 0,94. А система выберет не то значение. Собственно поэтому-то автоматические методы отбора и вышли из моды, несмотря на их кажущуюся привлекательность. Так что решения для проблемы мультиколлинеарности нет, кроме вдумчивого анализа данных. |
|
![]() |
![]() |
![]() ![]() |