![]() |
Здравствуйте, гость ( Вход | Регистрация )
![]() |
![]()
Сообщение
#1
|
|
Группа: Пользователи Сообщений: 244 Регистрация: 28.08.2009 Пользователь №: 6286 ![]() |
Предлагаю обсудить эффект взаимодействия переменных в регрессии. Думается, что не так здесь все просто, прежде всего в задании функции этого эффекта. Возьмем такой пример: предполагается, что на переменную Y влияют два фактора X и Z. Предполагается квадратичная зависимость Y от X и линейная от Z. Все переменные количественные и непрерывные.
Общее уравнение запишем: Y = b0 + b1*X + b2*X^2 + b3*Z + b4*Z*X. Возникает вопрос, почему мультипликативный эффект обязательно b4*Z*X? Почему он не может быть, например: b4*Z*X^2 или b4*Z*(X + X^2). Да и вообще, в принципе взаимное действие X и Z на Y здесь наверно может быть каким угодно, хоть b4*Z^3*[1-EXP(X^2)]. Если это так, то возникает вопрос: а как узнать какая функция у эффекта взаимодействия? Если, например для X и Z мы можем предполагать вид функции из теоретических соображений, предыдущих исследований или скажем по категоризованным графикам, то как быть с X*Z? Сообщение отредактировал Pinus - 26.07.2010 - 16:02 |
|
![]() |
![]() |
![]() |
![]()
Сообщение
#2
|
|
Группа: Пользователи Сообщений: 244 Регистрация: 28.08.2009 Пользователь №: 6286 ![]() |
Если перейти к конкретной задаче, то есть уравнение: Y=exp(b0-b1/A).
Как лучше оценить параметры? Если прологарифмировать, то получится lnY= b0-b1/A, но, если я правильно понимаю, то дальнейшее применение МНК в рамках классической линейной модели сопряжено с различного рода "алхимией" (нестандартный анализ остатков, весовые переменные, обратные преобразования и пр.), что, по видимому, имеет следствием приближенные результаты. Может быть лучше не мудрствовать лукаво, а просто сразу первичное уравнение Гауссом-Ньютоном или Маркуардтом? Намного проще, но насколько это оправданно и корректно? Есть ли какие-либо сравнения в точности этих подходов в такой ситуации? Сообщение отредактировал Pinus - 24.09.2010 - 01:45 |
|
![]() |
![]() |
![]()
Сообщение
#3
|
|
Группа: Пользователи Сообщений: 1013 Регистрация: 4.10.2006 Пользователь №: 1933 ![]() |
Если перейти к конкретной задаче, то есть уравнение: Y=exp(b0-b1/A). Как лучше оценить параметры? Если прологарифмировать, то получится lnY= b0-b1/A, но, если я правильно понимаю, то дальнейшее применение МНК в рамках классической линейной модели сопряжено с различного рода "алхимией" (нестандартный анализ остатков, весовые переменные, обратные преобразования и пр.), что, по видимому, имеет следствием приближенные результаты. Может быть лучше не мудрствовать лукаво, а просто сразу первичное уравнение Гауссом-Ньютоном или Маркуардтом? Намного проще, но насколько это оправданно и корректно? Есть ли какие-либо сравнения в точности этих подходов в такой ситуации? Вопрос иной. Каково у Вас (предполагаемое) распределение ошибки? Если lnY= b0-b1/A+е, при этом е=N(0,sigma), то тогда надо логарифмировать Если Y=exp(b0-b1/A) + e, то логарифмировать не надо, используете ML-оценки исходного уравнения |
|
![]() |
![]() |
![]()
Сообщение
#4
|
|
Группа: Пользователи Сообщений: 244 Регистрация: 28.08.2009 Пользователь №: 6286 ![]() |
Вопрос иной. Каково у Вас (предполагаемое) распределение ошибки? Если lnY= b0-b1/A+е, при этом е=N(0,sigma), то тогда надо логарифмировать Если Y=exp(b0-b1/A) + e, то логарифмировать не надо, используете ML-оценки исходного уравнения В общем-то получается все про ту же злополучную ошибку. На основании чего ее можно предположить? Если нужно уравнение Y=exp(b0-b1/A), значит Y зависит от A по данной функции, стало быть случайная составляющая должна быть прибавлена: Y=exp(b0-b1/A) + e. В каком случае получается lnY= b0-b1/A+е ? Если просто отказаться от Y=exp(b0-b1/A) и рассматривать lnY= b0-b1/A, как изначальную функцию? |
|
![]() |
![]() |
![]()
Сообщение
#5
|
|
Группа: Пользователи Сообщений: 1013 Регистрация: 4.10.2006 Пользователь №: 1933 ![]() |
В общем-то получается все про ту же злополучную ошибку. На основании чего ее можно предположить? Если нужно уравнение Y=exp(b0-b1/A), значит Y зависит от A по данной функции, стало быть случайная составляющая должна быть прибавлена: Y=exp(b0-b1/A) + e. В каком случае получается lnY= b0-b1/A+е ? Если просто отказаться от Y=exp(b0-b1/A) и рассматривать lnY= b0-b1/A, как изначальную функцию? Либо сделать так, как делали другие (по литературе), либо построить обе модели и посмотреть распределение остатков (они как раз и характеризуют ошибку). Другое дело, (в ответ на второй пост), что оценить форму распределения при небольшом количестве наблюдений будет сложно. Что же касается ML-оценивания в принципе, то ограничений по размеру выборки нет, просто кривизна функции правдоподобия будет небольшой (широкие доверительные интервалы). |
|
![]() |
![]() |
![]() ![]() |