Форум врачей-аспирантов

Здравствуйте, гость ( Вход | Регистрация )

2 страниц V  < 1 2  
Добавить ответ в эту темуОткрыть тему
> Мультипликативный эффект, в регрессии
Pinus
сообщение 24.09.2010 - 16:03
Сообщение #16





Группа: Пользователи
Сообщений: 244
Регистрация: 28.08.2009
Пользователь №: 6286



Цитата(плав @ 24.09.2010 - 18:45) *
...используете ML-оценки исходного уравнения

Есть ли какие-либо практические придержки по минимальному объему выборки для метода макс.правдоподобия? Читал, что надо большие выборки. 50-60 ед. наверно мало?
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
плав
сообщение 25.09.2010 - 15:36
Сообщение #17





Группа: Пользователи
Сообщений: 1013
Регистрация: 4.10.2006
Пользователь №: 1933



Цитата(Pinus @ 24.09.2010 - 16:11) *
В общем-то получается все про ту же злополучную ошибку. На основании чего ее можно предположить? Если нужно уравнение Y=exp(b0-b1/A), значит Y зависит от A по данной функции, стало быть случайная составляющая должна быть прибавлена: Y=exp(b0-b1/A) + e.
В каком случае получается lnY= b0-b1/A+е ? Если просто отказаться от Y=exp(b0-b1/A) и рассматривать lnY= b0-b1/A, как изначальную функцию?

Либо сделать так, как делали другие (по литературе), либо построить обе модели и посмотреть распределение остатков (они как раз и характеризуют ошибку).
Другое дело, (в ответ на второй пост), что оценить форму распределения при небольшом количестве наблюдений будет сложно. Что же касается ML-оценивания в принципе, то ограничений по размеру выборки нет, просто кривизна функции правдоподобия будет небольшой (широкие доверительные интервалы).
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 

2 страниц V  < 1 2
Добавить ответ в эту темуОткрыть тему