![]() |
Здравствуйте, гость ( Вход | Регистрация )
![]() ![]() |
![]() |
![]()
Сообщение
#16
|
|
Группа: Пользователи Сообщений: 244 Регистрация: 28.08.2009 Пользователь №: 6286 ![]() |
|
|
![]() |
![]() |
![]()
Сообщение
#17
|
|
Группа: Пользователи Сообщений: 1013 Регистрация: 4.10.2006 Пользователь №: 1933 ![]() |
В общем-то получается все про ту же злополучную ошибку. На основании чего ее можно предположить? Если нужно уравнение Y=exp(b0-b1/A), значит Y зависит от A по данной функции, стало быть случайная составляющая должна быть прибавлена: Y=exp(b0-b1/A) + e. В каком случае получается lnY= b0-b1/A+е ? Если просто отказаться от Y=exp(b0-b1/A) и рассматривать lnY= b0-b1/A, как изначальную функцию? Либо сделать так, как делали другие (по литературе), либо построить обе модели и посмотреть распределение остатков (они как раз и характеризуют ошибку). Другое дело, (в ответ на второй пост), что оценить форму распределения при небольшом количестве наблюдений будет сложно. Что же касается ML-оценивания в принципе, то ограничений по размеру выборки нет, просто кривизна функции правдоподобия будет небольшой (широкие доверительные интервалы). |
|
![]() |
![]() |
![]() ![]() |