![]() |
Здравствуйте, гость ( Вход | Регистрация )
![]() |
![]()
Сообщение
#1
|
|
Группа: Пользователи Сообщений: 244 Регистрация: 28.08.2009 Пользователь №: 6286 ![]() |
Стандартная ошибка оценки регрессии (Std. Error of estimate) ? является показателем качества аппроксимации результатов наблюдений. Ее квадрат интерпретируется как дисперсия остатков, представляющая ошибку измерения, с которой любое измеренное значение Y предсказывается для данного значения X по известному уравнению (если уравнение регрессии оценивается из неопределенно большого числа наблюдений). При поиске лучшей модели стоит минимизировать Std. Error of estimate.
Вопрос: существуют ли какие-либо придержки удовлетворительных значений или критические точки для стандартной ошибки оценки регрессии? Как оценить полученное значение, много или мало? |
|
![]() |
![]() |
![]() |
![]()
Сообщение
#2
|
|
Группа: Пользователи Сообщений: 120 Регистрация: 27.08.2009 Пользователь №: 6284 ![]() |
Аппроксимация результатов наблюдений может идти по разным моделям. Например: экспоненциальная, показательная, линейная.
Далее логика просит сравнить их. По-видимому, наилучшей аппроксимацией является та, в которой минимально отклонение между моделью и реальными данными. Это в относительных значениях. Для оценки качества модели и полноты набора объяснительных факторов обычно используют коэффициент детерминированности R^2. Его еще называют величиной достоверности аппроксимации, или уровнем надежности. Коэффициент детерминированности R^2 - это отношения дисперсии, которая поясняется регрессионным анализом, к общей дисперсии. Он обычно исчисляется по формуле R^2 = SSрег/(SSрег + SSост.) , где SSрег. = S (Y(Xi) - Yср.)^2- сумма квадратов отклонений уровней исходного ряда данных от его среднего значения; SSост. - сумма квадратов уровней остаточной компоненты. Коэффициент детерминации дает количественную оценку меры анализируемой связи. Он показывает часть вариации результативного признака, который находится под влиянием факторов, которые изучаются, то есть определяет, какая частица вариации признака Y учитывается в модели и обусловлена влиянием на нее независимых факторов. Чем ближе R^2 к 1, тем в большей степени уравнения регрессии объясняет фактор, который изучается (при функциональной связи R2 равняется 1, а из-за отсутствия связи -0). Если, например, R^2 равняется 0,9, то можно считать, что 90 % изменений (вариаций) в отклике обуславливается вариациями в учтенных факторах и лишь 10 % ? за счет влияния других факторов. Ну вот как-то так... ========= Std. Error of estimate - это в общем ошибка точечного оценивания параметров, а не регресии ( имхо). Сообщение отредактировал Green - 30.11.2009 - 17:58 ![]() Это не кованализ :)
|
|
![]() |
![]() |
![]() ![]() |