![]() |
Здравствуйте, гость ( Вход | Регистрация )
![]() |
![]()
Сообщение
#1
|
|
Группа: Пользователи Сообщений: 231 Регистрация: 27.04.2016 Пользователь №: 28223 ![]() |
Уважаемые коллеги. Поскольку сегодня последний день лета, хотелось бы немного встряхнуть наш форум и вывести его из "дрёмы". За одно - и попросить помощи, потому как задача вроде-бы и не суперсложная, и тема сто раз рассмотренная, а вот как-то у меня ускользает и ее решения и пазл не складывается.
Итак. Есть некоторый процесс и нам абсолютно точно известна его теоретическая модель (ну или точнее - "ожидаемая" модель, т.е. как согласно нашим предположениям должен себя вести наш процесс). Более того - известно, что эта модель линейна, т.е. y=b0+b1*x. Оба теоретических значений коэффициентов нам тоже известны. Набираем экспериментальные данные, строим модель - самым простым и очевидным способом. В виде линейной регрессии. Понимаем, что эта модель имеет право несколько отличаться от теоретической. А вот теперь вопрос: а можем-ли мы считать(при заданном уровне значимости, разумеется или еще лучше - на основе полученного p_value некоторого критерия), что наши экспериментальные данные действительно есть данные, сгенерированные нашей теоретической моделью с соответствующими шумовыми отклонениями? Как ответить на этот вопрос? Первая идея, которая пришла в голову - строить доверительные интервалы для коэффициентов регрессии и смотреть, входят ли коэффициенты теоретической модели в эти интервалы. Похоже (?) что этот подход не катит, хотя-бы потому, что точечные оценки регрессионной модели нельзя считать независимыми случайным величинами. Кроме того, если прикинуть, то получается, что построенные таким образом две прямые (теоретическая и регрессионная) даже при сколь угодно малых различиях в коэффициенте b1, рано или поздно разойдутся на плоскости сколь угодно далеко, и следовательно оценку можно проводить только при четко оговоренных ограничениях на значения х. Вторая идея - посчитать Стандартную ошибку регрессии, отложить ее параллельно регрессионной прямой и посмотреть, не пересекает-ли теоретическая прямая эти границы - но снова, внутри некоторого интервала значений оси Х. И если наши экспериментальные данные все (?) лежат внутри этого интервала - удовлетвориться. Ну а если не все? Считать это выбросом? А на каком количестве таких "выбросов" отклонить исходную гипотезу? В общем- тут много неясностей. Третья идея - строить доверительную область для регрессии (ввиду разной встречающейся терминологии - ту область, границы которой имеют форму сужающейся-расширяющейся "трубки" вокруг линии регрессии). Вот тут возможна ситуация, когда теоретическая прямая будет всегда располагаться внутри этой "трубки" (за счет указанной ее формы). Но для этого оба коэффициента (и именно их комбинация, а не по отдельности каждый) должны удовлетворять некоторым требованиям. И проверять именно этот факт, т.е. гипотезу "теоретическая прямая не пересекает границы доверительной области линии регрессии". Возможно, существуют варианты решения без построения модели регрессии, а просто по сравнению теоретической прямой и экспериментальных данных. Просто ошибку эксперимента относительно теоретической модели считать? Ну так посчитать-то можно, и она всегда будет не минимальной. А как принять решение об отклонении или принятии гипотезы? Что-то в голову не приходит, а каким критерием тут можно было бы воспользоваться? В общем, задача заключается в том, что-бы ответить не вопрос - а могли-ли (в статистическом смысле) экспериментальные данные представлять собой зашумленную реализацию теоретической модели? Буду благодарен уважаемому сообществу если вы покритикуете представленные пути решения и/или предложите другие. Сообщение отредактировал passant - 31.08.2022 - 20:44 |
|
![]() |
![]() |
![]() |
![]()
Сообщение
#2
|
|
Группа: Пользователи Сообщений: 262 Регистрация: 1.06.2022 Из: Донецк Пользователь №: 39632 ![]() |
Цитата Там истинность процесса, порождающего данные, не подвергается сомнению Если так, то зачем нужна статистика? Тут в область религии надо копать. Но все ж рискуну предположить, что не так, и ТС таки не страдает догматизмом, а хочет проверить теоретическую модель и, возможно, улучшить ее. Цитата В частности, отсутствует априорная информация о вероятностях гипотезе оказаться истинной/гипотезе оказаться ложно А откуда байесисты вообще эти параметр обычно берут? Как раз мое полное непонимание природы этого трансцендентного источника знаний и положило конец моим попыткам въехать в байесовскую статистику. Так что, звиняйте, если какую глупость написал, ибо уровень моих познаний в этой области так и остался окуолонулевым. Что, если априорная доверительная вероятноть равна 1, то с этим сделать уже ничего нельзя, только в морг? А если 0,999999999? Цитата Похожая ситуация рассматривается в критерии Брауна - Муда (Brown, Mood, 1950). Там тоже для парной линейной регрессии есть коэф-ты константы и наклона, претендующие на истинность, и [b]требуется доказать, что это так и есть. Так и написано: "доказать"? Или таки "проверить гипотезу"? Потому как доказывают, железно и навсегда разве что теоремы. Можно ссылку на эту статью? А то я только критерий Муда - Брауна знаю, а он о другом. Что касается фамилий этих ученых мужей в связи с линейной регррессией, то все, что выдал Гугл, - оценка неизвестного параметра наклона - тоже немного не то. |
|
![]() |
![]() |
![]() ![]() |