Форум врачей-аспирантов

Здравствуйте, гость ( Вход | Регистрация )

5 страниц V  < 1 2 3 4 5 >  
Добавить ответ в эту темуОткрыть тему
> Критерий для анализа сверхмалых выборок, выборки из 3 значений. Применение стат. анализа
100$
сообщение 19.06.2022 - 00:16
Сообщение #31





Группа: Пользователи
Сообщений: 902
Регистрация: 23.08.2010
Пользователь №: 22694



Цитата(comisora @ 18.06.2022 - 23:53) *
2 100$

Конечно.


Благодарю. Буду осваивать.

Код
lapply(c(1, 2, 4, 1, 2), sum) #Неправильно

А вот lapply(list(c(1,2,4,1,2)),sum) выдает 10-ку на ура.

Сообщение отредактировал 100$ - 19.06.2022 - 00:28
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
100$
сообщение 19.06.2022 - 22:20
Сообщение #32





Группа: Пользователи
Сообщений: 902
Регистрация: 23.08.2010
Пользователь №: 22694



Подведем некоторые промежуточные итоги.

В соответствии с рекомендациями старших товарищей (А.И.Орлов Эконометрика: учебник для вузов- Ростов н/Д:Феникс, 2009.-572 с.) вместо опостылевшего Стьюдента быстренько состряпаем на R критерий Крамера - Уэлча (с. 67-69).

Код
CWTest<-function(x,y)

{
m<-length(x)
n<-length(y)

mean_X<-mean(x)
mean_Y<-mean(y)

Var_X<-var(x)
Var_Y<-var(y)

Cmn<-sqrt(m*n)*(mean_X-mean_Y)/sqrt(n*Var_X+m*Var_Y)

return(c(TEST=Cmn,p_value=2*pnorm(-abs(Cmn))))

}

> CWTest(x,y)

         TEST       p_value
-3.9267209282  0.0000861118




Нулевая гипотеза радостно отвергается на любом разумном уровне значимости.

В этой связи у меня вопрос-просьба к гуру прграммирования на R: а может ли кто-нибудь оформить это в виде пакета {CW} местного значения, так, чтобы его при случае можно было качнуть с этого форума?

Сообщение отредактировал 100$ - 19.06.2022 - 22:50
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
comisora
сообщение 20.06.2022 - 00:42
Сообщение #33





Группа: Пользователи
Сообщений: 95
Регистрация: 27.12.2015
Пользователь №: 27815



2 100$

У меня опыта создания пакетов нет (да и не гуру я), хотя наслышан про функцию package.skeleton(). В моей области я редко видел, чтобы делали пакеты к выполненной задаче. Обычно народ колхозит и выкладывает творения в docx файлах. Более продвинутые пользуются ресурсами вроде https://osf.io/. Обученные компьютерной грамоте (т.е. не из моей области) ваяют пакеты так.
На текущем этапе развития форума я вижу возможность создания файлов *.R или постов с кодом, которые бы содержали конкретные функции с источниками, пояснением их работы и т.п. Тот же AtteStat достоин того, чтобы для него была сделана обёртка из R/Python (я размышлял, как его подключить, но квалификации не хватило). Учитывая, что не всё можно найти на CRAN/Github/MATLAB/Python, а на форуме хорошая работа с источниками по различным критериям - есть шанс, что какой-нибудь справочник по статистике будет "оцифрован" и появится пакет forum.disser.ru.misc. Правда тогда придётся писать проверки на тип переменных, на минимальную длину и прочие вещи. И, разумеется, источники. Как пример, было обсуждение на форуме, что критерия история с критерием Крамера-Уэлча не такая простая.
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
ИНО
сообщение 20.06.2022 - 04:56
Сообщение #34





Группа: Пользователи
Сообщений: 204
Регистрация: 1.06.2022
Из: Донецк
Пользователь №: 39632



Цитата(100$ @ 19.06.2022 - 22:20) *
Подведем некоторые промежуточные итоги.

В соответствии с рекомендациями старших товарищей (А.И.Орлов Эконометрика: учебник для вузов- Ростов н/Д:Феникс, 2009.-572 с.) вместо опостылевшего Стьюдента быстренько состряпаем на R критерий Крамера - Уэлча (с. 67-69).

Не знаю, что там насчет Крамера, но Ваш код выдает обычную статистику Уэлча (см. t.test()). А вот p проф. Орлов перелагает находить не самым обычным способом - через нормальное распределение, а не через распределение Стьюдента, утверждая: "Естественность указанной оценки состоит в том, что неизвестные статистику дисперсии заменены их выборочными оценками. Из многомерной центральной предельной теоремы и из теорем о наследовании сходимости [11] вытекает, что при росте объемов выборок распределение статистики Т Крамера-Уэлча сходится к стандартному нормальному распределению с математическим ожиданием 0 и дисперсией 1. Итак, при справедливости H'0 и больших объемах выборок распределение статистики Т приближается с помощью стандартного нормального распределения Ф(х), из таблиц которого следует брать критические значения".
Так, может, в нашем случае предположение положение о больших объемах выборки неприменимо? Ибо ну очень уж неправдоподобно космическое p этот ваш CWTes(). Вот-эта гистрограмма тоже стремная какая-то:

Код
res<-numeric(10000)
for(i in 1:10000)
{x_sim<-rnorm(3, mean(x), sd(x))
y_sim<-rnorm(3, mean(x), sd(y))
res[i]<-CWTest(x_sim, y_sim)[2]
}
hist(res)



Поскольку, как мы уже успели убедиться, рандомизация при столь малых выборках работает плохо, попробуем смоделировать нулевую гипотезу, используя смоделированные выборки из нормальных распределений с одинаковыми средними и разными стандартными отклонениями, оцененными по нашим выборкам:

Код
Tobs<-CWTest(x, y)[1]
res<-rep(0, 99999)
for(i in 1:99999)
{x_sim<-rnorm(3, mean(x), sd(x))
y_sim<-rnorm(3, mean(x), sd(y))
Tsim<-CWTest(x_sim, y_sim)[1]
if(abs(Tsim)>=abs(Tobs))res[i]<-1
}
p=(sum(res)+1)/100000
p


Получилось p, среднее между t.test(x, y) и t.test(x, y, var.eq=T). Конечно, юзать такой метод в серьезном исследовании негоже, ибо мы вводим непредсказуемую зависимость от точности выборочных оценок стандартных отклонений, но, по крайней мере, можно сразу заметить, что оригинальный CWTest() нагло врет, рано ему еще в пакет залезать!

Сообщение отредактировал ИНО - 20.06.2022 - 05:01
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
100$
сообщение 20.06.2022 - 13:01
Сообщение #35





Группа: Пользователи
Сообщений: 902
Регистрация: 23.08.2010
Пользователь №: 22694



"Я проснулся сегодня рано..." (Исполняется на мотив песни Bella, ciao).
Захожу на форум и удивляюсь: у вас уже все готово. Это очень удобно.

Цитата(ИНО @ 20.06.2022 - 04:56) *
Не знаю, что там насчет Крамера, но Ваш код выдает обычную статистику Уэлча (см. t.test()).


А вы, собственно, чего ожидали? И Welch, и Пагурова, и Крамер-Уэлч здесь будут давать одно и то же.
Однако, Уэлч первым заметил, что критическая область этого критерия устроена очень сложно. Он искал аппроксимацию в виде t-распределения с дробными df, Пагурова возилась с полиномами, Орлов ничтоже сумняшеся предлагает нормальную аппроксимацию. Ну, и что?


Цитата
Так, может, в нашем случае предположение положение о больших объемах выборки неприменимо?


А вы уже забыли, с чего началось обсуждение? С моего утверждения, что любая асимптотика здесь нехороша.


Цитата
Ибо ну очень уж неправдоподобно космическое p этот ваш CWTes(). Вот-эта гистрограмма тоже стремная какая-то:

Код
res<-numeric(10000)
for(i in 1:10000)
{x_sim<-rnorm(3, mean(x), sd(x))
y_sim<-rnorm(3, mean(x), sd(y))
res[i]<-CWTest(x_sim, y_sim)[2]
}
hist(res)


А что вы пытаетесь рассмотреть на этой гистограмме - распределение p-value при альтернативе?
По моим представлениям в конструкции

Код
res[i]<-CWTest(x_sim, y_sim)[2]


извлекать надо не вторую компоненту функции, а первую [1] (тестовую статистику). Тогда гистограмма сразу становится симметричной около нуля и маленько напоминает стандартное нормальное распределение.
В общем, программирование по ночам вам не показано.

Цитата
Получилось p, среднее между t.test(x, y) и t.test(x, y, var.eq=T). Конечно, юзать такой метод в серьезном исследовании негоже, ибо мы вводим непредсказуемую зависимость от точности выборочных оценок стандартных отклонений


Что это было? Лекцыя на тему "проблема Беренса-Фишера для чайников"?


Цитата
но, по крайней мере, можно сразу заметить, что оригинальный CWTest() нагло врет, рано ему еще в пакет залезать!


А что значит "нагло врет"? Вы же только что заметили, что он выдает ровно то же, что и t.test(). Алгоритмических и программистских ошибок в коде нет.
Вы базар-то фильтруйте.

Здесь "нагло врут" очень многие критерии:
- на вкладке PAST "Epps - Singleton test"(p-value ~0);
- еще наглее врет тест Катценбайссера - Хакля (p-value~0)

и, наверное, много чего еще.

Сообщение отредактировал 100$ - 20.06.2022 - 13:17
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
ИНО
сообщение 20.06.2022 - 17:10
Сообщение #36





Группа: Пользователи
Сообщений: 204
Регистрация: 1.06.2022
Из: Донецк
Пользователь №: 39632



Нет, на той гистограмме - распределение при нулевой гипотезе! И это очень стрёмное рапределение, с подозрительно большим количеством значений, очень близких к нулю. Сравните с аппроксимацией через распределение Стьюдента (с любым методом нахождения степеней свободы), там такого нету. И да, первая компонента тут совершенно не причем, с ней все в порядке и потому извлекать ее смыла нет. Нагло врет именно вторая. Более наглядно демонстрирует ее ущербность второй фрагмент кода - не поленитесь запустить, несмотря на 100000 итераций оно работает шустро (датчик случайных чисел написан явно не на R).
Цитата
Здесь "нагло врут" очень многие критерии:
- на вкладке PAST "Epps - Singleton test"(p-value ~0);
- еще наглее врет тест Катценбайссера - Хакля (p-value~0)

Впервые слышу о таких критериях и вполне верю, что они могут нагло врать по причине неприменимости к обсуждаемой задаче.
Цитата
Что это было? Лекцыя на тему "проблема Беренса-Фишера для чайников"?

Не уверен, что это именно та проблема (т. к. бают, будто для равных размеров выборок таковой и нет вовсе), но терминологию мы не будем оспаривать(С). Это было предупреждение, дабы у ТС (если он все еще с нами) или еще у кого кого, читающего данную тему, не возник соблазн применить в своем исследовании "критерий ИНО" и завернуть его в пакет:) Но, как грубая прикидка, демонстрирующая явную несостоятельность "критерия Крамера-Уэлча-Орлова" (который по странному стечению обстоятельств в таком виде более никто не использует unknw.gif ), в отличие от классических критериев в случае с малыми выборками, это сойдет. Что касается последних, то, как показано в статье по ссылке, любезно предоставленной comisora, они, как не странно, работают с малыми выборками не так уж и плохо. По крайней мере, не хуже альтеративных методов, которых негусто.

И да, я не рано встал, а поздно лег. Сейчас хрен угадаешь, в какое время суток можно уличить время с не слушком большим количеством украинских артобстрелов для более или менее спокойного сна. В этот раз не угадал - днем стреляли больше, чем ночью.

Сообщение отредактировал ИНО - 20.06.2022 - 17:12
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
100$
сообщение 20.06.2022 - 23:24
Сообщение #37





Группа: Пользователи
Сообщений: 902
Регистрация: 23.08.2010
Пользователь №: 22694



Цитата
Нет, на той гистограмме - распределение при нулевой гипотезе!


Да, прошу пардону, только сейчас заметил, что mean(x) и там, и там.

Я тут помонтекарлил нулевую гипотезу для объемов 4, 5,6,8,10

Код
hist(replicate(500000,CWTest(rnorm(10,mean(x),sd(x)),rnorm(10,mean(x),sd(y)))[1]),col='azure3',main="",xlab="")


и каждый раз гистограмма значений статистики становилась все более симметричной и похожей на стандартное нормальное. Считаю, что для выборок объемом 3 возможна любая "кривизна", обсуждать которую мне недосуг.

Цитата
И это очень стрёмное рапределение, с подозрительно большим количеством значений, очень близких к нулю.


Разумеется, так и должно быть: на столь малых объемах выборок редко какой критерий строго выдерживает заявленный уровень значимости.

А что касается "нестрёмнаго распределения p-значения", то, например, для стерильного случая

Код
hist(replicate(500000,CWTest(rnorm(200),rnorm(200))[2]),col='azure3',main="",xlab="")


гистограмма вам понравится: она практически равномерная, и число отвержений нулевой гипотезы (р=0 - 0,05) составляет примерно 25000, что есть 1/20 от 500 000 или 5%. Словом, с ростом объема выборок и номинальный уровень значимости ведет себя асимптотически корректно.

А вообще, вы можете внятно сказать, обо что вы страдаете? Критерий как критерий. Считаете, что нормальная аппроксимация - это зло? Или что pnorm() вычисляет не то, что нужно?

Цитата
Но, как грубая прикидка, демонстрирующая явную несостоятельность "критерия Крамера-Уэлча-Орлова" (который по странному стечению обстоятельств в таком виде более никто не использует, в отличие от классических критериев в случае с малыми выборками...


О какой несостоятельности речь? Что при предельном переходе он этот сдвиг ~128 перестанет замечать?

Скажем, в статье Пагуровой таблицы критических значений составлены для объемов выборок, начиная с 5-ти наблюдений. Критические значения составляют для альфа=,05 порядка 2,776 (но сильно меньше 3). Статистика критерия -3,92 предположительно отвергнет нулевую гипотезу на 5%-ном уровне. Возможно, даже и на 1%-ном.

Цитата
По крайней мере, не хуже альтеративных методов, которых негусто.


А "густо" - это сколько? С которого зерна в вашей местности начинается куча?
И да, перечислите их уже, наконец. Оценим степень вашей осведомленности.

Цитата
Впервые слышу о таких критериях и вполне верю, что они могут нагло врать по причине неприменимости к обсуждаемой задаче.


Да, да, смелее разите оппонентов этим доводом. Это добавляет комизма.

Цитата
И да, я не рано встал, а поздно лег. Сейчас хрен угадаешь, в какое время суток можно уличить время с не слушком большим количеством украинских артобстрелов для более или менее спокойного сна. В этот раз не угадал - днем стреляли больше, чем ночью.


Я искренне желаю, чтобы все артобстрелы однажды прекратились, и навсегда остались лишь страшным сном.

Сообщение отредактировал 100$ - 21.06.2022 - 01:11
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
ИНО
сообщение 21.06.2022 - 03:31
Сообщение #38





Группа: Пользователи
Сообщений: 204
Регистрация: 1.06.2022
Из: Донецк
Пользователь №: 39632



Да все в порядке изначально было с гистограммой статистики (проверенной многими десятилетиями), претензии были исключительно к гисторамме p (оригинальный метод Орлова, "не имеющий аналогов в мире"). Несостоятелен критерий в том смысле, что выдаваемое p, по крайней мере, в случае с выборками, похожими на исследуемые в данной теме, имеет большее отношение к севрерному сиянию, чем к реальному достигаемому уровню значимости. Сильный перекос в сторону ошибки первого рода. Вообще, я повидал немало статей, авторы которых, профессиональные статистики с научными степенями красноречиво обосновывали "оптимальность" того или иного предлагаемого ими метода, часто подкрепляя теоретические выкладки результатами некоего сфероконного моделирования, показывающего наглядно преимущество на голову надо всеми предшествующими подходами, при том что последующие попытки приложить эти ноу-хау к реальным данным заканчивались печально. Самый последний пример - моя слепая вера в доверительные интервалы BCa, которые пи перепроверке моделированием оказались гораздо уже номинального уровня. Могу поделиться и другими примерами, где все было гораздо хуже.
Цитата
Скажем, в статье Пагуровой таблицы критических значений составлены для объемов выборок, начиная с 5-ти наблюдений. Критические значения составляют для альфа=,05 порядка 2,776 (но сильно меньше 3). Статистика критерия -3,92 предположительно отвергнет нулевую гипотезу на 5%-ном уровне. Возможно, даже и на 1%-ном.

С этим не спорю. Заметьте, здесь порядок цифр сильно иной, нежели в CWTest, и близок к Стьюденту. А существует ли реализация критерия Пагуровой в современной программном продукте?

Теперь об альтернативных методах. Все, известные мне, уже перебрали в этой теме:

1. Критерии рандомизации - недостаточно мощности вне зависимости от величины эффекта из-за специфики вычислений. Вы предложили модификацию, использующую перевыборку с заменой, однако не привели никаких ссылок на ее теоретическое обоснование. Этот вопрос действительно меня очень заинтересовал.
2. Критерий Вилкоксона-Манна-Уитни - просто недостаточно мощности. С другими классическими ранговыми предположительно будет еще печальнее. Ну, и гипотезу все они проверяют не совсем ту, но то уже мелочи.
4. Построение ДИ для разности средних бутстрепом - в принципе, работает, но расхождение номинального доверительного уровня с реальным может быть велико (в сторону ошибки первого рода), и, что самое неприятное, сильно различается в зависимости от конкретного метода - не очень понятно, какой следует выбрать. Моя прежняя слепая вера в BCa как самый продвинутый, похоже, себя не оправдала.
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
100$
сообщение 21.06.2022 - 12:21
Сообщение #39





Группа: Пользователи
Сообщений: 902
Регистрация: 23.08.2010
Пользователь №: 22694




Цитата
С этим не спорю. Заметьте, здесь порядок цифр сильно иной, нежели в CWTest, и близок к Стьюденту. А существует ли реализация критерия Пагуровой в современной программном продукте?


В сообщении #7 Игорь привел свои результаты. Было реализовано в Аттестате, описано в мануале к нему (Аттестату), затем, вероятно, перекочевало в StatAnt.
Вы, разумеется, вольны обложившись статьями Пагуровой, воплотить ее формулы "в железе" самостоятельно.


Цитата
Построение ДИ для разности средних бутстрепом - в принципе, работает, но расхождение номинального доверительного уровня с реальным может быть велико (в сторону ошибки первого рода), и, что самое неприятное, сильно различается в зависимости от конкретного метода - не очень понятно, какой следует выбрать. Моя прежняя слепая вера в BCa как самый продвинутый, похоже, себя не оправдала.


В принципе, здесь много чего "работает". И как оно "работает" я тоже вижу.
Благоприятные свойства бутстрепа мотивированы теоремой Гливенко-Кантелли. Она также точно "завязана" на предельный переход. На выборках объема 3 весь этот бутстрапеж ничем не лучше всего остального: длина BCa отличается в разы, доверительная вероятность к 95% не приближается, какие-то иные оптимальные свойства метода не просматриваются.

Мы тут в конце 2017 года развлекались двумя выборками по 4 наблюдения в каждой.
Это тоже было очень весело
Но жизнь не стоит на месте: глядишь, кто-то скоро выборки объемом 2 подтащит...


Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
ИНО
сообщение 21.06.2022 - 21:00
Сообщение #40





Группа: Пользователи
Сообщений: 204
Регистрация: 1.06.2022
Из: Донецк
Пользователь №: 39632



Ну, результаты моделирования как бы намекают, что Стьюдент б. м. честно работает (если принять допущение о нормальности). К сожалению, с бутстреповскими ДИ на моем компе особо промоделировать не вышло, так что ориентируюсь на результаты Вашего исследования, согласно которым номинальная ошибка первого рода занижена но не настолько, чтоб уж совсем ни в какие ворота не лезла. А вот что предложенная вначале Вами точная перестановка здесь оказалась абсолютно бессильна - факт неоспоримый. "Критерий Крмера-Уэлча-Орлова", увы, тоже подкачал. В обоих случаях полученное номинальное p чудовищно отклоняется от реального (в первом - завышено, во вором - занижено).

Тема по ссылке явно происходит от банального непонимания ТС задач и методов своего (своего ли?) исследования. Похоже на типичный конфуз, возникающий при попытке научного руководителя "тянуть" слабого студента или аспиранта. Там дизайн эксперимента похерен в зародыше, и обсуждать его практического смысла нет никакого. В этой же теме случай совершенно иной: ТС, похоже, столкнулся с реальной проблемой супер-пупермалых выборок (три и три, и будет дырка а больше взять негде) и пытается понять, можно ли вообще на таких данных сделать статистический вывод. Бог миловал меня в своих исследованиях от столь острого дефицита наблюдений, но вопрос считаю весьма интересным. С каких n начинается статистика? Помню, один физик меня уверял, что если хотя бы тысячи замеров нет, то и статанализу делать нечего:) И в физике это оправдано: все пока еще не открытые эффекты столь малы, что для их выявления требуется огромная мощность. В биологии все несколько иначе: целины полно, и порою на ней попадаются попадаются такие здоровенные эффекты, что прямо-таки в глаза бросаются, а пойди ж докажи формально, что тебе это не померещилось...
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
comisora
сообщение 22.06.2022 - 10:42
Сообщение #41





Группа: Пользователи
Сообщений: 95
Регистрация: 27.12.2015
Пользователь №: 27815



Цитата(100$ @ 21.06.2022 - 12:21) *
Мы тут в конце 2017 года развлекались двумя выборками по 4 наблюдения в каждой.
Это тоже было очень весело
Но жизнь не стоит на месте: глядишь, кто-то скоро выборки объемом 2 подтащит...


Цитата(ИНО @ 21.06.2022 - 21:00) *
С каких n начинается статистика?


В приложении книга, в которой обсуждается ситуация n=1.

Ссылка на обсуждение менее экстремальной ситуации
.

Эскизы прикрепленных изображений
Прикрепленное изображение
 

Прикрепленные файлы
Прикрепленный файл  van_de_Schoot_et_al_2020_Small_Sample_Size_Solutions.pdf ( 6,72 мегабайт ) Кол-во скачиваний: 4593
 
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
100$
сообщение 23.06.2022 - 00:19
Сообщение #42





Группа: Пользователи
Сообщений: 902
Регистрация: 23.08.2010
Пользователь №: 22694



Цитата(ИНО @ 21.06.2022 - 21:00) *
А вот что предложенная вначале Вами точная перестановка здесь оказалась абсолютно бессильна - факт неоспоримый.


Чистая правда: я в тот момент даже не представлял себе, что choose(6,3)=20.
Впрочем, неудивительно: на таких выборочных объемах тьма критериев будет просто смещенными, т.е. их мощность будет меньше номинального уровня значимости.


Цитата
"Критерий Крмера-Уэлча-Орлова", увы, тоже подкачал.


Я тут чуток помонтекарлил для равных выборочных объемов (n1=n2) от 3 до 100 способность CWTest() удерживать номинальный уровень значимости (alpha=,05).
Получается, что сколько-нибудь осмысленное его применение возможно только при n1=n2>60, п.ч. сходимость к предельному распределению очень медленная. Ребята, это же ужасно.
Такова плата за отсутствие необходимости беспокоиться о равенстве выборочных дисперсий (в случае нормального распределения), т.е. игнорирование мешающего параметра - истинного соотношения дисперсий.

Код
R<-100#Максимальный выборочный объем
N<-100000#Количество Монте-Карловых выборок
tab<-rep(0,R-2)

for(i in 3:R)# Для выборочных объемов от 3 до 100 с шагом 1
{
res<-replicate(N,CWTest(rnorm(i), rnorm(i))[1])
tab[i-2]<-length(res[abs(res)>1.96])/N
}

plot(3:R,tab,type="l",main="Ошибка I рода для CWTest()")
abline(h=.05,col='red')




Цитата
С каких n начинается статистика?


Вы же сами себе уже ответили на этот вопрос с помощью choose(): чтобы отвергнуть Ho на 5%-ном уровне, достаточно n1=n2=4, n1=n2=5 отвергнут Ho на 1%-ном уровне.

Сообщение отредактировал 100$ - 23.06.2022 - 16:50
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
ИНО
сообщение 23.06.2022 - 04:56
Сообщение #43





Группа: Пользователи
Сообщений: 204
Регистрация: 1.06.2022
Из: Донецк
Пользователь №: 39632



Этот ответ справедлив только для критериев рандомизации. Но ими арсенал прикладной статистики не ограничивается.

n1=1 - вполне себе встречающийся на практике случай, но только если n2>1. Чисто теоретически, в сфероконном случае статистика начинается с n1=1 b n2=2 (что б было, где дисперсию считать). Стало интересно, как в таких условиях себя покажет критерий Стьюдента при выполнении всех допущений (в том числе о равенстве дисперсий, поскольку даже чисто теоретически тут различия в дисперсиях оценить невозможно). К сожалению функция power.t.test() работает только с одинаковыми n. Но можно помоделировать красивее:

Код
d<-1
p<-replicate(1000, t.test(rnorm(2, 0, 1), rnorm(1, d, 1),var.eq=T)$p.value)
delta<-rep(d, 1000)
res<-data.frame(delta, p)
mean_p1<-mean(p)
mean_p<-rep(NA, 99)
for (i in 1:99)
{
d<-d+1
p<-replicate(1000, t.test(rnorm(2, 0, 1), rnorm(1, d, 1),var.eq=T)$p.value)
mean_p[i]<-mean(p)
delta<-rep(d, 1000)
res_<-data.frame(delta, p)
res<-rbind(res, res_)
}

boxplot(p~delta, data=res, range=0)
abline(0.05,0, lwd=2, col="red")


Вывод: после величины эффекта, равной 12 сигмам, нулевая гипотеза вероятнее будет отклонена на пятипроцентном уровне значимости, чем принята. А после разницы в 18 сигм критерий работает уже достаточно уверенно. Увы с однопроцентным уровнем сильно хуже: можете нарисовать abline(0.01, 0) и поплакать над ней.

Сообщение отредактировал ИНО - 23.06.2022 - 04:57
Эскизы прикрепленных изображений
Прикрепленное изображение
 
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
100$
сообщение 23.06.2022 - 11:10
Сообщение #44





Группа: Пользователи
Сообщений: 902
Регистрация: 23.08.2010
Пользователь №: 22694



Но, если уж на то пошло, для желаемого соотношения ошибок I и II рода да для заданной величины эффекта, который хочется "уловить", требуемые объемы выборок для t.test() невозбранно определить еще на этапе планирования исследования.
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
salm
сообщение 12.01.2023 - 11:51
Сообщение #45





Группа: Пользователи
Сообщений: 62
Регистрация: 6.12.2021
Пользователь №: 39615



Добрый день. help.gif пожалуйста, у меня есть парные измерения показателя, мне нужно найти (или не найти) значимые изменения после воздействия фактора. Поскольку выборка небольшая, всего из 12 наблюдений, мой руководитель просит применить критерий W. Ансари-Бредли или К. Клотца, а в моих стат пакетах их нет. Если вам нетрудно, вы не могли бы обработать..?
до. после.
1,96 2,03
2,89 2,60
2,61 2,16
1,83 2,17
1,56 1,65
2,12 2,65
1,44 2,13
2,04 2,16
1,65 2,09
1,12 1,16
1,33 2,16
0,79 1,10

Спасибо.
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 

5 страниц V  < 1 2 3 4 5 >
Добавить ответ в эту темуОткрыть тему