Помощь - Поиск - Пользователи - Календарь
Полная версия этой страницы: t-критерий Стьюдента для зависимых групп
Форум врачей-аспирантов > Разделы форума > Медицинская статистика
husrus
Добрый день! Изучаю статистику по О.Ю.Реброву самостоятельно, использую Statistica 8.
Подскажите, пожалуйста, 2 группы, исследуем 4 количественных признака, в каждой группе n=70.
Наша задача: сопоставить анализ крови до и после принятия препарата у здоровых и у больных.
Наши действия: 1. Проверили на нормальность - каждый признака по Тесту Колмогорову ?Смирнову (у всех признаков результат примерно аналогичен Нажмите для просмотра прикрепленного файла);
2. Т.к. распределение признаков нормальное, и группы зависимые (признаки изучали у одной группы до и после принятия препарата) применили статистический анализ (t-критерий Стьюдента для зависимых групп)
3. При анализе выходит примерно такой ответ (Нажмите для просмотра прикрепленного файла) у каждого призака
Вопрос: 1. Правильны ли наши действия?
2. Различия значений всех 4-х количественных признаков недостоверны?
3. У нас получается р> 0.05, подскажите пожалуйста как можно интерпретировать, и провести описание результатов?
Большое спасибо!
100$
Цитата(husrus @ 11.08.2012 - 14:53) *
Добрый день! Изучаю статистику по О.Ю.Реброву самостоятельно, использую Statistica 8.
Подскажите, пожалуйста, 2 группы, исследуем 4 количественных признака, в каждой группе n=70.
Наша задача: сопоставить анализ крови до и после принятия препарата у здоровых и у больных.
Наши действия: 1. Проверили на нормальность - каждый признака по Тесту Колмогорову ?Смирнову (у всех признаков результат примерно аналогичен Нажмите для просмотра прикрепленного файла);
2. Т.к. распределение признаков нормальное, и группы зависимые (признаки изучали у одной группы до и после принятия препарата) применили статистический анализ (t-критерий Стьюдента для зависимых групп)
3. При анализе выходит примерно такой ответ (Нажмите для просмотра прикрепленного файла) у каждого призака
Вопрос: 1. Правильны ли наши действия?
2. Различия значений всех 4-х количественных признаков недостоверны?
3. У нас получается р> 0.05, подскажите пожалуйста как можно интерпретировать, и провести описание результатов?
Большое спасибо!


Поскольку одновременно изучаются 4 количественных признака, то необходимо задействовать инструменты многомерного статистического анализа (One-way MANOVA).
husrus
Спасибо большое за ответ. Мы изучали каждый признак по отдельности. MANOVA как я понял, применяется, когда 3 и более групп, поэтому использовали Стьюдента
TheThing
Цитата(husrus @ 11.08.2012 - 17:34) *
Спасибо большое за ответ. Мы изучали каждый признак по отдельности. MANOVA как я понял, применяется, когда 3 и более групп, поэтому использовали Стьюдента


Когда Вы изучаете каждый из 4 признаков по отдельности, то есть 4 раза в одной работе применяете тест Стьюдента, существует вероятность, что Вы совершите ошибку 1 рода - найдете отличия между изучаемыми признаками, когда на самом деле эти различия очень малы, чтобы считать их статистически значимыми или у вас недостаточная выборка, чтобы обнаружить эти отличия. Поэтому используйте или методы многомерного анализа данных или применяете поправки на множественные сравнения (Сидака, Бонферони, False-discovery rate и др). Хотя если Вы не получили ни одного статистически значимого признака по-отдельнсти, понятно, что поправки лишь все это дело сделают еще более консервативным, но, по-крайней мере, это будет методологически правильно.

Поищите на этом форуме как трактуются результаты при р > .05 (была тема) - не допускайте ошибки, что различий между изучаемыми признакми нет (Вы этого никогда не узнаете smile.gif )
husrus
TheThing, большое спасибо Вам. Начинаю понимать, действительно у нас между признаками различия незначительны, поэтому и выдает такой ответ. Буду искать на форуме трактовку результатов p>0.05. А поправки на множественные сравнения (Сидака, Бонферони, False-discovery rate и др) вычисляются в Statistica и какие методы многомерного анализа данных посоветуйте в моем случае? Спасибо.
TheThing
Цитата(husrus @ 11.08.2012 - 19:48) *
TheThing, большое спасибо Вам. Начинаю понимать, действительно у нас между признаками различия незначительны, поэтому и выдает такой ответ. Буду искать на форуме трактовку результатов p>0.05. А поправки на множественные сравнения (Сидака, Бонферони, False-discovery rate и др) вычисляются в Statistica и какие методы многомерного анализа данных посоветуйте в моем случае? Спасибо.


Большинство поправок можно высчитать "ручками" - например, Бонферрони: 1) выбираете уровень стат. значимости, который Вас устраивает, например 0.01. 2) Делите 0.01 на количество анализируемых признаков(если у Вас 4 признака, получится 0,0025. 3) проводите 4 теста Стьюдента, получаете p-value. 4) Если полученное p-value меньше 0,0025, значит признак стат. значим.

Остальные поправки ненамного сложнее, FDR требует сортировки значений и способности умножить одну величину на другую smile.gif Просто в Вашем случае все равно, какую поправку Вы примените, поскольку Вы в любом случае не получите стат. значимых отличий (если не получилось получить без поправок, с поправками будет вообще невозможно).
Я не работаю в Статистика, поэтому не могу подсказать, где искать эти поправки.

В любом случае, если умные люди придумали методы многомерного анализа данных, нужно применять их. Попробуйте применить метод, который посоветовал 100$, когда подсчитаете, если не затруднит, выложите результаты здесь.
husrus
Большое спасибо за ценные советы! Да в любом случае мы не получим статистически значимых отличий, но для ?спортивного? интереса попробую применить метод ?One-way MANOVA?, правда еще не знаю как это делать, надеюсь О.Ю.Ребров мне поможет в этом smile.gif . Если что то получиться, обязательно выложу результаты. Спасибо.
100$
Цитата(husrus @ 11.08.2012 - 22:05) *
Большое спасибо за ценные советы! Да в любом случае мы не получим статистически значимых отличий, но для ?спортивного? интереса попробую применить метод ?One-way MANOVA?, правда еще не знаю как это делать, надеюсь О.Ю.Ребров мне поможет в этом smile.gif . Если что то получиться, обязательно выложу результаты. Спасибо.



Применительно к вашему случаю подойдет критерий Хотеллинга (многомерный аналог Стьюдента) и Шайрера-Рея-Хейра (непараметрический аналог). Оба реализованы в программе AtteStat (http://Attestatsoft.narod.ru). Не поленитесь прочитать стр. 239 pdf-мануала.
husrus
Цитата(100$ @ 11.08.2012 - 23:34) *
Применительно к вашему случаю подойдет критерий Хотеллинга (многомерный аналог Стьюдента) и Шайрера-Рея-Хейра (непараметрический аналог). Оба реализованы в программе AtteStat (http://Attestatsoft.narod.ru). Не поленитесь прочитать стр. 239 pdf-мануала.


Попробовал установить Attestat, вначале произошла интеграция в Excel, но после перезагрузки компьютера- исчезла, и как тщательно я ее не искал в Excel и не открывал программу Attestat больше она не появлялась, может из-за того что office 2010 или другие причины я не знаю (. В связи с этим решил, продолжать изучение statistica
У меня возникло два вопроса: 1. Можно ли оставить на этом этапе, все равно как сказал TheThing - "вы в любом случае не получите стат. значимых отличий", может и не стоит "копать" глубже?
2. Если все же продолжать, можно ли использовать многомерные статистические анализы, такие как: кластерный анализ, дискриминантный анализ и др. методы реализованные в statistica? Спасибо.
100$
Цитата(husrus @ 13.08.2012 - 10:11) *
Попробовал установить Attestat, вначале произошла интеграция в Excel, но после перезагрузки компьютера- исчезла, и как тщательно я ее не искал в Excel и не открывал программу Attestat больше она не появлялась, может из-за того что office 2010 или другие причины я не знаю (. В связи с этим решил, продолжать изучение statistica
У меня возникло два вопроса: 1. Можно ли оставить на этом этапе, все равно как сказал TheThing - "вы в любом случае не получите стат. значимых отличий", может и не стоит "копать" глубже?
2. Если все же продолжать, можно ли использовать многомерные статистические анализы, такие как: кластерный анализ, дискриминантный анализ и др. методы реализованные в statistica? Спасибо.


Понимаете, какое дело: дисперсионный анализ - это способ проверить гипотезу о средней, а кластерный и дискриминантный анализы - это все-таки задачи классификации объектов. Это далеко не одно и то же. Так что лучше всего констатировать отсутствие различий и на этом успокоиться.
husrus
Цитата(100$ @ 13.08.2012 - 11:31) *
Понимаете, какое дело: дисперсионный анализ - это способ проверить гипотезу о средней, а кластерный и дискриминантный анализы - это все-таки задачи классификации объектов. Это далеко не одно и то же. Так что лучше всего констатировать отсутствие различий и на этом успокоиться.


Хорошо, спасибо большое за советы, так и сделаем!
TheThing
Цитата(husrus @ 13.08.2012 - 10:11) *
У меня возникло два вопроса: 1. Можно ли оставить на этом этапе, все равно как сказал TheThing - "вы в любом случае не получите стат. значимых отличий", может и не стоит "копать" глубже?


Статистически значимых отличий мы не получили, когда проверяли все 4 признака "по отдельности". Могут ли стать эти признаки стат. значимыми при использовании многомерного анализа - вопрос. В моей практике я очень часто (очень-очень часто) получал также стат.незначимые результаты при многомерном анализе (может просто "не везло"? smile.gif )

Дело в том, что при наличии нескольких изучаемых факторов, применять методы одномерного анализа - это палеозойская эра, с поправками на множ. сравнения - это уже мезозойская smile.gif Ну, или как говорит уважаемый nokh - "копать огород при помощи топора". Бывает, что под рукой кроме топора ничего нет, поэтому если работа отправляется в западный журнал, я бы все таки советовал разобраться с многомерным, если в наш - не парьтесь, если в диссер и ученый совет без "кибернетиков" - тоже не парьтесь.
p2004r
Цитата(100$ @ 13.08.2012 - 10:31) *
Понимаете, какое дело: дисперсионный анализ - это способ проверить гипотезу о средней, а кластерный и дискриминантный анализы - это все-таки задачи классификации объектов. Это далеко не одно и то же. Так что лучше всего констатировать отсутствие различий и на этом успокоиться.


зависимости в данных бывают и нелинейные smile.gif

PS я бы вообще подход --- когда считается какой то тест, и его "достоверные" результаты являются причиной печатать статью не применял бы. в интернете масса страничек где можно ощутить всю бессмысленность такого подхода к данным. правильно сначала увидеть эффект в дисперсии данных и только потом проверять гипотезу о его достоверности.
TheThing
Цитата(p2004r @ 13.08.2012 - 18:53) *
зависимости в данных бывают и нелинейные smile.gif

PS я бы вообще подход --- когда считается какой то тест, и его "достоверные" результаты являются причиной печатать статью не применял бы. в интернете масса страничек где можно ощутить всю бессмысленность такого подхода к данным. правильно сначала увидеть эффект в дисперсии данных и только потом проверять гипотезу о его достоверности.


Здесь на форуме уже была статья Коэна "The earth is round, p < .05" (Cohen), где высмеивался данный подход. И это проблема не только массы страничек в интернете, а проблема подхода к анализу статистических данных вот уже более 50 лет. Поскольку статистика предполагает вероятностный исход результатов, то очень много людей именно и стремятся к получению заветной "достоверности". Про величину эффекта редко вспоминают. В Американской ассоциации психологов (APA) было предложение даже "забанить" практически трактовать статистически значимые результаты, основываясь лишь на p-value. Такое намерение конечно придушили..
p2004r
про "странички в интернете" я имел в виду странички в которые встроены эмуляторы "исследований", которые вывод ГСЧ прогоняют через параметрические тесты и показывают что в любом мало мальски обширном исследовании обязательно будут заветные p<0.05. Посетителю там предоставлено право торжественно понажимать на кнопку "провести исследование" ... результаты вменяемых людей крайне отрезвляют smile.gif

(к сожалению не коллекционирую данные ссылки frown.gif )
pifagor
Цитата(TheThing @ 13.08.2012 - 23:02) *
Здесь на форуме уже была статья Коэна "The earth is round, p < .05" (Cohen), где высмеивался данный подход. И это проблема не только массы страничек в интернете, а проблема подхода к анализу статистических данных вот уже более 50 лет. Поскольку статистика предполагает вероятностный исход результатов, то очень много людей именно и стремятся к получению заветной "достоверности". Про величину эффекта редко вспоминают. В Американской ассоциации психологов (APA) было предложение даже "забанить" практически трактовать статистически значимые результаты, основываясь лишь на p-value. Такое намерение конечно придушили..

Про величину эффекта как-то забывают. А что такое величина эффекта конкретно? Как и кто определяет эту самую величину?
TheThing
Цитата(pifagor @ 4.09.2012 - 10:44) *
Про величину эффекта как-то забывают. А что такое величина эффекта конкретно? Как и кто определяет эту самую величину?


Если NHST (Null hypothesis significance testing) позволяет нам сказать например, что средние двух выборок статистически значимо отличаются (H0 = X1 - X2 = 0), то величина эффекта позволяет нам понять, насколько "сильно" ("много", "больше") они отличаются. Ведь при p < .05 они могут отличаться как на 0.000001 так и на значение, "далекое" от нуля. Существует приблизительно около 30 величин эффекта, все они в основном делятся на 2 группы: величина эффекта D Коэна (Cohen) и r Пирсона. Более подробно обо всем этом можно почитать в 2 замечательных книгах о величинах эффекта:

1) Effect size for research, a broad practical approach by Robert Grissom
2) Essential guide to effect size by Paul Ellis

Обе книги можно словить в свободном доступе.

Чтобы показать на пальцах, что может величина эффекта и не может NHST, посмотрите следующий пример, тем более я его завязал на любимом Вами критерии Стьюдента smile.gif

На рис. 1 выдержка из результатов анализа SPSS. Обратите внимание на колонку "разница средних" - Mean difference - в обеих случаях мы видим разницу в -2,20, но для первой таблицы разница в средних -2,20 является статистически значимой (p < .001), а для второго случая - стат. незначимой (p = .169, если предполагается равенство дисперсий). Как такое может быть? ответ находится в той же самой таблице wink.gif ).

На рис. 2 несколько другая ситуация. Разницы между средними нет (если говорить стат. языком - так говорить нельзя), как видно из колонки Mean difference - 0. Однако средние двух выборок статистически значимо отличаются друг от друга (p = .022). Как же это возможно? Ответ опять же есть в таблице.

Человек, который владеет лишь NHST, делает корректные стат. выводы, однако эти выводы не имеют никакой практической значимости, поскольку не был проведен анализ величин эффекта.
Нажмите для просмотра прикрепленного файла
Нажмите для просмотра прикрепленного файла
pifagor
Цитата(TheThing @ 4.09.2012 - 13:58) *
Если NHST (Null hypothesis significance testing) позволяет нам сказать например, что средние двух выборок статистически значимо отличаются (H0 = X1 - X2 = 0), то величина эффекта позволяет нам понять, насколько "сильно" ("много", "больше") они отличаются. Ведь при p < .05 они могут отличаться как на 0.000001 так и на значение, "далекое" от нуля. Существует приблизительно около 30 величин эффекта, все они в основном делятся на 2 группы: величина эффекта D Коэна (Cohen) и r Пирсона. Более подробно обо всем этом можно почитать в 2 замечательных книгах о величинах эффекта:

1) Effect size for research, a broad practical approach by Robert Grissom
2) Essential guide to effect size by Paul Ellis

Обе книги можно словить в свободном доступе.

Чтобы показать на пальцах, что может величина эффекта и не может NHST, посмотрите следующий пример, тем более я его завязал на любимом Вами критерии Стьюдента smile.gif

На рис. 1 выдержка из результатов анализа SPSS. Обратите внимание на колонку "разница средних" - Mean difference - в обеих случаях мы видим разницу в -2,20, но для первой таблицы разница в средних -2,20 является статистически значимой (p < .001), а для второго случая - стат. незначимой (p = .169, если предполагается равенство дисперсий). Как такое может быть? ответ находится в той же самой таблице wink.gif ).

На рис. 2 несколько другая ситуация. Разницы между средними нет (если говорить стат. языком - так говорить нельзя), как видно из колонки Mean difference - 0. Однако средние двух выборок статистически значимо отличаются друг от друга (p = .022). Как же это возможно? Ответ опять же есть в таблице.

Человек, который владеет лишь NHST, делает корректные стат. выводы, однако эти выводы не имеют никакой практической значимости, поскольку не был проведен анализ величин эффекта.
Нажмите для просмотра прикрепленного файла
Нажмите для просмотра прикрепленного файла

Книги хорошие, только хрен их скачаешь. 30 способов-это вы загнули.
psychologist
У меня также возник вопрос по Т-критерию
вот на этой картинке видно, что тут есть различия между группами, однако, т-критерий = -2,06
Вспоминая Гланца, он говорил, что значения Т-критерия лежащие в диапазоне от -2,1 и 2,1 это критические значения, т.е. различия не достоверны.
Но почему у меня -2,06 ,которое лежит в этом диапазоне оказалось достоверным, тут уровень написан 0,05 и зачем нужен p-уровень дисперсий, который равен=0,67
100$
Цитата(psychologist @ 24.03.2014 - 16:34) *
У меня также возник вопрос по Т-критерию
вот на этой картинке видно, что тут есть различия между группами, однако, т-критерий = -2,06
Вспоминая Гланца, он говорил, что значения Т-критерия лежащие в диапазоне от -2,1 и 2,1 это критические значения, т.е. различия не достоверны.
Но почему у меня -2,06 ,которое лежит в этом диапазоне оказалось достоверным, тут уровень написан 0,05 и зачем нужен p-уровень дисперсий, который равен=0,67


А что тут непонятного? Квантиль распределения Стьюдента при а=,05 и df=66 составляет +/- 1,996564. При этом 2.06>1.996564, стало быть мы попадаем в область отвержения нулевой гипотезы. Безотносительно к тому, что вам сообщил Гланц.
А статистическая неразличимость дисперсий - ключевое условие применимости критерия Стьюдента.

При этом число -2,06 не может быть "достоверным". Статистически значимыми бывают различия, которые вы пытаетесь уловить статистическим критерием. Привыкайте к корректной терминологии. Это способствует взаимопониманию.

Вот и все. Коротко и ясно.
psychologist
А я вас понял, т.е. это была проверка на гомогенность дисперсий, как в анове по Ливену?)
А что нам говорит t-value, если оно с минусом или с плюсом?

Ну, и косвенный вопрос: Есть выборки зависимые и независимые и критерии тоже самое . почему важно так разделять? Критерии для завис. и независ выборок дадут разные средние значения что ли?
100$

Цитата
А я вас понял, т.е. это была проверка на гомогенность дисперсий, как в анове по Ливену?)

Да.

Цитата
А что нам говорит t-value, если оно с минусом или с плюсом?

Распределение Стьюдента - штука симметричная, соответственно область отвержения нулевой гипотезы (н-р, 5% площади под кривой плотности распределения) можно разделить на две части: 2,5% слева от нуля и столько же справа. Отсюда и два значения квантили +/- 1,99656. Сравнивать можно по модулю.

Цитата
Ну, и косвенный вопрос: Есть выборки зависимые и независимые и критерии тоже самое . почему важно так разделять? Критерии для завис. и независ выборок дадут разные средние значения что ли?


Разная вероятностно- статистическая модель порождения данных.

psychologist
Код
Распределение Стьюдента - штука симметричная, соответственно область отвержения нулевой гипотезы (н-р, 5% площади под кривой плотности распределения) можно разделить на две части: 2,5% слева от нуля и столько же справа. Отсюда и два значения квантили +/- 1,99656. Сравнивать можно по модулю.

Извините меня за мой кривой пэинт, но графически это выглядит так?
100$
Цитата(psychologist @ 25.03.2014 - 21:09) *
Код
Распределение Стьюдента - штука симметричная, соответственно область отвержения нулевой гипотезы (н-р, 5% площади под кривой плотности распределения) можно разделить на две части: 2,5% слева от нуля и столько же справа. Отсюда и два значения квантили +/- 1,99656. Сравнивать можно по модулю.

Извините меня за мой кривой пэинт, но графически это выглядит так?


Да. Как живое.

Кстати, painting - это живопись (картина), а у вас drawing - рисунок.
Для просмотра полной версии этой страницы, пожалуйста, пройдите по ссылке.
Форум IP.Board © 2001-2025 IPS, Inc.