![]() |
Здравствуйте, гость ( Вход | Регистрация )
![]() |
![]()
Сообщение
#1
|
|
Группа: Пользователи Сообщений: 17 Регистрация: 18.10.2015 Пользователь №: 27589 ![]() |
Добрый день, Уважаемые участники форума!
Прошу Вашего совета с решением следующей задачи (не могу определиться с корректными методами и алгоритмами). Пациенты разбиты на 3 группы по типу операции (50-30-30 человек), каждый характеризуется набором показателей до операции (7 шт) и они же после. Стоят следующие задачи: 1) Сравнить показатели до и после операции в каждой группе (нужно ответить на вопрос эффективности операции и поменялся ли каждый показатель). 2) Сравнить группы до и после операции между собой по 7 показателям (нужно ответить на вопрос - есть ли среди набора показателей те, которые бы отличались в группах как до, так и после операции) 3) Разбить каждую группу на 2 подгруппы по значениям одного из 7 характеризующих их показателей (значение до какого-то балла шкалы и после) и провести сравнения для подгрупп (цель - проверка одной зарубежной статьи). Нормальности распределений в целом нет, показатели - шкалы (0-10), (0-50) и числовые значения. Различные преобразования к нормальности тоже не приводят. Насколько я понимаю предмет, то спотыкаюсь на проблему множественных сравнений во всей красе (вопросы 1 и 2), если сравнивать известными тестами (групповыми и парными). Надо делать корректировку на 7 показателей * 2 сравнения по времени (если сравнивать группы Краскелом-Уоллисом) + 7 показателей *3 группы (сравнение до и после в каждой группе) = 35 сравнений. И это я не затрагиваю вопрос 3. Если смотреть рекомендации с данного форума, то основная ? дисперсионный анализ. Это вроде как Mixed-effects models. Но это было бы корректно, если бы данные были нормально распределены. Может быть, конечно, что-то я пропустила, в этом случае буду благодарна, если отправят по нужному ?адресу?. Единственный вариант, который благодаря p2004r пришел в голову для одновременного решения вопросов 1-2: построение деревьев классификаций при максимально возможном разбиении на группы: (время обследования + тип операции= 6 групп), а потом смотреть какие факторы позволили (и вообще позволили ли) сделать классификацию с допустимым уровнем ошибки. Потом можно объединять неразличимые группы и заново строить деревья. НО, когда задача спускается до вопроса 3, то 2*3*2=12 групп и в каждой немного данных. Сработает ли там этот подход? И будет ли это корректно? А самое главное, очень хочется врачам увидеть волшебное p. Если есть возможность, то натолкните, пожалуйста, на корректное решение проблемы. Так как приходится использовать бесплатное ПО, то буду благодарна ссылке на функции из R. |
|
![]() |
![]() |
![]() |
![]()
Сообщение
#2
|
|
Группа: Пользователи Сообщений: 1218 Регистрация: 13.01.2008 Из: Челябинск Пользователь №: 4704 ![]() |
... Если смотреть рекомендации с данного форума, то основная ? дисперсионный анализ. Это вроде как Mixed-effects models. Но это было бы корректно, если бы данные были нормально распределены. Может быть, конечно, что-то я пропустила, в этом случае буду благодарна, если отправят по нужному ?адресу?. ... Традиционно - им и решается. Всё прочее - экзотика и свободное творчество. Осваивать экзотику - полезно: глядишь так и из неё что-то скоро станет классикой. Творить - вообще наша природа! Но чтобы коллеги вас поняли - нужна классика. Менее традиционные методы можно добавить в исследование. Проблема ненормальности распределения ошибок модели традиционно решается преобразованием данных перед анализом (логарифмирование, квадратный корень, ... угловые преобразования для %). Лучшее из степенных преобразований - преобразование Бокса - Кокса (дополна информации уже). |
|
![]() |
![]() |
![]()
Сообщение
#3
|
|
![]() Группа: Пользователи Сообщений: 1091 Регистрация: 26.08.2010 Пользователь №: 22699 ![]() |
Традиционно - им и решается. Всё прочее - экзотика и свободное творчество. Осваивать экзотику - полезно: глядишь так и из неё что-то скоро станет классикой. Творить - вообще наша природа! Но чтобы коллеги вас поняли - нужна классика. Менее традиционные методы можно добавить в исследование. Проблема ненормальности распределения ошибок модели традиционно решается преобразованием данных перед анализом (логарифмирование, квадратный корень, ... угловые преобразования для %). Лучшее из степенных преобразований - преобразование Бокса - Кокса (дополна информации уже). 1) Я бы не был так уверен в "традиционности" ![]() По моему процесс применения "традиционной статистики" уже зашел так далеко как "социализм в Грузинской ССР" ![]() Даже если начать рассуждать с точки зрения "ремесленной" --- "мне платят, значит я выдаю на гора p<0.05 и не жужжу". Беда в том, что 12% воспроизводимости это у "топовых западных статей" (основной комментарий к обсуждению этой публикации в инете -- "чего так много то?!"). Опираясь на опыт консультирования могу сказать, что основная методология поставленного усредненным русскоязычным диссертантом без привлечения специалиста-статистика эксперимента сводиться к "закону возвращения к среднему" ![]() Всё это проистекает в том числе из обстоятельства, что методы проверки гипотез принципиально нельзя использовать для поиска зависимостей и анализа данных. Эксплораторный анализ должен предшествовать конфирматорному. Это закон последствие нарушения которого мы все видим. Образно говоря мы сначала должны "повесить мишень" и потом "стрелять в мишень", а не "выстрелить в стену" и потом "нарисовать мишень вокруг попадания". 2) Решение это применение статистик которые полностью проверяют записанную в явном виде схему эксперимента-наблюдения, и не нуждаются в какой либо предварительно "селекции данных". Вот статья о фактическом состоянии дел с "генераторами бутстрепа" для проверки статмоделей: http://onlinelibrary.wiley.com/doi/10.1002/sim.3680/pdf Запрос на "WinBUGS" (непересекающийся ни с чем другим термин) в гоглошолар даёт ~19000 ссылок. ![]() |
|
![]() |
![]() |
![]() ![]() |