Форум врачей-аспирантов

Здравствуйте, гость ( Вход | Регистрация )

> Выбор методов, Mixed-effects models, непараметрические аналоги
E_VA
сообщение 6.06.2016 - 19:36
Сообщение #1





Группа: Пользователи
Сообщений: 17
Регистрация: 18.10.2015
Пользователь №: 27589



Добрый день, Уважаемые участники форума!

Прошу Вашего совета с решением следующей задачи (не могу определиться с корректными методами и алгоритмами).
Пациенты разбиты на 3 группы по типу операции (50-30-30 человек), каждый характеризуется набором показателей до операции (7 шт) и они же после.
Стоят следующие задачи:
1) Сравнить показатели до и после операции в каждой группе (нужно ответить на вопрос эффективности операции и поменялся ли каждый показатель).
2) Сравнить группы до и после операции между собой по 7 показателям (нужно ответить на вопрос - есть ли среди набора показателей те, которые бы отличались в группах как до, так и после операции)
3) Разбить каждую группу на 2 подгруппы по значениям одного из 7 характеризующих их показателей (значение до какого-то балла шкалы и после) и провести сравнения для подгрупп (цель - проверка одной зарубежной статьи).

Нормальности распределений в целом нет, показатели - шкалы (0-10), (0-50) и числовые значения. Различные преобразования к нормальности тоже не приводят.
Насколько я понимаю предмет, то спотыкаюсь на проблему множественных сравнений во всей красе (вопросы 1 и 2), если сравнивать известными тестами (групповыми и парными). Надо делать корректировку на 7 показателей * 2 сравнения по времени (если сравнивать группы Краскелом-Уоллисом) + 7 показателей *3 группы (сравнение до и после в каждой группе) = 35 сравнений. И это я не затрагиваю вопрос 3.

Если смотреть рекомендации с данного форума, то основная ? дисперсионный анализ. Это вроде как Mixed-effects models. Но это было бы корректно, если бы данные были нормально распределены.
Может быть, конечно, что-то я пропустила, в этом случае буду благодарна, если отправят по нужному ?адресу?.

Единственный вариант, который благодаря p2004r пришел в голову для одновременного решения вопросов 1-2: построение деревьев классификаций при максимально возможном разбиении на группы: (время обследования + тип операции= 6 групп), а потом смотреть какие факторы позволили (и вообще позволили ли) сделать классификацию с допустимым уровнем ошибки. Потом можно объединять неразличимые группы и заново строить деревья. НО, когда задача спускается до вопроса 3, то 2*3*2=12 групп и в каждой немного данных. Сработает ли там этот подход? И будет ли это корректно? А самое главное, очень хочется врачам увидеть волшебное p.

Если есть возможность, то натолкните, пожалуйста, на корректное решение проблемы. Так как приходится использовать бесплатное ПО, то буду благодарна ссылке на функции из R.
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
 
Открыть тему
Ответов
nokh
сообщение 13.06.2016 - 20:47
Сообщение #2





Группа: Пользователи
Сообщений: 1218
Регистрация: 13.01.2008
Из: Челябинск
Пользователь №: 4704



Цитата(E_VA @ 6.06.2016 - 21:36) *
...
Если смотреть рекомендации с данного форума, то основная ? дисперсионный анализ. Это вроде как Mixed-effects models. Но это было бы корректно, если бы данные были нормально распределены.
Может быть, конечно, что-то я пропустила, в этом случае буду благодарна, если отправят по нужному ?адресу?.
...

Традиционно - им и решается. Всё прочее - экзотика и свободное творчество. Осваивать экзотику - полезно: глядишь так и из неё что-то скоро станет классикой. Творить - вообще наша природа! Но чтобы коллеги вас поняли - нужна классика. Менее традиционные методы можно добавить в исследование.
Проблема ненормальности распределения ошибок модели традиционно решается преобразованием данных перед анализом (логарифмирование, квадратный корень, ... угловые преобразования для %). Лучшее из степенных преобразований - преобразование Бокса - Кокса (дополна информации уже).
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
p2004r
сообщение 15.06.2016 - 10:40
Сообщение #3





Группа: Пользователи
Сообщений: 1091
Регистрация: 26.08.2010
Пользователь №: 22699



Цитата(nokh @ 13.06.2016 - 20:47) *
Традиционно - им и решается. Всё прочее - экзотика и свободное творчество. Осваивать экзотику - полезно: глядишь так и из неё что-то скоро станет классикой. Творить - вообще наша природа! Но чтобы коллеги вас поняли - нужна классика. Менее традиционные методы можно добавить в исследование.
Проблема ненормальности распределения ошибок модели традиционно решается преобразованием данных перед анализом (логарифмирование, квадратный корень, ... угловые преобразования для %). Лучшее из степенных преобразований - преобразование Бокса - Кокса (дополна информации уже).


1) Я бы не был так уверен в "традиционности" smile.gif Вернее с исторической точки зрения естественно имеется огромное количество работ использующих ANOVA. Одновременно в последние годы появилась масса публикаций о плачевном состоянии дел с повторяемостью результатов в "медико-биологических" работах. Напомню после тщательного отбора "по внешнему виду" удалось повторить только ~12% публикаций. Напомню, что всё что должна делать по идее массово применяемая ANOVA это дать уверенность что работа может быть повторена. Для меня такой низкий процент воспроизводимости работ более чем "сильный сигнал" о устойчивости методологии "к неквалифицированному пользователю".

По моему процесс применения "традиционной статистики" уже зашел так далеко как "социализм в Грузинской ССР" smile.gif И скоро за результаты будут не просто давать, а догонять и давать.
Даже если начать рассуждать с точки зрения "ремесленной" --- "мне платят, значит я выдаю на гора p<0.05 и не жужжу".

Беда в том, что 12% воспроизводимости это у "топовых западных статей" (основной комментарий к обсуждению этой публикации в инете -- "чего так много то?!"). Опираясь на опыт консультирования могу сказать, что основная методология поставленного усредненным русскоязычным диссертантом без привлечения специалиста-статистика эксперимента сводиться к "закону возвращения к среднему" frown.gif. И это "выстраданная" (как я понимаю его научруком) "работающая методология" действительно дающая возможность получить заветные "p" "относительно честным путем".

Всё это проистекает в том числе из обстоятельства, что методы проверки гипотез принципиально нельзя использовать для поиска зависимостей и анализа данных.

Эксплораторный анализ должен предшествовать конфирматорному. Это закон последствие нарушения которого мы все видим. Образно говоря мы сначала должны "повесить мишень" и потом "стрелять в мишень", а не "выстрелить в стену" и потом "нарисовать мишень вокруг попадания".

2) Решение это применение статистик которые полностью проверяют записанную в явном виде схему эксперимента-наблюдения, и не нуждаются в какой либо предварительно "селекции данных".

Вот статья о фактическом состоянии дел с "генераторами бутстрепа" для проверки статмоделей:

http://onlinelibrary.wiley.com/doi/10.1002/sim.3680/pdf

Запрос на "WinBUGS" (непересекающийся ни с чем другим термин) в гоглошолар даёт ~19000 ссылок.


Signature
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 

Сообщений в этой теме


Добавить ответ в эту темуОткрыть тему