Форум врачей-аспирантов

Здравствуйте, гость ( Вход | Регистрация )

> Выбор методов, Mixed-effects models, непараметрические аналоги
E_VA
сообщение 6.06.2016 - 19:36
Сообщение #1





Группа: Пользователи
Сообщений: 17
Регистрация: 18.10.2015
Пользователь №: 27589



Добрый день, Уважаемые участники форума!

Прошу Вашего совета с решением следующей задачи (не могу определиться с корректными методами и алгоритмами).
Пациенты разбиты на 3 группы по типу операции (50-30-30 человек), каждый характеризуется набором показателей до операции (7 шт) и они же после.
Стоят следующие задачи:
1) Сравнить показатели до и после операции в каждой группе (нужно ответить на вопрос эффективности операции и поменялся ли каждый показатель).
2) Сравнить группы до и после операции между собой по 7 показателям (нужно ответить на вопрос - есть ли среди набора показателей те, которые бы отличались в группах как до, так и после операции)
3) Разбить каждую группу на 2 подгруппы по значениям одного из 7 характеризующих их показателей (значение до какого-то балла шкалы и после) и провести сравнения для подгрупп (цель - проверка одной зарубежной статьи).

Нормальности распределений в целом нет, показатели - шкалы (0-10), (0-50) и числовые значения. Различные преобразования к нормальности тоже не приводят.
Насколько я понимаю предмет, то спотыкаюсь на проблему множественных сравнений во всей красе (вопросы 1 и 2), если сравнивать известными тестами (групповыми и парными). Надо делать корректировку на 7 показателей * 2 сравнения по времени (если сравнивать группы Краскелом-Уоллисом) + 7 показателей *3 группы (сравнение до и после в каждой группе) = 35 сравнений. И это я не затрагиваю вопрос 3.

Если смотреть рекомендации с данного форума, то основная ? дисперсионный анализ. Это вроде как Mixed-effects models. Но это было бы корректно, если бы данные были нормально распределены.
Может быть, конечно, что-то я пропустила, в этом случае буду благодарна, если отправят по нужному ?адресу?.

Единственный вариант, который благодаря p2004r пришел в голову для одновременного решения вопросов 1-2: построение деревьев классификаций при максимально возможном разбиении на группы: (время обследования + тип операции= 6 групп), а потом смотреть какие факторы позволили (и вообще позволили ли) сделать классификацию с допустимым уровнем ошибки. Потом можно объединять неразличимые группы и заново строить деревья. НО, когда задача спускается до вопроса 3, то 2*3*2=12 групп и в каждой немного данных. Сработает ли там этот подход? И будет ли это корректно? А самое главное, очень хочется врачам увидеть волшебное p.

Если есть возможность, то натолкните, пожалуйста, на корректное решение проблемы. Так как приходится использовать бесплатное ПО, то буду благодарна ссылке на функции из R.
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
 
Открыть тему
Ответов
nokh
сообщение 27.06.2016 - 19:02
Сообщение #2





Группа: Пользователи
Сообщений: 1219
Регистрация: 13.01.2008
Из: Челябинск
Пользователь №: 4704



>E_VA

1) Писалось и обсуждалось уже столько раз, что писать сил нет. Но если не писать - это будет нечестно по отношению к тем, кто пришёл на форум позже. А потом - ещё позже... Нормально должны быть распределены не данные, а остатки модели, в данном случае - модели ANOVA. Естественно, что раз ваш показатель различается в группах, то ничего кроме полимодального распределения быть не может и эту полимодальность не снять никакими преобразованими, да и незачем снимать. Но если из каждого значения в группе вычесть среднее его группы, то полимодальное распределение сводится к унимодальному со средним равным нулю. Оно и должно быть нормальным и в идеале ещё иметь одинаковые дисперсии для всех групп. В более сложных вариантах ANOVA сложнее, но принцип такой же. Короче, смотреть нужно Residuals!

2) По поводу деревьев классификации и прочего. Быстро время идёт... Помню ещё не так давно специально ставил WEKA чтобы иметь доступ к нескольким классическим алгоритмам построения деревьев, а по-русски прочитать про них можно было только на сайте разработчиков Deductor... А сейчас где и каких только нет, леса целые выросли smile.gif Но не люблю когда люди выделываются не по делу. Ведь наверняка - спроси такого вопрошающего про эти самые деревья и - поплывёт, а вот поумничать охота. Моё отношение к новому - взвешенное (надеюсь): использовать примерно на 70% классику + около 30% на менее традиционные техники. Так и связь стен с фундаментом не потеряешь, и развиваться продолжаешь. Потихоньку в разряд классики переходит то, что ещё лет 30-50 назад было экзотикой... А если конкретно по деревьям и лесам классификации - они, как и ставшие привычными модели дискриминантного анализа и множественной логистической регресии - техники для прогноза, т.е. техники, работающие на практику. Они не вскрывают никакие закономерности в данных, чтобы увидеть какие-то процессы за дискриминантными ключами или ветвлениями дерева нужны глубокие специальные знания, да и то не факт, что поможет. Практическая значимость - хорошо, для медицины - бесспорно хорошо, но вот сейчас половину докторских из регионов ВАК разворачивает только в силу практического акцента работы, поскольку типа научная квалификационная работа должна иметь серьёзную теоретическую значимость. Очередной эксцесс, конечно, но логика в этом есть. И вопрошающего про деревья я бы спросил о том, в состоянии ли он объяснить то, что построила программа.

> p2004r

Мой путь в биостатистику начался с книг Cокала и Рольфа (Biometry), Монтгомери (Планирование эксперимента...), Аптона (Таблицы сопряжённости), и далее - работ представителей канадской и французской школ экологов с их всякими наработками по многомерным техникам. Из переводных - Закс (статистическое оценивание), Хальд (Мат. статистика с техническими приложениями), из отчественных - Урбах, Лакин, Плохинский. Естественно первые книги откладывают определённый отпечаток и задают некий коридор для развития. Во всех этих учебниках большое место отводилось именно моделям дисперсионного анализа - классической техники разработанной создателем теории планирования эксперимента Р. Фишером, а также моделям логлинейного анализа (С. и Р., Аптон), как функционального аналога ANOVA для качественных признаков. Вероятно, такой опыт отчасти давлеет над полной свободой выбора, но я и не против smile.gif Эксперимент в науке - основной инструмент проверки гипотез, а техники типа ANOVA как нельзя лучше подходят для анализа эксперимента. Другое дело - действительно ли и насколько мы можем рассматривать обычные в медицине дизайны в качестве классических экспериментов...

Сообщение отредактировал nokh - 27.06.2016 - 19:07
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 

Сообщений в этой теме


Добавить ответ в эту темуОткрыть тему