Здравствуйте, гость ( Вход | Регистрация )
3.03.2014 - 16:25
Сообщение
#1
|
|
![]() Группа: Пользователи Сообщений: 1 Регистрация: 3.03.2014 Из: Новосибирск Пользователь №: 26118 |
Уважаемые господа, можно ли обратиться к Вам за помощью?
Имеется база данных, основанная на анкетировании более 1500 человек, в которой категориально (да - нет) отражены такие симптомы как головные боли, боли в пояснице, боли в грудной клетке и пр. (более 30), на их основе вычисленный индекс состояния здоровья (непрерывная величина от 0 до 1). Для каждого случая естественно записаны предикты, такие как населенный пункт, возраст (или возрастная группа), пол, профессия, привычки, группа риска (на основе воздействия химических загрязнителей поллютантов - 3 группы) и пр. Стоит задача выявить предикторы вызывающие значимое повышение отношение шансов наблюдаемых симптомов, а также оценить комплексное влияние этих факторов (предикторов). Попытка провести данный анализ методом логистической регрессии с помощью одноименного модуля epi info 2000 (стандартная программа используемая в эпидемиалогии и лежащая в свободном доступе) дает неплохие результаты при учете только одного из перечислденных факторов. При учете нескольких взаимодействующих факторов, получаем неподдающиеся интерпретации результаты, что может быть вызвано однако сильной взаимосвязью предикторов, которые возможно необходимо минимизировать (что не хотелось бы, из-за потери части информации). В связи с этим хотелось бы обратиться к Вам с вопросом, может имеет смысл воспользоваться каким-нибудь другим методом анализа? Будем рады любому ответу... ![]() |
|
|
![]() |
![]() |
![]() |
4.03.2014 - 08:29
Сообщение
#2
|
|
|
Группа: Пользователи Сообщений: 219 Регистрация: 4.06.2013 Из: Тверь Пользователь №: 24927 |
Прежде чем собирать данные, нужно знать. какими методами они будут обрабатываться!!!!
Вы и задачу формулируете невнятно. Согласен с некоторыми предложениями в предыдущем сообщении: логлинейный анализ таблиц сопряженности, многомерное шкалирование по матрице расстояний между переменными с обычной или специальной метрикой. У меня такое ощущение. что в ваших данных (при большом объеме) информации не очень много. Я бы начал с проверки качества данных: анализ пригодности теста с настройками..., кластерный анализ переменных со специальной метрикой, анализ множественных ответов с наборами..., поиск дубликатов и противоречий. Если качество данных хорошее, то можно применить разные методы. Я бы начал с поиска ассоциативных правил условия -следствия. Это - огромная работа! Уверен почти на 100%, что если ассоциативные правила не будут обнаружены. то ничего особо ценного в ваших данных нет. Сообщение отредактировал anserovtv - 4.03.2014 - 08:39 |
|
|
![]() |
![]() |
naustro Вопрос по анализу данных 3.03.2014 - 16:25
nokh Цитата(naustro @ 3.03.2014 - 19:25) ... 3.03.2014 - 17:57
p2004r Цитата(naustro @ 3.03.2014 - 16:25) ... 4.03.2014 - 16:37
nokh Цитата(p2004r @ 4.03.2014 - 19:37) 2... 4.03.2014 - 17:43
p2004r Цитата(nokh @ 4.03.2014 - 17:43) До ... 5.03.2014 - 21:33
100$ 1. Не такая уж это симпатичная идея - использовать... 4.03.2014 - 22:11
100$ А вот еще отлично ортогонализует вектора процедура... 6.03.2014 - 12:01![]() ![]() |