Форум врачей-аспирантов

Здравствуйте, гость ( Вход | Регистрация )

2 страниц V   1 2 >  
Добавить ответ в эту темуОткрыть тему
> Pearson's r = 0, Интерпретация
TheThing
сообщение 20.05.2014 - 14:10
Сообщение #1





Группа: Пользователи
Сообщений: 116
Регистрация: 20.02.2011
Пользователь №: 23251



Очень часто (даже в солидных) в книгах встречаю утверждения, приблизительно следующего характера:
1) A correlation of zero means there is no relationship between the two variables.
2) When no relationship (or zero correlation) is present what we see is that no relationship can be seen between two variables.
3) If r = 0, then there is no relationship between the data y and x: we can?t make any prediction about how y should change if we vary x.

Для тех, кто в школе учил французкий - если коэфф. корреляции Пирсона = 0, между переменными х и у нет связи.

Интересно было бы узнать мнение участников форума, кто соглаен/ не согласен. Как Вы интерпретируете r = 0 ?
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
100$
сообщение 20.05.2014 - 14:37
Сообщение #2





Группа: Пользователи
Сообщений: 902
Регистрация: 23.08.2010
Пользователь №: 22694



Цитата(TheThing @ 20.05.2014 - 15:10) *
Очень часто (даже в солидных) в книгах встречаю утверждения, приблизительно следующего характера:
1) A correlation of zero means there is no relationship between the two variables.
2) When no relationship (or zero correlation) is present what we see is that no relationship can be seen between two variables.
3) If r = 0, then there is no relationship between the data y and x: we can?t make any prediction about how y should change if we vary x.

Для тех, кто в школе учил французкий - если коэфф. корреляции Пирсона = 0, между переменными х и у нет связи.

Интересно было бы узнать мнение участников форума, кто соглаен/ не согласен. Как Вы интерпретируете r = 0 ?


Очень понравился перевод: в исходных предложениях фамилия Пирсона не встречалась, а в переводе - пожалуйста. Не зря говорится: "Мастерство не пропьешь". Народ давно заметил. )))
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
DoctorStat
сообщение 20.05.2014 - 16:43
Сообщение #3





Группа: Пользователи
Сообщений: 377
Регистрация: 18.08.2008
Из: Москва Златоглавая
Пользователь №: 5224



Цитата(TheThing @ 20.05.2014 - 15:10) *
Как Вы интерпретируете r = 0 ?
На уровне значимости тра-та-та-та линейная зависимость между нормально распределенными случайными величинами X и Y отсутствует.


Signature
Просто включи мозги => http://doctorstat.narod.ru
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
p2004r
сообщение 20.05.2014 - 20:27
Сообщение #4





Группа: Пользователи
Сообщений: 1091
Регистрация: 26.08.2010
Пользователь №: 22699



Цитата(TheThing @ 20.05.2014 - 14:10) *
Интересно было бы узнать мнение участников форума, кто соглаен/ не согласен. Как Вы интерпретируете r = 0 ?


Вот так и интерпретирую http://en.wikipedia.org/wiki/Correlation_and_dependence

Если принципиально только два показателя взаимодействуют, то прежде всего смотрю на scatterplots. После этого и делаю заключение о природе relationship.


Signature
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
TheThing
сообщение 20.05.2014 - 23:43
Сообщение #5





Группа: Пользователи
Сообщений: 116
Регистрация: 20.02.2011
Пользователь №: 23251



Цитата(100$ @ 20.05.2014 - 14:37) *
Очень понравился перевод: в исходных предложениях фамилия Пирсона не встречалась, а в переводе - пожалуйста. Не зря говорится: "Мастерство не пропьешь". Народ давно заметил. )))


Имеется ввиду Пирсона, я ссылки копировал из разделов книг, где обсуждается Pearson's r. Сам раздел скопировать забыл smile.gif
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
TheThing
сообщение 20.05.2014 - 23:52
Сообщение #6





Группа: Пользователи
Сообщений: 116
Регистрация: 20.02.2011
Пользователь №: 23251



Цитата(DoctorStat @ 20.05.2014 - 16:43) *
На уровне значимости тра-та-та-та линейная зависимость между нормально распределенными случайными величинами X и Y отсутствует.


Но ведь может быть, что они нормально распределены, но связь нелинейная. Я почему спросил - очень часто в книгах и на защитах упускают момент, что обязательным условием для применения и интерпретации r, является линейная зависимость и не проверяют, какая зависимость между переменными (хотя бы элементарно с помощью графиков) и просто говорят r ~ 0,00.., значит связь отсутствует. Но ведь может быть, что связь очень сильная, просто зависимость нелинейная, а r = 0.

Кстати, набрел на интересную статью:

M. D. Nefzger, James Drasgow, The needless assumption of normality in Pearson's r.
Это конечно тоже противоречит тому, что мы слышим везде и всюду. Статистика вроде точная наука, но почему столько мнений ? smile.gif

Сообщение отредактировал TheThing - 21.05.2014 - 00:17
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
TheThing
сообщение 20.05.2014 - 23:58
Сообщение #7





Группа: Пользователи
Сообщений: 116
Регистрация: 20.02.2011
Пользователь №: 23251



Цитата(p2004r @ 20.05.2014 - 20:27) *
Вот так и интерпретирую http://en.wikipedia.org/wiki/Correlation_and_dependence

Если принципиально только два показателя взаимодействуют, то прежде всего смотрю на scatterplots. После этого и делаю заключение о природе relationship.


Да, в Вики четко выделяют,что условием является линейная зависимость (чего не скажешь про другие книги и журналы). В книге, в которой Вы являетесь со-автором (Наглядная статистика, используй R), тоже про это четко написано smile.gif

Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
nokh
сообщение 21.05.2014 - 04:16
Сообщение #8





Группа: Пользователи
Сообщений: 1202
Регистрация: 13.01.2008
Из: Челябинск
Пользователь №: 4704



Цитата(TheThing @ 21.05.2014 - 02:58) *
Да, в Вики четко выделяют,что условием является линейная зависимость (чего не скажешь про другие книги и журналы). В книге, в которой Вы являетесь со-автором (Наглядная статистика, используй R), тоже про это четко написано smile.gif

А при чём тут "зависимость" вообще? Зависимости мы оцениваем регрессией, а корреляция - это мера связи. Связь и зависимость - разные вещи. И в википедии правильно написано, что "Correlation refers to any of a broad class of statistical relationships involving dependence" (выделено мной). Связь - более общее явление; в основе связи может лежать как зависимость одного показателя от другого (прямая или обратная, непосредственная или опосредованная), так и зависимость обоих показателей от третьей величины. Известный пример - связь между ростом рождаемости у людей и ростом численности популяции аистов в которой нет зависимости одного от другого, только обоих от третьего. Т.о. связь двух показателей не всегда сводится к зависимости и при использовании r следует говорить о линейности связи. Также мне не нравятся термины "взаимодействуют" и "взаимосвязь", которые предполагают сразу знание механизма: первое действует на второе, а второе на первое, или первое связано со вторым, а второе с первым. Если обнаруживается связь между уровнем радиации и числом мутаций, то мы знаем, что она скорее всего обусловлена зависимостью, но действие здесь одностороннее: уровень мутаций в свою очередь никак не влияет на источник радиации, т.е. ни о каком "взаимо" речи не идёт. Т.о. расхожий в научных кругах термин "взаимосвязь" в подавляющем большинстве случаев употребляется неверно.

Сообщение отредактировал nokh - 21.05.2014 - 04:46
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
TheThing
сообщение 21.05.2014 - 11:06
Сообщение #9





Группа: Пользователи
Сообщений: 116
Регистрация: 20.02.2011
Пользователь №: 23251



Цитата(nokh @ 21.05.2014 - 04:16) *
А при чём тут "зависимость" вообще? Зависимости мы оцениваем регрессией, а корреляция - это мера связи. Связь и зависимость - разные вещи. И в википедии правильно написано, что "Correlation refers to any of a broad class of statistical relationships involving dependence" (выделено мной). Связь - более общее явление; в основе связи может лежать как зависимость одного показателя от другого (прямая или обратная, непосредственная или опосредованная), так и зависимость обоих показателей от третьей величины. Известный пример - связь между ростом рождаемости у людей и ростом численности популяции аистов в которой нет зависимости одного от другого, только обоих от третьего. Т.о. связь двух показателей не всегда сводится к зависимости и при использовании r следует говорить о линейности связи. Также мне не нравятся термины "взаимодействуют" и "взаимосвязь", которые предполагают сразу знание механизма: первое действует на второе, а второе на первое, или первое связано со вторым, а второе с первым. Если обнаруживается связь между уровнем радиации и числом мутаций, то мы знаем, что она скорее всего обусловлена зависимостью, но действие здесь одностороннее: уровень мутаций в свою очередь никак не влияет на источник радиации, т.е. ни о каком "взаимо" речи не идёт. Т.о. расхожий в научных кругах термин "взаимосвязь" в подавляющем большинстве случаев употребляется неверно.


Тогда получается, что 90% русскоязычной литературы по статистике написано с ошибкой, даже в Вики "Корреля́ция (от лат. correlatio ? соотношение, взаимосвязь), корреляционная зависимость - статистическая взаимосвязь бла-бла..". Значит слово "relationship", которое по словарю переводится как связь и как взаимосвязь, нельзя применять к статистике как взаимосвязь, а только как связь.
Относительно корреляционной зависимости (если вообще можно так говорить..) - как статистическая взаимосвязь..мне кажется, что здесь основной акцент ставится на статистическую взаимосвязь, а не механизм в реальной жизни - так же как статистическая значимость не означает практическую (клиническую) значимость в реальной жизни и не свидетельствует о большом открытии..

Мне в основном приходится общаться на англ и читать англ. литературу, там все просто - relationship..русский язык как всегда сложнее, поэтому и открыл тему..

Сообщение отредактировал TheThing - 21.05.2014 - 11:10
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
100$
сообщение 21.05.2014 - 13:24
Сообщение #10





Группа: Пользователи
Сообщений: 902
Регистрация: 23.08.2010
Пользователь №: 22694



Цитата(TheThing @ 21.05.2014 - 12:06) *
..мне кажется, что здесь основной акцент ставится на статистическую взаимосвязь, а не механизм в реальной жизни ...


Оно и понятно: по меткому выражению Эйнштейна "Бог не играет в кости".
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
nokh
сообщение 21.05.2014 - 16:46
Сообщение #11





Группа: Пользователи
Сообщений: 1202
Регистрация: 13.01.2008
Из: Челябинск
Пользователь №: 4704



Цитата(TheThing @ 21.05.2014 - 14:06) *
Тогда получается, что 90% русскоязычной литературы по статистике написано с ошибкой, даже в Вики "Корреля́ция (от лат. correlatio ? соотношение, взаимосвязь), корреляционная зависимость - статистическая взаимосвязь бла-бла..".

По мне так именно так и получается smile.gif. Я - за грамотное использование терминов. Термины в науке нужны для ускорения передачи информации, а не для её искажения. Раз есть "связь" и "взаимосвязь" - можно выбрать более точный, и получается, что взаимосвязь - более узкий и конкретизированный (пусть даже его и употребляют не подразумевая механизмов). То, что это не синонимы - всё равно понятно. Например, мы говорим: "найти связь между такими-то показателями и возрастом", но не говорим "найти взаимосвязь между такими-то показателями и возрастом" - как-то не по-русски звучит ну или по-деревенски, слух режет. Но почему-то когда люди обнаруживают связь, часто тут же обзывают её "взаимосвязью" - по мне так так же безграмотно и слух режет. Ну это я так, поворчал о своём, с темой-то про r=0 всё понятно...
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
TheThing
сообщение 21.05.2014 - 17:26
Сообщение #12





Группа: Пользователи
Сообщений: 116
Регистрация: 20.02.2011
Пользователь №: 23251



Цитата(nokh @ 21.05.2014 - 16:46) *
По мне так именно так и получается smile.gif. Я - за грамотное использование терминов. Термины в науке нужны для ускорения передачи информации, а не для её искажения. Раз есть "связь" и "взаимосвязь" - можно выбрать более точный, и получается, что взаимосвязь - более узкий и конкретизированный (пусть даже его и употребляют не подразумевая механизмов). То, что это не синонимы - всё равно понятно. Например, мы говорим: "найти связь между такими-то показателями и возрастом", но не говорим "найти взаимосвязь между такими-то показателями и возрастом" - как-то не по-русски звучит ну или по-деревенски, слух режет. Но почему-то когда люди обнаруживают связь, часто тут же обзывают её "взаимосвязью" - по мне так так же безграмотно и слух режет. Ну это я так, поворчал о своём, с темой-то про r=0 всё понятно...


Да, скорее всего эти термины многие подменяют: связь, взаимосвязь, зависимость.. rolleyes.gif В той же книге "Наглядная статистика" в разделе про корреляц. анализ и коэфф. Пирсона как мера линейной связи (там пару раз мелькает слово взаимосвязь ну да ладно..) и хорошо акцентируется внимание, что обязательно нужно проверять, что связь именно линейная перел тем, как применять r. Но когда открываешь раздел по регрессионному анализу, там написано - если корреляционный анализ позволяет нам определить зависимость между переменными, то регресионный - определить форму этой зависимости и рассчитать параметры зависимости. Получается, что для авторов этой книги, связь, взаимосвязь и зависимости практически синонимы..

P.S. получается, что когда Вы ворчите, часто выплывают важные нюансы smile.gif Спасибо!

Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
p2004r
сообщение 21.05.2014 - 17:54
Сообщение #13





Группа: Пользователи
Сообщений: 1091
Регистрация: 26.08.2010
Пользователь №: 22699



Цитата(nokh @ 21.05.2014 - 16:46) *
По мне так именно так и получается smile.gif. Я - за грамотное использование терминов. Термины в науке нужны для ускорения передачи информации, а не для её искажения. Раз есть "связь" и "взаимосвязь" - можно выбрать более точный, и получается, что взаимосвязь - более узкий и конкретизированный (пусть даже его и употребляют не подразумевая механизмов). То, что это не синонимы - всё равно понятно. Например, мы говорим: "найти связь между такими-то показателями и возрастом", но не говорим "найти взаимосвязь между такими-то показателями и возрастом" - как-то не по-русски звучит ну или по-деревенски, слух режет. Но почему-то когда люди обнаруживают связь, часто тут же обзывают её "взаимосвязью" - по мне так так же безграмотно и слух режет. Ну это я так, поворчал о своём, с темой-то про r=0 всё понятно...


Крайне не хватает "официальной" онтологии "русскоязычных" понятий. Хоть садись за protege и пиши smile.gif Перед этим натравив какой нибудь tomita парсер на статьи, книги и учебники smile.gif


Signature
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
DoctorStat
сообщение 22.05.2014 - 09:46
Сообщение #14





Группа: Пользователи
Сообщений: 377
Регистрация: 18.08.2008
Из: Москва Златоглавая
Пользователь №: 5224



У меня вопрос по коэффициенту корреляции. Допустим, что между двумя случайными величинами X и Y есть нелинейная связь. Существует ли математический аппарат, который, если зависимость неизвестна, подбирает нелинейную функцию в определенном классе,(например, среди полиномов 2-ой степени, зависимости одной величины от другой и вычисляет корреляцию случайных величин относительно этой функции ?


Signature
Просто включи мозги => http://doctorstat.narod.ru
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
100$
сообщение 22.05.2014 - 10:25
Сообщение #15





Группа: Пользователи
Сообщений: 902
Регистрация: 23.08.2010
Пользователь №: 22694



Цитата(DoctorStat @ 22.05.2014 - 10:46) *
У меня вопрос по коэффициенту корреляции. Допустим, что между двумя случайными величинами X и Y есть нелинейная связь. Существует ли математический аппарат, который, если зависимость неизвестна, подбирает нелинейную функцию в определенном классе,(например, среди полиномов 2-ой степени, зависимости одной величины от другой и вычисляет корреляцию случайных величин относительно этой функции ?


Ответ положительный. Не помню фамилию советского профессора, который предложил алгоритм расчета параболической корреляции и затабулировал необходимую информацию.
Достоинство метода в том, что связь изначально мыслится как нелинейная. Полиномов более высокой степени не встречал.

Однако. Если взять, н-р, два номинальных признака и вычислить между ними связь типа корреляции (ака сопряженность), кто может утверждать, что она априори линейна или нелинейна?
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 

2 страниц V   1 2 >
Добавить ответ в эту темуОткрыть тему