Цитата(himik @ 1.05.2014 - 06:29)

1) "Лучше" в нашем случае означает, что вещество статистически значимо (p<0,05) увеличивает латентное время в одном из физиологических тестов.
2) В литературе конкретно не приводятся экспериментальные точки, а только медианы и стандартные отклонения. Однако учитывая, что расчёт статистики идёт по Краскелу-Уоллису, а также то, что коэффициент вариации немаленький, сделано соответствующее предположение о распределении, отличном от нормального. Речь идёт о распределении латентных времён.
Очень похвально, что вы пытаетесь грамотно подойти к планированию эксперимента, а не как обычно у нас... И в случае приблизительно нормального распределения данных всё было бы замечательно: есть и онлайновые калькуляторы, и программы, и коды для среды R. В случае пилотных данных - ещё лучше: могли бы считать по предварительно преобразованным (например, логарифмированием) данным. Но вот погуглил я на предмет чисто теоретического планирования для ненормально распределённых данных и остался недоволен. По-сути, все что предлагается - это использование величины относительной асимптотической эффективности критериев (asymptotic relative efficiency, ARE) для коррекции результатов, вычисленных в предположении нормального распределения данных. Например, для ранговых критериев Манна-Уитни и Краскела-Уоллиса эта величина составляет около 3/пи=0,955, но не меньше 0,864 и объём выборки нужно соответственно увеличить в 1/0,955 или 1/0,864 раза, по сравнению с тем, что требовалось бы для t-критерия Стьюдента при нормальном распределении показателей. Т.о. это просто некий штраф за отклонение распределения от нормального. Скачал даже бесплатную программку для подобных расчётов:
http://www.gpower.hhu.de/ . Но и там, для критерия Уилкоксона-Манна-Уитни: во-первых, аппроксимация самой статистики U-критерия t-распределением, а во-вторых - ARE.
Чем это плохо?
Распределение любых показателей, как-то связанных со временем скорее логарифмически нормальное, чем нормальное. Такие распределения поджаты слева, но имеют хвосты в правой части, т.е. демонстрируют положительную асимметрию. В результате среднее значение, как мера центральной тенденции, по стабильности заметно уступает медиане: добавление даже одного значения в хвост распределения сильно сдвигает среднее вправо. Стандартное же отклонение теряет свою геометрическую интерпретацию и становится просто абстрактной расчётной величиной. Когда мы работаем с такими данными на практике, то используем либо преобразование из семейства степенных (например, логарифмическое, квадратного корня, Бокса-Кокса) и считаем параметрикой, либо используем преобразование к рангам и считаем ранговой непараметрикой. Оба способа поджимают длинные хвосты справа делают распределения симметричнее + уменьшают меру рассеяния данных относительно центра. Однако закладывая стандартное отклонение асимметричного распределения в расчёт объема выборки, мы никак не учитываем такую процедуру "поджатия хвоста"

В результате, чем сильнее данные отклоняются от нормального распределения по асимметрии, тем более завышенным получится рассчитанный объём выборки.
За неимением лучшего, я бы всё-таки посчитал что предлагают калькуляторы, но относился бы к полученной величине как к сильно завышенной границе разумности (возможно в разы!!!

); ARE не учитывал бы (ARE=1). Можете посчитать в G*Power или попробуйте онлайновые калькуляторы в разделе Power, Sample Size and Experimental Design Calculations этого ресурса:
http://statpages.org/ По ссылкам оттуда можно выйти, например, на такой:
http://powerandsamplesize.com/Calculators/Compare-2-Means/2-Sample-Non-Inferiority-or-Superiority (замечательный ресурс с формулами, ссылками и даже кодом на R).