Цитата(ИНО @ 12.09.2022 - 19:35)

А ведь еще есть адаптивные ядра, которые не то чтобы можно, а просто нужно использовать при малых n., чтобы не получить ложных пиков.
Ну, вообще-то базовая проблема ядерного сглаживания - не ложные пики, а краевые эффекты, но речь не о том.
Речь о том, что я хочу хоть в первом приближении уловить точку, в окрестности которой можно поискать некий оптимум.
Патамушта в общем случае вожделенный поиск удачной точки дихотомизации (особливо в присутствии "переключателя" - дихотомической переменной) - это поиск того, чего нет.
Цитата
Эдак, выбрав неправильные настройки, можно пересгладить до равномерного распределения.
А вы часто видели в медицине равномерные распределения? Я - нет. Поэтому, завидев равномерное распределение, тотчас отыграю назад ).
Цитата
Например, существует расчудесный пакет {np} c огромным арсеналом методов ядерной непараметрической и полупараметрической регрессии. Но, увы мне не удалось построить с его помощью ни одной б. м. адекватной модели. Небольшое изменение настроек, например, смена метода определения ширины окна приводило просто к чудовищным переменам регрессионных кривых с моими данными. Так и забросил его, немного поигравшись. Если победите зверя этого, дайте знать. Кстати, количество аргумернтов в функциях там максимальное из того, что я встречал в пакетах R (как бы не под сотню) - это к вопросу о простоте ядерных методов.
Ничего себе "небольшое изменение". От него-то по большей части все и зависит.
И потом, а чего вы, собственно, хотите? Задача восстановления плотности (в т.ч. и условной) относится к классу некорректных задач. Поэтому единственно правильного учения там нет и быть не может. Любая непараметрическая регрессия - это формализация понятия "сглаживание на глазок".
Наверное, в статистике для самого расчудесного метода можно подобрать датасет, который ему (методу) не по зубам.
На одном датасете у меня, н-р, нейросеть просто колом встала.
Ну и что? Бывает.
Цитата
Если победите зверя этого, дайте знать.
Я в свое время отдал дань пакету {kedd}, а теперь даже не вижу его в перечне пакетов, доступных для загрузки.
Все эти пакеты имеют свойство быстро надоедать. Примерно как листание всех этих бесконечных pdf'ов.
Однако, в перечне соавторов {np} заявлен Джеффри Расин, а это, можно сказать, мой любимый писатель на тему непараметрической регрессии.
Цитата
Тайна сия велика есть! В документации описаны два способа, которые по идее должны быть эквивалентны, но в реальности это почему-то не так ... Поскольку почтив во всех виденных мною публикациях с примерами дихотомическая переменная задается как фактор в таблице "длинного формата", всегда так и делаю.
Спасибо за экспресс-консультацию. Теперь буду делать так же.