Форум врачей-аспирантов

Здравствуйте, гость ( Вход | Регистрация )

> Как сравнить результаты регрессии Кокса
propedevt
сообщение 21.02.2012 - 23:27
Сообщение #1





Группа: Пользователи
Сообщений: 27
Регистрация: 5.02.2012
Пользователь №: 23464



Уважаемые форумчане!
Для анализа выживаемости строю модель Кокса, с разными независимыми переменными. И появилась необходимость сравнить модели.
И собственно вопрос у меня к Вам - как сравнить что одна полученная модель лучше чем другая?
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
 
Открыть тему
Ответов
propedevt
сообщение 9.03.2012 - 14:40
Сообщение #2





Группа: Пользователи
Сообщений: 27
Регистрация: 5.02.2012
Пользователь №: 23464



Хорошо, файл прикрепил. В последней модели использовал предикторы efmss, gal, cys.
Жду Вас с нетерпением:)
только что будете делать опишите так, чтобы я понял и мог сделать тоже самое:)

Сообщение отредактировал propedevt - 9.03.2012 - 14:54
Прикрепленные файлы
Прикрепленный файл  cox_m4.rar ( 1,79 килобайт ) Кол-во скачиваний: 281
 
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 
p2004r
сообщение 9.03.2012 - 17:15
Сообщение #3





Группа: Пользователи
Сообщений: 1091
Регистрация: 26.08.2010
Пользователь №: 22699



Цитата(propedevt @ 9.03.2012 - 14:40) *
Хорошо, файл прикрепил. В последней модели использовал предикторы efmss, gal, cys.
Жду Вас с нетерпением:)
только что будете делать опишите так, чтобы я понял и мог сделать тоже самое:)


Сначала данные и подгонка модели.

Код
> library(survival)
> data<-read.csv2("cox_m4.csv") #читаем данные
> head(data) #смотрим несколько первых строк
  X day event gal proBNP  cys efmss
1 1 805     0   6    900 1800  0.30
2 2 805     0   3    400 1200  0.45
3 3 805     0   7    150 1000  0.69
4 4 805     0  13    200  900  0.57
5 5 760     1  20    900 3300  0.36
6 6 805     0   8    800 2400  0.40
> length(data[,1]) # сколько всего случаев
[1] 197
> model5<-coxph(Surv(day,event)~ efmss + gal + cys, data) # собственно выбранная модель
> summary(model5)
Call:
coxph(formula = Surv(day, event) ~ efmss + gal + cys, data = data)

  n= 197, number of events= 108

            coef  exp(coef)   se(coef)      z Pr(>|z|)    
efmss -3.757e+00  2.335e-02  1.130e+00 -3.324 0.000887 ***
gal    9.448e-02  1.099e+00  1.051e-02  8.987  < 2e-16 ***
cys    1.896e-04  1.000e+00  8.606e-05  2.203 0.027583 *  
---
Signif. codes:  0 ?***? 0.001 ?**? 0.01 ?*? 0.05 ?.? 0.1 ? ? 1

      exp(coef) exp(-coef) lower .95 upper .95
efmss   0.02335    42.8186  0.002549     0.214
gal     1.09908     0.9098  1.076669     1.122
cys     1.00019     0.9998  1.000021     1.000

Rsquare= 0.654   (max possible= 0.996 )
Likelihood ratio test= 208.9  on 3 df,   p=0
Wald test            = 158.6  on 3 df,   p=0
Score (logrank) test = 215.5  on 3 df,   p=0


Прогноз который считает модель

Цитата
Predicted values are available based on either the linear predictor

the risk for an individual relative to the average subject within the data set

the expected number of events for an individual over the time interval that they were
observed to be at risk, which is a component of the martingale residual,
or for individual components of the linear predictor


Код
> predict(model5, type="lp", se.fit=FALSE)
  [1] -2.18632414 -3.14706993 -3.70875790 -2.71002012 -0.80464171 -2.25929859
  [7] -3.08799757 -2.40811880 -2.41023773  0.13723479 -3.16344410 -2.52261679
[13] -1.74607290 -0.58176455 -2.37054908 -2.37372747 -2.45183038 -2.37266801
[19] -1.02844012 -1.37028349 -1.93966416 -2.17903068 -2.18557176 -3.29553699
[25] -2.05531376 -2.82644514 -1.94015553 -2.73267437 -0.80306783 -2.44966538
[31] -2.60104982 -1.03368376 -2.46356747 -2.10313884 -3.03069098 -2.61667161
[37] -2.59883875 -2.68933898 -2.82390395 -2.22311845 -1.54034533  0.25133355
[43] -3.59715426 -2.24247912  0.32875319 -1.31673882 -1.27992148 -1.27989844
[49] -2.54087192 -1.95878685 -0.94026614 -2.40983850 -1.84059606 -1.72958355
[55] -2.07138085 -2.50542113  1.93030325 -0.82466261 -0.76634264 -0.11003936
[61] -0.99754969  0.42022074 -0.33413724 -0.55814298 -0.69445069  0.69496973
[67] -1.21972054  1.99028925  0.64639148 -2.36953568  0.25133355  0.92986880
[73]  0.36225391 -1.39590120 -0.88269855  0.38309631  0.58988335  0.04010133
[79] -2.92235788 -1.71504426 -2.03454047 -1.71436098  0.28859619 -1.42956318
[85]  0.27215291 -1.88430764 -0.90201314 -0.63867190 -0.48286531  0.98774348
[91]  0.45748338  0.72193016 -0.88378105 -1.79018371 -2.18345283  1.76678250
[97] -2.03463262  0.55405636 -0.10584757 -0.63057998  0.40198864 -0.65904596
[103]  1.59332732  0.19256827 -0.86439734 -0.22425331 -0.52521034 -0.40772586
[109]  0.45776743  0.13723479 -1.27947618 -1.24049383 -0.19868167 -0.86263157
[115] -0.16445160  0.78097948  0.91215873 -1.86497001  0.66570607 -0.48220507
[121]  0.61098676  0.79848223  0.15555902 -1.36372016  0.06169611 -2.20566177
[127] -1.14420490  0.55335005  5.46721790  0.04452348 -0.33559594  1.19831547
[133] -0.59959741  2.74521532  4.76859263  1.93140879  3.25585374  1.72492883
[139]  0.65241815  1.35099735  2.23344833  1.16027740  2.63031810  1.91035145
[145]  1.92964301  0.70362896  3.32882819  2.00690139  2.23307213  1.12124899
[151]  4.65282785  3.76430413  1.51548542  4.82310462  3.44325707  3.25580767
[157]  4.36803005  3.02857747  2.00831402  3.01034537  2.91506983  1.32697656
[163]  2.68616600  2.97098683  0.89077128  2.36754496  2.68859201  1.44105228
[169]  0.58767227  0.51403758  2.49848623  1.49805178  2.00586497  0.58988335
[175]  2.15793268  1.70568335  2.10405789  0.77956686  1.59186863  2.08345347
[181]  0.40013072  2.28925015  0.30645209  0.87018255  2.13963148  3.32878212
[187]  2.70536541  1.10096707  1.55305515  3.55777810  0.04421639  2.38582312
[193]  3.33024081  2.21547724  1.51548542  0.23020710  1.50539054

> predict(model5, type="risk")
  [1]   0.11232890   0.04297787   0.02450795   0.06653547   0.44724814
  [6]   0.10442370   0.04559316   0.08998441   0.08979395   1.14709744
[11]   0.04227987   0.08024934   0.17445771   0.55891127   0.09342941
[16]   0.09313293   0.08613578   0.09323165   0.35756428   0.25403493
[21]   0.14375222   0.11315116   0.11241344   0.03704815   0.12805265
[26]   0.05922301   0.14368160   0.06504510   0.44795261   0.08632247
[31]   0.07419565   0.35569425   0.08513071   0.12207266   0.04828226
[36]   0.07304558   0.07435988   0.06792582   0.05937370   0.10827094
[41]   0.21430708   1.28573887   0.02740159   0.10619491   1.38923493
[46]   0.26800790   0.27805913   0.27806554   0.07879766   0.14102941
[51]   0.39052389   0.08982980   0.15872279   0.17735826   0.12601166
[56]   0.08164121   6.89159980   0.43838287   0.46470958   0.89579887
[61]   0.36878196   1.52229755   0.71595552   0.57227080   0.49934867
[66]   2.00364842   0.29531268   7.31765007   1.90864101   0.09352414
[71]   1.28573887   2.53417668   1.43656366   0.24760979   0.41366511
[76]   1.46681930   1.80377799   1.04091624   0.05380667   0.17995576
[81]   0.13074055   0.18007876   1.33455272   0.23941348   1.31278772
[86]   0.15193422   0.40575200   0.52799318   0.61701292   2.68516850
[91]   1.58009249   2.05840242   0.41321756   0.16692950   0.11265189
[96]   5.85199422   0.13072850   1.74029800   0.89956176   0.53228300
[101]   1.49479436   0.51734466   4.92009247   1.21235927   0.42130538
[106]   0.79911269   0.59143095   0.66516120   1.58054137   1.14709744
[111]   0.27818298   0.28924135   0.81981082   0.42204997   0.84835882
[116]   2.18361003   2.48969131   0.15490086   1.94586396   0.61742043
[121]   1.84224835   2.22216563   1.16831089   0.25570773   1.06363906
[126]   0.11017759   0.31847704   1.73906924 236.80047306   1.04552952
[131]   0.71491192   3.31452879   0.54903263  15.56796569 117.75340276
[136]   6.89922294  25.94175269   5.61212163   1.92017850   3.86127465
[141]   9.33199040   3.19081830  13.87818390   6.75546260   6.88705121
[146]   2.02107380  27.90562252   7.44022727   9.32848045   3.06868455
[151] 104.88115464  43.13367980   4.55163006 124.35055369  31.28870201
[156]  25.94055751  78.88807278  20.66781100   7.45074491  20.29440783
[161]  18.45010077   3.76962888  14.67530276  19.51116438   2.43700853
[166]  10.67116195  14.71094846   4.22513952   1.79979410   1.67202854
[171]  12.16406643   4.47296628   7.43251999   1.80377799   8.65323018
[176]   5.50514631   8.19937467   2.18052759   4.91292080   8.03215988
[181]   1.49201973   9.86753570   1.35859638   2.38734662   8.49630599
[186]  27.90433687  14.95978216   3.00707267   4.72588644  35.08515480
[191]   1.04520851  10.86800471  27.94507043   9.16578236   4.55163006
[196]   1.25886070   4.50591302

> predict(model5, type="expected")
         1          2          3          4          5          6          7
0.09741257 0.03727077 0.02125350 0.05770012 0.26029088 0.09055712 0.03953877
         8          9         10         11         12         13         14
0.07803524 0.07787007 0.87572766 0.03666546 0.06959290 0.15129120 0.48469256
        15         16         17         18         19         20         21
0.08102277 0.08076566 0.07469767 0.08085127 0.31008276 0.22030123 0.06662098
        22         23         24         25         26         27         28
0.09812564 0.09748588 0.03212846 0.11104834 0.05135869 0.12460190 0.05640766
        29         30         31         32         33         34         35
0.38846828 0.07485957 0.06434309 0.30371060 0.07382607 0.06590057 0.04187079
        36         37         38         39         40         41         42
0.06334574 0.06448551 0.05890585 0.05148937 0.09389348 0.18584891 0.92114753
        43         44         45         46         47         48         49
0.02376289 0.09209312 1.20475624 0.23241871 0.24113522 0.24114078 0.06833400
        50         51         52         53         54         55         56
0.12230189 0.33866561 0.07790116 0.13764574 0.15380657 0.10927837 0.07079994
        57         58         59         60         61         62         63
1.54319697 0.18171314 0.40300006 0.77684433 0.31981083 0.06927014 0.62088266
        64         65         66         67         68         69         70
0.48863513 0.43303938 0.97227876 0.03250515 4.78395309 0.16537057 0.08110492
        71         72         73         74         75         76         77
0.14694725 0.90498987 0.45504521 0.21472930 0.35873387 1.27203806 0.93033237
        78         79         80         81         82         83         84
0.83406021 0.04666160 0.15605915 0.11337930 0.15616582 0.07790488 0.20762139
        85         86         87         88         89         90         91
1.13846058 0.13175863 0.35187155 0.15575776 0.02807636 0.57789685 1.37026952
        92         93         94         95         96         97         98
0.54191702 0.35834575 0.10913106 0.09769267 0.26628726 0.11336886 0.87068667
        99        100        101        102        103        104        105
0.22317478 0.03107217 0.65040068 0.30108588 0.01077213 1.05136817 0.36535957
       106        107        108        109        110        111        112
0.69299726 0.51289390 0.57683340 1.37065880 0.21043827 0.24124262 0.08223406
       113        114        115        116        117        118        119
0.30781553 0.36600529 0.60779342 0.66763945 0.68130989 0.13433133 0.90179729
       120        121        122        123        124        125        126
0.40364193 0.65789260 0.74146453 0.08105875 0.22175190 0.65599925 0.09554693
       127        128        129        130        131        132        133
0.03371261 0.68596307 0.69465773 0.83775672 0.06455349 1.78933885 0.47612572
       134        135        136        137        138        139        140
0.34570904 1.65642691 0.04566908 0.01860585 0.73234819 1.66519498 3.34852992
       141        142        143        144        145        146        147
1.39505890 0.01814069 0.23856851 0.93426907 1.60596606 1.75269223 3.37110028
       148        149        150        151        152        153        154
0.11621245 1.21731071 0.37070821 1.21628368 0.40837624 3.26094425 1.44206602
       155        156        157        158        159        160        161
1.01897196 0.57604734 1.75182298 0.17576492 1.15893131 2.06286055 0.51877603
       162        163        164        165        166        167        168
0.04371556 0.56900548 0.02825276 0.42917254 1.00264005 0.47908808 0.71357947
       169        170        171        172        173        174        175
0.44651592 1.44999724 1.00980925 0.26111063 0.28818108 0.60186215 0.50513469
       176        177        178        179        180        181        182
0.02364640 0.61003936 0.17344290 0.03714014 0.15097160 0.86833034 1.96093102
       183        184        185        186        187        188        189
1.17818623 0.17762030 1.22144772 0.90875412 2.42176769 0.59758204 1.86409115
       190        191        192        193        194        195        196
2.04810554 0.90641363 0.63442276 0.12003320 0.23883016 0.90452498 0.54774348
       197
0.44053876

> predict(model5, type="terms")
           efmss         gal          cys
1   -0.076855836 -1.81712524 -0.292343064
2   -0.640401728 -2.10055649 -0.406111708
3   -1.542075156 -1.72264816 -0.444034589
4   -1.091238442 -1.15578565 -0.462996030
5   -0.302274193 -0.49444606 -0.007921455
6   -0.452553097 -1.62817107 -0.178574420
7   -0.978529263 -1.81712524 -0.292343064
8   -0.828250359 -1.43921690 -0.140651539
9   -0.602832002 -1.43921690 -0.368188827
10   0.110992795  0.16689353 -0.140651539
11  -1.091238442 -1.62817107 -0.444034589
12  -0.715541180 -1.53369399 -0.273381624
13  -0.903389811 -0.77787731 -0.064805777
14   0.298841426 -0.77787731 -0.102728658
15  -0.790680633 -1.43921690 -0.140651539
16  -0.452553097 -1.43921690 -0.481957471
17  -0.001716383 -2.00607941 -0.444034589
18  -0.565262276 -1.43921690 -0.368188827
19  -1.016098989  0.35584770 -0.368188827
20  -0.677971454 -0.39996898 -0.292343064
21  -0.339843919 -1.15578565 -0.444034589
22  -1.203947620 -0.87235440 -0.102728658
23  -0.227134740 -1.62817107 -0.330265945
24  -1.053668716 -1.91160233 -0.330265945
25   0.035853343 -1.62817107 -0.462996030
26  -0.527692550 -1.91160233 -0.387150267
27  -0.076855836 -1.72264816 -0.140651539
28  -0.452553097 -1.81712524 -0.462996030
29  -0.715541180  0.16689353 -0.254420183
30  -0.302274193 -1.81712524 -0.330265945
31  -0.264704466 -2.00607941 -0.330265945
32  -0.001716383 -0.87235440 -0.159612980
33  -1.016098989 -1.34473982 -0.102728658
34  -1.279087073 -0.68340023 -0.140651539
35  -1.128808168 -1.53369399 -0.368188827
36  -0.865820085 -1.34473982 -0.406111708
37  -0.640401728 -1.62817107 -0.330265945
38  -1.203947620 -1.34473982 -0.140651539
39  -0.903389811 -1.62817107 -0.292343064
40  -0.302274193 -1.53369399 -0.387150267
41  -0.565262276 -0.87235440 -0.102728658
42   0.110992795  0.07241645  0.067924308
43  -1.241517346 -1.91160233 -0.444034589
44  -0.189565014 -1.72264816 -0.330265945
45  -0.302274193  0.73375604 -0.102728658
46  -0.076855836 -1.06130857 -0.178574420
47   0.110992795 -1.25026274 -0.140651539
48   0.073423069 -1.15578565 -0.197535861
49  -0.790680633 -1.53369399 -0.216497302
50  -0.076855836 -1.81712524 -0.064805777
51   0.110992795 -0.77787731 -0.273381624
52  -0.715541180 -1.25026274 -0.444034589
53  -0.828250359 -1.06130857  0.048962867
54  -0.640401728 -0.77787731 -0.311304505
55  -0.377413645 -1.34473982 -0.349227386
56  -0.527692550 -1.53369399 -0.444034589
57   0.674538687  1.01718729  0.238577274
58  -0.189565014 -0.49444606 -0.140651539
59  -0.377413645 -0.39996898  0.011039986
60   0.298841426 -0.11653772 -0.292343064
61   0.223701973 -0.96683148 -0.254420183
62   0.298841426  0.07241645  0.048962867
63   0.073423069 -0.49444606  0.086885749
64  -0.302274193 -0.49444606  0.238577274
65   0.148562521 -0.68340023 -0.159612980
66   0.073423069  0.73375604 -0.112209378
67  -0.452553097 -0.68340023 -0.083767217
68  -0.076855836  2.15091230 -0.083767217
69   0.373980878  0.26137061  0.011039986
70  -0.828250359 -1.62817107  0.086885749
71   0.110992795  0.07241645  0.067924308
72   0.298841426  0.73375604 -0.102728658
73   0.449120330 -0.02206064 -0.064805777
74   0.486690057 -1.62817107 -0.254420183
75   0.073423069 -0.87235440 -0.083767217
76   0.073423069  0.45032478 -0.140651539
77   0.298841426  0.35584770 -0.064805777
78   0.674538687 -0.68340023  0.048962867
79  -0.339843919 -2.10055649 -0.481957471
80   0.110992795 -1.53369399 -0.292343064
81  -0.227134740 -1.43921690 -0.368188827
82   0.073423069 -1.62817107 -0.159612980
83   0.110992795  0.26137061 -0.083767217
84  -0.001716383 -1.53369399  0.105847189
85  -0.227134740  0.45032478  0.048962867
86  -0.001716383 -1.62817107 -0.254420183
87   0.110992795 -0.87235440 -0.140651539
88   0.336411152 -0.87235440 -0.102728658
89  -0.452553097  0.07241645 -0.102728658
90   0.298841426  0.45032478  0.238577274
91   0.298841426  0.26137061 -0.102728658
92   0.336411152  0.45032478 -0.064805777
93   0.223701973 -0.96683148 -0.140651539
94   0.035853343 -1.53369399 -0.292343064
95  -0.452553097 -1.62817107 -0.102728658
96  -0.189565014  1.30061854  0.655728968
97  -0.076855836 -1.81712524 -0.140651539
98   0.110992795  0.26137061  0.181692952
99  -0.076855836 -0.30549189  0.276500155
100 -1.016098989  0.45032478 -0.064805777
101  0.186132247  0.16689353  0.048962867
102  0.486690057 -0.87235440 -0.273381624
103  0.073423069  1.39509563  0.124808630
104  0.486690057 -0.39996898  0.105847189
105  0.073423069 -0.68340023 -0.254420183
106  0.486690057 -0.49444606 -0.216497302
107  0.298841426 -0.68340023 -0.140651539
108 -0.377413645  0.07241645 -0.102728658
109  0.373980878 -0.02206064  0.105847189
110  0.110992795  0.16689353 -0.140651539
111 -0.076855836 -0.87235440 -0.330265945
112 -0.189565014 -0.87235440 -0.178574420
113 -0.602832002  0.54480187 -0.140651539
114 -0.114425562 -0.68340023 -0.064805777
115  0.035853343 -0.11653772 -0.083767217
116  0.035853343  0.63927895  0.105847189
117  0.411550604  0.07241645  0.428191680
118 -0.076855836 -1.53369399 -0.254420183
119  0.336411152  0.26137061  0.067924308
120 -0.452553097 -0.11653772  0.086885749
121  0.035853343  0.45032478  0.124808630
122  0.261271700  0.45032478  0.086885749
123  0.073423069  0.45032478 -0.368188827
124 -0.227134740 -0.77787731 -0.358708106
125  0.148562521 -0.02206064 -0.064805777
126 -0.001716383 -1.91160233 -0.292343064
127 -0.452553097 -0.58892314 -0.102728658
128  0.186132247  0.26137061  0.105847189
129  0.073423069  5.17417900  0.219615833
130 -0.076855836  0.07241645  0.048962867
131  0.298841426 -0.68340023  0.048962867
132 -0.264704466  1.39509563  0.067924308
133  0.073423069 -0.49444606 -0.178574420
134  0.298841426  2.15091230  0.295461596
135  0.110992795  4.22940816  0.428191680
136  0.486690057  1.20614146  0.238577274
137  0.298841426  2.52882064  0.428191680
138  0.298841426  1.11166437  0.314423036
139 -0.302274193  0.35584770  0.598844646
140 -0.264704466  1.11166437  0.504037443
141  0.524259783  1.48957271  0.219615833
142 -0.076855836  0.92271020  0.314423036
143  0.524259783  1.86748105  0.238577274
144  0.674538687  1.30061854 -0.064805777
145  0.674538687  1.20614146  0.048962867
146  0.336411152  0.26137061  0.105847189
147  0.674538687  2.33986647  0.314423036
148  0.524259783  1.20614146  0.276500155
149  0.599399235  1.39509563  0.238577274
150  0.110992795  0.73375604  0.276500155
151  0.674538687  3.28463731  0.693651849
152  0.636968961  2.62329772  0.504037443
153  0.636968961  0.45032478  0.428191680
154  0.749678140  3.19016023  0.883266255
155  0.674538687  2.15091230  0.617806086
156  0.373980878  2.33986647  0.541960324
157  0.749678140  3.19016023  0.428191680
158  0.411550604  2.15091230  0.466114561
159  0.373980878  1.20614146  0.428191680
160  0.298841426  2.24538938  0.466114561
161  0.524259783  1.77300396  0.617806086
162  0.449120330  0.63927895  0.238577274
163  0.599399235  1.96195813  0.124808630
164  0.486690057  2.15091230  0.333384477
165  0.599399235  0.26137061  0.030001427
166  0.449120330  1.30061854  0.617806086
167  0.411550604  1.77300396  0.504037443
168  0.486690057  0.45032478  0.504037443
169  0.674538687 -0.02206064 -0.064805777
170  0.298841426  0.35584770 -0.140651539
171  0.674538687  1.20614146  0.617806086
172  0.298841426  0.92271020  0.276500155
173  0.599399235  1.30061854  0.105847189
174  0.298841426  0.35584770 -0.064805777
175  0.524259783  1.39509563  0.238577274
176  0.223701973  1.39509563  0.086885749
177 -0.076855836  2.15091230  0.030001427
178  0.186132247  0.63927895 -0.045844336
179  0.298841426  1.20614146  0.086885749
180  0.449120330  1.20614146  0.428191680
181  0.524259783 -0.21101481  0.086885749
182  0.674538687  1.39509563  0.219615833
183  0.298841426  0.07241645 -0.064805777
184  0.298841426  0.45032478  0.121016342
185  0.524259783  1.20614146  0.409230239
186  0.749678140  2.15091230  0.428191680
187  0.749678140  1.48957271  0.466114561
188  0.110992795  1.11166437 -0.121690098
189  0.674538687  0.45032478  0.428191680
190  0.524259783  2.33986647  0.693651849
191 -0.114425562  0.26137061 -0.102728658
192  0.486690057  1.39509563  0.504037443
193  0.524259783  2.33986647  0.466114561
194  0.524259783  1.20614146  0.485076002
195  0.636968961  0.45032478  0.428191680
196  0.411550604 -0.11653772 -0.064805777
197  0.561829509  0.82823312  0.115327909
attr(,"constant")
[1] 1.967401


Signature
Вернуться в начало страницы
 
+Ответить с цитированием данного сообщения
 

Сообщений в этой теме
- propedevt   Как сравнить результаты регрессии Кокса   21.02.2012 - 23:27
- - propedevt   Никто не знает как сравнить?   23.02.2012 - 08:14
- - DrgLena   У вас была проблема, вы не знали формулу, хотя в д...   23.02.2012 - 11:24
|- - propedevt   Цитата(DrgLena @ 23.02.2012 - 11:24)...   23.02.2012 - 22:29
- - p2004r   Цитата(propedevt @ 21.02.2012 - 23:2...   23.02.2012 - 17:50
|- - propedevt   Цитата(p2004r @ 23.02.2012 - 17:50) ...   23.02.2012 - 22:33
- - p2004r   дубль   23.02.2012 - 18:01
- - propedevt   Уважаемый p2004r! Последовал Вашему совету и н...   3.03.2012 - 21:40
|- - p2004r   Цитата(propedevt @ 3.03.2012 - 21:40...   4.03.2012 - 12:54
- - propedevt   Посмотрел, нашел что AIC ? информационный критерий...   4.03.2012 - 14:24
|- - p2004r   Цитата(propedevt @ 4.03.2012 - 14:24...   4.03.2012 - 18:31
- - propedevt   Доброго времени суток, настали выходные и добрался...   8.03.2012 - 11:49
|- - p2004r   Вот приличный мануал http://cran.r-project.org/do...   8.03.2012 - 14:44
|- - propedevt   Цитата(p2004r @ 8.03.2012 - 14:44) В...   8.03.2012 - 15:24
- - DrgLena   ...   8.03.2012 - 18:13
- - propedevt   Просто средние ковариат? тогда вот они: gal 25,234...   8.03.2012 - 21:10
- - DrgLena   ...   8.03.2012 - 22:27
|- - propedevt   Цитата(DrgLena @ 8.03.2012 - 22:27) ...   8.03.2012 - 23:09
- - DrgLena   Вы сами выбираете единицу измерения времени, в зав...   9.03.2012 - 01:00
- - propedevt   Вычитал даты и получал дни жизни (до 805 дней макс...   9.03.2012 - 08:15
- - propedevt   Уважаемый p2004r, прошу меня извинить, но не сразу...   9.03.2012 - 10:04
|- - p2004r   Цитата(propedevt @ 9.03.2012 - 10:04...   9.03.2012 - 11:25
- - DrgLena   ...   9.03.2012 - 10:59
- - propedevt   Да понял, что если риск 0,8 то выживаемость 0,2 Гр...   9.03.2012 - 11:29
- - DrgLena   Цитата(propedevt @ 9.03.2012 - 11:29...   9.03.2012 - 11:56
- - DrgLena   Закат солнца в ручную у меня не получается с таким...   9.03.2012 - 12:32
|- - p2004r   Цитата(DrgLena @ 9.03.2012 - 12:32) ...   9.03.2012 - 13:24
- - DrgLena   ...   9.03.2012 - 13:41
- - propedevt   Что-то Вы меня совсем запутали:( перечитал что мне...   9.03.2012 - 14:04
|- - p2004r   Цитата(propedevt @ 9.03.2012 - 14:04...   9.03.2012 - 14:14
- - propedevt   Хорошо, файл прикрепил. В последней модели использ...   9.03.2012 - 14:40
|- - p2004r   Цитата(propedevt @ 9.03.2012 - 14:40...   9.03.2012 - 17:15
- - propedevt   Да, до predict все делал точно также   9.03.2012 - 17:18
- - p2004r   Теперь basehazard и счет на прямую. Центрированная...   9.03.2012 - 17:43
|- - p2004r   Код> exp(model5$linear.predictors...   9.03.2012 - 18:36
|- - propedevt   Цитата(p2004r @ 9.03.2012 - 18:36) К...   9.03.2012 - 18:49
|- - p2004r   Линейный предиктор он считает в момент фита name...   9.03.2012 - 19:19
|- - p2004r   Конкретно в этой модели первая переменная похоже н...   9.03.2012 - 19:42
||- - propedevt   Цитата(p2004r @ 9.03.2012 - 19:42) К...   9.03.2012 - 20:35
||- - p2004r   Цитата(propedevt @ 9.03.2012 - 20:35...   9.03.2012 - 21:59
|- - propedevt   Цитата(p2004r @ 9.03.2012 - 19:19) Л...   9.03.2012 - 20:26
|- - p2004r   Цитата(propedevt @ 9.03.2012 - 20:26...   9.03.2012 - 22:33
- - propedevt   Действия математические понятны. Но каков смысл pr...   9.03.2012 - 17:58
- - propedevt   давайте уберем ее из модели, построим только на ga...   9.03.2012 - 22:01
- - propedevt   Так понятно, но я вижу predict не используется же ...   9.03.2012 - 22:39
- - propedevt   Итак хочу написать в математических операциях. нач...   9.03.2012 - 23:23
|- - p2004r   Цитата(propedevt @ 9.03.2012 - 23:23...   10.03.2012 - 11:17
- - propedevt   Т.к. убрал из модели efmss, добавил в нее возраст....   10.03.2012 - 13:43
- - p2004r   Цитата(propedevt @ 10.03.2012 - 13:4...   10.03.2012 - 21:06


Добавить ответ в эту темуОткрыть тему