good to hear from you.
> I was trying to use SPM tutorial. Before going into GNB issue, I
> would like to comment few SPM related. I am using SPM8. Since SPM
> contains several compiled routines that work mainly on the subject,
> the current directory of Matlab should be moved to that containing
> the subject, in order for those compiled routines to work correctly
> (or handling the path some other way).
can you explain this issue again, perhaps with an example?
g
hmmm. are there equal numbers of timepoints in each of your conditions?
it sounds like there's something wrong with your regressors or runs
somehow. is this using the standard tutorial dataset and script?
Garrett is going to reply to to the list about the SPM path issue.
g
in the meantime, if anyone else wants to take a peek at the code to see
what's happening, i'd welcome your insights.
g
raw...@yahoo.com wrote:
> Hello again
>
> (Oh, about SPM 8, it is much better than SPM 5, many bugs are
> resolved, I think we are just using it to read ANALYZE in my
> discussion, thus, it works perfectly)
>
> Here is the result after removing rest
>
>
> temp_sel = ones(1,size(regs,2));
>
> temp_sel(find(sum(regs)==0)) = 0;
>
> subj = init_object(subj,'selector','no_rest');
>
> subj = set_mat(subj,'selector','no_rest',temp_sel);
>
> subj = create_xvalid_indices
> (subj,'runs','actives_selname','no_rest');
> Selector group 'runs_xval' created by create_xvalid_indices
>
>>> subj = feature_select(subj,'epi_z','conds','runs_xval');
>>>
>
>
>
> %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
> subj = shift_regressors(subj,'conds','runs',3); % the lag of HRF
>
> %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
> Starting 10 statmap_anova iterations
> 1 2 3 4class_args.train_funct_name = 'train_gnb';
> class_args.test_funct_name = 'test_gnb';
> class_args.nHidden = 10;
> 5 6 7 8 9 10
> Pattern statmap group 'epi_z_anova' and mask group 'epi_z_thresh0.05'
> created by feature_select
>
>>> [subj results] = cross_validation(subj,'epi_z','conds','runs_xval','epi_z_thresh0.05',class_args);
>>>
> Starting 10 cross-validation classification iterations - train_gnb
> 1 0.43
> 2 0.31
> 3 0.53
> 4 0.43
> 5 0.38
> 6 0.47
> 7 0.39
> 8 0.38
> 9 0.44
> 10 0.44
>
> 090613_0306: Cross-validation using train_gnb and test_gnb - got
> total_perfs - 0.41944
>
> As expected, performance is reduced, many NaN's play no more cheeding,
> I guess!
>
> removing the rest resulted in 72 time points (instead of 121), acts
> matrix (from test_gnb.m line 68) is copy then pasted as follows
> (NaN's are still around):
>
>
> NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN 1 NaN NaN NaN
> 0.00151396602162518 NaN NaN 0 NaN NaN NaN NaN NaN NaN NaN NaN NaN
> 4.14000006087909e-47 0 0 0 5.54455290559100e-36 2.78430888707368e-20
> 1.05373240260291e-13 3.44594949462253e-25 NaN 0 NaN NaN NaN NaN NaN 0
> 0 0.000103038341289368 0 6.73328908573544e-40 0 0 0 0 0 0 NaN 0 0 0 0
> 0 0 0 0 NaN 0 NaN 0 NaN 0 0 0 0
> NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN 0 NaN NaN NaN 0 NaN NaN 0
> NaN NaN NaN NaN NaN NaN NaN NaN NaN 0 0 0 0 0 0 0 0 NaN 0 NaN NaN NaN
> NaN NaN 0 0 0 0 0 0 0 0 0 0 0 NaN 0 0 0 0 0 0 0 0 NaN 0 NaN 0 NaN 0 0
> 0 0
> NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN 0 NaN NaN NaN 0 NaN NaN 0
> NaN NaN NaN NaN NaN NaN NaN NaN NaN 0 0 0 0 0 0 0 0 NaN 0 NaN NaN NaN
> NaN NaN 0 0 0 0 0 0 0 0 0 0 0 NaN 0 0 0 0 0 0 0 0 NaN 0 NaN 0 NaN 0 0
> 0 0
> NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN 0 NaN NaN NaN 0 NaN NaN 0
> NaN NaN NaN NaN NaN NaN NaN NaN NaN 0 0 0 0 0 0 0 0 NaN 0 NaN NaN NaN
> NaN NaN 0 0 0 0 0 0 0 0 0 0 0 NaN 0 0 0 0 0 0 0 0 NaN 0 NaN 0 NaN 0 0
> 0 0
> NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN 0 NaN NaN NaN 0 NaN NaN 0
> NaN NaN NaN NaN NaN NaN NaN NaN NaN 0 0 0 0 0 0 0 0 NaN 0 NaN NaN NaN
> NaN NaN 0 0 0 0 0 0 0 0 0 0 0 NaN 0 0 0 0 0 0 0 0 NaN 0 NaN 0 NaN 0 0
> 0 0
> NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN 0 NaN NaN NaN 0 NaN NaN 0
> NaN NaN NaN NaN NaN NaN NaN NaN NaN 0 0 0 0 0 0 0 0 NaN 0 NaN NaN NaN
> NaN NaN 0 0 0 0 0 0 0 0 0 0 0 NaN 0 0 0 0 0 0 0 0 NaN 0 NaN 0 NaN 0 0
> 0 0
> NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN 0 NaN NaN NaN 0 NaN NaN 0
> NaN NaN NaN NaN NaN NaN NaN NaN NaN 6.09689304578986e-11 1
> 0.0439365907098268 1 1 0.000368237532826858 0.997790728631795
> 2.12331025227936e-19 NaN 0.000214967083165390 NaN NaN NaN NaN NaN 1 1
> 2.45587685893647e-10 1 1 1 1 1 1 1 1 NaN 1 1 1 1 1 1 1 1 NaN 1 NaN 1
> NaN 1 1 1 1
> NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN NaN 0 NaN NaN NaN
> 0.998486033978375 NaN NaN 1 NaN NaN NaN NaN NaN NaN NaN NaN NaN
> 0.999999999939031 0 0.956063409290173 0 1.42966668578629e-22
> 0.999631762467173 0.00220927136810008 1 NaN 0.999785032916835 NaN NaN
> NaN NaN NaN 0 0 0.999896961413123 4.77030170403344e-34
> 1.26831476298938e-25 0 0 0 0 0 0 NaN 0 0 0 0 0 0 0 0 NaN 0 NaN 0 NaN 0
> 0 0 0
>
>
> On Jun 1, 5:27 pm, Greg Detre <gde...@Princeton.EDU> wrote:
>
>> Can you tell me exactly what I should type to reproduce the
>> zero-division error, and also paste the output from matlab into the email?
>>
>> This is what I ran:
>>
>> [subj results] = tutorial_easy_spm('fextension','.img');
>> class_args.train_funct_name = 'train_gnb';
>> class_args.test_funct_name = 'test_gnb';
>> [subj results] =
>> cross_validation(subj,'epi_z','conds','runs_xval','epi_z_thresh0.05',class_args);
>> email: g...@gregdetre.co.uk
>> web:http://www.princeton.edu/~gdetre/- Hide quoted text -