I tillegg til det Jisca nevner vil mange optimeringsalgoritmer i mange
tilfeller konvergere raskere om vi maksimaliserer log-likelihoodet.
Dette har å gjøre med at log-likelihoodet vil kunne tilnærmes ved et
annengradspolynom i de ukjente parameterne når vi har mye data (mens
selve likelihoodet vil ha tilnærmet samme form som en flerdimensjonal
normalfordeling). Dette, sammen med hvordan mange
optimeringsalgoritmer fungerer, se
http://en.wikipedia.org/wiki/Newton%27s_method_in_optimization,
gjøre at vi når maksimum raskere ved å jobbe med log-likelihoodet.