1) Radiância no topo da atmosfera é a energia que o sensor captura na tomada da cena (geração das imagens), distribuindo esta quantidade de energia captada ao longo dos níveis de cinza, ou seja, a primeira transformação é a do número digital ou valor do pixel da imagem (que depende da resolução em bits da camêra e da calibração do instrumento) para radiância. Os dados de calibração do sensor para esta transformação geralmente vem anexo às imagens da cena em formato TXT e/ou na página do proprietário do satélite/sensor.
2) Reflectância é a razão entre a radiância que chega no objeto/alvo e a que é refletida, tendo em vista que o resto da energia que incide no alvo pode ser transmitida ou absorvida (I=R+T+A). É uma característica do material/objeto/alvo e geralmente é apresentada na forma de um gráfico reflectância vs. comprimento de onda como sendo a assinatura espectral dos diferentes objetos/materiais (da água, do solo, da vegetação) o que nos permite sua discriminação/classificação numa cena ou para análise de mudanças nos alvos ao longo de diversas datas.
3) Cálculos: como sabemos o que chega no topo da atmosfera (órbita do satélite) tanto da radiação solar incidente (constante solar) como da refletida pelo alvo (imagem), os cálculos em anexo visam primeiro transformar para radiância e depois para reflectância (em função da distância da terra e do ângulo zenital do sol), ambas calculadas NO TOPO DA ATMOSFERA (TOA), ou seja, os cálculos na página do USGS são os mesmos que apresentastes.
4) Modelagem atmosférica: a questão da modelagem da transparência da atmosfera e da contribuição da energia (radiância) espalhada pela atmosfera são bem mais complicados pois dependem dos intervalos de comprimento de onda (bandas) e das variáveis atmosféricas. Parte da energia solar que chega na superfície terrestre é espalhada pela atmosfera no seu trajeto até atingir o objeto (e também no retorno desta) em função do comprimento de onda (quanto mais para o azul mais espalha). Este espalhamento pode ir para qualquer lugar, podendo também voltar direto para o sensor antes de incidir sobre a superfície terrestre. Neste sentido, eu utilizo o método do objeto escuro, ou seja, subtrai-se o valor do número digital (DN) correspondente a uma porção de água (sem sedimentos) que seria o objeto mais escuro em qualquer comprimento de onda (vide gráfico da assinatura espectral), ou seja, o valor do pixel deste objeto corresponde á contribuição atmosférica como um todo para aquela banda. Falo complicado pois o certo seria fazer a modelagem matemática a partir de variáveis ambientais da atmosfera no exato momento da tomada da cena, o que é quase impossível por falta de dados/estações meteorológicas que meçam os parâmetros necessários para os modelos físicos. O método do objeto escuro (dark objeto) é uma modelagem empírica e funciona bem do vermelho em diante (indo para o infra vermelho) mas não dá para usar com o azul (muito espalhamento atmosférico + resposta espectral da água) ou o verde.
5) Considerações finais: se fores fazer uma classificação (supervisionada ou não) de UMA só cena (mesmo local e data) com todas as bandas (incluindo o azul e o verde), não precisa aplicar nenhuma destas transformações mas se fores utilizar várias datas da mesma cena ou mesmo comparar objetos em regiões ou datas diferentes, pelo menos as duas primeiras vais ter que fazer para normalizar os dados. Os índices de vegetação (NDVI) não são afetados pelas conversões de radiância/reflectãncia e são pouco afetados pela correção atmosférica via objeto escuro. O QGIS tem o plugin SCP (classificação por pixel) que automatiza as duas primeiras conversões para vários sensores (inclusive o OLI/Landsat8) e adota a subtração do objeto escuro (DOS) para a correção atmosférica, com tutorial disponível em
http://qgisbrasil.org/blog/wp-content/uploads/2015/08/tutorial_scp_01.pdf.
Att, Marcelo Bastos