APPLICATION DE L’ALTIMÉTRIE SPATIALE À
L’ÉTUDE DES PROCESSUS HYDROLOGIQUES
MONITORAMENTO DOS HIDROSSISTEMAS CONTINENTAIS POR SATÉLITES
O primeiro satélite conhecido foi a Lua. Até a descoberta dos satélites por Galileu em 1610, nenhuma ocasião tinha se apresentado para caracterizar tais objetos. Galileu escolhe o termo latino planetæ (i.e., planetas) para designá-los. Será Kepler quem os nomeará de “satélites” em 1611, do latim satelles ou satellitis significando “guardião” ou “companheiro”, porque os satélites parecem acompanhar o planeta nos seus deslocamentos. Christian Huygens, descobridor de Titã, foi o primeiro a utilizar o termo “lua” para este tipo de objeto, chamando Titã Luna Saturni ou Luna Saturnia (i.e., lua de Saturno ou lua saturniana). Ao término das descobertas, o termo foi abandonado. Jean Dominique Cassini utilizava, às vezes, o termo “planetas” para as suas descobertas, sendo mais freqüentemente “satélites”. O termo “satélite” tornou-se a norma para descrever um objeto em órbita ao redor de um planeta, permitindo evitar a ambigüidade do termo “lua”. Contudo, em 1957, com o lançamento do satélite Sputnik 1 (Figura 2.3), o primeiro objeto artificial em órbita ao redor da Terra, tornou necessária a distinção entre os satélites artificiais e os satélites naturais. O simples termo “satélite” passou a designar principalmente os objetos artificiais, sendo o termo “lua” empregado aos satélites naturais, mas, por exemplo, chama-se de “satélite” os novos corpos detectados em trono dos planetas gigantes do sistema solar ou aos asteróides. 25 Atualmente, existem milhares de satélites em órbita ao redor da Terra. Os objetivos diversificaram-se, as tecnologias foram melhoradas, tornando-se mais complexas, e os limites geográficos se estreitaram. Graças a uma melhor compreensão das leis físicas do espaço, um verdadeiro conhecimento (know-how) desenvolveu-se em matéria de concepção, montagem e exploração dos satélites artificiais. Fonte: NASA, 2007a. Figura 2.3 – Primeiro satélite artificial lançado em 4 de Outubro de 1957 pela União Soviética. Sputnik em russo significa “companheiro de estrada”. Distinguem-se vários tipos de missões, a saber: satélites astronômicos permitem enriquecer os nossos conhecimentos sobre a origem do Universo e a vida sobre a Terra: esses satélites são dedicados à exploração do sistema solar e à astronomia (i.e., sondas), mas igualmente à física fundamental e à exobiologia; satélites de comunicações satélites utilizados em telecomunicações com numerosas aplicações em telefonia, televisão, multimídia e trocas de informações; satélites de reconhecimento satélites projetados para observação da Terra ou antigos satélites de comunicação utilizados para fins militares ou de espionagem; satélites de navegação permitem posicionar-se precisamente e a qualquer momento na superfície do globo: desempenham um papel importante na navegação marítima, no controle da circulação e nas missões de investigação e de salvamento; satélites meteorológicos dedicados à previsão imediata e ao estudo da evolução do clima; e satélites de observação da Terra destinados a melhorar a compreensão do funcionamento do planeta e proteger o meio ambiente: as observações cobrem os continentes, cobertura vegetal, ocupação dos 26 solos, calotas polares, mas também os níveis de água dos oceanos e hidrossistemas continentais, os fenômenos atmosféricos e geofísicos. O conjunto dos instrumentos, específicos aos objetivos da missão, é chamado carga útil. De acordo com a missão, a carga útil contém diversos instrumentos de visada e equipamentos de transmissão e gravação a bordo, como o sensor que é capaz de captar e registrar a energia refletida ou emitida pelos objetos, áreas ou fenômenos, sem que haja contato direto ou físico entre o objeto e o sensor, operando em diversas freqüências. Tal tecnologia permite a aquisição de informações sobre a superfície da Terra através da interação energia-matéria, que ocorre entre a radiação eletromagnética e as substâncias presentes na superfície terrestre, (Novo, 1988). O espectro eletromagnético, por sua vez, é a ordenação das radiações eletromagnéticas de acordo com os comprimentos de onda ou, em outras palavras, freqüência ou energia. O espectro é usualmente apresentado entre raios cósmicos e ondas de rádio, com as partes intermediárias constituindo os raios gama, raios X, ultravioleta, visível, infravermelho próximo, infravermelho médio ou intermediário, infravermelho distante ou afastado e microondas (Figura 2.4). O espectro eletromagnético entre comprimentos de onda de 0,02 m a 1 m pode ser dividido em duas partes principais: faixa ótica e faixa de microondas. A faixa ótica refere-se àquela parte do espectro eletromagnético em que fenômenos óticos de reflexão e refração podem ser utilizados para análise da radiação. Essa faixa estende-se dos raios X (0,01 m de comprimento de onda) passando pelo visível e incluindo o infravermelho distante (1 mm de comprimento de onda), sendo utilizada pelos sistemas de sensores passivos. A região de microondas compreende a faixa de comprimentos de onda de 1 mm a 1,0 m sendo utilizada pelos sistemas de sensores ativos. Fonte: IBGE, 1999. Figura 2.4 Espectro eletromagnético dividido em regiões ou intervalos espectrais. Todos os materiais, naturais ou artificiais, da superfície da terra podem emitir, refletir, transmitir ou absorver seletivamente a energia eletromagnética caracterizados 27 por reflectâncias próprias em cada banda do espectro eletromagnético. É através dessa característica que o sensoriamento remoto determina a natureza dos alvos analisados. Durante o seu caminho através da atmosfera, a energia eletromagnética é atenuada pelos gases e aerossóis que a compõem. Alguns gases, como oxigênio, ozônio, vapor de água e gás carbônico, absorvem a energia eletromagnética em determinadas bandas do espectro. A capacidade que as ondas eletromagnéticas possuem de penetrarem na atmosfera é denominada transmissividade ou transmitância, sendo as faixas de comprimento de onda para as quais a atmosfera é transmissível denominada de janelas atmosféricas (Figura 2.5). Fonte: Adaptado de Colwell, 1963. Figura 2.5 Transmissividade percentual da atmosfera terrestre.
EVOLUÇÃO DOS DADOS ESPACIAIS
Por muito tempo, o sensoriamento remoto limitou-se à fotografia aérea, e o seu modo de exploração, à fotointerpretação. Com o aparecimento das plataformas espaciais, como o lançamento do satélite Spoutnik em 4 de outubro de 1957, estimulou-se o surgimento dos primeiros satélites comerciais no início dos anos 1970 (e.g., Landsat em 1972). Essa revolução dos meios de observação da Terra fortaleceu a utilização do sensoriamento remoto buscando responder a diversas problemáticas ambientais com as quais o homem é confrontado.
DE 1970 AO FINAL DOS ANOS 90
Os satélites multiplicam-se e diversificam-se, fornecendo, assim, o acesso a dados digitais em grande quantidade. Os esforços de diversificação concentraram-se, 28 inicialmente, sobre a resolução espectral e radiométrica, explorando os domínios espectrais fora do visível, essencialmente no infravermelho. Excluindo-se os satélites geoestacionários com aplicações meteorológicas, como Geostationary Operatinal Enviromental Satellite (GOES), operado pelo National Oceanic and Atmospheric Administration (NOAA), o METEOrological SATellite (METEOSAT), operado pela ESA e pela NOAA, que oferecem uma grande repetitividade temporal (i.e, várias imagens por dia), mas, em contrapartida, uma resolução espacial quilométrica. Os principais sensores passivos apresentam baixa resolução espacial, como exemplo as constelações Landsat e Système Probatoire d’Observation de la Terre (SPOT), onde o Landsat 7 apresenta 15 m na banda pancromática (PAN) enquanto o SPOT4 possui 10 m na PAN e 20 m nas bandas multi-espectrais (MS). Infelizmente, as resoluções temporais de 16 dias para o Landsat e de 26 dias para o SPOT (até três dias graças ao sistema de visada lateral) constituem uma forte limitação para observação de fenômenos com grande dinâmica temporal, como as cheias. Em paralelo, investigações foram efetuadas a fim de valorizar as janelas atmosféricas disponíveis nos comprimentos de ondas superiores aos do infravermelho. Nessa faixa de comprimento de ondas, a influência de nuvens no sinal é muito baixa, permitindo a aquisição de imagens com boa qualidade mesmo em dias nublados, pois possui capacidade de penetração através de nuvens e da chuva. É possível coletar imagens independentemente da iluminação solar e sob as mais variadas condições atmosféricas, apresentando formas de identificação dos objetos da face da Terra distintas dos sensores óticos. Esses progressos consolidaram-se pelo aparecimento, em julho de 1991, do primeiro satélite operacional de radar ERS-1, seguido por JERS1 (1992), ERS-2 (1995), RADARSAT (1995), ASTER (1999), ENVISAT (2002) e RADARSAT2 (2007). As técnicas ligadas à exploração de imagens radar são baseadas na interpretação do retro-espalhamento das ondas do radar sobre a superfície terrestre, apresentando um sinal, conseqüentemente, muito específico. A presença de um ruído do tipo multiplicativo específico denominado speckle, originário de um fenômeno de interferência do retro-espalhamento das ondas, constitui um limite à obtenção de resolução espacial fina (resolução de aproximadamente 30 m para o ERS, apesar da previsão inicial de um píxel de 12,5 x 12,5 m). 2.4.1.2. AS TENDÊNCIAS ATUAIS Há alguns anos, a tendência do sensoriamento remoto volta-se para imagens de alta resolução espacial com captores de resolução métrica. As previsões de lançamento são bastante numerosas, e vários satélites já se encontram em operação: IKONOS-2 (EUA, lançado em 1999) com 1 m em PAN e 4 m em MS, Quickbird2 (EUA, lançado em 2001) com 0,61 m de PAN e 2,44 m em MS e, por último, SPOT-5 (França, 29 lançado em 2002) com uma resolução espacial de 5 m a 2,5 m de PAN e 10 m em MS. Informações suplementares sobre esses satélites podem ser obtidas em Rocha (2000). Para satisfazer as necessidades de diversificação dos captores com essas resoluções métricas ou mesmo centimétrica, certos programas como o programa pléiades do Centre National d’Études Spatiales France (CNES) em associação com a Agência Espacial Italiana (ASI) prevêem o envio de uma constelação de pequenos satélites (500 Kg), mais baratos e com uma expectativa de vida mais baixa. Não restam dúvidas de que esse tipo de imagem encontrará aplicações nos domínios da hidrologia e da hidráulica, visto que imagens estereoscópicas estão previstas. 2.4.2. CLASSIFICAÇÃO DAS IMAGENS DE SENSORIAMENTO REMOTO Uma revisão completa dos processos de extração de informação para reconhecer padrões e objetos homogêneos utilizados em sensoriamento remoto para mapear áreas da superfície terrestre que correspondem aos temas de interesse é descrita em Lu e Weng (2007). Os autores descrevem que inicialmente, esses métodos, voltaram-se, para dois grandes grupos: 1) classificadores píxel a píxel, que utilizam apenas a informação espectral da cada píxel para achar regiões homogêneas; esses classificadores podem ser separados ainda em métodos estatísticos e determinísticos; e 2) os classificadores por regiões, que utilizam, além da informação espectral de cada píxel, a informação espacial que caracteriza a relação com seus vizinhos; procuram simular o comportamento de um foto intérprete, reconhecendo áreas homogêneas de imagens, baseados em suas propriedades espectrais e espaciais; a informação de borda é utilizada inicialmente para separar regiões, e as propriedades espaciais e espectrais são empregadas para unir áreas com mesma textura. Feições espectrais, texturais, temporais e contextuais são os quatro elementos importantes de padrões usados na interpretação de imagens de sistemas ativos. Feições espectrais descrevem as variações tonais médias, banda a banda, em uma imagem multi-espectral (Augusteijn et al., 1995), enquanto que feições texturais descrevem a distribuição espacial dos valores tonais em uma banda (Nyoungui et al., 2002). Feições contextuais contêm informações sobre o arranjo relativo de segmentos pertencentes a diferentes categorias (Soares et al., 1997; Shaban e Dikshit, 2001) e feições temporais descrevem mudanças nos atributos da imagem em função do tempo (Ulaby et al., 1986). Em resposta à necessidade de se extrair informações a partir dos dados da imagem de sistemas ativos, vários algoritmos têm sido desenvolvidos baseados em abordagem estrutural (Conners e Harlow, 1980), em padrões de freqüência espaciais (Bajcsy e Liebermann, 1976), em estatísticas de segunda ordem (Haralick et al., 1973; Haralick, 1979; Sun e Wee, 1983; Rotunno et al., 1996; Lloyd et al., 2004; Zhang et al., 2004), em espectro de texturas (Wang e He, 1990; Chen et al., 30 2004) e em combinações de padrões de textura espectral (Lee e Philpot, 1991; Low et al. 1999). A utilização de redes neurais artificiais (RNAs), com o propósito de classificação, pode constituir uma alternativa vantajosa quando comparada aos classificadores baseados em métodos estatísticos, uma vez que nenhuma hipótese prévia sobre a distribuição dos dados a serem classificados é exigida, não restringindo a possibilidade de incorporação de dados não espectrais na classificação (Atkinson e Talnall, 1997; Cruz e Galo, 2003). As RNAs têm sido aplicadas com sucesso nas áreas de processamento de imagens e reconhecimento de padrões (Augusteijn et al., 1995). A RNA usa elementos de computação não linear (chamados neurônios) organizados como redes, de maneira análoga a que se acredita que os neurônios estejam interconectados no cérebro (Gonzales et al., 2000). No caso particular de aplicações em classificação de imagens de sensoriamento remoto, diversos trabalhos (Lippmann, 1987; Hepner, 1990; Benediktsson et al., 1990; Liu et al., 1991) fizeram uso de RNA, aplicando uma rede de perceptrons multicamadas (MLP) para resolver o problema de classificação. Esse tipo de rede caracteriza-se por assumir regiões de decisão semelhantes àquelas formadas por um classificador estatístico, porém com entradas não correlacionadas e distribuições diferentes para os dados. Mais recentemente, foram desenvolvidos os classificadores orientados a objetos que, buscando aprimorar o desempenho dos processos automatizados de classificação, utilizam-se, por exemplo, da modelagem matemática fuzzy, lógica dita nebulosa (Binaghi et al., 1997; Linders, 2000). Possuem recursos que permitem a sistematização e a reprodução do conhecimento do foto-intérprete. A análise orientada aos objetos não considera apenas um píxel isoladamente, mas divide a imagem em segmentos uniformes, considerados objetos primitivos, os quais são tratados, a partir desse ponto, como unidades, sendo possível levarem-se em conta suas características espectrais, contextuais, de textura, de forma, de escala e outras variáveis espaciais que não poderiam ser consideradas numa análise píxel a píxel (Chang, 1996; Benz et al., 2004; Gitas et al., 2004; Walter, 2004). Baseando-se nessas características do objeto, a fotointerpretação de imagem, atividade tradicionalmente manual, pode ser automatizada visando responder às necessidades operacionais do sensoriamento remoto. Esse método foi reconhecido como o mais adequado para enfrentar os novos desafios do sensoriamento remoto, ligados à multiplicação de sensores e ao crescimento do acesso a imagens de altíssima resolução (Thomas et al., 2003; Benz et al., 2004; Wang et al., 2004; Li et al., 2010).
ÍNDICE DE FIGURAS |