Teledetección

La Percepción Remota, (Remote Sensing, o Teledetección puede definirse como la ciencia y arte de obtener información de un objeto analizando los datos adquiridos mediante algún dispositivo que no está en contacto físico con dicho objeto.

El término Teledetección es una traducción del inglés (Remote Sensing), también se define como el conjunto de conocimientos y técnicas utilizados para determinar características físicas y biológicas de objetos mediante mediciones a distancia, sin el contacto material con los mismos (Lasselin y Darteyre, 1991).

La percepción remota no engloba sólo los procesos que permiten obtener una imagen desde el aire o el espacio, sino también su posterior tratamiento en el contexto de una determinada aplicación. En otras palabras la Teledetección se describe como la técnica de adquisición y posterior tratamiento de datos de la superficie terrestre desde sensores instalados en plataformas espaciales, en virtud de la interacción electromagnética existente entre la tierra y el sensor, siendo la fuente de radiación ya sea proveniente del sol (Teledetección pasiva) o del propio sensor (Teledetección activa).

La historia de la Percepción Remota comenzó hace unos 600 millones de años, cuando alguna forma inferior de vida animal diferenció algunas de sus células, volviéndolas fotosensibles. También durante millones de años dicho rudimento fotosensible evolucionó convirtiéndose en un poderoso y sofisticado sensor, el ojo humano. Este tuvo un imitador mecánico, la cámara fotográfica, que hizo su aparición hace algo más de un siglo y que fue muy mejorada durante la década de 1930 para ser aplicada a la fotografía aérea. La Segunda Guerra Mundial dió un gran impulso a la fotografía aérea así como a otras formas de percepción remota. Sin embargo, el “salto cuántico” en esta disciplina se produjo en la década de 1960 cuando las plataformas satelitales reemplazaron a las aéreas y los sensores electrónicos multiespectrales, acoplados a computadoras, reemplazaron a las cámaras fotográficas.

El esquema operativo de un satélite de observación se representa en forma muy simplificada en la figura.
Los objetos terrestres, iluminados por la radiación solar, reflejan ésta luego de introducir en ella modificaciones inducidas por la misma estructura y composición de dichos objetos. La radiación reflejada es capturada por los sensores del satélite, siendo parcialmente procesada a bordo de éste y retransmitida a estaciones receptoras terrestres para su posterior procesamiento y análisis(fuente emisora, sensor, cerebro).

Diferencias:
Altura de Vuelo
Escalas
Tipo de información : Cuantitativa <> Cualitativa.
Semejanzas: La mayoría.

Los componentes básicos de un sistema de percepción remota son:

La escena, el sensor y el tratamiento de la información , formado por los siguientes elementos.

•  Fuente de energía o iluminación : (A) – La Fuente de energía que supone el origen del flujo energético detectado por el sensor. Puede tratarse de un foco externo al sensor, en cuyo caso se habla de Teledetección pasiva, o de un haz energético emitido por este, conocido como Teledetección activa. La fuente de energía más importante es la energía solar.

•  Radiación y la atmósfera (B) – Es el proceso en el que la energía electromagnética es propagada a través del espacio libre.

•  Interacción con la superficie terrestre (C) – La Cubierta terrestre, formada por distintas masas de vegetación, suelo, agua y construcciones, que reciben la señal energética procedente de la fuente de energía, y la reflejan o emiten de acuerdo a sus características físicas.

 El sistema Sensor (D) – Compuesto por el sensor propiamente dicho y la plataforma que lo sustenta. Tiene como misión captar la energía procedente de las cubiertas terrestres, codificara y enviarla directamente al sistema de recepción.

•  Sistema de transmisión, Recepción, y proceso (E) – El Sistema de recepción es en donde se recibe la información transmitida por el sensor, esta información es grabada en un formato apropiado y es distribuido a los intérpretes para su tratamiento visual o digital.

•  Interpretación y análisis (F) – En esta etapa el intérprete, analiza la información, en donde es recibida la información transmitida por el sensor.

•  Aplicación (G) – El último proceso es el de extraer la información necesaria para resolver un problema especifico y llega la usuario final quien es el encargado de analizar el documento fruto de la interpretación, así como dictaminar el impacto que de él se derive.

Teledetección > Sensores:

Un sistema de percepción remota o Teledetección, requiere por los menos de tres componentes:
foco energético, superficie terrestre y sensor
.
Una de las formas más habituales para clasificar a los sensores remotos es mediante el procedimiento para recibir la energía procedente de las distintas cubiertas. Entre las variadas formas de clasificar los sensores remotos una de las más habituales considera su procedimiento de recibir energía procedente de las distintas cubiertas. En este sentido, se habla de dos tipos de sensores:

Sensores Pasivos : Cuando se limitan a recibir la energía proveniente de un foco exterior a ellos es decir que este tipo de sensores recogen la energía electromagnética procedente de la cubierta terrestre, ya sea reflejada de los rayos solares o emitida debido a su propia temperatura. En función del procedimiento que emplean para recibir la radiación procedente de los objetos, los sensores pasivos se dividen en:
•  Sensores fotográficos : Cámara CCD, cámaras de Vidicon
•  Exploradores de Barrido : Llevan un espejo oscilante que recogen pixel a pixel.
•  Exploradores de Empuje : Recogen línea a línea (HRV, LISS, OPS)
•  Sensores de Antena o Radiómetros de Microondas : Tienen poca resolución espacial. Permiten cartografía zonas heladas
Los primeros resultan muy similares, puesto que se basan en las mismas técnicas aplicadas en la fotografía convencional. El resto son menos conocidos por el gran público, si bien, sistemas similares se utilizan rutinariamente en cámaras de vídeo, equipos de barrido o escáner en exploración médica y radiómetros de microondas en radiodifusión

Sensores Activos : Cuándo son capaces de emitir su propia luz o haz de energía que posteriormente recogen por reflexión sobre la superficie que se pretende observar.
Radar (radiómetro activo de microondas): Trabaja en una banda comprendida entre 0.1cm y 1m. Debido a su flexibilidad, puede trabajar en cualquier tipo de condición atmosférica. Por ello, el radar ha acaparado la atención de la comunidad científica internacional, especialmente en países ecuatoriales, donde son persistentes las masas nubosas. Es bastante utilizado en aplicaciones militares, así como el control de tráfico aéreo. El radar trabaja en la región de las microondas.
Lídar (luz polarizada o láser): Sensor de pulso electromagnético en la longitud de onda entre el ultravioleta y el NIR. Opera en el espectro óptico midiendo distancias entre el emisor en tierra y el satélite y permite estudios de la deriva continental, por ejemplo el LAGEOS.

Radiación Electromagnética.

Anteriormente se definió la Teledetección como aquella técnica que nos permite obtener información a distancia de los objetos situados sobre la superficie terrestre. Para que esta observación remota sea posible, es preciso que entre los objetos y el sensor exista algún tipo de interacción.

Nuestros sentidos perciben un objeto sólo cuando pueden descifrar la información que este les envía. Por ejemplo, somos capaces de ver un árbol porque nuestros ojos reciben y traducen convenientemente una energía luminosa procedente del mismo. Esa señal además, no es originada por el árbol, si no por un foco energético exterior que le ilumina. De ahí que no seamos capaces de percibir ese árbol en plena oscuridad. Este sencillo ejemplo nos sirve para introducir los tres principales elementos de cualquier sistema de Teledetección:

•  Sensor (nuestro ojo),
•  Objeto Observado (árbol)
•  Flujo energético que permite poner a ambos en relación

En el caso del ojo, ese flujo procede del objeto por reflexión de la luz solar. Podría también tratarse de un tipo de energía emitida por el propio objeto, o incluso por el sensor.

Éstas son, precisamente, las tres formas de adquirir información a partir de un sensor remoto:

•  Por reflexión
•  Emisión
•  Emisión-reflexión

La primera de ellas es la forma más importante de Teledetección pues se deriva directamente de la luz solar, (principal fuente de energía de nuestro planeta).

El sol ilumina la superficie terrestre, que refleja esa energía en función del tipo de cubierta presente sobre ella. Ese flujo reflejado se recoge por el sensor, que lo trasmite posteriormente a las estaciones receptoras.

Entre superficie y sensor se interpone la atmósfera que dispersa y absorbe parte de la señal original. De igual forma, la observación remota pueda basarse en la energía emitida por la propias cubiertas, o en la que podríamos enviar desde un sensor que fuera capaz, tanto de generar su propio flujo energético, como de recoger posteriormente su reflexión sobre la superficie terrestre. En cualquiera de estos casos, el flujo energético entre la cubierta terrestre y el sensor constituye una forma radiación electromagnética.

Entre el sensor y la superficie terrestre se interpone la atmósfera que interfiere de formas diversas con el flujo radiante. Como es sabido la atmósfera se compone de gases, anhídrido carbónico, oxigeno, ozono, nitrógeno y argón principalmente, admás de vapor de agua y aerosoles.

La energía solar incidente en nuestro planeta está cifrada en 340 Wm2 (vatios/m2). De toda ella, sólo 173 W/m2 llegan a la superficie terrestre, este factor de reducción o ALVEDO habrá de ser tenido en cuenta a la hora de interpretar la respuesta de los objetos. En el trayecto seguido por la radiación electromagnética ésta sufrirá tres fenómenos principales: Absorción, Dispersión, Emisión

Sus efectos se manifiestan en un emborronamiento de la imagen; se reduce el contraste y la cantidad total de radiación que llega al sensor. Existen diversas correcciones en forma de algoritmos para tratar estos efectos.

Entre estos componentes, el anhídrido carbónico, ozono y vapor de agua son los principales responsables de la interacción con la energía electromagnética. Su efecto es triple como ya se menciono anteriormente:

•  absorción: Proceso por el cual las moléculas y partículas de la atmósfera absorben la energía radiante (65 Wm -2 ) y la transforman en energía interna que posteriormente será emitida en el infrarrojo térmico. La atmósfera reduce así la observación espacial a ciertas bandas concretas del espectro, llamadas ventanas atmosféricas. Pero si lo que se pretende es estudiar la atmósfera (satélites meteorológicos), los sensores se diseñarán para captar la radiación precisamente en aquellos lugares donde la absorción atmosférica sea más alta.

•  dispersión: Este fenómeno se traduce en un redireccionamiento o pequeño desvío del camino recto de propagación. Es causado por la interacción entre la radiación y los gases y partículas atmosféricas. La reflexión consiguiente a ese choque, supone un aporte adicional a la radiancia proveniente de la superficie terrestre. Se reduce por tanto la radiancia directa, aumentando la difusa.

•  emisión: Cualquier cuerpo con temperatura mayor que -273 ºK, emite su propia radiación que lógicamente tiene mayor importancia en el infrarrojo térmico. Por tanto, su efecto es fundamental si pretendemos trabajar en dicha banda del infrarrojo térmico. Estos procesos introducen modificaciones, en ocasiones muy severas, en la radiación originalmente propagada entre la cubierta y el sensor.

Absorción atmosférica:
La atmósfera se comporta como un filtro selectivo a distintas longitudes de onda, de tal forma que en algunas bandas del espectro elimina prácticamente cualquier posibilidad de observación remota. Los principales causantes de esta absorción son:
•  Oxígeno atómico (O 2 ) , que filtra las radiaciones ultravioleta por debajo de 0.1mm, así como pequeños sectores en el infrarrojo térmico y las microondas.
•  Ozono (O 3 ), responsable de la eliminación de la energía ultravioleta. inferior a 0.3mm, así como en un sector de las microondas (en torno a 27 mm ).
•  Vapor de agua , con una fuerte absorción en tomo a 6 mm y otras menores entre 0.6 y 2mm.
•  Anhídrido carbónico (CO 2 ), que absorbe en el infrarrojo térmico (15mm), con importantes efectos en el infrarrojo medio, entre 2.5 y 4.5 mm .
Como consecuencia de esta absorción la observación espacial se reduce a determinadas bandas del espectro, conocidas como ventanas atmosféricas. en donde la transmisividad de la atmósfera es suficientemente alta . Las principales ventanas atmosféricas son las siguientes: •  espectro visible e infrarrojo cercano, situada entre 0.3 y 1.35 mm .
•  infrarrojo medio: de 1.5 a 1.8 mm , 2.0 a 2.4 mm , 2.9 a 4.2mm. y 4.5 a 5.5 mm.
•  infrarrojo térmico: entre 8 y 14 mm.
•  microondas: por encima de 20 mm. , en donde la atmósfera es prácticamente transparente.
Estas ventanas atmosféricas son idóneas para realizar procesos de Teledetección, por lo que el diseño de los sensores espaciales tiende a ajustarse a estas bandas, evitando interferencias extrañas al fenómeno que pretende obser­varse, salvo la presencia de nubes, que absorben en todo el espectro óptico. Si se pretende, por el contrario, observar la atmósfera en lugar de la superficie terrestre, los sectores espectrales más convenientes son, precisamente , aquellos en donde la absorción atmosférica es alta. Por esta razón, los satélites meteorológicos incorporan bandas de estas regiones del espectro.

Dispersión Atmosférica:
Es de gran importancia su efecto de absorción puede paliarse simplemente situando las bandas de observación en áreas donde la transmisividad atmosférica sea alta. Por ello, no resulta muy habitual encontrar ese problema en la interpretación de imágenes (salvo en caso de coberturas nubosas. Normalmente evitables gracias a una buena selección de la imagen). Mucho más complejo, sin embargo, es soslayar el efecto de dispersión causada por la atmósfera, presente en mayor o menor grado en cualquier imagen adquirida con sensores remotos.

La dispersión de la radiación electromagnética es causada por interacción entre‚ esta y los gases y partículas atmosféricas en suspensión. La reflexión consiguiente a ese choque supone un aporte adicional a la radiación proveniente de la superficie terrestre (luz atmosférica). En definitiva, se reduce la radiancia directa, aumentándose la difusa. Puesto que las partículas atmosféricas son muy variables en el tiempo y en el espacio, resulta muy complejo cuantificar su influencia final en la imagen adquirida por el sensor. Pese a ello, convendrá tener en cuenta este factor, especialmente cuando se pretenda convertir los valores digitales de la imagen a parámetros Físicos, o se aborden estudios multi-temporales.

Los principales causantes de la dispersión atmosférica son los aerosoles el vapor de agua. Los aerosoles son partículas en suspensión de origen muy diverso: oceánico debidas al movimiento de las aguas, o continental, polvo en suspensión o partículas emitidas por combustión. En función de su origen y características poseen muy variados tamaños, lo que implica distintos tipos de dispersión, ya que, ésta es muy dependiente de su diámetro. De esta forma se habla de dispersión Rayleigh, cuando afecta a longitudes de onda inferiores al diámetro de la partícula; dispersión Mie, cuando se trata de partículas de diámetro similar a la longitud de onda, y de dispersión no selectiva, cuando se menciona las partículas de mayor tamaño.

Dispersión Rayleigh:
Afecta a las longitudes de onda más cortas. Es la más conocida y la de mayor influencia en Teledetección, causante, por ejemplo del color azul del cielo. En fotografía área, es muy claro su efecto por el tono azulado que presentan los fotogramas cuando se realizan, desde cierta altura. Cualquier observador distante puede comprobar este resultado, especialmente en los meses de verano, cuando se difumina el paisaje al divisarlo a largas distancias.

Dispersión Mie:
También dependiente de la longitud de onda, si bien en menor grado que la anterior. Aerosoles y polvo atmosférico son los principales responsables de este tipo de dispersión, aunque también está presente en incendios forestales o en brumas costeras.

Dispersión No Selectiva:
Afecta por igual a diversas longitudes de onda. Por esta razón, las nubes o nieblas tienden a aparecer blancas, ya que dispersan por igual toda la luz visible.

Los procesos de dispersión son muy complejos y difíciles de cuantificar en la imagen resultante. Normalmente no se dispone de datos coetáneos a la adquisición de ésta, por lo que la corrección atmosférica se basa en relaciones entre elementos de la propia imagen. Esta estimación puede ser burda en algunos casos, dificulta, en última instancia el uso de la imágenes adquiridas por sensores espaciales como medida cuantitativa de parámetros biofísicos.

Emisión atmosférica:
El efecto de emisión atmosférica resulta fundamental en el trabajo dentro del infrarrojo térmico si se pretenden obtener mediciones de temperatura a partir de las imágenes espaciales. Al igual que cualquier cuerpo por encima del cero absoluto, la atmósfera emite energía calórica, por lo que ese parámetro debe considerarse por separarlo de la emitancia espectral proveniente del suelo. Esos procesos de corrección atmosférica se han abordado habitualmente, mediante el análisis combinado de la señal captada en dos bandas situadas en el infrarrojo térmico. Son los denominados algoritmos de ventana partida (split window).

Comportamiento espectral teórico para los tres elementos fundamentales del paisaje en el dominio óptico:

Vegetación vigorosa:
Es especialmente variable, dependiendo de múltiples factores: estado fenológico, forma y contenido en humedad. De manera general se puede decir que presenta una reducida reflectividad en las bandas visibles, con un máximo relativo en la región del verde (0.55 µm). Esto es debido al efecto absorbente de los pigmentos fotosintéticos de las hojas. De entre estos, las hojas contienen clorofila que absorben las longitudes de onda del rojas y azules. Por eso, en vegetación no vigorosa la clorofila no absorbe tanto y la hoja se torna a un color amarillento (verde + rojo).

La estructura celular interna da la elevada reflectividad en el infrarrojo cercano que luego va reduciéndose paulatinamente hacia el infrarrojo medio. Por tanto, el contraste más nítido se presenta entre las bandas visibles (especialmente rojo) y el infrarrojo cercano. Cuanto mayor sea ese contraste, mayor será el vigor de la vegetación.

Estos tres parámetros: cantidad de pigmentos, estructura celular y contenido en agua, manifestados por la respuesta espectral de esa masa de vegetación de la que forman parte, puede servir para discernir entre unas especies y otras, su nivel de desarrollo e incluso entre su estado sanitario.

Agua:
Absorbe o transmite la mayor parte de la radiación visible que recibe. Por tanto presentará una curva espectral plana, baja y de sentido descendente. De todas formas, en aguas poco profundas, la reflectividad aumenta. Los factores que afectan a este comportamiento son: profundidad, contenido en materias en suspensión (clorofila, arcillas y nutrientes) y rugosidad de la superficie (éste último factor extremadamente importante). Por su parte, la nieve ofrece un comportamiento completamente diferente a el del agua, con una reflectividad elevada en las bandas visibles, reduciéndose drásticamente en el infrarrojo cercano.

Suelos:
Muchas veces son invisibles, debido a la vegetación. Para suelos desnudos, comportamiento espectral mucho más uniforme que el de la vegetación. La curva espectral que presentan es bastante plana y de carácter ligeramente ascendente.

El comportamiento espectral del suelo desnudo es mucho más uniforme que el de la vegetación, mostrando una curva espectral bastante plana y de carácter ascendente. Los principales factores que intervienen en este caso son la composición química del suelo, su textura y estructura y el contenido en humedad.

Por ejemplo, un suelo de origen calcáreo tiende al color blanco, indicando alta reflectividad en todas las bandas visibles, mientras que los arcillosos ofrecen una mayor reflectividad en el rojo, como consecuencia de su contenido en óxido de hierro. La reflectividad espectral presenta mayores valores en suelos de textura gruesa, apelmazados, secos y sin materia orgánica. Como ya se ha dicho para la vegetación, el contenido en humedad es uno de los elementos destacados en la reflectividad en longitudes de onda largas (infrarrojo medio) y así suelos con alto contenido en humedad darán una reflectividad baja en esa banda. Cuanto más seco y apelmazado sea un suelo, mayor será su reflectividad.

Comportamiento espectral teórico para los tres elementos fundamentales del paisaje, en el dominio del infrarrojo térmico

Vegetación:
Presenta unas propiedades en general bastante complejas. Como absorbe energía solar durante el día, y la devuelve durante la noche, está más caliente que el aire que la rodea durante la noche, y más fría que su entorno durante el día.

Suelos y agua:
El factor más destacado es su contenido de humedad. A mayor humedad, más frío estará durante el día y más cálido durante la noche, con respecto a los suelos secos. El agua posee la mayor inercia térmica debido a su alta conductividad. Es más difícil que cambie su temperatura.

Sensores Hiperespectrales.

Se llaman Sensores Hiperespectrales a aquellos sensores que son capaces de registrar una gran cantidad de bandas del espectro (normalmente mas de 100) y por tanto generan una imagen “cúbica” con gran cantidad de información.
La captura de la imagen hiperespectral de un objeto permite que el operador realice el análisis espectroscópico de cada elemento de la imagen.

Ventajas de estos sensores:
Su principal ventaja es la gran cantidad de información que proporcionan, siendo muy útiles en el campo de la agricultura (identificación de tipos de vegetación, semillas, etc…) y en el estudio geológico de suelos (determinación de tipos de suelos para explotaciones mineras).
Puesto que se recoge información de las ondas reflejadas en gran cantidad de bandas del espectro electromagnético, el estudio espectroscópico de las imágenes recogidas permite hacer análisis de la composición química de los materiales.
Inconvenientes:
Fundamentalmente su precio ya que la tecnología utilizada es muy avanzada. Por otra parte, el software, así como la calibración de los equipos necesarios para la captura de datos y la interpretación y explotación de los mismos es muy complejo.

Mapa de minerales en superficie

La imagen de la derecha muestra una comparativa de las imágenes captadas por dos sensores Hiperespectrales distintos, el PROBE-1 y el AVIRIS.

Teledetección > Plataformas:

Históricamente fueron la placa o el film fotográfico sobre plataformas aéreas los sensores remotos por excelencia, pero a partir de las últimas décadas debieron convivir con los sensores electrónicos, cada vez más numerosos y sofisticados, montados sobre plataformas suborbitales y satelitales.
La Teledetección desde plataformas aéreas, ya sea con placas o films fotográficos o sensores electrónicos si bien sigue constituyendo una muy valiosa fuente de información, a partir de 1960 debió comenzar a compartir su rango de aplicaciones con las tecnologías de Teledetección desde plataformas satelitales.
En efecto, hasta 1946 la percepción remota se efectuaba fundamentalmente desde aviones o globos. En 1946 se tomaron las primeras fotografías desde cohetes V-2 capturados a los alemanes y tales experiencias fueron decisivas para ilustrar el valor potencial de la fotografía desde alturas orbitales. Dicho potencial se volvió más aparente a través de las misiones espaciales a partir de 1961: Mercury, Gemini y Apolo.

El Apolo 9, en particular, realizó la primera experiencia de fotografía orbital multiespectral para el estudio de los recursos terrestres. Estas experiencias fueron continuadas en posteriroes misiones (Skylab, Apolo-Soyuz Test Project, etc.). Sin embargo, el año 1972 marca un hito en la carrera espacial: fue en dicho año que EE.UU. lanzó en un vehículo Delta, el primero de una serie desatélites ópticos especialmente destinados a monitorear recursos terrestres. Dicha serie, que se denominó ERTS (Earth Resources Technology Satellites), fue denominada mas tarde LANDSAT, de la cual aún permanecen operativos el LANDSAT-5 y el LANDSAT-7, este último recientemente puesto en órbita.

A su vez Francia, con la participación de Suecia y Bélgica, lanzó en 1986 en un vehículo Ariane el primer satélite de la serie SPOT (Systeme Pour l’Observation de la Terre), continuando operativos el SPOT-2 y el SPOT-4. Actualmente existen numerosas plataformas satelitales similares al LANDSAT y SPOT pertenecientes a diferentes países (EE.UU, India, Rusia, Japón, etc.).
También existen otros sistemas satelitales destinados sobre todo a estudios meteorológicos y ambientales como por ejemplo los de la serie NOAA (National Oceanic and Atmospheric Administration) y los meteorológicos geoestacionarios como los de la serie GOES (Geostationary Operational Environmental Satellite) y METEOSAT.

Sería muy extenso referirnos aquí a la diversidad de plataformas orbitales de observación actualmente en órbita, pero podemos decir que el desarrollo que se inició en la década de 1960 se ha vuelto vertiginoso. Distintos factores han condicionado este comportamiento que ha llevado a la Teledetección a su etapa verdaderamente comercial . Uno de estos factores fue la liberación para usos civiles de tecnología reservada hasta entonces para uso militar, particularmente tras el final de la Guerra Fría.

Debe señalarse que los sistemas satelitales mencionados pueden registrar las imágenes terrestres simultáneamente en varias bandas espectrales ubicadas en las regiones visible e infrarrojo cercano, infrarrojo medio e infrarrojo termal del espectro de las radiaciones electromagnéticas. Esto permite discriminar la naturaleza de los objetos terrestres e incluso clasificarlos.
Los sistemas óptico-telescópicos de estos satélites enfocan las escenas terrestres sobre sistemas de detectores de estado sólido sensibles a las regiones espectrales para las que se desea registrar las imágenes. Las señales analógicas generadas por los detectores son digitalizadas a bordo del satélite para su retransmisión a estaciones de seguimiento terrestres.


TIPOS DE PLATAFORMAS:

Metereológicas : METEOSAT, GOES, GMS, POES/TIROS
Recursos : LANDSAT, SPOT, IRS, RADARSAT
Comerciales de Alta Resolución : IKONOS, QUICKBIRD, ORBVIEW
Misiones Científicas : ESA (ENU, SAT, ERS), NASA (EARTH OBSERVATORY SYSTEM, EOS), NASDA, ARIES
Micro o Minisatélites.
Hiperespectrales.

LANDSAT

Satélite de recursos terrestres para aplicaciones geológicas y de agronomía que fue utilizado por primera vez en 1972 con el fin de obtener imágenes de cualquier parte del mundo.
• Landsat 1, 2, 3 (1972, 75, 78): El 3 incluye una banda térmica.
• Landsat 4, 5: Se elimina la cámara RMV y se incluye TM para cartografía temática. Se tienen 7 bandas.
• Landsat 7 (1999): El Landsat7 es el satélite operacional mas reciente del programa Landsat, financiado por el gobierno de los Estados Unidos.
El último satélite fue lanzado en abril de 1999 con un nuevo sensor denominado ETM+ (Enhanced Thematic Mapper Plus). Su operación es administrada por la NASA (National Space and Space Administration) y la producción y comercialización de imágenes depende de la USGS (United Sates Geological Survey).

Una imagen LANDSAT 7 ETM+ está compuesta por 8 bandas espectrales que pueden ser combinadas de distintas formas para obtener variadas composiciones de color u opciones de procesamiento. Entre las principales mejoras técnicas respecto de su antecesor, el satélite Landsat 5, se destaca la adición de una banda espectral (Banda Pancromática) con resolución de 15 metros. También cuenta con mejoras en las características geométricas y radiométricas y una mayor resolución espacial de la banda térmica para 60 m. Estos avances tecnológicos permite calificar al LANDSAT 7 como el satélite más interesante para la generación de imágenes con aplicaciones directas hasta una escala de 1:25.000, principalmente en áreas rurales o territorios de grandes extensiones.

Las imágenes generadas por el Landsat7 adquiridas mediante el sensor ETM+ presentan una mejor relación costo-benefício que los datos generados por satélites de resolución media ( 15 a 30 metros) actualmente ofrecidos en el mercado.
La Órbita del Landsat 7: El Landsat7 puede adquirir imágenes en un área que se extiende desde los 81º de latitud norte hasta los 81º de latitud sur y obviamente, en todas las longitudes del globo terrestre. Una órbita del Landsat 7 es realizada en aproximadamente 99 minutos, permitiendo al satélite dar 14 vueltas a la Tierra por día, y cubrir la totalidad del planeta en 16 días.

La órbita es descendente, o sea de norte a sur, el satélite cruza la línea del Ecuador entre las 10:00 y 10:15 (hora local) en cada pasaje. El Landsat7 está “heliosincronizado”, es decir que siempre pasa a la misma hora por un determinado lugar.
Un factor importante es que el período de revolución del LANDSAT 7 es igual que el del Landsat5 (16 días), y una imagen cubre igual área (185 x 185 km por escena). La conservación de estos parámetros técnicos facilita que el proceso de captura de imágenes se pueda realizar con la misma grilla de referencia (WRS2) lo que permite una perfecta integración entre el procesamiento de las imágenes del LANDSAT 7 con datos históricos del LANDSAT 5 existentes desde 1984. Esto es especialmente útil cuando es necesario utilizar los dos tipos de datos de un mismo lugar en forma simultánea por ejemplo para un estudio multitemporal.

Principales diferencias entre el Landsat 7 y el Landsat 5
• Adición al Landsat7 de una banda Pancromática con resolución espacial de 15m. •
• Perfeccionamiento del sistema de calibración radiométrica de los sensores, lo que garantiza una precisión radiométrica absoluta de ? 5%.
• Perfeccionamiento de la geometría de captura, lo que brinda una mayor precisión en imágenes corregidas sólo a partir de datos de efemérides de satélite generadas por el GPS de abordo, muy próxima a la precisión obtenida con imágenes georeferenciadas con puntos de control cartográficos.

Bandas espectrales y Resolución Espacial:
Las bandas del espectro visible y del infrarrojo mantienen la resolución espacial de 30 m del Landsat 5 (canales 1,2,3,4,5 y 7)
Las bandas del infrarrojo térmico (canales 6L e 6H) pasan a ser adquiridas con resolución de 60 metros, contra 120 metros del Landsat 5.
La banda Pancromática – (canal 8) es la mayor novedad del sensor ETM+ en el Landsat 7. Su resolución espacial de 15 m registrado con las demás bandas, permite que las imágenes generadas a través de este sensor sean trabajadas para obtener ampliaciones hasta una escala de 1:25.000.
La banda Termal – (banda 6) – El Landsat 7 genera la banda 6 con gano bajo (Canal 6L) y gano alto (Canal 6H). Esto permite varias opciones de análisis y aplicaciones, tales como la medición relativa de temperatura radiante o un cálculo de temperatura absoluta.

Niveles de corrección geométrica de las imágenes Landsat 7:
En todas las imágenes, y esto es válido para todos los satélites comercialmente disponibles, las correcciones del sistema son algoritmos de rectificación de la imagen cruda aplicada automáticamente en la estación de recepción, usando parámetros espaciales contenidos en los archivos descriptores de imagen (datos de posicionamiento y efemérides del satélite), que consiguen minimizar las variaciones espaciales internas presentes en la imagen en su estado bruto, correcciones del ángulo de curvatura terrestre, variaciones de velocidad, altura y actitud del satélite, desplazamientos orbitales, etc.

Niveles de corrección geométrica de las imágenes Landsat 7:
En todas las imágenes, y esto es válido para todos los satélites comercialmente disponibles, las correcciones del sistema son algoritmos de rectificación de la imagen cruda aplicada automáticamente en la estación de recepción, usando parámetros espaciales contenidos en los archivos descriptores de imagen (datos de posicionamiento y efemérides del satélite), que consiguen minimizar las variaciones espaciales internas presentes en la imagen en su estado bruto, correcciones del ángulo de curvatura terrestre, variaciones de velocidad, altura y actitud del satélite, desplazamientos orbitales, etc.

Las imágenes Landsat7 están disponibles en 3 niveles de corrección geométrica:
• Nivel 4:
Es un nivel de corrección básica donde la imagen es radiométrica y geométricamente corregida de forma sistemática.
• Nivel 5:
También consiste en una imagen con correcciones sistemáticas, pero que se georreferencia utilizando las efemérides del satélite. Los algoritmos de corrección modelizan la posición del satélite y la geometría del sensor a través de datos que una computadora de abordo graba sobre la captura. Altitud, efemérides y parámetros de actitud del satélite, descritos en el archivo Payload Correction Data (PCD) y en el archivo Calibration Parameter File (CPF) son los componentes fundamentales usados para la generación de productos nivel 5 y garantizan la fidelidad geométrica general de la imagen.
• Nivel 6:
No es un proceso automático ni una corrección sistemática. Este nivel de procesamiento exige intervención adicional de un operador. La imagen nivel 5 antes descrita es ajustada con puntos de control cartográficos o con puntos de control medidos especialmente con tecnología GPS. Se obtiene una imagen rectificada a una determinada proyección cartográfica.
Ortoimágen:
Este nivel de procesamiento exige la intervención de un operador sobre una imagen corregida con puntos de control utilizando también un Modelo Digital de Elevaciones (DEM) para corregir todas las distorsiones. El producto final consiste en una ortoimágen georreferenciada a la proyección cartográfica deseada.
Imagen de Fusión (Merge):
Es una combinación de buena resolución espacial de la banda Pancromática (15 metros) con la buena resolución espectral de Landsat 7. Una correcta interpretación de las información proveniente de imágenes satelitales depende principalmente de los atributos de textura y color presentes en dicha imagen, fundamentalmente para discriminar áreas que presentan variaciones relevantes, como tipos de vegetación y especies, patrones específicos de uso y ocupación del suelo e interpretaciones ligadas a la morfología.
Las imágenes generadas por el proceso de fusión espectral (merge) reúnen en una única imagen diferentes texturas (calidad geométrica) provenientes del canal de mejor resolución espacial (15 m de la banda PAN) y la información temática de color, resultante de la combinación de los diversos canales espectrales disponibles (en el caso del Landsat 7, 6 bandas espectrales con resolución espacial de 30 m). El resultado es una imagen con 15 metros de resolución, contra los 30 metros del producto original, con tonalidades muy similares a la composición de las bandas originales, o sea, sin alterar el contenido temático.
Formatos y soportes existentes:
Las imágenes Landsat7 crudas o derivadas del proceso de fusión están disponibles en formato digital e impreso a requerimiento de los clientes. Cada imagen cubre 185 x 185 Km (escena completa) pero también es posible fraccionarlas en cuadrantes (1/4 de escena, 90 x 90 Km) o mini escenas de 50 x 50 Km.

SPOT

El sistema SPOT es un programa espacial francés semejante al programa Landsat, que fue concebido por el Centre National d’Etudes Spatiales (CNES) y lleva a bordo dos sensores de alta resolución (HRV – HAUT Resolution Visible). Estos sensores fueron concebidos para operar en dos modos diferentes. El modo multiespectral permite la adquisición de datos en tres bandas del espectro electromagnético con una resolución espacial de 20 metros y el modo pancromático con una banda de resolución espacial de 10 metros. Una de las características principales de los instrumentos a bordo del SPOT es la posibilidad de observación “off-nadir”. El sensor podrá ser direccionado de modo de observar escenas laterales a la órbita en la que se encuentra el satélite en un momento determinado.

Esta posibilidad de observación “off-nadir” aumenta los medios de obtener un aumento en el recubrimiento repetitivo de determinadas áreas. Otra ventaja de la vista “off-nadir” es la posibilidad de obtener pares estereoscópicos de determinadas áreas.
La luz proveniente de la escena alcanza un espejo plano, que puede ser controlado a partir de las estaciones terrestres variando en ángulos de +/- 0,6 hasta 27o con relación al eje vertical.
La energía que alcanza el espejo plano es captada por una matriz lineal de detectores del tipo CCD (Charge-Coupled Device). Cada matriz consiste en 6000 detectores ordenados linealmente, formando lo que se denomina “push-broom scanner” o sistema de barrido electrónico. Este sistema permite la toma instantánea de una línea completa en el terreno, perpendicularmente a la direccióndel satélite en su órbita.

Las imágenes pancromáticas (blanco y negro) tienen una resolución de 10×10 metros, y se les usa comúnmente para cartografía, identificación, detección de cambios, y para actualización de mapas vectoriales. Las imágenes multiespectrales (en el visible e infrarrojo) tienen una resolución de 20×20 metros, y son usadas para aplicaciones de uso y cartografía del terreno y estudios de recursos naturales. Las ortoimágenes SPOT son ofrecidas en forma estándar con resoluciones de 7.5, 15 y 30 metros.
El ángulo de visión de cada sensor HRV (High Resolution Visible) puede ser ajustado para recoger datos hasta 27 grados a la derecha o a la izquierda del nadir. Esta habilidad de visión lateral permite que el mismo punto de la superficie terrestre puede ser visto desde varias órbitas diferentes, permitiendo la adquisición de imágenes estereoscópicas.

Las imágenes SPOT contienen información de radiancia en la banda visible e infrarrojo, obtenida de sensores HRV (High Resolution Visible) montados en los satélites SPOT-1 y SPOT-2. Cada satélite dispone de dos HRV con la capacidad de registrar en dos modos: Multispectral Linear Array (MLA) o Panchromatic Linear Array (PLA). El primer modo captura datos en tres bandas: .050-0.59, 0.61-0.68, y 0.79-0.89 micrómetros. Las tres bandas son registradas simultáneamente con una resolución en el terreno de 20 metros. En el segundo modo, las imágenes pertenecen a la banda de 0.51-0.73 micrómetros con una resolución de 10 metros en el terreno. Cada escena cubre normalmente 60 km2 .

NOAA

Los NOAA son satélites americanos de órbita polar. Están regidos y administrados por la National Oceanic and Atmospheric Administration.
Los satélites NOAA 14 y NOAA 15, lanzados respectivamente el 29 de mayo 1994 y el 13 de mayo 1998, vuelan a una altitud de 850 kilómetros y en una órbita inclinada con 99 grados respecto al plan ecuatorial. Cada 102 minutos hacen una órbita completa alrededor de la tierra, dando 14 órbitas por día. Estas órbitas son helio-síncronas. Los 2 satélites están fuera de fase; una misma área se vuela encima por lo menos 4 veces al día con un intervalo de aproximadamente 6 horas.
Los NOAA están equipados con un radiómetro (Advanced Very High Resolution Radiometer) que permite una muy de alta resolución (1.1 kilómetros a la vertical del satélite), que permite captar la temperatura que emiten la superficie de los objetos en la Tierra. Explora una banda terrestre de 3000 kilómetros de ancho.
El sensor AVHRR del satélite NOAA provee de imágenes de 4 km de resolución (sistema APT) e imágenes alta resolución de 1 Km (sistema HRPT). Km. En un sistema receptor HRPT se pueden adquirir simultáneamente para un área de interés los cinco canales de datos de órbita polar. Estos datos incluyen los canales visibles, infrarrojo cercano (reflejado), y tres canales del infrarrojo termal (emitido).

IRS

Las siglas IRS corresponden a Indian Remote Sensing Satellite. La IRS-P3 es una misión de la Indian Space Research Organization (ISRO) de carácter eminentemente experimental, orientada a la observación de la atmósfera y el océano. Entre sus objetivos está el desarrollo y validación de algoritmos para los sensores que porta. Estos instrumentos son el MOS y el WiFS, el cual no tiene nada que ver con el SeaWiFS.
El satélite IRS-P3 fue lanzado en marzo de 1996, a bordo de un lanzador indio, el PSLV (Polar Satellite Launch Vehicle). Su control lo realiza la ISRO utilizando instalaciones de TT&C de la India, y los servicios de backup los realiza el DLR con instalaciones del GSOC.

El tiempo de vida nominal del satélite era de 1 año, que ya ha sido ampliamente sobrepasado, y el funcionamiento de toda su carga de pago es en tiempo real, pues no se dispone de ningún dispositivo de almacenamiento a bordo (excepto para la calibración solar del MOS). La transmisión de datos a Tierra se realiza en banda S, frecuencia 2.28 GHz, con una velocidad de transferencia de 5.2 Mbps.
El período de repetición es de 24 días para MOS.
Tipo de Órbita:Heliosíncrona, Circular, Polar
Altitud: 817 Km.
Inclinación: 98.69º
Período nodal: 101.35′

El MOS, Modular Optoelectronic Scanner, ha sido desarrollado por el centro de datos de teledetección alemán: el Deutsches Fernerkundungsdatenzentrum (DFD), del DLR.
Es un espectrómetro que trabaja en las zonas visible e infrarrojo cercano del espectro (400-1000 nm). El ancho de la franja que cubre su pase es de 200 km.
El MOS del IRS-P3 ofrece 18 canales que han sido divididos en tres grupos: MOS-A, MOS-B y MOS-C. Los cuatro canales del espectrómetro atmosférico MOS-A están en torno a los 760 nm y tienen 14 nm de ancho. El bioespectrómetro MOS-B cuenta con 13 canales de 10 nm de ancho en el rango 408-1010 nm. El MOS-C es otro bioespectrómetro que opera en el infrarrojo de onda corta (1600nm) y tiene 100 nm de ancho.
Los canales del MOS-A se utilizan para realizar medidas que pueden emplearse para determinar el espesor óptico del aerosol y aerosoles estratosféricos. Los del MOS-B están distribuídos teniendo en cuenta las características espectrales de los océanos y zonas costeras. Los datos de MOS-C se emplean en estimación de límites y relieve de superficies, así como para mejorar las medidas de la temperatura de la superficie y estimación de su rugosidad.

Los satélites Indios IRS 1C e IRS 1D, son actualmente los que obtienen datos con la mejor resolución espacial (comercial) esto es, 5 metros en pancromático, ofreciendo hoy en día la información satelital de la tierra con mayor detalle del mercado.

La función del satélite IRS ha sido la investigación de los recursos naturales.

Tipo Peso Perigeo Apogeo Inclinación
IRS-1A (17-Marzo-1988) 975 Kg. 894 Km. 912 Km. 98.8º.
IRS-1B (29-Agosto-1991) 980 Kg. 890 Km. 917 Km. 99.1º.
IRS-1E (20-Septiembre-1993)
IRS-1C (28-Diciembre-1995) 1,250 Kg. 805 Km. 917 Km. 98.6º.
IRS-P3 (21-Marzo-1996) 930 Kg. 818 Km. 821 Km. 98.8º.
IRS-1D (29-Septiembre-1997) 737 Km. 827 Km. 98.6º.

ORBVIEW

La NASA (National Aeronautic and Space Administration) mediante la plataforma Pegasus lanzó durante 1,997 el satélite Orbview, el cual lleva a bordo el sensor SeaWifs. Este sensor capta información de en 6 bandas del espectro electromagnético y que tienen la capacidad de obtener información del color, tanto del océano como de la superficie terrestre, con una resolución similar a los satélites de la generación NOAA.
Este sensor puede proporcionar información del color del océano y medir la concentración de clorofila en superficie, la cual es un indicador de la productividad marina e indirectamente de la presencia de peces, sobre todo pelágicos. Hoy en día estas imágenes pueden ser colectadas en tiempo real desde el web SeaWifs , brindando la oportunidad de conocer la dinámica de una variable tan importante para las pesquerías

IKONOS

El satélite IKONOS es el primer satélite de tipo comercial que posibilita la captación de imágenes con un metro de resolución espacial. El término “IKONOS” proviene del griego y significa “imagen”.
IKONOS 1 es el nombre del próximo satélite que la compañía Space Imaging EOSAT pondrá en órbita en 1999. Este satélite está diseñado para tomar imágenes tanto en blanco y negro como a color, IKONOS 1 tendrá la más alta resolución espacial comercial del mercado, 4 metros a color y 1 metro en blanco y negro. Las órbitas polares durarán 98 minutos, pudiendo el satélite IKONOS 1 obtener hasta 600 imágenes por día. El área cubierta por cada imagen será de 11 x 11 Km².

Estas imágenes son consecuencia directa de la liberación tecnológica promovida en 1994 por el gobierno de los Estados Unidos de América. Anteriormente a esa época esta tecnología estaba disponible para satélites con fines militares.

IKONOS colecta información de cualquier área en promedio dos veces al día, cubriendo áreas de 20,000 km2 en una misma pasada y produciendo como resultado imágenes de 1 metro de resolución cada tres días y de 2 m de resolución todos los días.
El satélite IKONOS pesa unos 720 kg y órbita la Tierra cada 98 minutos a una altitud de casi 680 km en forma sincronizada con el Sol, pasando sobre un determinado lugar aproximadamente a las 10:30 a.m. hora local

La órbita cubierta por el satélite se concentra lejos del área directamente debajo del recorrido del mismo, y los datos de un lugar determinado puede ser captados casi diariamente, si bien no en todos los casos con 1 m de resolución. El satélite fue diseñado y fabricado por la empresa Lockheed Martin Commercial Space Systems.
La empresa Raytheon Company construyó los sistemas de apoyo terrestre, geoprocesamiento digital, manejo de archivos y servicio al cliente, requerido para distribuir la información captada por IKONOS

El sensor digital de imágenes del satélite está diseñado para producir imágenes con elevado contraste, resolución espacial y precisión, brindando a los clientes un producto preciso y nítido. La compañía Eastman Kodak proveyó el mecanismo electro-óptico, incluyendo su ensamble con el telescopio óptico, los detectores y su ajuste al plano focal, incluyendo asimismo el mecanismo de procesamiento electrónico de alta velocidad basado en un diseño efectuado por Space Imaging. Resultando todo un suceso, las imágenes de alta resolución del satélite IKONOS son una grata realidad y están revolucionando el mercado satelital. Anteriormente, ningún satélite comercial logró conseguir un nivel de detalle semejante.

Principales características de satélite:
• Fecha de lanzamiento del satélite: 24/09/99
• Lugar de lanzamiento: Vandenberg Air Force Base, California /USA
• Altitud: 681 km
• Inclinación: 98.1º
• Velocidad: 7km/s
• Sentido de la órbita: descendente
• Duración de la órbita: 98 minutos
• Tipo de órbita: sincrónica con el sol
• Angulo de visada: rápida alternancia entre diferentes ángulos
• Tiempo de revista: 1 a 3 días
• Resolución en el terreno de cada banda:
• Pancromática: 1m (considerando posición nominal de 26º para el nadir)
• Multiespectral: 4m (considerando posición nominal de 26º para el nadir)
• Bandas espectrales:
• Pan: 0.45 – 0.90 µm
• Azul: 0.45 – 0.52 µm
• Verde: 0.52 – 0.60 µm
• Rojo: 0.63 – 0.69 µm
• Infrarrojo próximo: 0.76 – 0.90 µm

Rango Dinámico: posibilita que la información sea almacenada en 11 bits por píxel, con lo cual redunda en un mayor rango dinámico que facilita el contraste y discriminación de la información. No obstante, los productos pueden ser entregados al usuario en 8 bits por píxel.

 Productos IKONOS:
AEROTERRA S.A. ofrece una diversidad de productos relacionados con imágenes captadas por el poderoso satélite IKONOS, incluyendo imágenes de diferentes resoluciones:

• Pancromática 1-metro: posibilita a los usuarios distinguir rasgos con dimensiones tan pequeñas como 1 m.
• Color Multiespectral 4-metros: posibilita a los usuarios distinguir rasgos con dimensiones tan pequeñas como 4 m, a partir de información tomada en tres bandas del espectro visible (azul, verde, rojo) e infrarrojo.
• Pan-Sharpened: este producto combina digitalmente las imágenes pancromáticas de 1 metro de resolución con las imágenes multiespectrales de 4 metros, resultando un nuevo producto que presenta la ventaja de contar con una resolución de 1 m y con la alta resolución espectral (mayor discriminación) de las bandas del visible y/o infrarrojo, lo cual la convierte en un producto muy superior a cualquiera imagen de los satélites actualmente operacionales.
• Ikonos Geo: es un producto que define el futuro de las imágenes de alta resolución; está disponible tanto para imágenes pancromáticas (1 m de resolución) como para imágenes color o multiespectrales de 4 m de resolución, lo cual resulta excelente para una variedad de análisis y aplicaciones que requieren bandas multiespectrales. Actualmente es el producto de mayor resolución y bajo costo, fácil y rápido de visualizar. Es ideal para respuesta a emergencias, interpretación y monitoreo de cultivos, manejo de desastres, etc., que requieren reportes inmediatos. También para aquellos clientes que no cuentan con la tecnología necesaria para procesar por sí mismo las imágenes

Las imágenes son geométricamente corregidas con un error estándar (RMSE) de 25 metros, excluyendo los efectos de desplazamiento del terreno causados por el relieve. Este proceso de corrección remueve las distorsiones de la imágenes introducidas por los procesos de capturas y re-muestrea las imágenes a una proyección de mapas escogida por el usuario; diferentes tipos de proyecciones están disponibles (UTM, TM, Gauss Krüger, etc.). Este producto no incluye la tareas de unión o mosaicos de diferentes imágenes.
Este producto es de fácil utilización por parte de los usuarios, con o sin experiencia en procesamiento de imágenes.
Ikonos Ortorectificadas: se trata de imágenes con precisiones de mapa métricas. Comparativamente, son productos menos costosos y de obtención más rápida que las tradiciones ortofotos aéreas.
Los procesos de ortorectificación remueven las distorsiones introducidas por la variabilidad y geometría de relieve y re-muestrean las imágenes en una proyección de mapas escogida por el usuario. Incluye el proceso de unión o mosaicos de diferentes imágenes.
Estos productos están disponibles en un amplio rango de niveles de precisión métrica, tanto para imágenes pancromática, color o multiespectrales y pan-sharpened:
• Precision Plus: es el producto más moderno para catastro urbano, planificación urbanística y aplicaciones GIS que requieren la más alta precisión geoposicional. Este producto es producido con puntos de control y un modelo de elevación digital; tiene un error (RMSE) de 1 metro, adecuado para relevamientos en escala 1:2.500.
• Precision: es el producto premium, ideal para mapeo urbano, mapeo catastral y aplicaciones GIS que requieren una alta precisión geoposicional. Este producto es producido con puntos de control y un modelo de elevación digital; tiene un error (RMSE) de 2 metros, adecuado para relevamientos en escala 1:5.000.
• Pro: es el producto adecuado para organismos gubernamentales locales, telecomunicaciones y servicios públicos que desarrollan aplicaciones tales como planificación de transporte e infraestructura, planificación de servicios públicos, desarrollos económicos y evaluaciones de sitios en general. Este producto tiene un error (RMSE) de 5 metros, adecuado para relevamientos en escala 1:10.000.
• Map: es adecuado para organismos gubernamentales provinciales y regionales, telecomunicaciones y servicios públicos, agricultura, forestal, geología y para aplicaciones de servicios públicos, tales como planificación de infraestructura, manejo de recursos, impacto ambiental, etc. Este producto tiene un error (RMSE) de 6 metros, adecuado para relevamientos en escala 1:25.000.
• Reference: es adecuado para relevamiento de grandes áreas y aplicaciones GIS que requieren menor precisión geoposicional. Este producto puede ser de interés para organismos gubernamentales provinciales y regionales y otras empresas, y son de gran utilidad para relevamientos de todo tipo en escala 1:50.000. Tiene un error (RMSE) de 12 metros.

ERS-1

Fue construido por la Agencia Espacial Europea (ESA), el ERS-1 fue lanzado del centro espacial de Guyana Francesa por el cohete Ariane 4 el 16 de julio de 1991. Originalmente con una misión de dos años, los objetivos estaban orientados principalmente a estudios oceánicos y de heladas, en varias áreas de ciencias naturales.
Entre los diferentes sensores a bordo del satélite, se tiene el AMI (Active Microwave Instruments), constituido por un radar de Abertura Sintética (SAR) y un escaterómetro (para medición de vientos). Las imágenes adquiridas por el SAR, suministran datos de una franja de 100 x 100 Km. con una resolución espacial de 30 metros.
Una antena de 10 x 1 metros emite y recibe un haz de microondas en la región de 5,3 Ghz (banda C), con polarización VV y un ángulo de incidencia de 23 grados.
La operación del SAR en modo Imagen produce una tasa de datos muy alta (105 Mbps), haciendo que las imágenes sólo puedan ser generadas en zonas equipadas con estaciones receptoras. La superficie terrestre podrá estar enteramente cubierta en ciclos de 35 días

ERS-2

El objetivo de este satélite de largo alcance es la exploración de la tierra, el mar y las regiones costeras, con instrumentos capaces de funcionar en todas las condiciones atmosféricas.
Lugar de lanzamiento: Kourous el 21-Abril-1995.
Peso: 2,516 Kg. Perigeo: 783 Km.
Apogeo: 784 Km. Inclinación: 98.6º
Este satélite europeo de teledetección fue lanzado el 21 de abril de 1995 por el Ariane 4 en una órbita polar, circular a 780 km de altura. Sus instrumentos principales son: radar altimétrico (cartografía la sup. del mar); un difusómetro (mide la sup. marina así como la velocidad y la dirección del viento); un radar de apertura sintética (para imágenes de alta resolución de la sup. marina); instrumentos para la determinación de la concentración de ozono, sonda de microondas; GOME (Global Ozone Monitoring Experiment).
Ambos satélites (ERS-1 y ERS-2) cuentan con instrumentos comunes: AMI (Active Microwave Instrument); ATSR (Along-Track Scanning Radiometer and Microwave Sounder); DEM (Digital Elevation Models).

JERS (JAPON)

ERS-1 (22-Febrero-1992). Peso: 1,340 Kg. , Perigeo: 567 Km. , Apogeo: 568 Km., Inclinación: 97.7º
JERS-1 es un satélite para la observación de la tierra que cubre la totalidad de la misma y se emplea en el estudio de la agricultura, la industria pesquera, protección del medio ambiente, prevención de desastres naturales y vigilancia costera, etc..
Fue lanzado en una órbita secundario-recurrente solar-síncrona en una altitud de 568 kilómetros con un período recurrente de 44 días por el vehículo del lanzamiento del HI de febrero el 11 de 1992 de la agencia nacional del desarrollo del espacio del centro del espacio de Japón (NASDA) Tanegashima

SAR

El Radar de Apertura Sintética (SAR) es uno de los radares usados en las naves y los aeroplanos. Es un sensor activo de microondas que transmite en microonda y detecta la onda que reflejada por los objetos. El SAR es totalmente diferente de los sensores ópticos pasivos llevados por los Landsat de EEUU o el MOS-1/1b de Japón. Permite la observación de alta resolución, alto contraste, y la determinación exacta de características topográficas, tales como ondulaciones y cuestas, independientemente de las condiciones atmosféricas, ya que no es afectado uniforme por la niebla o las nubes.

Anchura de la banda de rastreo: 75km
Resolución: 18m x 18m
De ángulo del nadir: 35 º
Frecuencia de Observación: 1,275MHz

El SAR es un sensor activo que transmite microondas y observa características de desigualdad en la superficie de la tierra sin ser afectado por el día y la noche debido a la dispersión de ondas de la tierra.
OPS puede observar en siete bandas de la región visible a la banda infrarroja de onda corta y es capaz de la observación estereoscópica por el desplazamiento de 15,3º de nadir en la banda infrarroja cercana y es altamente útil para identificar piedras, rocas, y los minerales.

MOS

El Satélite de Observación de la Marina de Japón (MOS-1), es el primer satélite de observación de la tierra que desarrolló la aplicación de tecnologías domésticas como parte de los sistemas basados en los satélites de la observación de la tierra para contribuir a la utilización eficaz de los recursos terrestres, de la protección del medio ambiente, etc. MOS-1 fue lanzado por el vehículo del lanzamiento de N-ii el 19 de Febrero.1987 y el MOS-1B en el vehículo de lanzamiento de H-I siguió el 7 febrero de 1990.
La operación de MOS-1 finalizó su tarea en1995 y a finales de Abril de 1996 el MOS-1B también termino su trabajo debido a la degradación de baterías.
Los satélites de la serie MOS giran alrededor de la tierra a una altitud de 909 kilómetros en 103 minutos. Cada uno de ellos lleva tres sensores, Uno de Exploración Electrónica Multispectral Radiometer (MESSR), Radiómetro (VTIR) infrarrojo visible y Exploración térmica de microondas Radiometer(MSR) los datos de la observación son adquiridos por las estaciones de tierra de ultramar así como nuestras estaciones de adquisición domésticas de datos y utilizados extensivamente

Modelos de Sensores y Plataformas Hiperespectrales:

AVIRIS

Es un sensor óptico que obtiene imágenes calibradas de la radiación espectral en 224 bandas espectrales contiguas con longitudes de onda a partir de 400 a 2500 nanómetros. El instrumento vuela a bordo de un aeroplano de la NASA Er-2 (un aeroplano U2, modificado para el funcionamiento creciente) a una altura aproximada de 20 kilómetros sobre nivel del mar, y a una velocidad de 730 km/h.
El sensor AVIRIS ha volado Norteamérica, Europa y partes de América del Sur.
El objetivo principal del proyecto de AVIRIS es identificar, medir, y supervisar los componentes de la superficie terrestre y de la atmósfera basados en la absorción molecular y en las partículas que dispersan a la atmósfera las industrias contaminantes. La investigación con datos de AVIRIS se centra fundamentalmente en los procesos relacionados con el cambio global del ambiente y del clima.

PROBE-1

El instrumento hiperespectral Probe-1 tiene una capacidad para 128 canales de datos con una banda de rastreo de hasta 6 kilómetros de ancho, pesa cerca de 400 libras y es capaz de recopilar la información a partir de 128 bandas de los espectros infrarrojos visibles y de onda corta, y entrega imágenes de alta resolución permitiendo la identificación fácil de las características minerales dominantes en la tierra.
Montado en una plataforma estabilizada, el Probe-1 recoge datos del GPS para referir los datos de la imagen a las coordenadas del GPS. Utiliza cuatro espectrómetros y cuatro órdenes focales lineales del plan para cubrir la región de la longitud de onda de 0,4 a 2,45 nanometros.

El Probe-1 puede volar a una gran gama de altitudes y proporciona tamaños de pixel entre 1 y 10 metros y anchuras de la banda de rastreo entre 1 y 6 kilómetros. A 2500 metros, el Probe-1 tiene una anchura de banda de rastreo de 3 kilómetros con un campo visual instantáneo de tierra (GIFOV) de 5 metros (resolución 5 m.). A partir de 5000 metros, la anchura de la banda de rastreo es 6 kilómetros con un GIFOV de 10 metros. Dada la transportabilidad del PROBE-1 entre plataformas, los tamaños más bajos del pixel se alcanzan con velocidades de vuelo lentas, como por ejemplo en un helicóptero.

El Probe-1 es un instrumento que recoge datos en dos direcciones, una transversal a la banda de rastreo y otra en dirección longitudinal a la misma. El instrumento actúa como espectrómetro de la proyección de imagen reflejada del espectro electromagnético (0,4 a el µm 2,5). En el VNIR y SWIR, la radiación del sensor es dispersada por cuatro espectrógrafos sobre cuatro órdenes del detector. La cobertura espectral es casi continua en estas regiones con boquetes pequeños en el centro de las 1,4 µm y 1,9 µm.

Para evitar distorsiones geométricas en las imágenes registradas, el Probe-1 se monta sobre ejes estabilizados con un giroscopio.

NEMO. Mapa Naval Observador (NEMO) de la Tierra

Bajo la dirección de la oficina de ciencias y tecnología navales (ONR) un equipo de la industria de Naval junto con una empresa privada producirán el primer satélite con sensores hiperespectrales para uso Naval y Comercial.
La fecha de lanzamiento programada es el año 2002. El satélite EarthMap (NEMO) será capaz de obtener imágenes mediante sensores hiperespectral y cubrir las necesidades pancromáticas de muchos usuarios.
Los modelos ambientales de la marina que se apoyan en operaciones en el litoral serán ampliados considerablemente por los productos Hiperespectrales de las imágenes y de los datos proporcionados por el NEMO para mejorar el conocimiento del litoral con información precisa sobre la batimetría y otras características costeras.
NEMO demostrará la utilidad de un sistema de imagen de multilongitud de onda para las necesidades navales de caracterización de las regiones litorales del mundo (del agua y de la línea de la costa a 50 kilómetros de la orilla).
El sistema proveerá de imágenes en 200 bandas espectrales sobre un paso de banda del 0,4 µm a 2,5 µm.
Puesto que los ambientes marinos tienen reflexiones típicamente menores del 5%, este sistema requerirá una relación señal/ruido muy alta (para asegurar una imagen de alta calidad). El toner hiperespectral (HSI) muestreará sobre una anchura de banda de 30 kilómetros con una resolución de la muestra de 60 m y con la opción para ir a 30 m GSD utilizando el sistema de control de la actitud de los sistemas.
Una órbita circular de 600 kilómetros permitirá la cobertura continua de la tierra entera en 7 días que proporcionarán datos sobre 1.000.000 kilómetros cuadrados por día.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *