SATÉLITES ARTIFICIALES.                                          Capítulo 5º  Subcap. 11

<> EL VUELO DE LOS SATÉLITES ARTIFICIALES TERRESTRES.

Índice de este Apartado:

<> EL VUELO DE LOS SATÉLITES ARTIFICIALES TERRESTRES.

    > LOS SATÉLITES. SISTEMAS Y APARATOS.

        = SISTEMAS BÁSICOS.

            - SISTEMAS DE PROPULSIÓN.

            - SISTEMAS ELÉCTRICOS.

            - SISTEMAS DE NAVEGACIÓN Y CONTROL.

            - SISTEMAS DE PROTECCIÓN AMBIENTAL.

            - SISTEMAS DE COMUNICACIONES.

= SISTEMAS CIENTÍFICOS Y DE APLICACIONES TECNOLÓGICAS.

            - FOTOGRAFÍAS. IMÁGENES DESDE EL ESPACIO

    > LANZAMIENTO Y SATELIZACION.

    > MANIOBRAS Y OPERACIONES ORBITALES.

        = TIPOS DE ÓRBITA.

        = VARIACIONES DE LA TRAYECTORIA ORBITAL.

        = CITAS Y ENSAMBLAJES. SEPARACIÓN DE MÓDULOS

        = SATURACIÓN Y BASURA ESPACIAL.

    > TIPOS DE SATÉLITES ARTIFICIALES.

        = SATÉLITES DE INVESTIGACION.

            - SATÉLITES DE INVESTIGACIÓN ASTRONÓMICA.

            - SATÉLITES DE INVESTIGACIÓN DE LA MICROGRAVEDAD.

            - EXPERIMENTALES Y TECNOLÓGICOS.

            - OTROS SATÉLITES CIENTÍFICOS.

        = SATÉLITES DE APLICACIONES.

            - SATÉLITES DE COMUNICACIONES.

            - SATÉLITES METEOROLÓGICOS.

            - SATÉLITES DE RECURSOS TERRESTRES.

            - SATÉLITES DE POSICIONAMIENTO Y NAVEGACIÓN.

                SISTEMA GPS Y OTROS.

            - SATÉLITES GEODÉSICOS.

            - SATÉLITES MILITARES.

                EL PROYECTO SDI (“LA GUERRA DE LAS GALAXIAS”)

            - OTROS SATÉLITES.

    > REENTRADA. RESCATE DE CARGAS ÚTILES.



<> EL VUELO DE LOS SATÉLITES ARTIFICIALES TERRESTRES.


  Un satélite artificial es un ingenio construido por manos humanas que gira en torno a nuestro planeta al menos en una vuelta completa y de forma inercial, es decir, sin la ayuda de un impulso añadido a su llegada al inicio de tal trayectoria; también se aplica ocasionalmente la denominación de luna artificial, y ocasionalmente la de bird (pájaro) en sentido familiar. Por extensión, se utiliza también para naves espaciales tripuladas y cualquier objeto artificial que gire sobre otros planetas o satélites naturales de los mismos, si bien en estos casos suelen ser denominados sondas o ingenios lunares o planetarios.

La importancia de estos ingenios ha establecido una nueva era para la Humanidad a partir de su llegada en 1957 por su incidencia en los múltiples aspectos de importancia de nuestra vida común. El campo militar, las telecomunicaciones, la meteorología, etc., han observado un cambio trascendental con los mismos y la industria y vida social, a su vez, se ha transformado con ello.

Sin embargo, tienen los satélites aun un aspecto no menos importante en el freno de sus posibilidades y uso, y es su elevado costo, tanto por las necesidades tecnológicas de vanguardia como por los precios de los cohetes lanzadores. El coste de la mayoría de los satélites era hacia 2001 entre los 20 y 300 millones de dólares (de 1.989 a 5.960 millones de pesetas), incluida su fabricación y lanzamiento. La mayoría de los minisatélites cuestan en 2003 unos 25 millones de dólares. Pero también se fabrican, generalmente minisatélites, por debajo de los 20 millones, y algunos militares, y también unos pocos científicos, en el otro extremo, pueden sobrepasar los 1.000 millones de dólares.

Por debajo de los 50 Kg aproximadamente los minisatélites pueden ser denominados microsatélites. Entre 1 y 10 Kg se llaman nanosatélites y por debajo del 1 Kg (o en torno a tal masa) picosatélites. El costo de un picosatélite, del tipo Cubesat, de un 1 Kg solo de peso, pudo reducirse a solo unos 70.000 $ en 2008.

En la concepción de los satélites, considerados todos sus sistemas y aparatos, su desgaste por la acción del espacio y agotamiento de sus propios recursos (energéticos u otros), establece lo que se denominada vida útil prevista de los mismos. Aquí, salvo excepciones, los casos de avería no admiten reparación, salvo que procedan que opciones informáticas que puedan recibir renovados programas o nuevas instrucciones y regrabarlas. Intentar las reparaciones in situ supone un costo no asumible porque resulta muy caro, si bien en algunos casos al principio del programa Shuttle si se hizo. A veces las averías o fracasos son debidos a la más insignificante (aparentemente) pieza o parte del ingenio. Por eso resultan de suma importancia los controles de fabricación y la dotación de sistemas dobles, triples o alternativos en todos los aspectos posibles de un ingenio espacial.

Aunque la mayoría de satélites observan con relativa comodidad la superficie terrestre, cabe también indicar que desde esta última también a ellos se les puede captar con relativa desventaja. Al margen de los grandes medios de las agencias espaciales, empresas y los radares militares, en dependencia de su tamaño y de la potencia de los prismáticos o telescopio disponible, cualquier ciudadano del mundo puede verlos. A partir de cierta envergadura, generalmente se les observa como una estrella, un diminuto punto de luz (debido al reflejo de la luz solar), al amanecer o atardecer durante unos minutos cuando sobrevuelan el punto del observador. Con medios ópticos y un gran tamaño del satélite (como las estaciones Mir o la ISS), hasta puede ser fotografiado e identificado. El tiempo de observación posible y óptima desde un punto fijo terrestre es de unos 8 min en una órbita baja (de unos 300 Km, por ejemplo), pero para alturas de 1.000 Km el mayor tiempo de más de 17 min se vería descompensado por la mayor lejanía. A medida que aumentamos la altura, el satélite permanece más tiempo con posibilidad de observación, pero la misma distancia, como se indica, hace ya imposible captarlo, a menos que se trate de un gran tamaño, cosa inusual, o bien con el uso de ópticas más potentes (y/o dotadas de dispositivos astronómicos del tipo CCD). Para tal observación de satélites, al principio de la era espacial se dispusieron como medios ópticos terrestres las cámaras Baker-Nunn del Observatorio Smithsoniano para el AGI, que se distribuyeron en número de 12 sobre 9 naciones; llevaban un espejo primario de 78 cm.

Ejemplos de sobrevuelo de un satélite sobre un punto terrestre y posibilidades de observación o captación según su altura orbital:

Sobrevuelos diarios

Altura del satélite en Km

Tiempo de observación

16

480

9 min

12

1.600

24 min

4

8.000

2 h 5 min

continuo

35.700

24 h


    La identificación de un satélite desde tierra por radar, opción generalmente exclusiva de los militares, no solo puede establecer las características de su trayectoria orbital, sino también su forma y posición u orientación. Los americanos usaban en los años 60 su SPADATS militar del NORAD para concentrar la información de los distintos radares de la red propia correspondiente (mundial) y recopilar la información sobre satélites, haciendo seguimiento continuo para establecer características y fragmentos acompañantes posibles.

    En general, el seguimiento de los satélites técnicamente se puede realizar por un sistema de radar, por uno de interferometría (captando señales desde dos estaciones separadas geográficamente), por el efecto Doppler de las emisiones del satélite, y por medios visuales (telescópicos). Generalmente, el seguimiento se realiza solo con alguno o varios de los tres primeros sistemas, y sobre todo de ordinario con las antenas de la red de seguimiento que deben apuntar con precisión hacia el lugar del cielo por donde va a pasar el satélite. Dado que su paso es fugaz, de unos minutos si la órbita es baja, la adquisición de su señal exige precisión, si bien desde 2013 las posibilidades han aumentado al poder dotar a las antenas terrestres del sistema SARAS; este sistema reduce a pocos segundos el tiempo de apuntamiento preciso y para ello a las antenas se les han añadido ocho sensores de radiofrecuencia. La primera prueba de este último sistema ha sido realizada por la ESA en tal año de 2013 en la estación de Villanueva de la Cañada (Madrid).

Tampoco podemos finalmente dejar de citar la contribución de los radioaficionados, que han mantenido incluso su propio programa de satélites (los OSCAR), y que han contribuido en su medida en este campo, así como otros aficionados a las telecomunicaciones que ocasionalmente disponen de instalaciones nada desdeñables, haciendo su propio seguimiento de estos y otros tipos de satélites.

    > LOS SATÉLITES. SISTEMAS Y APARATOS.


Un ingenio espacial, sea satélite, una sonda o nave tripulada, se constituye de un armazón, plataforma o chasis, o varios encajados, empatados, ensamblados o unidos, unos sistemas básicos y sistemas complementarios (científicos o de experimentación y tecnológicos).

Los chasis establecen modelos de ingenio según su estructura, dando lugar a diversos tipos más o menos estandarizados, sobre todo cuando se trata de series de satélites de aplicaciones (comunicaciones, etc.). Son estructuras extremadamente ligeras y resistentes, metálicas o materiales similares, que deben soportar las tensiones y vibraciones mecánicas, sobre todo del lanzamiento.

La forma y configuración exterior del satélite, puesto que se mueve casi sin roce atmosférico, es relativamente indiferente e influyen en el mismo el resultado de la configuración de sus aparatos y sistemas, principalmente el de aislamiento contra meteoritos y el energético si es a base de paneles solares. Evidentemente, si el ingenio va destinado a una órbita baja, la forma aerodinámica si influye más, y en una órbita alta no influye para nada. La disposición de determinados aparatos que necesiten estar aislados en largos brazos puede dar una particular forma al ingenio.

Para el lanzamiento, la forma del satélite es generalmente plegada en las partes como antenas, brazos y paneles, y va dentro de un caparazón o cono de proa del cohete que se separa una vez sobrepasadas las capas atmosféricas más densas. Pero si el satélite, como ocurre con el caso Shuttle, o las navetas soviéticas utilizadas para el proyecto Buran, o en el caso del europeo Hermes, la cosa cambia. No hay envuelta aerodinámica protectora y el ingenio va expuesto directamente al avance aerodinámico en el ascenso del cohete. En este caso, el factor forma y sus ángulos y la protección térmica son indispensables y por lo general serán los mismos necesarios para el retorno a la atmósfera. Los estudios previos en túneles aerodinámicos marcan las líneas de estos ingenios y su versatilidad para el lanzamiento, reentrada, con la debida protección térmica, y posterior vuelo aeronáutico hasta el aterrizaje son determinantes. En los programas Shuttle tripulado y el soviético Buran, así como en el caso de los aviones-cohete citados en un apéndice se dan mayores referencias de esta opción.

                    = SISTEMAS BÁSICOS.

Los sistemas básicos de un satélites se pueden resumir en navegación y comunicaciones, si bien en el primer caso se puede subdividir en sistemas de propulsión, sistema eléctrico, sistema de guía y orientación, o corrección de la posición, y el de control o coordinación del resto de sistemas; también es cierto que las comunicaciones se podrían considerar en muchos casos parte del sistema de navegación cuando el apoyo terrestre en la navegación resulte primordial. Todos se complementan con los subsistemas de protección ambiental.

Así pues, de un modo general, los sistemas básicos de cualquier ingenio en el espacio (satélite, sonda o nave) son los siguientes:


Según la evolución tecnológica y los distintos tipos de ingenio estos sistemas podrían estar divididos en otros, pero básicamente son los citados los principales y se consideran de hecho otros como subsistemas. Así, se podría hablar de sistema o subsistema telemétrico (encuadrado aquí en el de comunicaciones), de control de posición (propulsión), etc.

En el caso de las partes mecánicas, los satélites pueden llevar sistemas como los de las máquinas terrestres y en su caso disponen de lubricantes. Naturalmente, los materiales, motores eléctricos, hidráulicos, rodamientos, etc., son de aleaciones específicas o llevan la adecuada protección contra el vacío, el frío y el calor extremos, y en ocasiones contra la radiación. Un motor eléctrico, sin aire que lo refrigere, aquí se calentará más de lo debido. Los lubricantes son especiales para evitar los efectos del vacío y también del frío y del calor. Bajo tales condiciones, el desecamiento y dispersión de los lubricantes es más fácil, y es por ello que no sirven los habituales utilizados en la Tierra.

Los sistemas electrónicos utilizados en los componentes destinados al espacio, en especial muchos de los informáticos y principalmente los circuitos fundamentales, los chips, los microprocesadores, difícilmente son los más avanzados del mercado. Curiosamente cuando en cualquier ordenador personal al tiempo que lo habitual es una generación, por ejemplo 586 (Pentium), en el espacio se estaba usando aun el microprocesador 386. El problema, la razón de que así sea, es que la miniaturización también lleva a aumentar las posibilidades de que la fuerte radiación incida más globalmente en tales miniaturizaciones. Por ello, antes de dar salida a un nuevo modelo, el componente, debidamente blindado en los casos importantes, ha de ser probado primero largamente en el espacio. La radiación es una de las causas de reinicio de los sistemas informáticos de control de los ingenios espaciales, provoca errores en los mismos, en aparatos y sistemas, e incluso averías importantes. Se emplean materiales especiales y tratados para tratar de atajar el problema. También se ha estudiado el uso de aleaciones de silicio y germanio para utilizar en esta electrónica miniaturizada como medio para soportar la fuerte radiación; en 2010 una aleación de silicio-germanio resistía además temperaturas extremas de -180ºC y 120ºC. Pero el principal sistema para superar el problema es el uso del denominado Redundancia Modular Triple, que consiste en circuitos triples sincronizados cuyo flujo de señales es comparado, de modo que la corrupción puntual en uno, tras ser comparados los datos con los otros dos, se suple por la concordancia de los demás. En cualquier caso, como es natural, todo supone un mayor peso y coste de la electrónica espacial.

Se consideran a continuación algunas peculiaridades de algunos de los sistemas.

                                  - SISTEMAS DE PROPULSIÓN.


Los sistemas de propulsión posibles para satélites son los mismos sistemas de cohete, en todas las variantes conocidas, empleándose aquí con mayor profusión pero generalmente con mucha menor potencia y más precisión en la fuerza. Hay que tener en cuenta que en órbita, el satélite flota ingrávido pero sigue teniendo masa y es necesario corregir órbitas, cambiar de posición para enfocar instrumentos u orientarse. Así que con poco empuje es posible moverlo, hacerlo girar, etc., salvo los cambios acusados de órbita, que necesitan motores de mayor empuje o, menores, pero de más prolongado funcionamiento.

En la microgravedad hay que tener en cuenta que el propulsante líquido flota ingrávido y por lo tanto hay que moverlo para inyectarlo en la cámara de combustión. Esto significa que hay que disponer de un sistema de presión, o hacer que rote para general una fuerza centrífuga, o cualquier medio que obligue al líquido a ir por el conducto hacia tal cámara. En los motores de propulsante sólido este problema no existe, pero tienen el inconveniente de no poder ser tan controlables y una vez encendidos no pueden ser apagados por lo que solo sirven para contadas ocasiones (como motor principal de apogeo o inserción en trayectoria planetaria).

Lo frecuente para pequeñas acciones de propulsión son pues pequeños motores, también llamados motores de posición, orientación y verniers. En ocasiones, algunos, los más pequeños, son solamente sistemas de liberación de gas a presión de hasta 300 atmósferas (nitrógeno, propano o freón, por lo común). También pueden ser incluso de vapor generado por sales de amoníaco y alcanfor que pueden producir hasta algunas docenas de miligramos de empuje. Pueden estar distribuidos en grupos y según su posición en el sentido de la marcha ejercer la función de frenado cuando el sentido de la fuerza es opuesto al mismo. Los americanos suelen usar para estos motores como propulsante la hidracina. También se usan los motores iónicos, si bien de empuje muy pequeño, de funcionamiento prolongado, igualmente efectivo.

En un cambio de posición u orientación, el uso de un pequeño cohete para hacer girar en cualquier sentido a un satélite exige a continuación la utilización de otro de empuje contrapuesto a tal sentido para frenarlo en el momento oportuno. Si no se frena tal fuerza en el calculado instante, el satélite girará sin parar a menos que alguna otra fuerza actúe.

En cualquier caso, la cantidad de propulsante disponible para orientación y maniobras orbitales es determinativo para establecer la vida útil prevista del satélite en órbita, naturalmente en proporción directa. Para el caso de los satélites geoestacionarios, por ejemplo, el mantenimiento de su posición viene a suponer al año un total acumulado de incremento de velocidad de unos 50 m/seg de correcciones.

Para el caso de alteraciones importantes de los parámetros orbitales, las necesidades propulsoras son proporcionales y por tanto necesitará un motor lo suficientemente grande. Por eso, la órbita final de los satélites admite luego pocas variaciones y su arribada a la misma suele ser proporcionada por un llamado motor de apogeo o fase final del cohete portador que finalmente es separada del satélite antes de su entrada en servicio.

Algunos ejemplos de motores para satélites:

Motor

País

Propulsantes

Empuje (Kg)

Observaciones

11D414

URSS

UDMH y RFNA

200

Utilizado en los Molniya

11D426

URSS

UDMH y N2O4

300

Tiempo de funcionamiento 9 min 30 seg

MR-50

USA

Hidracina

3,9

Utilizado a partir de 1974.

MR-103

USA

Hidracina

¿?

Usado en el INTELSAT 5, ATS-6, etc.

MR-104

USA

Hidracina

45,4

Usado por los LANDSAT, TIROS N, etc.

MR-106

USA

Hidracina

2,7

Utilizado por los RADARSAT, etc.

MR-107

USA

Hidracina

26

Pegasus, STEP y otros.

MR-502

USA

Hidracina

0,05

Usado en el Astra 1B.

MR-508

USA

Hidracina

0,02

Usado en el TELSTAR 4.

R-6C

USA

MMH y N2O4

3,35

Usado en el Olympus, Insat 1, etc.

Star 13

USA

Sólidos

387

Utilizado desde 1992.

Star 24

USA

Sólidos

2.039

Motor de apogeo. Usado en 1970.

Star 27

USA

Sólidos

2.753

Motor de apogeo usado en los GMS, etc.

Star 37XFP

USA

Sólidos

3.215

Motor de apogeo. Usado desde 1990.

XIPS

USA

Xenón

0,0018

Motor iónico de 2.585 seg de acción.

MAGE 2

ESA

¿?

675

Motor de apogeo. Usado desde 1983.



                                   - SISTEMAS ELÉCTRICOS.

Los sistemas de producción eléctrica en el espacio pueden ser los siguientes, todos ellos administrados por un sistema estabilizador del voltaje:

Baterías. Son los sistemas de energía acumulada conocidos de los vehículos terrestres, adaptados con nuevos materiales y mejoradas técnicas, y protegidos aquí para soportar las condiciones del vuelo. Las baterías tienen el inconveniente de su peso y una capacidad limitada. Pero intervienen además en el almacenamiento de la energía generada o captada por otros sistemas. Así, la energía captada es almacenada en baterías o pilas recargables, por ejemplo, de plata-cadmio, plata-zinc, y las de níquel-cadmio, menos efectivas que las otras pero de mayor garantía y regularidad. Su total y controlada descarga regular cada cierto tiempo en determinados casos permite alargar su vida. Cuando almacenan energía de paneles solares y el satélite atraviesa una zona de sombra, cosa ordinaria en cualquier órbita y que es casi la mitad del tiempo de cada una, permiten seguir manteniendo el suministro eléctrico. Se pueden clasificar en baterías primarias o secundarias, según el orden de prioridad en su funcionamiento; es decir, la actuación de reserva en el caso de las segundas por si fallan las primeras. Según la misión, en algunos casos, puede que algunas pilas no sean recargables, y agotada su vida marcan el final de la vida del satélite o sonda. Las mejores actuales por su duración y capacidad son las de níquel-hidrógeno creadas en los años 70.

Paneles solares. Están formados por miles de células solares o fotovoltaicas interconectadas en una red cableada; tal célula fue creada en 1930. Su disposición típica en el satélite es en paneles, que al lanzamiento viajan plegados, pero también pueden ir adheridas sobre las paredes planas o curvas del ingenio. Los paneles pueden estar a su vez divididos en otros o sumados a otros, generalmente plegables o articulados. Las células son de silicio cristalino (con algo de fósforo y arsénico) y más tarde de arseniuro de galio, material fotovoltaico que transforma la luz que llega del Sol en electricidad al liberar, en las mismas, electrones; la incidencia del fotón absorbido al adquirir el átomo energía libera un electrón (ionización). Los dos factores pues que determinan la mayor o menor eficacia del sistema son el material a utilizar y la energía llegada, con el correspondiente grado angular de incidencia óptimo. Esta energía puede ser utilizada directamente (electrónica de estabilización por medio) o almacenada en pilas o baterías para su uso cuando el satélite no está iluminado por el Sol (sobrevolando la noche terrestre). El rendimiento estudiando de antemano de las células solares se mide en sus parámetros de corriente-tensión y en la respuesta espectral, comprobándolas ante las distintas longitudes de onda del espectro visible y limítrofe.

Con el tiempo, las células fotovoltaicas se van degradando o deteriorando (algunas, en cuestión de días pueden bajar en efectividad hasta en 1/5 parte), pero resulta uno de los mejores sistemas de abastecimiento para satélites. Además del silicio y el arseniuro de galio, también pueden servir otros materiales como el teluro y el sulfuro de cadmio, y el fosfuro de indio. Con una célula de silicio de 6 cm de diámetro se pueden producir en el espacio (a la altura de la Tierra) una corriente de 1 amperio y 0,25 voltios. En órbita terrestre, el aporte de la energía solar por m^2 viene a ser de 1.353 vatios constantes. La orientación plana en dirección a la luz, es decir la incidencia vertical de la misma, como se dice, determina su máximo rendimiento, así que la llegada inclinada lo reduce en igual proporción al ángulo de incidencia. La mayor lejanía del Sol, la intensidad disminuida, también reduce el rendimiento.

En los años 70 el rendimiento de las células oscilaba entre el 7 y el 10 %. En la segunda mitad de los 90 el rendimiento de las de silicio es del 12 %, o 15 % en el mejor de los casos, significando que convierten tal cifra en energía de un total sobre 100 de la llegada del Sol en nuestro nivel de distancia, bajando en proporción a la mayor distancia. Con las de arseniuro de galio el rendimiento era de 21,3 %. Pero la introducción de las llamadas células de separación multibanda, que aprovecha más frecuencias del espectro ETM, aumentó el rendimiento a casi el 30 %. En el futuro es de esperar que siga aumentando tal cifra. Con el tiempo, por ejemplo, al cabo de 10 años en el espacio las células de silicio pierden el 50 % de su efectividad. A principios del Siglo XXI las investigaciones son esperanzadoras con materiales como el silicio amorfo hidrogenado y otros mixtos.

En 2003 la empresa americana Spectrolab anunciaba las células de una eficacia conversora del 36,9% de la energía solar recibida en las mismas mediante un sistema de concentración óptica y se esperaba llegar pronto a un 40%.

Para vuelos de sondas al espacio lejano, la ESA encargó a las empresas DASA, Cise y AsGa, baterías solares de silicio de alto rendimiento, de un 25 % en tal situación. La ESA no disponía a principios de los 90 de tecnología para el uso alternativo de generadores radioisotópicos, de modo que el uso de paneles de alto rendimiento fue la solución. Tales, no son sin embargo útiles en distancias mayores, en la lejanía de los planetas exteriores y allí sigue siendo preciso el uso de tales generadores de energía atómica. Aproximadamente 10 m^2 de células a la altura de la Tierra en el espacio producen unos 1.000 vatios, pero a la distancia de la órbita de Júpiter para producir lo mismo se necesitan más de los 50 m^2. Por ello, a principios del Siglo XXI el límite razonable en el uso de paneles se sitúa en órbitas entre Marte y el cinturón de asteroides. Para entonces la única sonda que había viajado con paneles por esta zona fue la Stardust, hasta 2,72 UA (2002).

Células o pilas de combustible. Su principio fue enunciado por William Robert Grove en 1842 (1839, según otras fuentes), y es un sistema químico productor de electricidad, como una pila corriente. Se basa en el empleo de hidrógeno y oxígeno que combinados en la reacción producen agua, calor y aportan electricidad; es el proceso inverso a la electrólisis. En uno de los 2 electrodos entran H y en el otro el O. La reacción química hace que el hidrógeno libere su electrón que va hacia el cátodo (polo negativo), generando ya la electricidad, y el protón cruza el electrolito (de hidróxido de potasio en el caso de las naves Géminis). Son más propias de naves tripuladas y también son llamadas pilas de combustible. Las naves espaciales tripuladas americanas llevan este sistema y por partida triple como sistema de seguridad; el aporte energético es en este caso de 12 kW. Aunque pueden ser utilizadas en la vida común con menos requerimientos, más baratos y con medios más corrosivos en los electrolitos, las espaciales utilizan elementos puros. El coste de consecución y manejo seguro del hidrógeno es uno de los factores que eleva el precio de este sistema y por eso en una aplicación doméstica habría que recurrir al metano, butano, etano, tolueno, u otros combustibles más baratos. Las naves Apollo llevaban electrolito líquido bajo requerimiento de 200ºC y unas 3,5 atmósferas para el funcionamiento. Eran de gran rendimiento y sus pocos inconvenientes eran la corrosión y su larga activación.

El rendimiento de este sistema es en esta época (Siglo XX) del 65% como máximo, muy por encima de otros medios productores de electricidad.

Generadores radioisotópicos. Son sistemas que llevan un reactor atómico que toma la energía aportada por isótopos de un elemento, dispuestos en barras o tubos. El calor que se genera en la reacción es convertido en electricidad con grupos de termopares. De otro modo, pares de materiales semiconductores, como el plomo y el telurio o el silicio y el germanio, al ser calentados por un extremo y enfriados por el otro, producen una corriente. Este sistema es necesario para lugares donde no llega la luz solar con suficiente potencia para abastecer un panel, como son los sitios más allá de la órbita de Marte. Por ello se citan también en el capítulo de “Sondas interplanetarias”. Pero también han sido utilizados en satélites, como en el caso de los Cosmos soviéticos. En efecto, desde 1967, utilizaron el modelo termoeléctrico Romachka (“margarita”) pensado para el uso espacial, de solo 500 W o 1 kW a lo sumo, funcionando con uranio muy enriquecido, y desarrollado por el Instituto de Energía Atómica Kurchatov de Moscú desde agosto de 1964; funcionó durante 15.000 horas continuadamente. Desde 1977 los soviéticos usaron el Topaz, creado entre 1970 y 1974 por el Instituto de Física Energética, de más de 10 kW, que tendría en un “descendiente”, el Topaz 2, el mini-reactor más avanzado a su llegada (llegó a ser vendido a los americanos…); este último pesaba 1.061 Kg, medía 3,9 m, siendo el núcleo de 37,5 cm de largo por 26 cm de diámetro, y aportaba cerca de los 10 kW con su sistema termoiónico con combustible Uranio 235. Los Topaz de prueba, basados en un reactor termo-emisor que calienta metal que emite electrones, utilizaban bióxido de uranio enriquecido al 90% con uranio 235; el núcleo era un cilindro de 28 cm de ancho por 36 cm de altura. Otro sistema de generadores radioactivos, el Orión 1, producía 15 vatios y el elemento utilizado fue el Polonio 210.

Los americanos utilizaron los denominados SNAP: el modelo SNAP 3 del TRANSIT era de solo 2,5 o 3 vatios (junio de 1961) durante 5 años y pesaba solo 2 Kg, de ellos 95 gramos de combustible, Plutonio 238. El SNAP 9A fue usado por los TRANSIT desde 1963, aportaba 25 vatios durante 8 años y pesaba 12 Kg. El SNAP 10A, utilizado en abril de 1965, suministraba 650 vatios y pesaba 450 Kg. El SNAP 11, desarrollado desde 1962 y dispuesto en las sondas Surveyor, aportaba 25 vatios durante 4 meses utilizando curio 242. El SNAP 13 aportaba 12,5 vatios durante 3 meses con curio 242. El SNAP 17, creado desde 1963, aportaba 30 vatios durante 5 años y utilizaba como combustible estroncio 90. El SNAP 19 daba 50 vatios durante 5 años con plutonio 238 y fue pensado para los satélites Nimbus. El SNAP 27 de los ALSEP Apollo era de 50 vatios funcionando durante 1 año con plutonio 238. El SNPA 29, aparecido en 1966, aportaba más de cuatro veces más durante 3 meses con polonio 210.

Estos SNAP utilizaron en resumen pues como combustible plutonio 238, estroncio 90, polonio 210 y curio 242, y los sistemas soviéticos utilizaron uranio enriquecido al 90 %. Detenido en 1973 el proyecto SNAP, la investigación americana en el campo de estos dispositivos espaciales se continuó con el denominado SP-100 para el que se pretendía una potencia de 100 kW con óxido de uranio enriquecido y de unas 2 Tm de peso, 0,4 pertenecientes al reactor.

En 1991, año en el que desapareció la URSS, el ruso Topaz 2 fue ofrecido, en 2 unidades, a los americanos por 13.000.000 $, consumando la entrega en mayo de 1992 a la USAF que lo quería probar en órbita en los primeros meses de 1993; en 1994 comprarían otros 4.

El uso de este tipo de generadores es necesario en misiones hacia los planetas exteriores, donde los paneles solares no resultan efectivos, o cuando las necesidades energéticas han de prescindir de la posición del satélite (los paneles solares necesitan orientarse al Sol), y también en cualquier caso por su buena relación rendimiento-peso.

El problema de este sistema es que al ser alimentado con material radiactivo los satélites dotados del mismo, casi todos sin medios de retorno controlado, acaban cayendo tarde o temprano sobre la alta atmósfera y destruyéndose con posibilidad de esparcimiento de restos sobre el suelo del planeta lo que causa contaminación.

Otros. Entre las posibilidades aun en ensayo para captar energía en el cosmos se cuenta el uso de un largo cable electrodinámico, arrastrado en la órbita por el satélite; se ha calculado que un cable de unos 10 Km de largo y 1 mm de grosor podría generar teóricamente 20 amperios y 50.000 voltios, con un potencial de 1 megavatio. Este sistema puede ser aplicable en la órbita de la Tierra, o donde haya una magnetosfera acusada, como en Júpiter. El sistema tiene cierta complejidad pero es más barato para lugares donde la efectividad de los paneles baja, como en los planetas exteriores, que los generadores radioisotópicos. Este sistema fue ensayado en un vuelo Shuttle (proyecto TSS) en los años 90.

                                 - SISTEMA DE NAVEGACIÓN Y CONTROL.

Los sistemas de control sirven para tener un punto de referencia de los movimientos de un ingenio, satélite, sonda, nave espacial o cohete, y poder actuar así en consecuencia en la medida precisa con los motores disponibles para corregir una velocidad, una dirección, un ángulo, una trayectoria, un rumbo... La posición se la da la órbita en que está, pero además es necesario mantener el control de la orientación y la actitud. La función de enfoque y observación, u orientación del satélite es necesaria para cumplir su destino. Como es lógico, si el ingenio gira sin control difícilmente puede realizar su trabajo. Los sistemas de estabilización pueden necesitar sensores, o puntos de referencia internos (giroscopios, por ejemplo) o externos (una estrella, por ejemplo; el Sol, Canopus –que no tiene en su entorno otras de tanto brillo, con lo que se evitan confusiones-, etc.), o bien mediante una acción gravitatoria (rotación, por ejemplo). El tipo de sensores básicos para cumplir la primera finalidad es de 3: inerciales; ópticos; y de referencia magnética y ETM. Generalmente, el ingenio tiende al mantenimiento de un momento inercial, a la conservación del momento cinético, y cuando actúan sobre el mismo fuerzas que alteran tal momento diversos aparatos sensibles miden y valoran el cambio, estableciendo la base de partida del sistema de control.

Para muchos satélites, el primer paso es la estabilidad de su propio movimiento (sobre un eje si guardar un mínimo simétrico), evitando la deriva, y para ello se le puede dotar de un movimiento giratorio sobre su eje principal, de longitud o altura, según forma. En este caso, hay un control de tal rotación, para acelerarla, mantenerla o disminuirla, con algún motor que puede ser de gas inerte a presión. La forma del satélite influye en la rotación, sobre todo cuando lleva antenas o mástiles que sobresalen y que pueden frenar el giro, por lo que no es extraño ver como hay gran número de satélites en forma de tambor o cilindro más o menos alto. Es el sistema más sencillo, barato y de menos peso.

Pero cualquier sistema ideal necesita un control múltiple, al menos triple, uno por cada eje posible de los movimientos del cuerpo; es decir, uno para el arriba-abajo, otro para el atrás-adelante, y un tercero para los movimientos de izquierda-derecha. Por ello un sistema tal contemplará en realidad como mínimo 3 aparatos de este tipo o un sistema único que los asuma. También puede tener estabilidad un giro regular sobre uno de los ejes, cosa que a veces es necesaria para evitar ofrecer siempre la misma cara al Sol y la otra a la sombra, o por otras razones. Pero para determinadas funciones es necesaria la estabilización triaxial, o sea, del cabeceo (transversal), balanceo (longitud) y guiñada (vertical).

La base de estos medios de control son sensores de referencias externas ópticos y ETM/magnéticos, y los acelerómetros y giroscópicos y sistemas de giro sobre su eje simétrico equilibrado de discos, esferas o ruedas (en número de 2 o 3) construidos en titanio o berilio, sobre balancines; en este último caso es un simple sistema eléctrico dispuesto adecuadamente que hace rotar los 3 ejes del ingenio, cambiando su dirección y ahorrando propulsante. La velocidad típica de giro es de 2.400 vueltas por minuto.

Por su parte, el giroscopio, o giróscopo, fue inventado en 1852 por el francés Jean Bernardo Leon Foucault (1819-1868), el físico del famoso péndulo que evidencia la rotación terrestre, y consiste en un sistema mecánico que gira como una peonza sobre sí, sobre su propio eje, y sobre el que cualquier movimiento del ingenio que lo contiene altera su estado inercial con desplazamientos o balanceos (precesión) del mismo. Tales alteraciones son traducidas físicamente en contactos sensibles que miden los movimientos y en base a lo que se calcula el desplazamiento. La precisión del giroscopio puede mantener el apuntamiento de instrumentos y la actualización del movimiento del satélite mejor que otros sistemas.

Un giroscopio especial, de sistema triple en sus ejes, muy conocido en aeronáutica pero también utilizado en naves espaciales es el llamado horizonte artificial, que sirve de referencia no ya en el caso de naves aladas que regresen aterrizando, como los Orbiter Shuttle, sino también para naves en órbita. Tal horizonte señala visualmente la marcha más o menos recta o inclinada hacia una línea de hipotético horizonte en la dirección de la nave, suponiéndola siempre en vuelo paralelo al suelo del planeta. Es un instrumento fundamental cuando, por cualquier motivo, no hay visibilidad.

Un sistema básicamente igual al giroscopio ordinario pero mejor y más moderno es el giroláser. Funciona con un rayo láser doble en un circuito cerrado de la misma frecuencia. Tal frecuencia se modifica al alterar el momento de inercia o movimiento, por el efecto Doppler, y en función de la misma se determina la cantidad de desplazamiento que es informada a otro sistema para la corrección si es necesario o simplemente para informar de la trayectoria o posición. Este sistema contiene menos elementos móviles que el sistema anterior y es menos frágil y por ende más fiable. Tiene además menos consumo de energía eléctrica y su empleo no precisa de un tiempo de activación como el anterior.

También se utilizan los llamados volantes de inercia de cojinetes magnéticos, igualmente tres según ejes, para el control de la posición. Llevan una parte fija y un rotor magnético que gira levitando en tal campo sin ningún roce. El cambio de velocidad del vehículo portador es detectado en su medida para permitir la orientación del satélite.

Se complementa el sistema con aparatos acelerómetros, que miden la aceleración en una dirección y permiten el cálculo de la posición del ingenio portador mediante la velocidad y distancia recorridas. Son necesarios sistemas también triples como mínimo que permitan calcular el movimiento posible en todas las direcciones (atrás-adelante, abajo-arriba, izquierda-derecha).

La alternativa, o mejor el complemento para mayor seguridad, a estos sistemas, para que actúe el control ordenando giros o calculados encendidos de motores, son unos puntos de referencia predeterminados que suelen tomarse con los seguidores de estrellas (o star tracker), células fotoeléctricas o sensores del Sol. Los puntos son pues estrellas, el Sol, la misma Tierra en el IR, o incluso con ayuda de las antenas y su debida orientación, con los correspondientes y automáticos cálculos angulares. Una célula fotoeléctrica es un dispositivo que transforma las variaciones de la intensidad de una luz en una correspondiente intensidad de corriente eléctrica. Con un par de sensores IR o en banda visible, un satélite puede identificar a proa y popa el horizonte terrestre y saber así la vertical más o menos exacta del punto sobrevolado en este momento por la bisectriz del ángulo formado con tales horizontes. Del mismo modo, la referencia calculada de estrellas brillantes de la esfera celeste también sirve de orientación a los sensores que, una vez que las buscan y localizan, permiten identificar la posición al sistema de control.

Todo ello, información de sensores, cálculo de la maniobra prevista y ejecución de la misma en su momento, es coordinado por un sistema de control principal, más o menos informatizado y dotado de los programas específicos. Cuando ocurre alguna avería o bloqueo de algún sistema o aparato determinado, el sistema de control puede que, tal como se le previno al respecto, se reinicie automáticamente y entonces se dice que entra en “modo seguro”, consistiendo en dejar los sistemas o aparatos en suspenso o inactividad, con mantenimiento solo de los sistemas vitales a la espera de una resolución de los técnicos o controladores.

También puede un cuerpo orbital estabilizarse en su trayectoria si tiene un desequilibrio apreciable de su masa. Si imaginamos una masa grande unida por un mástil a otra más pequeña, tras un período de balanceo, la mayor acabará abajo, apuntando al centro del planeta, y la menor arriba (posición más alejada de la Tierra) en su marcha orbital por la acción de la gravedad.

                                     -SISTEMAS DE PROTECCIÓN AMBIENTAL.

Pueden comprender los subsistemas de regulación térmica, de protección contra la radiación y contra micrometeoritos y basura espacial.

Además cabe citar la consideración siguiente. Un satélite cruza un espacio que no es vacío absoluto, sino que hay partículas atómicas que constituyen un plasma rarificado que está en movimiento y que al ser atravesado a gran velocidad, como es el caso del satélite, cargan eléctricamente al mismo. Ello significa que algunos electrones son repelidos, por ser de la misma carga, y que una vez en equilibrio hay que considerar pues una pequeña carga que se hace mayor a altitudes superiores, sobre todo con las tormentas de la magnetosfera. En estos casos la cualidad de los materiales externos del satélite no ha de ser distinta entre si para evitar diferencias de potencial y por lo tanto descargas; tal falta de uniformidad también crea diferencia de potencial entre las caras iluminada y en sombra del cuerpo orbital. Con tal plasma, además de la radiación, la luz solar incidente también libera electrones por lo que queda cargado positivamente en tanto que en la parte oscura o de sombra se queda cargado negativamente. La mejor solución es utilizar paredes metálicas, buenas conductoras, incluso cuando se emplean células solares como recubrimiento parcial; tales células pueden llevar una ligera capa del transparente, pero conductor, óxido de indio o similar a tales efectos.

Regulación térmica.Para proteger al satélites o mejor dicho sus partes (aparatos y sistemas) de las temperaturas extremas del espacio (muy elevadas en la zona iluminada y muy frías en las oscurecidas), o más exactamente para mantenerlos en unas temperaturas adecuadas, los sistemas de regulación térmica, dotados de termóstatos, pueden ser diversos: a base de pinturas adecuadas (los obscuros absorben calor y los blancos o claros los rechazan), persianas mecánicas, mantas térmicas, maniobras de rotación del vehículo, opción que también le da estabilidad inercial, y otros. Pueden ser pasivos para el enfriamiento a base de radiadores o intercambiadores de calor, y activos para el calentamiento a base de calefactores eléctricos. Ocasionalmente también se puede disponer de presión cuando el caso lo requiere en el interior de todo o parte de algunos ingenios. Las mantas térmicas suelen ser de láminas de materiales como el Capton con un recubrimiento reflector. El ingenio puede llevar diversos sistemas termométricos distribuidos por la estructura que informan de las temperaturas al sistema para que el mismo pueda ejercer la acción correspondiente para nivelar la temperatura adecuada. Se recuerda que el circular orbital hace pasar al satélite por zonas iluminadas y de sombra continuamente lo que puede crear en la estructura expansiones y contracciones que se traducen en vibraciones y distorsiones de los materiales.

Protección contra la radiación. Tiene la misión de impedir que algunos satélites al cruzar zonas de alta radiación, como los cinturones de Van Allen y áreas análogas en otras partes del Sistema Solar, se vean afectados en su electrónica hay dos formas. Una es evitar el paso por tales sitios con una órbita distinta y otra, si ésta por necesidades del proyecto no es posible, con el blindaje o reforzamiento de determinados componentes de la electrónica a bordo; resultan especialmente afectados además los detectores de diverso tipo.

Protección contra micrometeoritos y basura espacial. Se utilizan telas de Kevlar o material similar que pueden absorber los impactos hasta cierto punto, según el tamaño y velocidad del proyectil, es decir, según su energía. Contra meteoritos mayores no hay protección posible, salvo que, si es posible detectarlos a tiempo, se haga desviar la trayectoria del satélite. Lo mismo ocurre contra la basura espacial; la solución es evitarla, pues no se trata precisamente de polvo sideral.

La afluencia de polvo cósmico en el espacio interplanetario, en general, es para una sonda de una partícula cada 3 días, pero puede haber nubes de polvo, momentos y zonas del Sistema Solar, con más de 20.000 diarias. En el entorno terrestre a mayoría de los micrometeoritos y polvo sideral se miden por décimas partes del milímetro y su masa es menor a la 10.000 parte de un gramo, pero su velocidad, de entre 10 y 70 Km/seg, no es despreciable. Su impacto por lo común lo evapora o funde pero eleva la temperatura del objeto con el que choca en cientos de grados, y además lo electrifica. Una lluvia de tales entes puede causar daños o cuantos menos problemas a los satélites. Generalmente, tales afluencias están localizadas en el tiempo (caso de las lluvias de Leonidas o Perseidas, en el camino de la órbita terrestre), pero hay otras que son imprevisibles.

En 2002, luego de 9 años en el espacio, se trajeron a tierra en un vuelo Shuttle los 2 paneles del satélite Hubble, de 12,1 m de largo por 2,4 de ancho. Examinados en el centro ESTEC de la ESA en Noordwijk, para ver los efectos de la erosión espacial (radiación, temperaturas y micrometeoritos, basura y polvo espacial), se observó en general decoloración, fracturas y pequeños agujeros, que habían hecho perder una efectividad a las células solares de solo un 10%. En total se contabilizaron cerca de 500 impactos de micrometeoritos en cada uno de los dos paneles.

En los 99 m^2 de los paneles solares de la plataforma Eureka a mediados de los años 90 se pudieron ver más de un millar de microimpactos y la envuelta de mantas de Kapton había 135 impactos, el mayor de 6,4 mm. La parte central cubierta de una envuelta protectora de 40 m^2 contenía 71 roturas con tamaños de perforación entre los 0,1 mm y 2 mm. Sin embargo, se cree que los datos de esta estadística de afluencia de micrometeoritos sobre la Eureka son superiores a los normales.

Estos casos no son más que simples ejemplos, pues las circunstancias de la órbita y época determinan importantes variaciones en los parámetros que se señalan.

                                - SISTEMA DE COMUNICACIONES.

Los ingenios espaciales, satélites, sondas o naves tripuladas, llevan un sistema de comunicaciones con el centro de control terrestre (a través de su red de estaciones de seguimiento distribuidas por el planeta) a través de un sistema de radio más o menos complejo, con diversos canales para voz (en su caso), imágenes o datos codificados. La finalidad es posibilitar el seguimiento y control de la misión mediante el envío de órdenes y la recepción de datos de todo tipo.

Los aparatos llevan, como es natural, varias y diferentes antenas y aparatos para la emisión y recepción, modulador y demodulador para la conversión de frecuencias a niveles interpretables (por ejemplo, a audio), amplificadores, micrófonos, conexiones, altavoces, etc. También pueden llevar, sobre todo en el caso de satélites de investigación, sistemas de grabación de datos para su posterior retransmisión; muchas veces, al tiempo de la toma de datos, los mismos no pueden ser transmitidos por no disponer de estación terrestre receptora, en cuyo caso se guardan para su envío a una orden o bien automáticamente al sobrevolar una estación adecuada.

Las antenas pueden ser de alta, media y baja ganancia, correspondiendo la velocidad de transmisión proporcional a las mismas. Las omnidireccionales son antenas que emiten en todas direcciones y no precisan orientación pero son por ello de baja ganancia. Una de tipo parabólico necesita en cambio de una orientación u apuntamiento muy preciso pero podría no estar disponible en determinada posición del satélite.

Los tipos de antena receptoras en tierra pueden ser, además de las parabólicas, las de tipo plano, que en tierra son de más fácil instalación; otras posibles son las llamadas de Cassegrain, o doble reflector, cónicas, etc. Para un control y seguimiento continuado, la antena terrestre ha de estar siempre apuntando hacia la posición del satélite; por ellos, las compañías que tienen varios satélites en órbita tienen que tener tantas antenas como satélites.

En cualquier caso, tanto en las antenas de satélite como las terrestres, el tamaño de las mismas está en función inversa de la potencia de la señal transmitida. Una mayor potencia de transmisión permite pues llevar antenas más pequeñas y cuanto mayor sea la potencia emisora del satélite menor podrá ser la antena terrestre de recepción. De ahí que con muy grandes antenas terrestres sea posible captar sondas siderales a grandes distancias y con muy poca potencia de emisión. El satélite también puede utilizar antenas de haces dirigidos o estrechos o finos, cuya potencia al concentrar la energía permite mejorar la recepción en las antenas de tierra. Por ello, en realidad, no cuenta solo el tamaño sino también frecuencias, concentraciones del haz de emisión y la potencia.
    Existe no obstante el desarrollo de antenas de mayor eficacia para menor tamaño. La necesidad de dotar a los minisatélites, como los cubesats, de tal medio ha llevado por ejemplo a la creación de antenas inflables.

En la recepción hay que considerar no solo la frecuencia de emisión sino los movimientos del propio satélite, o sonda, y de nuestro planeta, en efecto Doppler, así como otros factores atribuidos en el propio satélite (como las temperaturas), hecho que según el caso puede proporcionar ligeros corrimientos en la banda que han de ser tenidos en cuenta.

En los enlaces con satélites se dice que hay dos tipos de enlace, los ascendentes y los descendentes. Los primeros son las comunicaciones enviadas desde las estaciones o centros de control hacia el satélite, en tanto que los segundos, los llamados haces descendentes, son las señales emitidas por el ingenio hacia su destino terrestre (estaciones, antenas caseras, o, en general, entidades receptoras de que se trate) con ayuda del transpondedor (repetidor), cuya función es cambiar la frecuencia, amplificarla y emitir hacia tierra. Las frecuencias son en ambos casos distintas para evitar interferencias, como es natural. El número de canales posibles del satélite determina su ancho de banda, mejor cuanto más alto. La posible cercanía de canales en emisión puede dar lugar a interferencia y ello se evita con la llamada polarización (vertical u horizontal). Cuando se convierten las frecuencias, amplificadas, se pueden separar en bloques que contienen canales de voz, TV, datos, etc., con ayuda de un demultiplexor (que tiene pues una entrada y varias salidas).

En general, las Bandas y sus frecuencias (o RF, radiofrecuencias) son las indicadas en el cuadro siguiente. Dentro de una banda se utilizan las gamas menores llamadas canales.

Banda

Frecuencia en GHz

Longitud de onda, en cm

HF

0,003 a 0,03


VHF

0,03 a 0,3


UHF

0,3 a 1


L

1 a 2

30 a 15,00

S

2 a 4

15 a 7,50

C

4 a 8

7,50 a 3,75

X

8 a 12

3,75 a 2,40

Ku

12 a 18

2,40

K

18 a 27

a

Ka

27 a 40

0,75

V

40 a 75


W

75 a 110


mm

110 a 300




Las frecuencias recomendadas en su día por la UIT, organismo que regula y coordina la materia, para los satélites fueron:

Banda

Frecuencias

VHF

140 a 270 MHz

UHF

400 a 900 MHz

L

1,4 a 1,8 GHz

S

2 GHz

C

4 a 6 GHz

Ku

10,7 a 18 GHz

Ka

20 a 30 GHz


Una de las bandas más usadas por los satélites de telecomunicaciones domésticas es la Ku. La utilizan, por ejemplo, los satélites de los programas INTELSAT, Hispasat, DFS, Telecom, Turksat, Astra, Gorizont, EUTELSAT, Panamsat, etc. Pero también algunos de los mismos, como algún INTELSAT, utilizan la banda C.

La asignación de frecuencias de ITU establece canales distintos según sean los enlaces ascendentes (hacia el satélite) o descendentes (emisiones orbitales del mismo hacia tierra), existiendo algunas reservadas para el sector aéreo, otras exclusivas marítimas, otras compartidas, y según regiones; las regiones son 3 para la ITU: 1) Europa, África y parte norte de Asia, 2) Toda América y 3) Asia excepto la zona antes indicada.

En 1997, la saturación de frecuencias llevó a la empresa americana Hughes con su programa Expressway de satélites geoestacionarios a considerar la llamada Banda V, con frecuencias de entre los 39,5 y los 50,2 GHz, por encima pues de la Banda K.

Aunque se utilizan las ventanas atmosféricas para las comunicaciones espaciales, a veces, cuando la señal es débil, las mismas pueden verse alteradas y no solo por radiación solar ocasionalmente, sino por cosas tan ordinarias como la lluvia. Existen diversas fuentes de ruidos en las comunicaciones por radio procedentes de estrellas y por tanto del propio Sol, de la atmósfera, de las actividades industriales o tecnológicas en la superficie terrestre, y otros factores del propio enlace.

Como sea que las señales emitidas por los satélites o sondas no tienen “nacionalidad”, su captación puede ser hecha por cualquier país que se halle en el área de recepción, por cualquier persona, que disponga, eso sí, de las antenas necesarias y conozca desde luego la frecuencia, o sepa buscarla. Por ello, las emisiones que así lo precisan (TV digital por ejemplo) son codificadas. Esto también es válido sobre todo para ingenios militares y también para datos científicos de satélites y sondas interplanetarias.

Las emisiones de radio de un satélite, y también una sonda o nave espacial, también sirven para determinar la velocidad (en base al efecto Doppler de la señal) y posición de la misma en su trayectoria en el espacio en su detección desde una estación terrestre.

En la opción Doppler, la frecuencia de recepción (Fr) es igual a la frecuencia de emisión (Fe) en función de la velocidad radial (Vr), considerada la velocidad de transmisión la de la luz (c) y el valor positivo o negativo (±) según sea acercamiento o alejamiento la señal respecto al observador, según la fórmula

    Fr=Fex(1±Vr/c)

A partir de aquí, desdoblando la velocidad en distancia/tiempo y consideradas las coordenadas de emisora y receptor, se establecen mediante varias ecuaciones los parámetros orbitales, la distancia entre el satélite y el receptor, incluso con varios satélites la posición de éste último. Sin embargo, también hay que tener presentes a la hora de la verdad las interferencias posibles de origen ionosférico y otros factores de error, lo cual hace la cosa un poco más compleja de lo que aparenta en principio.

    Más modernamente, algunos ingenios espaciales han sido ya dotados -en prueba- de sistemas de comunicaciones por láser, o terminales ópticos, cuya ventaja respecto a la anterior es su velocidad, que se multiplica casi por cien, cuestión a tener presente en las transmisiones de datos. Además, las comunicaciones pueden ser más seguras y se evita en gran medida la saturación de frecuencias del espectro al no producirse las interferencias. Ello también conlleva menos masa en el instrumental necesario y por tanto menos peso a lanzar.

Telemetría. Forma parte del sistema de comunicaciones. Consiste en la transmisión automática y sistemática en señales de radio de datos sobre el estado de los sistemas vitales del satélite o nave espacial así como sobre resultados o estado de los experimentos científicos, labores tecnológicas, etc.; puede incluir fotografías, datos numéricos, etc.

              = SISTEMAS CIENTÍFICOS Y DE APLICACIONES TECNOLÓGICAS.

Antes de nada, hay que señalar que las principales características de ventaja que el espacio da a un ingenio, satélite o nave espacial, son: posición y microgravedad. La posición es la situación de privilegio que la órbita permite a un ingenio para el reconocimiento terrestre, para servir de repetidor en comunicaciones, o para la investigación astronómica, que evita el filtro atmosférico. La microgravedad es en la práctica un factor resultante, también llamado en ocasiones inexactamente gravedad cero o ingravidez, que permite gran número de investigaciones de todo tipo. En realidad la gravedad existente en un ingenio en órbita es solo una 10.000 parte de la habida en la Tierra a nivel del mar; esto significa que la aceleración debida a la gravedad es muchísimo más lenta en el espacio. En tierra, la microgravedad solo se puede experimentar durante un vuelo parabólico de aviones durante medio minuto o menos o bien en torre de caída libre, como las francesas de Châtillon sous Bagneux, de 40 m de altura, que proporcionan solo 3 seg de ingravidez, la americana del Centro Marshall de 90 m que proporciona 4 seg o la alemana de Bremen con 110 m de altura y 4,7 seg de caída libre; en vuelos suborbitales de cohetes sonda se logra algo más, unos minutos.

Los sistemas científicos o de experimentación y tecnológicos de los satélites son los que justifican la misión, los que se disponen expresamente para la finalidad con que se envía el ingenio al espacio.

Los aparatos, tanto los técnicos como los científicos, son generalmente resultado de la adaptación a las condiciones del espacio de los creados en tierra para otros menesteres de igual índole. Pero a veces son creaciones propias derivadas de la necesidad concreta que se diseña. En cualquier caso la adaptación suele consistir en una mayor resistencia, miniaturización, capacidad de aislamiento respecto a vibraciones, temperaturas extremas y radiaciones, así como del vacío en su caso; en resumen, su adaptación al espacio.

Se pueden clasificar todos en dos grandes grupos: científicos y tecnológicos.


    De los aparatos y experimentos posibles, con independencia aquí de su concreta finalidad, que puede ser determinante para su exacta configuración, se puede hacer una cita general, señalando que los específicos de las sondas lunares y planetarias se mencionan en su apartado con mayor concreción; algunos no suelen ser de general aplicación en el caso de los satélites terrestres. Pero los específicos de satélites, en cambio, si son utilizados con pocas modificaciones en las sonda lunares y planetarias, y sobre todo en las naves tripuladas en órbita terrestre. Para completar esta información que aquí se ofrece sobre aparatos y técnicas conviene ver también el capítulo correspondiente de sondas lunares e interplanetarias.

El instrumental tecnológico deriva a veces del científico y es generalmente un sistema estándar y regularizado de aplicación común o masiva. Son cámaras de imágenes, sistemas de radar, detectores, espectrómetros, etc.

Se citan alfabéticamente a continuación una serie de técnicas o instrumental propia de los satélites. Al final se hace referencia en apartado expreso del tema de las imágenes desde el espacio, por resultar de especial interés.

Altímetros . Sistemas de medición de la altitud sobre la superficie por cálculo del retorno de la señal a modo de radar. También se utiliza para medir el nivel del mar, velocidad de las corrientes y vientos de superficie, mareas, tormentas, hielos, etc. En cualquier caso, la exacta posición orbital del satélite es fundamental en tal determinación y los datos pueden estar necesitados de corrección debido a su alteración por la interposición de nubes de vapor de agua en la atmósfera y otros entes en suspensión. Los altímetros se utilizan también en las sondas lunar-planetarias. En aeronáutica también pueden ser barométricos y tal opción puede ser válida para otros cuerpos celestes con atmósfera, pero dentro de las peculiaridades de presión de ésta que será diferente a la terrestre para una misma altura dada.

Biología. Experimentos biológicos en satélites. Consisten en gran número de comprobaciones de toda la gama de actividad fisiológica de los distintos seres (pequeños mamíferos, insectos, peces, plantas, etc.) en la microgravedad o bajo las condiciones de radiación propia del espacio. Se estudia el comportamiento a todos los niveles, molecular, de tejidos, de órganos, sistemas y del ser en su conjunto bajo la condición de microgravedad y para ver los efectos de la misma, así como de las radiaciones. Sus aplicaciones son múltiples y en gran número de casos nos afectan en tanto que preceden la medicina humana espacial. Se estudia el crecimiento de los vegetales para tratar de establecer huertos espaciales para alimentación humana y para integrar el ciclo del oxígeno y el agua. Los chinos proyectaban en 2003 la creación en el espacio de variedades de arroz y trigo (fundamentales en la alimentación de este gigantesco país asiático) de crecimiento rápido y alta calidad, basando sus expectativas en las mutaciones que de las condiciones del espacio, tal como la microgravedad, se puedan esperar; antes de 2003 ya habían ensayado en el cosmos tales cereales así como maíz y otras plantas.

Se estudian en los insectos cómo afecta la microgravedad al desarrollo de larvas y el crecimiento de toda la especie en sucesivos ciclos generacionales. Se observa las pérdidas en los sistemas óseos y musculares de pequeños seres, como los ratones, etc.

Los experimentos con algunos animales fueron determinantes para las primeras experiencias con tripulantes humanos. Curiosamente, los soviéticos eligieron para averiguar los posibles problemas fisiológicos en el espacio a perros en tanto que los norteamericanos utilizaron monos; en ambos casos se les dotó de sensores corporales para averiguar en todo momento sus constantes vitales, de modo que iban semi-envueltos en una especie de traje cableado. Aparentemente, el mono está más próximo al hombre, pero los estudios sobre reacciones de obediencia cara a algunas de las pruebas resultaron más propicios con los canes (no se olviden los estudios del destacado investigador ruso Ivan P. Pavlov en este aspecto) en tanto que los simios fueron más inestables, caprichosos o nerviosos, y finalmente con menos disciplina.

Considerado el problema de la microgravedad, en los primeros vuelos, para alimentar a los perros, los soviéticos prepararon una especie de pasta con una hoja que se iba plegando a una señal transmitida desde la Tierra. La pasta contenía lo necesario, incluido el agua, para la subsistencia en los días calculados. La dosificación de agua con otro tipo de animales se hizo por medio del uso de mechas. Para el seguimiento de las actividades animales se utilizan cámaras y diversos dispositivos de estudio anexos tal como detectores de radiación, etc.

Bolómetro. Instrumental para medir toda la radiación emitida por un ente en las diversas longitudes de onda. Fue concebido en 1878 por Samuel Langley para el estudio de la radiación IR solar. Ver los distintos detectores de radiación.

Cámaras de imágenes . Ver fotografías al final de este apartado. Utilizadas también por las sondas.

Colectores de viento solar, o partículas y radiación en general. Se trata de pantallas o materiales dispuestos para la captura por contacto directo en interposición en las corrientes que afluyen en un lugar determinado de viento solar, partículas atómicas de otra procedencia o de cualquier tipo de radiación de alta frecuencia en general. También se utilizan en ingenios planetarios.

Contadores de partículas . Ver Detectores de partículas.

Crecimiento de cristales . En la migrogravedad el crecimiento de cristales de proteínas u otros aminoácidos, o también de materiales, es más uniforme, regular u ordenado al no existir los movimientos convectivos por gravedad, y sin influencia de temperaturas ni densidad. Eso facilita a los investigadores la consecución de los datos sobre tal crecimiento y las estructuras moleculares, comprendiendo mejor las mismas, para lograr en definitiva sustancias más puras; se estudia en concreto la integración atómica, los enlaces, la distancia y otros parámetros. Se logra también una visión tridimensional de los cristales que permite su mejor análisis. Aunque tales sustancias no están cristalizadas en el cuerpo humano, el sometimiento a este proceso es necesario para su estudio por difracción de rayos equis. En el vuelo tripulado STS-95 con la proteína lisozima se consiguieron cristales de una resolución de 0,96 Angstroms, una de las más elevadas hasta entonces. En tierra se realizan pruebas con resoluciones de hasta 1,3 Angstroms, pero crecen con distorsión.

Las técnicas utilizadas en el espacio para esta formación de cristales son la congelación de un líquido, o condensación de un vapor sobre un sólido, o la fundición a la temperatura requerida. Los compuestos utilizados, con independencia de la finalidad, son muchos, pero en el caso de los tecnológicos podemos citar algunos como los sulfuro, teluro y seleniuro de germanio, el antimoniuro de indio, arseniuro de galio, plata, teluro de plomo, fosfato de calcio, etc.

El relativo interés de estos experimentos está en la industria farmacéutica y tecnológica; los cristales son pieza básica en la tecnología de las comunicaciones y la electrónica (láseres, óptica, optoelectrónica, informática, etc.). El NRC americano minimizó en 1999 la importancia de los experimentos de crecimiento de cristales de proteínas en la microgravedad y apuntó a su elevado coste. Sin embargo, está reconocido que las investigaciones espaciales en esta materia ya han servido para perfeccionar en tierra métodos de consecución más ventajosos. En las estaciones espaciales tripuladas soviéticas/rusas también se han utilizado diversas instalaciones para este tipo de experimentos: Ainur, Biocryst, etc. Los americanos empezaron en firme sus ensayos en el Skylab, donde, por ejemplo, se logró un monocristal de seleniuro de germanio 10 veces mayor que el logrado en tierra.

Detectores de micrometeoritos y polvo cósmico . Consisten en pequeñas superficies expuestas al entorno espacial bajo las que se disponen sensores que identifican los impactos de polvo y micrometeoritos, analizando la cantidad de impactos, su intensidad, frecuencia, energía, dirección, velocidad. Utilizados también por las sondas.

Detectores de ondas de plasma . Son sistemas identificadores de las características electrostáticas y electromagnéticas de campos magnéticos del plasma en el medio recorrido, estableciendo la relación de interacción con partículas de la magnetosfera. Utilizados también por las sondas.

Detectores de partículas. Sistema electrónico o electro-óptico, que puede ser una cámara con un tipo de gas que queda ionizado al ser atravesado por partículas, o ente que se ve afectado por la incidencia de las mismas, reflejando su nivel de afluencia a una señal que se puede medir. Es decir, son contadores y medidores de partículas, pero también se pueden llevar materiales que son luego examinados en tierra (si es posible devolverlos). Se averigua así la afluencia de las partículas, su distribución, procedencia, energía, carga, etc. Son ejemplos los detectores de rayos cósmicos, detectores de iones, detectores de viento solar, detectores de partículas de alta energía, detectores de partículas cargadas, detectores de plasma, detectores de rayos equis, contadores Geiger-Müeller y otros, como el detector de antimateria, que dispone de un contador de partículas, un registrador de la trayectoria de las mismas, otro de su velocidad, amplificador, etc.; lleva potentes imanes. Utilizados también por las sondas.

Como ejemplo, un detector (doble) de altas energías puede llevar una cápsula de gas con un ánodo para captar electrones y unos medidores eléctricos. Los gases nobles, como el argón, neón, xenón, etc., solo pueden ser ionizados con energía entre 20 y 30 eV, ocasionando solo 2 iones. Cuando inciden la radiación, la energía llegada, la misma es parcialmente perdida ante la presencia de tal gas, quedando el mismo ionizado en cierto grado. La medición de estos iones es lo que identifica la energía y el rayo que llega. Pueden llevar ventanas de berilio o similar. La orientación de los aparatos permite localizar angularmente las fuentes con mayor o menor precisión de minutos o segundos de arco y así, realizando barridos, se pueden confeccionar mapas de las distintas fuentes celestes. Para su calibración se pueden utilizar fuentes radiactivas propias llevadas para ello, activadas en su momento.

Para la detección de rayos cósmicos y partículas de alta energía en cuanto a otro sistema, en Apollo 16, por ejemplo, se utilizaron 4 paneles, cada uno de distinta universidad, y distintos materiales. En dos de ellos se usaron láminas de Lexan, en otro triacetato de celulosa y también Lexan, así como muestras de cristal, en tanto que en el restante se incluyeron muestras de minerales, plásticos, metales, telas metalizadas.

Detectores de polvo cósmico . Ver detectores de micrometeoritos y polvo cósmico. Utilizados también por las sondas.

Detectores de radiación IR y UV . Para la detección de la radiación colindante a la luz visible se dispone de sistemas fotosensibles (fotoconductores, como el sulfito de plomo, o fotovoltaicos, como los materiales usados en las células solares), que ante la incidencia de la radiación IR varían un voltaje en la misma proporción a ésta. También se pueden utilizar células de gas en el que se detecta un aumento calculado de calor y presión por tanto. El uso de uno u otro material va en función de su respuesta las longitudes de onda precisas que se buscan.

Detectores iónicos y de partículas . Son cámaras o sistemas que miden y cuentan el flujo de partículas de determinada según el rango de energía de las mismas buscado. Tales partículas procederán del Sol o el espacio exterior a nuestro Sistema y su estudio sirve para establecer los fenómenos generadores de su origen y las características del cuerpo emisor. Ver: detectores de partículas.

Efecto Doppler . Cualquier emisión o frecuencia se puede ver sometida al efecto Doppler cuando pierde su regularidad o constancia con el mayor o menor distanciamiento respecto al observador. El alejamiento o acercamiento altera la intensidad de la fuente en igual medida, de modo el observador se percata  de tal circunstancia. Al acercarse la emisión de la fuente hace que la frecuencia sea mayor y menor al alejarse. Esto tiene aplicación no solo en la astronáutica sino también en la astronomía, donde fue primera. El cálculo sin embargo es un poco complejo. Hay que tener en cuenta también los movimientos de nuestro planeta, según venga la señal de Este u Oeste, pues restará o sumará velocidad, o del satélite o la sonda respecto al cuerpo emisor.

Electrofóresis . Conocida esta técnica desde 1948, en la microgravedad, donde no hay sedimentación, los experimentos de separación molecular según su carga eléctrica se realizan en soluciones conductoras como en tierra con gravedad pero se consigue mayor pureza, logrando separar hasta cientos de veces más cantidad de material que con 1 ges. Tiene su aplicación en la producción de medicamentos, en ingeniería genética, etc. Hay que tener en cuenta que el sometimiento de sustancias aun campo eléctrico genera corrientes de convección que facilitan también la mezcla de las partículas.

Un ejemplo: en el vuelo STS-3 (tripulado) se realizó en la microgravedad un ensayo de separación de células que producen la uroquinasa, enzima del cuerpo humano que disuelve los coágulos sanguíneos, y el resultado fue una producción de superior en 7 veces que en los cultivos celulares no separados. Con este tipo de pruebas se busca la consecución en el espacio de sueros y vacunas que en tierra solo se logran en muy pequeña cantidad.

Espectrómetro de masas . Aparato que sirve para establecer la relación de carga y la masa de una sustancia mediante el análisis de una muestra de la misma, fluido o sólido. Con los espectrómetros de masas se puede determinar o identificar la composición de una atmósfera y la abundancia relativa de sus elementos. Llevan un receptáculo de muestras, que ha de estar lo más vacío posible y donde las mismas son sometidas a un bombardeo electrónico; la muestra entra en tal lugar al estar en vacío o, si es sólido, disponer un vaporizador complementario sobre la misma. Luego, el bombardeo con iones, por ejemplo, procedente de un hilo de wolframio, de una potencia calculada, produce a su vez otros iones que se aceleran y estudian selectivamente en un campo magnético con un colector y registrador con lo que se determinan las características identificativas de la muestra. Por esta razón es preciso conocer previamente la tabla de correspondencias de los espectros posibles de la materia.

Ver espectroscopia. Utilizados también por las sondas.

Espectrómetro de radiación gamma . Ver espectroscopia y su cita en sondas. Utilizados también por las sondas.

Espectrómetros (en general) y espectrógrafos . Ver espectroscopia y su cita en sondas. Utilizados también por las sondas.

Espectroscopia . En el estudio, interpretación y medición de la emisión ETM de las bandas espectrales se utilizan los espectrómetros y espectrógrafos, detectores correspondientes a tales líneas y partículas para la identificación de las fuentes; hay que recordar que las moléculas absorben energía y también la emiten en precisas y particulares líneas del espectro que son conocidas por la química de nuestro mundo. Originalmente se aplicó solo al estudio de las bandas de la luz visible, pero por extensión se puede aplicar a todo el espectro ETM. Los mensajes distintos significan la información de las fuentes, diciéndonos su temperatura, composición, velocidad, etc. Cuando en un espectro alguna o algunas líneas aparecen oscuras significa que fueron absorbidas, generalmente por el propio ente emisor, y se habla entonces de “líneas oscuras” del espectro de absorción, al contrario de las líneas de color o nitidez intensa que definen la llegada de la radiación; una energía concreta, una longitud de onda determinada, es emitida por un elemento y absorbida por el mismo bajo concreta condición. Esto significa que algún ente, bien el emisor u otro interpuesto, generalmente un gas o fluido (una atmósfera, un gas interestelar, como ejemplos), la absorbió pudiendo así también quedar éste identificado si se conoce la fuente emisora original.

La luz normal, blanca, llegada a nuestros ojos es un conjunto de frecuencias aglutinadas que pasadas por un prisma de cristal quedan separadas en todos los colores; un color determinado de un objeto es aquél que es reflejado por éste, en tanto que absorbe todos los demás. El color blanquecino de un suelo identifica al mismo, por ejemplo, como calizo en tanto que el gris oscuro lo señala como silicio.

Por extensión, mediante otros sistemas, más complejos, otras líneas del espectro ETM también son detectadas e identificadas. La fotografía en la banda visible se puede ampliar y convertir desde longitudes de onda u otras frecuencias, dando igualmente la información necesaria del origen o el medio atravesado. La conversión hacia medidas que podemos identificar es lo mismo que hace un aparato de radio, que de una frecuencia de radio la transforma en la audible o visual, y así ocurre con cámaras de imágenes. Se pueden utilizar para captar imágenes en UV o IR película especialmente sensible con cámaras corrientes de fotografía. En el caso UV también se pueden usar, para acelerar el proceso, sistemas ópticos que emiten electrones proporcionalmente a la intensidad de la radiación UV y se recogen luego en película fotográfica.

La absorción de nuestra atmósfera de muchas de las frecuencias llegadas del exterior es precisamente uno de los principales motivos que han impulsado la astronáutica, la salida fuera de nuestro planeta. Las frecuencias que pasan, que no son absorbidas, se dice que son “ventanas”. Otras resultan distorsionadas, produciendo los llamados ruidos de fondo o interferencias (RFI).

En esta ciencia se basa casi exclusivamente la astronomía y las ciencias de investigación y aplicación de la astronáutica.

Uno de los aparatos de mayor utilidad en este campo es el espectrómetro de masas, creado hacia 1919 por el inglés Francis Aston en Cambridge. Se trata, en síntesis pues hay numerosos modelos, de un sistema que determina a nivel atómico y molecular las masas con gran precisión en base a la ionización producida sobre las mismas, de forma natural o provocada con calentamiento (por ejemplo a 1.500ºC). Un detector recoge los iones liberados y dirigidos en un campo electromagnético, es decir separados según su carga, los identifica en su velocidad y cuenta su masa atómica.

Fluidos. Experimentos con los mismos en microgravedad. Los experimentos en microgravedad con fluidos son variados pero suelen ser comparados con los fenómenos de convección terrestre. Este último efecto es relativo a la influencia de la gravedad en masas de fluidos de distinta temperatura, presión y composición, que establece el ascenso de unos y el descenso de otros. Las partes más calientes y de menor densidad tienden a ascender, para luego enfriar y volver a bajar creando corrientes o flujos; este fenómeno, en todo o en parte, ocurre en la atmósfera, en las mezclas de fluidos, en aleaciones, etc. En la microgravedad no hay pues sedimentación y la convección no se produce (ni tampoco el flotar de elementos menos pesados) y da lugar a estudios de las características puras de los elementos, compuestos o materiales empleados, con una estructura molecular homogénea. En la repetida condición, las gotas líquidas hacen esferas perfectas al actuar sobre ellas solo la adhesión y cohesión. La última es producida por las moléculas y causa una tensión superficial. La adhesión, por su parte, es la atracción de dos sustancias distintas al contacto. Si la adhesión de un líquido es mayor que la cohesión el mismo penetra en la otra sustancia o la cubre con una fina y uniforme película. En la microgravedad en un recipiente abierto, por ejemplo, los líquidos se van por las paredes y se salen del mismo. Forman una masa esférica que prácticamente no precisa recipiente, pudiendo ser manejados con fuerzas electrostáticas o electromagnéticas, e incluso acústicas. En el caso de cultivos celulares, éstos se pegan a las paredes de los recipientes con lo que aumentan su rendimiento por capa por unidad de volumen.

Sin la gravedad, los fenómenos que influyen en la distribución de las masas son la difusión y segregación, también presentes bajo gravedad pero ahora sin su influencia. Así, en los ensayos en el espacio con fluidos, aleaciones fundidas, y materiales en general, se pueden estudiar las solidificaciones, crecimiento de cristales y otros fenómenos con todo tipo de materiales. Entre las cuestiones en las que estos fenómenos tienen interés por su aplicación se cuentan en la eficiencia de los sistemas de refrigeración, tanto en el espacio como en la tierra, en los sistemas generadores de energía eléctrica en la microgravedad, etc. El fenómeno del hervido en la microgravedad es también distinto, pues las zonas más cercanas a la fuente de calor aumentan la temperatura más rápidamente formando una burbuja caliente muy grande (que no se mueve hacia ninguna superficie como bajo gravedad) que oscila dentro de toda la masa de fluido, tendiendo la misma a ir bien hacia el centro de toda la masa de fluido o bien hacia el lado de la fuente de calor; en este último caso, aumenta la temperatura del calentador y no deja hervir al resto.

Fotografías . Utilizados también por las sondas. Ver al final el apartado de tal título.

Fotómetros. Instrumental para medir la intensidad de una luz por medios ópticos. Utilizados también por las sondas.

Fotopolarímetro. Instrumento óptico para medir las características de un cuerpo en función de la luz polarizada que se refleja en él. Suele disponer de un sistema telescópico, filtros de polarización y detectores ópticos. Con el mismo se establece la composición y estructura del cuerpo que se observa, revelando por ejemplo la composición atmosférica, materia en suspensión en la misma, etc. Utilizados también por las sondas.

Láser . El láser es utilizado también como sistema de medición de distancias de componentes atmosféricos a modo de radar, dado que muchas moléculas aéreas, polvo en suspensión y aerosoles, reflejan la luz, deduciendo de ello las correspondientes concentraciones y estratos. Tiene su aplicación en estudios de la polución atmosférica, dirección y velocidad de vientos, etc.

Magnetómetros, medidores o detectores de campos magnéticos. Son aparatos para medir campos magnéticos (terrestre, lunar, espacio interplanetario, etc.). Consiste el tipo de aparato en sensores, que suelen ir colocados en extremos o brazos del satélite para evitar interferencia de los propios aparatos del mismo. Utilizados también por las sondas.

Materiales diversos para tecnología . Además de las ya citadas en crecimiento de cristales, fluidos, etc., las posibilidades de la microgravedad también existen en otros campos como la metalurgia y la solidificación de materiales compuestos varios. Aquí se pueden mezclar metales que por su densidad en tierra no se pueden unir o resultan imperfectos (aluminio con plomo o con indio, por ejemplo). El número de metales que así se pueden mezclar es grande, con combinaciones de dos o más compuestos. La búsqueda de nuevos metales se enfoca aquí hacia los más ligeros, a la vez que resistentes, y los porosos con inyección de gas en el metal fundido. Se les denomina en este caso espumas metálicas y se pueden usar en los ensayos acero y aluminio principalmente, que resultan muy ligeros pero de gran resistencia estructural.

Otro campo tecnológico espacial son los imanes de alto poder magnético y permanentes mediante la solidificación direccional que produce una estructura molecular uniforme y paralela al grado de temperatura. Los imanes logrados en el espacio resultan coercitivamente más del doble de los conseguidos en tierra con igual material magnético.

Igual técnica con mezclas de materiales de punto de fusión más bajo que por separado, como el cloruro de sodio y el fluoruro de sodio, por ejemplo, dan lugar a solidificación en barras paralelas de fluoruro en una matriz de cloruro de sodio; resultan transparentes y conductoras de luz con importancia por consecuencia en el campo de las fibras ópticas.

Medidores del campo eléctrico . Son sistemas que miden los campos eléctricos de un medio generalmente basándose en la diferencia de potencial adquirido por un par de esferas conductoras separadas adecuadamente en el satélite pero expuestas lógicamente al medio objeto de estudio en este aspecto.

Nefelómetro. Instrumento usado para el estudio óptico de la atmósfera y los aerosoles que contenga en suspensión. Se basa en la medición de la luz difusa que resulta de la emisión de un haz luminoso sobre la zona observada. Utilizados también por las sondas.

Radares. Radar de apertura sintética. SAR . Cualquier sistema de radar se basa en la emisión de ondas, o microondas, que rebotan en un cuerpo y son reflejadas, vuelven de nuevo, hacia el emisor (cuya posición es precisa y conocida), dando en respuesta una serie de señales que nos definen el lugar del “rebote”. Las antenas del emisor captan las ondas reflejadas y las pasan al sistema procesador que identifica las mismas. Tiene la gran ventaja que actúa en presencia de nubes, atravesándolas sin problemas (con las correcciones posteriores correspondientes derivadas de la absorción atmosférica, tal como la del vapor de agua y otros factores), y de noche, en la oscuridad, así como “ver” debajo de arenas y otros entes de la superficie terrestre; la posibilidad de actuar sobre nubes ha permitido observar el, de otro modo, impenetrable Venus.

El sistema SAR, o INSAR, es un sistema de radar de apuntado lateral basado en técnicas de interferometría con lo que se logra fotografía tridimensional de gran resolución con un par de imágenes y gracias a una antena relativamente pequeña. De tal modo se pueden captar objetos bajo vegetación u otros medios normalmente opacos, confeccionar mapas topográficos tridimensionales (por ejemplo, de 40 por 40 m de resolución por píxel y 10 m en altura), etc. El sistema, desarrollado inicialmente para ser empleado desde el espacio, es posible utilizarlo también desde aeronaves. Con estos sistemas se han podido localizar restos arqueológicos. Es utilizado tanto por satélites como por sondas interplanetarias.

Un aspecto especialmente interesante de los sistemas de radar de microondas combinados con sistemas láser es el trazado de mapas atmosféricos, dirección de vientos y su comportamiento. Se basan en los pulsos láser reflejados por los aerosoles en suspensión en el aire a modo de radar Doppler, y con el radar tradicional en el caso de gotas de agua y hielo (nieve o granizo) en la atmósfera. Es decir, se utiliza una técnica combinada de distintas frecuencias según el objetivo a determinar. Los mapas conseguidos son importantes no solo en meteorología sino también en seguridad aérea.

Radio ciencia. Son estudios sobre la relación entre las anomalías gravitatorias y las señales de radio del objeto en órbita. La distorsión de las señales puede también identificar el medio que las mismas atraviesan (la atmósfera, por ejemplo). Ver sistemas de medición gravimétrica. Utilizados también por las sondas.

Radioastronomía . Instrumental para captar las emisiones de radio de algunos cuerpos celestes, consistente en antenas, receptores y electrónica.

Radiómetros. Instrumentos basados en el telescopio de investigación de emisiones de un cuerpo celeste a fin de averiguar su grado de absorción y emisión en bandas visibles, térmicas y del vapor de agua; de otro modo, se dice que miden la intensidad de una radiación ETM determinada. Con el mismo se determinan las estructuras y temperaturas de la atmósfera y sus nubes, siendo fundamentales en meteorología, pero también sirven para análisis de corrientes marinas, hielos, temperaturas de aguas, vapor de agua, tormentas, vientos en la superficie del agua, salinidad, etc. Utilizados también por las sondas, son dispositivos electro-ópticos y telescópicos de actuación múltiple y simultanea.

Reflectores de rayos láser. Son grupos de espejos dispuestos estratégicamente (en una superficie lunar, planetaria, o en un satélite en órbita) para recibir rayos láser desde otro punto y determinar distancias muy precisas mediante el análisis de las señales rebotadas. Utilizados también por las sondas. Si emitimos una señal láser desde tierra hacia un satélite en órbita baja, en tanto que la señal llega y retorna a tierra, el satélite recorre unos 40 m; es un dato a tener presente.

Sensores (en general). Hay muchos tipos de sensores. Se podrían clasificar sensores de radiación o energía (ver detectores) o sensores de contacto material (tal como los detectores de polvo cósmico). Utilizados también por las sondas.

Sensores térmicos . Son sencillamente sistemas termométricos conectados al telemétrico para el envío de las temperaturas de un medio. Pueden ser aparatos con toma directa o por medición a distancia. Utilizados también por las sondas. Ver detectores de radiación IR.

Sistemas gravimétricos . En el sobrevuelo de la propia Tierra, o un cuerpo celeste, se producen a veces alteraciones de la trayectoria por la acción gravitatoria cuando se pasa por encima de masas de materiales del suelo o subsuelo más pesados que el resto. Estas alteraciones orbitales son medidas con precisión en las correspondientes modificaciones de las señales radioeléctricas recibidas (ver radio ciencia), de tal forma que se puede establecer una medición de gravimetría y, conocido el lugar sobrevolado, determinar su valor en el mismo. Utilizados también por las sondas.

Teledetección . Es la detección a distancia de cualquier emisión ETM, propia o reflejada, de un objeto con diversos aparatos, cámaras, etc., del modo especificado de en otros apartados (Espectroscopia, Fotografías, etc.). La posición espacial es particularmente resolutiva para observar así zonas de la superficie o subsuelo terrestre de acceso difícil o imposible por otros medios.

Telescopios . Basados en los correspondientes aparatos ópticos terrestres del tipo astronómico, se utilizan aquí con cámaras en los objetivos para registrar las imágenes. Han evolucionado hacia complejos instrumentales gracias a la electrónica y la informática y las fotografías tomadas, en diversas bandas del espectro ETM, en todas las posibles, libres en el espacio del filtro atmosférico, son transmitidas a la Tierra telemétricamente. Su importancia ha resultado ser enorme; baste pensar en el satélite Hubble y sus descubrimientos.

...--+*+--...

Los materiales y técnicas concretas para construir cualquier instrumental o aparatos para su uso en el espacio son similares a los terrestres, con la condición de adaptabilidad a las duras condiciones espaciales. A veces los materiales tienen que ser por ello sustituidos, según necesidades de resistencia, térmica, etc. Por ejemplo, en los detectores de IR se puede utilizar material sensible a tal radiación, como el sulfuro de plomo a muy baja temperatura.

Ejemplos esquematizados básicos del fundamento de investigación o modos de detección a distancia de algunos compuestos:

Elemento o compuesto a detectar

Fórmula

Detección (s.e.u.o.) en los:

Ácido cianhídrico

HCN

3,38 mm

Ácido fórmico

HCOOH

18,3 cm

Ácido sulfhídrico

H2S

1,78 mm

Agua

H2O

1,35 cm

Alcohol etílico

C2H5OH

2,8 y 3,3 mm

Alcohol metílico

CH3OH

36 cm y 3 mm

Amoníaco

NH3

Radioondas 1,26 cm

Anhídrido carbónico

CO2

Banda de las 15 micras

Calcio

Ca

3.934 Åy 3.968 Å

Cianodiacetileno

HC4CN

2,8 y 11,28 mm

Cianoetinilo

C2CNK

3,03 y 3,37 mm

Cianógeno

CN

3.875 Å

Cianuro de etilo

CH3CH2CN

2,58 y 3,06 mm

Cianuro de hidrógeno

HCN

IR y radioondas

Cianuro de metilo

CH3CN

2,72 mm

Cloruro sódico, sal común

Cl Na

143 y 234 GHz

Dióxido de azufre

SO2

3,46 y 3,58 mm

Etinilo

C2 H

3,43 mm

Formaldehído

H2CO

6,2 cm

Formilo

HCO

3,46 mm

Helio

He

587,6 nm

Hidrógeno neutro

H2

Banda de los 21,12 cm

Hidruro de nitrosilo

HNO

3,68 mm

Keteno

CH2CO

2,94, 3 y 3,67 mm

Metilamina

CH3NH2

3,48 mm

Metilcianoacetileno

CH3C2CN

3,46 mm

Monóxido de carbono

CO

Banda de los 2,6 mm

Monóxido de nitrógeno

NO

1,99 mm

Neón

Ne

12,8 micras

Nitruro de azufre

SN

2,6 mm

Óxido de azufre

SO

3,49 mm

Óxido de silicio

SiO

2,3 mm

Ozono

O3

Banda de las 6 micras

Potasio

K

7.585 Å

Radical hidroxilo

OH

Banda de los 18 cm

Sodio

Na

5.890 Åy 5.896 Å

Sulfuro de carbono

SC

2,04 mm

Sulfuro de silicio

Si S

2,75 y 3,3 mm


Las limitaciones de cualquier aparato, carga o sistema, enviado al espacio, aparte del problema del peso, se encuentra en su posible peligrosidad o actuación que interfiera a otros medios o cargas. Son limitaciones para no permitir explosiones, incendios, corrosiones, inundaciones o derrames de líquidos o materiales menudos que puedan introducirse en la microgravedad fácilmente en rendijas, etc.

También hay que tener presente en relación a los experimentos sobre microgravedad que, la misma no está en el espacio en sí mismo, en la altura determinada, donde en realidad la gravedad terrestre existe aun con una fuerza de atracción –por así decir- del 90% por ejemplo en los 300 Km de altura. La microgravedad surge del equilibrio de tal gravedad con el impulso dado (la fuerza centrífuga) con el cohete. Eso significa que cualquier fuerza actuante sobre el satélite (por ejemplo un encendido de motores) puede romper en tal momento la precisión continuada de la microgravedad y producir microalteraciones en los ensayos. Así se puede observar que en un crecimiento de cristales puede a veces aparecer una línea de ruptura de la homogeneidad que caracteriza la aparente ausencia de gravedad.

Finalmente hay que resaltar que la comparación de los experimentos espaciales con los paralelos repetidos en la Tierra, cuando es posible, da lugar a la determinación de las diferencias y por ende de resultados fiables.

                               - FOTOGRAFÍAS. IMÁGENES DESDE EL ESPACIO.

En general, el sistema de toma de imágenes desde el espacio de un satélite o sonda espacial automática consta de un sistema óptico con lentes diversas, por ejemplo gran angular y teleobjetivos, un control de disparo que decide la toma y el momento, un sistema conversor en señales eléctricas, cámaras de CCD, un sistema de almacenamiento de las imágenes (no imprescindible pero habitual) generalmente magnético, y un sistema transmisor que puede ser el general telemétrico. De otro modo, una cámara fotográfica con varias partes adaptadas al espacio y un sistema de conversión de la imagen para su transmisión adecuada en señales de radio. Con la natural evolución tecnológica de este tipo de instrumental se dio lugar un gran número de cámaras y tipos de imagen según frecuencias, aumentando notablemente las resoluciones en la imagen final. Las posibilidades informáticas en este campo han abierto un gran abanico de posibilidades.

El sistema de control, por lo general previamente programado al efecto, decide que objetivo utilizar según la resolución deseada y también el tipo de fotografía, si es en la banda visible normal, o utiliza filtros o sistemas para seleccionar un frecuencia específica del espectro (IR, UV, etc.). Cuando las frecuencias utilizadas están fuera de las visibles y sus contornos, las cámaras o detectores usados pasan a denominarse de otra forma. Son generalmente los espectrómetros. Cuando se prevé la utilización de tomas en banda visible hay que tener presente que a veces pueden no obtenerse buenas imágenes debido a nubes o nieblas. Por eso, las imágenes de radar sirven para superar tales obstáculos. Cuando se necesita ver las zonas con caracteres térmicos se emplea la banda IR; etc. Para determinados objetivos, como por ejemplo la observación de la corona solar, el instrumental puede incorporar el llamado coronógrafo, que actúa de forma que oculta el disco solar y deja ver su contorno.

También se pueden hacer tomas con película normal fotográfica que es luego traída a tierra o revelada a bordo y trasladada a otro sistema antes de su envío a tierra; el modo de devolver la película al suelo terrestre es en una cápsula que desciende tras la reentrada por la atmósfera y es recuperada bien por algún avión en vuelo o tras el amerizaje o aterrizaje. La resolución depende de la potencia de los teleobjetivos pero también de la distancia del satélite o ingenio de que se trate al área fotografiada; lógicamente a mayor altura menor resolución. Con el giro de las cámaras o de espejos se pueden obtener tomas panorámicas.

Uno de los primeros sistemas de TV utilizado en el espacio americano, especialmente por las sondas interplanetarias, fue el Vidicon, en el que la imagen se formaba en una cámara con un sistema que según la mayor o menor luz hace cambiar la intensidad de un haz de electrones, convertibles a su vez en valores numéricos.

El envío de fotografías se realiza punto a punto, en codificación digitalizada de la tonalidad, si bien existen varias formas, distintas en el tiempo. Las imágenes de TV son transmitidas punto a punto, línea a línea. Los puntos o elementos de la imagen son denominados pixels. La obtención de fotografías en color se realiza con 3 tomas por cada punto con un filtro, una en cada color azul, rojo y verde; luego se superponen para obtener la definitiva que es retocada con los sistemas correctores oportunos, ya en tierra. En estos casos es importante calibrar bien los colores para su correcta reconstrucción y para ello se contrastan  con colores de referencia ya conocida llevados en alguna tira o disco en la propia sonda al alcance de las cámaras.

Antes de enviar los datos, y para garantizar su llegada completa y correcta, es decir, que no haya fallos o interferencias (ruido de fondo, parásitos), se realiza con un par de repeticiones de comprobación de los dígitos, de cada bit; luego, los datos, en lenguaje binario codificado (ceros y unos, 0 y 1, o bits), son comprimidos para mayor rapidez en el envío y se procede a la transmisión. Cuando en la recepción, en vez de recibir los correctos 3 ceros o 3 unos seguidos, alguno de ellos difiere, la elección del bueno se hace sobre los otros 2 iguales, como opción más probable de veracidad. La velocidad de envío y recepción de datos depende de cada caso, pero como ejemplo se puede apuntar que los Voyager enviaban a las antenas terrestres de 64 m de diámetro entre 14,4 y 29,9 KB/seg.

Una fotografía por ejemplo de la sonda Voyager constaba de 800 líneas cada una de 800 puntos, con lo que el total de píxeles básicos era de 640.000. A su vez, cada píxel tenía 256 posibilidades de tonalidad o brillo entre el blanco y el negro y se expresaba con 8 bits más por lo que, sin contar las repeticiones de seguridad, el total de bits de una fotografía ascendía ya a 5.120.000. Pero el procedimiento de comprensión puede reducirlos luego.

A los sistemas de imágenes se les incorpora con el tiempo los CCD, dispositivos de carga acoplada, que permiten potenciar la toma, aumentando por ejemplo la luz más débil. Este tipo de dispositivo está constituido por células fotosensibles compuestas por unos electrodos sobre los que va un aislante y una capa de cristal de silicio. El proceso del aparato consiste en la aparición de una muy leve carga eléctrica generada por la luz al llegar sobre cada célula que es luego sumada al resto de ellas con lo que se puede luego reconstruir la imagen potenciada amplificándola.

El tratamiento de imágenes en tierra no solo comprenden las recomposiciones digitales y de color, sino también la geometría distorsionada por los ángulos de la toma, de modo que se puede “verticalizar” la vista final con estiramientos, etc. Naturalmente también se hacen fotocomposiciones y mosaicos, corrigiendo las tonalidades para encajar los bordes, retoques de luminosidad, nitidez, etc. Entre los tratamientos posibles se menciona el de las imágenes en “falso color”, que es el color irreal que resalta parcialmente algunas longitudes de onda; es decir, son imágenes tomadas con un filtro determinado y cuya suma de la misma toma con otros filtros puede permitir recomponer el color real o resaltar un particular aspecto en una o varias bandas. El tratamiento informático es aquí el medio de lograr el resultado final en mezclas y correcciones.

El uso de tomas con filtros, prescindiendo de las recomposiciones, de uso de determinadas longitud de onda, nos da imágenes exclusivas en distintas partes del espectro ETM de enorme trascendencia. Otros sistemas de imágenes nos lo dan los sistemas de radar, que se citan aparte. Tales fotografías permiten identificar suelos con peculiaridades no observables en la banda visible normal. Pueden captarse detalles sobre el tipo de terreno, las características ocultas de la vegetación, antiguas formaciones naturales (antiguos volcanes, etc.) o humanas (restos arqueológicos), etc., etc. Todo ello con la ventaja expresada en la correspondiente contrapartida económica que casi siempre ello supone.

De suma importancia, se puede establecer un diagnóstico sobre el suelo y subsuelo terrestre, de modo que en agricultura, por ejemplo, se conocen así las condiciones de los cultivos con las tomas en bandas tanto visibles como IR. Las hojas de los vegetales muestras sus células sanas y vigorosas cuando dispersan en toda dirección la radiación; aparecen así en color rojo en el llamado falso color. Pero cuando no lo están, cuando se comienzan a apagarse, la luz ya no es reflejada igual, de modo que la observación espacial en el IR cercano evidencia tonalidades más oscuras y grises. Entonces las áreas más afectadas se ven en las imágenes y ponen de relieve las anomalías, acusando enfermedades, plagas, deficiencias de minerales en los suelos o falta de agua. Así que, antes de que se detecte por otros medios a gran escala, el agricultor dispone de una información que le permite tomar medidas a tiempo, aportando en los lugares precisos abonos, pesticidas, agua, etc. La identificación también puede llegar a ser tan detallada como para distinguir clase de cosecha, su producción y rendimiento, la sequedad de la tierra y el riesgo de incendio, etc. En los Estados Unidos, con ayuda de los satélites de recursos, estas evaluaciones mejoradas sobre la producción de trigo estiman unos beneficios anuales de más de 200 millones de dólares.

Pero, con los mismos medios de los satélites, los estudios económicos sobre superficies de terreno cultivables de otros países tienen un aspecto político-social-militar. La evaluación de cosechas estratégicas (los cereales, por ejemplo) de naciones antagonistas (como en su momento la URSS, China, los americanos y otros) puede establecer con los medios espaciales una prospectiva de futuro inmediato, de modo que tales previsiones se pueden considerar de verdadera importancia por su trascendencia, como se dice, político-social-militar.

En general, en las imágenes espectrales, a modo de ejemplo, la vegetación sin dañar puede aparecer en color rojo y la dañada en verdiazul, las piedras en color pardusco, la tierra resulta de color grisáceo, el agua marina puede resultar azul o negra (depende), y un casco urbano azul o rosa grisáceos. No obstante se recalca que los colores son relativos, según las bandas utilizadas, y solo han de considerarse como ejemplo.

A continuación se señala un ejemplo de cuadro simple de identificación de terrenos y entes de la superficie terrestre según las longitudes de onda de observación (colores) aplicables a muchas de las fotografías en falso color; las cifras son aproximadas y en el IR hay que tener en cuenta que casi todo está fuera de la banda visible.

COLOR

Longitud de onda en Å

Ente identificado o información parcial sobre el mismo. Ejemplos:

IR

+ del 0,72

Vegetación, humedad, temperaturas, suelos o terrenos, minerales.

ROJO

0,63 a 0,71

Plantas, construcciones humanas.

VERDE

0,53 a 0,62

Carreteras, distintos tipos de vegetación.

AZUL

0,45 a 0,52

Aguas, bosques, costas, carreteras, edificios.


En cualquier caso, tanto en las distintas bandas espectrales como en la visible, además de lo indicado, las imágenes espaciales tienen una multitud de otros usos: cartográficos y urbanísticos, militares, geológicos y de yacimientos (recursos naturales, ingenierías diversas, etc.), vulcanológicos, contaminación, etc.

En cuanto a las resoluciones logradas, las máximas son obtenidas por los satélites militares (10 o 15 cm en los años 80), si bien muchos civiles resultan hoy tan competitivos que el estamento militar compra a veces las imágenes de éstos.

A modo de ejemplo y en general, podemos hacer un pequeño muestrario de resoluciones necesarias para ver objetos diversos, teniendo en cuenta la relatividad de los datos, tanto de los metros como de los objetos que se entienden de tipo medio:

Objeto terrestre

Resoluciones aproximadas en metros

Captación mínima

Identificación aceptable (entre)

Con detalles analíticos (medida como máximo)

Aeropuerto

6

2-4

0,3

Avión

5

1-2

0,1

Barco

8

1-4

0,1

Camión

1,5

0,3-0,7

0,1

Carretera

8

2-5

0,2

Lanzador de misiles SAM

3

0,3-1

0,1

Misil

1

0,2-0,7

0,1

Puente

6

2-4

1

Puerto de mar

35

5-15

0,4

Radar

3

1

0,2

Submarino (superficie)

25

1-6

0,1

Tropas

6

2

0,3



Ver la referencia a las cámaras de imágenes en el apartado “Cámaras de imágenes” (LOS VUELOS NO TRIPULADOS A LA LUNA Y LOS PLANETAS / ASTRONAVES INTERPLANETARIAS NO TRIPULADAS / NAVES INTERPLANETARIAS AUTOMÁTICAS. SISTEMAS Y APARATOS / APARATOS Y TÉCNICAS DE INVESTIGACIÓN).

Finalmente podemos añadir que el seguimiento de muchos satélites y la posibilidad de captar imágenes de los mismos en los modelos accesibles del modo estandarizado automático de transmisión de imágenes APT con medios domésticos es relativamente fácil; el sistema APT fue probado con el TIROS 8 meteorológico en 1963 y requirió inicialmente 6 estaciones terrestres que costaron unitariamente unos 32.000$, pudiendo cada una recibir solo 3 fotografías a cada paso del satélite.

Solo basta conocer la órbita del ingenio, tener en cuenta su corto paso por el cielo (de un promedio de 15 min, pero varias veces al día), disponer de una antena múltiple o dirigida (de 8 espiras), un amplificador de la señal, un receptor en bandas de radio, y un ordenador con tarjeta de sonido y programas adecuados (que son de fácil consecución) para decodificar la señal y convertirla en fotografía.

    > LANZAMIENTO Y SATELIZACION.

El lanzamiento de una carga útil, concretada aquí en un satélite o sonda, se realiza con un cohete adecuado, de potencia suficiente y justa para llevar a la órbita necesaria, según los fines propuestos. A veces, la hora y el día fijado para la partida, que para un satélite puede ser cualquiera salvo que necesite un acceso particular, no se cumple por problemas diversos posibles, generalmente por fallos técnicos o debido a la meteorología. El acceso particular que requiere la partida en un momento dado se denomina ventana de lanzamiento y en el caso de sondas lunares y planetarias, así como para satélites (y naves espaciales) que precisan una cita o encuentro con otros, o una trayectoria sincronizada con el Sol u otro motivo; es decir, en estos casos, hay que tener en cuenta la posición favorable del otro satélite a encontrar o de otros factores a contar según la finalidad de la carga.

Los motivos para el retraso o aplazamiento en la partida de un cohete pueden ser múltiples y ser propios o ajenos; es decir, pueden ser debidos a razones de falta de disposición intrínseca para el disparo o bien por influencia de factores externos. Para los lanzamientos Shuttle se hizo una estadística de tales motivos en aplazamientos de 140 intentos dando como resultado que el primer factor es destacadamente el meteorológico, por tormentas, lluvias, nubes, nieblas, vientos, etc., con un total de 50 casos (2/3 de las misiones). Los siguientes factores son problemas diversos: el segundo caso en importancia son los problemas con los motores del cohete, con un total de 29 casos; el tercero con los sistemas informáticos e inerciales y las comunicaciones, con 21 casos; el cuarto, con partes mecánicas; el quinto, con los equipos de soporte terrestre del lanzamiento; el sexto, con la carga útil; otros retrasos son por problemas diversos (astronautas, sistemas de apoyo en el lanzamiento, buques en la zona de seguridad, etc.).

El lanzamiento se hace vertical, o casi vertical, en los primeros cientos de metros y luego se va inclinando poco a poco hasta llegar a una posición horizontal en la entrada en órbita. La curva descrita es así porque otras, como un ascenso totalmente vertical o uno de 45º, representan diversos inconvenientes, en general de gasto de propulsante, prolongada fricción aerodinámica, caídas de fases agotadas, etc. En un lanzamiento típico la astronave describe una curva con una inclinación de unos 40º al final de la primera fase y otra de 30º hacia los 100 Km de altitud.

El lanzamiento se hace generalmente en la dirección del giro del planeta o cuerpo de que se trate para aprovechar la fuerza cinética y cuando más cerca del Ecuador menor será el esfuerzo de puesta en órbita, lo que equivale a decir menos gasto o esfuerzo y más rentabilidad. Así pues, los lanzamientos se hacen normalmente hacia el Este, considerando que la velocidad de giro de la Tierra hacia este sentido, de 1669,8 Km/h (en el Ecuador), ofrece una ventaja. A veces los lanzamientos se hacen, de forma más costosa en necesidades de energía, con ángulo de 90º y se dice que es un lanzamiento polar. La inclinación normal o mayoritaria de la trayectoria sobre el Ecuador viene a ser entre los 20º y 65º, que resulta suficiente para el sobrevuelo de casi todas las áreas pobladas. Asimismo, la situación geográfica de la base de lanzamiento determina un mayor o menor consumo de propulsante debido a que la situación más cercana al Ecuador terrestre permite una mejor disposición porque la aceleración allí es mayor gracias a la rotación planetaria que en otras partes. El valor de la gravedad se toma en el ecuador como de 9,78 m/seg^2 y de 9,83 en los polos. Por ello, de todas las bases importantes, la de Kourou, en la Guayana francesa, es la mejor situada. El ahorro, inversamente también puede suponer un mayor peso de la carga útil; se estima en un 15 %. En el Ecuador la velocidad adicional que se logra equivale a 463,5 m/seg en tanto que, por ejemplo, en la base soviética de Baikonur es de 316 m/seg.

Durante el ascenso, que según cohete puede durar entre 6 y 12 min para una órbita baja, el satélite, y en general toda la astronave, se ve sometida a las vibraciones propias de los motores; el satélite ya habría sido probado para soportar estas fuerzas. Sobre unos 12 Km de altitud hay zonas de fuertes turbulencias, en la zona llamada Max Q, produciéndose tensiones estructurales que el cohete ha de soportar. A cierta altura, sobrepasadas las capas más densas de la atmósfera, la carga útil, envuelta en cofia, conchas o caparazones de protección aerodinámica, se libera de estas de forma automática. Estas partes protectoras, finalizada su función, se desprenden por medios mecánicos, tal como pirotécnicos, y caen hacia tierra para su destrucción.

La entrada en órbita es la llegada de la carga útil o satélite a un punto de trayectoria de no retorno inercial, generalmente con una velocidad final de más de 8 Km/seg. Es decir, una vez que el ingenio alcanza una curva cerrada más o menos sobre sí en torno a la Tierra. La entrada en órbita la realiza habitualmente no solo la carga útil sino también la última fase del cohete portador. Pero tal fase, tras la separación del satélite, suele caer pronto hacia la alta atmósfera al ser pesada, de forma poco aerodinámica y no disponer de motores, o más propulsante, que le permitan mantenerse en órbita, al contrario del satélite. La tardanza en tal caída es diferente, según la órbita lograda, y puede quedarse allí tanto tiempo como cualquier satélite. La separación del satélite o satélites (en este caso, sucesiva y ralentizadamente) se realiza por medios pirotécnicos.

La llegada a la órbita no supone generalmente la entrada en servicio inmediata del satélite. Hay un tiempo para el despliegue de paneles y de antenas, para el ajuste de la posición, para la comprobación del estado de sistemas y aparatos, y para la calibración de los mismos. En el caso de los satélites comerciales sobre todo, al cabo de varias semanas de comprobaciones y validación, si todo va bien, se declara operativo al ingenio y se procede a su entrega al propietario. El despliegue de paneles es mecánico y un sistema puede ser el corte de cables por incandescencia; tal apertura es frenada al final por algún sistema amortiguador.

Una vez satelizado el ingenio, en gran número de casos, el nombre del mismo es cambiado, y aun tiempo más tarde también hay casos; de ahí que esta práctica habitual de lugar tantas veces a la múltiple denominación. También se le adjudica un número de registro internacional (COSPAR) que consta del año de lanzamiento y un número correlativo con una letra; si el cohete lleva varios satélites, llevan el mismo número con letras correlativas (por ejemplo: 1999-001A, 1999-001B, etc.). Esta designación se usa internacionalmente desde el 1 de enero de 1963 para satélites que logren al menos dar 1 vuelta al planeta (una órbita), siendo anteriormente el número que seguía al año una letra del alfabeto griego (el límite de tales letras hizo que se sustituyera por números). Se catalogan no solo la carga útil sino todas las partes del lanzamiento que puedan entrar en órbita (terrestre o solar), incluidas las fases últimas o de apogeo, piezas inservibles de cohete, subsatélites, etc. De tal modo, en octubre de 1997 (justo a los 40 años del primer satélite artificial) se habían alcanzado la cifra de los 25.000 objetos catalogados cuando el número real de cargas útiles, satélites, sondas o naves espaciales, era muy inferior; de cerca de 5.000, aun teniendo en cuenta la falta de catalogación de algunos satélites militares o secretos así como los más de 300 ingenios de disparos fallidos.

En España se creó en 1995 un registro propio de satélites llamado ROLEU, Registro de Objetos Lanzados al Espacio Ultraterrestre. Si una nación no dispone de registro se inscriben con matrícula de Naciones Unidas. Tal registro lleva como datos nombre del Estado, nombre del ingenio o número de registro, fecha y lugar de lanzamiento, altura máxima y mínima orbitales, inclinación orbital, tiempo de recorrido, y fines generales del mismo.

Las características del medio, una vez en órbita, para el satélite son las advertidas previamente y contra las que el mismo ya va preparado: radiación, bajísima densidad atmosférica, afluencia de micrometeoritos y polvo a gran velocidad, calor y frío extremos. Pero hay una no experimentada habitualmente en tierra: la microgravedad. La nivelación de la velocidad orbital como fuerza centrífuga con la centrípeta que supone la gravedad terrestre es lo que determina la curva cerrada, circular o elíptica, de la órbita. Tal estado viene a suponer una compensación del peso, una aparente falta del mismo. La verdad es que no se trata de una falta de gravedad o ingravidez absoluta, pese al frecuente uso de los términos, sino una microgravedad equivalente en órbitas bajas de 10.000 veces menor que la habida sobre el suelo terrestre. Resulta sin embargo tan pequeña, que en la práctica, para un observador, la falta de gravedad física es real y en tal factor se fundamenta gran parte de la investigación espacial, especialmente en las áreas de la medicina y biología, y en las ciencias de los materiales.

    > MANIOBRAS Y OPERACIONES ORBITALES.

El satélite en órbita sigue su curso inercial invariablemente en una trayectoria cerrada salvo que actúe sobre él una fuerza. En el espacio cercano a la Tierra las fuerzas que actúan son las siguientes, en mayor o menor cuantía la gravedad, la radiación y la atmósfera, sobre todo la última. La disposición de motores propios en el satélite permite corregir tales efectos y además permitir la maniobrabilidad del mismo.

Tales perturbaciones orbitales están originadas pues por: el roce molecular con la atmósfera, débil pero eficiente a estos efectos en órbitas cuanto más bajas más; por la influencia de la gravedad lunar, solar y de las modificaciones terrestres (mascons) y la protuberancia ecuatorial que supone una pequeña perturbación por mayor atracción (sobre todo en los perigeos) y de ligera aceleración y deceleración si la órbita es polar; la presión de la radiación solar; y finalmente por la acción de meteoritos o lluvia de micrometeoritos. Sobre las modificaciones orbitales debido a la propia influencia de la irregular superficie terrestre (ecuador y mascons) la misma es relativa en dependencia del tipo de órbita, en concreto de su altura e inclinación. Esa influencia derivada de la irregular forma de nuestro planeta, de mayor diámetro ecuatorial que polar, que como se indica altera ligeramente la regularidad gravitatoria tiene la denominación en la órbita de un satélite de efecto de regresión.

Además de la atmósfera, tanto terrestre como de cualquier cuerpo que la tenga, sobre la órbita de un ingenio también actúan otras fuerzas como las debidas a las alteraciones de la gravedad del terreno sobrevolado. En algunos puntos, la calidad del terreno hace que haya concentraciones de masas, o mascons, que ejercen acción sobre un cuerpo a su sobrevuelo; tales mascons pueden servir, por otra parte, para identificar con detalle gravitatorio el suelo en el que están, como una aplicación más del satélite, en base al efecto calculado que producen.

También debido a la gravedad, en este caso la solar y la lunar, la influencia en este aspecto concreto de los dos astros produce en los satélites ligeras variaciones en la inclinación orbital. En el caso de sondas en órbitas en otros planetas o sus satélites, las influencias de estos últimos también son evidentes.

Otra causa de alteración orbital es la presión del viento solar y en general de toda radiación llegada; la fuerza actuante sobre el satélite es proporcional en estos casos a la presión o intensidad de la radiación y la dirección de ataque, como ocurre al cruzar las capas de la atmósfera. Todos los efectos producen acciones, generalmente de frenado, aunque también puede ser de aceleración según la propia trayectoria, que alteran el camino del satélite, por lo general con muy leve efecto pero a veces de un modo continuo que no se debe olvidar. También existe una pequeña perturbación, que puede hacer girar a un satélite, originada por la propia emisión radioeléctrica de las antenas cuando la potencia es relativamente elevada y de haz concentrado. Por todo ello, casi siempre es importante la forma del ingenio, sus áreas de exposición a estos fenómenos.

La presión ejercida por la radiación sobre las áreas de un satélite se expresa en función de las propiedades geométricas y reflectantes de las partes externas del satélite, de la superficie frontal o de ataque del satélite hacia el Sol, de la masa del satélite y de la distancia al Sol.

La deceleración debida al rozamiento con las moléculas atmosféricas está en función directa de la densidad de éstas, del área frontal de ataque y masa del satélite, de la velocidad del mismo respecto a la de la atmósfera. La expresión matemática de la fórmula no resulta muy exacta, sobre todo a bajas cotas, debido a fluctuaciones atmosféricas. La influencia del efecto marea debido a la gravedad lunar sobre la atmósfera hace que la misma se haga en determinado momento ligeramente más elevada y aumente el efecto decelerador sobre los satélites. Y lo mismo ocurre con la actividad solar.
    Además, la estabilidad del satélite también se puede ir alterando lentamente por la respuesta a la acción de la dinámica interna, tal como de motores o cualquier objeto de se mueva dentro del satélite, de modo que éste acabará girando o cabeceando, según el resultado de la dirección de la fuerza.

Por todo ello se justifica la necesidad de disponer el satélite de pequeños motores cohete para corregir estas situaciones.

El cálculo de la posición, velocidad y distancia a un satélite, sonda o nave en el espacio se puede efectuar en base a sus emisiones de radio. Por la medida angular de la emisión se deduce su posición, por la regularidad de la transmisión y el efecto Doppler se determina su velocidad y finalmente por el tiempo y pulso de la emisión se deduce su distancia. La distancia también puede ser calculada mediante triangulación, tomando como base la posición en dos momentos distintos. Emisiones de radar y observaciones ópticas sirven también para determinar la distancia. Con los datos obtenidos se identifica la posición del satélite y se determina su rumbo. La aplicación del efecto Doppler en la señal de emisión del satélite permite medir la velocidad del mismo con una precisión del orden de los 0,1 mm/seg.

Desde una estación terrestre también se pueden calcular con una serie de ecuaciones los parámetros orbitales de un satélite conociendo su posición y velocidad, datos que a su vez se pueden determinar también por las emisiones de radio, por radar y por medios ópticos.

En el recorrido orbital, el tiempo de trayecto recorrido sobre zona iluminada siempre es algo mayor que el realizado sobre la oscura. La posición más elevada de la órbita hace que esa diferencia se incremente. Una órbita baja, de 92 min por ejemplo, permite un recorrido iluminado de 56 min y un trayecto oscuro de 36 min. Una órbita muy alta, de mayor duración, hará que el trayecto iluminado sea tanto mayor.

Dado que la vida útil de la mayoría de los satélites depende de las reservas de propulsante que se gasta en el mantenimiento de la posición orbital operativa correspondiente, y que el costo de satélites como los de telecomunicaciones es considerable (por ejemplo, 250.000.000$), la empresa británica Orbital Recovery Corp. iniciaba en 2002 el desarrollo de un módulo de asistencia de satélites de comunicaciones para intentar prolongar notablemente tal vida útil (se piensa en unos 10 años). Con este sistema también sería posible corregir las órbitas de los satélites que estén o puedan quedar en órbitas inadecuadas para su misión. El mismo, que se pensaba declarar operativo en 2004 (si bien luego se retrasaría bastante), se denominó SLES y consiste en una estructura que se acopla al satélite mediante maniobras de cita orbital y posterior encaje sobre la tobera del satélite; luego la estructura, que lleva sus propios motores, de tipo iónico, orienta todo el conjunto a medida de las necesidades. Posteriormente, en 2003, tal empresa se alió con otra, la holandesa Dutch Space, para el proyecto de igual finalidad denominado ConeXpress ORS (luego CXOLEV), extendiendo el servicio de recuperación orbital y rescate de cualquier satélite inmovilizado en una órbita para el que se contraten los servicios. Entonces la entrada en servicio de tal sistema se fijó para no antes de 2007, año al que llegaría el proyecto sin iniciar aun su desarrollo, teniendo previsto en tal momento que podría ser operativo para después de 2010. En tal 2007 estaban implicadas con las 2 empresas citadas otras como Arianespace, la sueca Swedish Space Co., la suiza Contraves, la francesa Snecma, o las españolas Sener y EADS-CASA.

                 = TIPOS DE ÓRBITA.

Los parámetros de las trayectorias determinan los lugares de terreno a sobrevolar en el planeta o cuerpo de que se trate. Los parámetros a contar son la altura orbital, si el cuerpo o planeta gira sobre su eje y la inclinación orbital respecto al Ecuador. Estos factores determinan el tiempo que tarda en dar una órbita, llamado período, el campo de visión, el área recorrida y la frecuencia de visita de un mismo punto. Generalmente los planetas o sus satélites, o giran sobre su eje en un sentido o el contrario o están ofreciendo en equilibrio siempre su misma cara al cuerpo mayor (Sol o planeta). La inclinación orbital determina que las áreas cubiertas por el satélite son todas las comprendidas dentro de las latitudes de la inclinación, pero quedan fuera de su sobrevuelo las que están por encima. Una órbita que las comprenda todas y barra así sobre todo el planeta o cuerpo ha de ser hacia uno de los polos y entonces se denomina órbita polar; su inclinación será pues de 90º. Si está en 0º, el satélite recorrerá continuamente la línea del Ecuador. El movimiento combinado del satélite y el propio giro de la Tierra hace que la cadencia en el sobrevuelo de un punto o puntos concretos del planeta sea distinta según la inclinación orbital.

Como sea que la Tierra gira (de Oeste a Este), en el tiempo de una vuelta en torno suyo de un satélite, éste, que en una supuesta órbita baja de 300 Km, por ejemplo, recorre la misma en 1 h 30 min (período), al volver sobre el punto de recorrido inicial se encontrará que el lugar sobrevolado ya no es el mismo; suponiendo siempre una inclinación cero. El giro terrestre lo habrá desplazado y un observador situado en el suelo, en tal lugar, que lo viera pasar observaría que el tiempo transcurrido sería de esa 1,5 h más unos 6 min adicionales; en la vuelta siguiente sumaría otros 6 min y así sucesivamente. De otro modo, con inclinación distinta, el satélite habría sobrevolado en cada órbita otro lugar, otra latitud geográfica. Cuando mayor sea el ángulo de la inclinación más elevadas serán las latitudes norte y sur que alcance. Los lugares sobrevolados son vueltos a ver por el satélite regularmente, según inclinación de la órbita, al cabo de un tiempo predeterminado. Por ello, el período se puede considerar también que es de dos tipos, uno absoluto u orbital, y otro respecto a un punto de referencia sobre el cuerpo que gire. Hay quien distingue respectivamente tales períodos como orbital y de revolución, pero cuando no se establece detalle el período es siempre el orbital.

El período es pues el tiempo que tarda el satélite en recorrer una vuelta completa en torno a la Tierra (o al cuerpo de que se trate). Cuando más elevada sea la órbita, mayor será el período. Una órbita baja típica es de un período de hora y media, y la geoestacionaria (a casi 36.000 Km de altura) es de 24 horas; es decir, a medida que se sube en altura la órbita dura cada vez más hasta coincidir en torno a las 24 h con los referidos 36.000 Km, sigue ascendiendo la órbita será retrógrada al girar más rápido el planeta. Algo menos de la mitad del tiempo de recorrido será siempre sobre zona de sombra y el resto ante la iluminación solar, aspecto a considerar por los condicionamientos térmicos y energéticos.

Si el satélite gira a una altura constante, es decir describiendo una circunferencia, la órbita se denomina circular, y si describe una elipse, que es el caso más común o mayoritario, se llama órbita elíptica. En este último caso, el punto de menor altura en la trayectoria se llama perigeo (o periapsis en general) y el más alto apogeo (o apoapsis), que estará en el punto opuesto al perigeo. Cuanta más velocidad final se logre más elevado será el apogeo. Si la órbita es baja, de menos de 1.000 Km, se llama LEO; si es más alta, hasta los 10.000 Km, se le llama MEO; y si es muy alta o excéntrica, HEO, siglas que se corresponden a baja, media y alta orbita terrestre en inglés. El tipo HEO admite apogeos entre 39.000 y 49.000 Km y perigeos entre los 1.000 y 25.000 Km

Cuando el tiempo de giro de una órbita coincide con el de giro del planeta o cuerpo celeste de que se trate la órbita, prácticamente circular, aunque no exactamente, se denomina estacionaria o sincrónica y el satélite permanecerá fijo sobre una misma vertical de un punto de la superficie del planeta o cuerpo. Si gira en sentido opuesto al del planeta o cuerpo se dice que tiene órbita retrógrada. Si la órbita no pierde de vista al Sol en su girar se dice que es heliosincrónica, y tienen alturas de entre 600 y 800 Km en órbita polar (entorno a los 90º de inclinación); este tipo de órbita se utiliza para satélites tanto de estudios solares como terrestres y meteorológicos, permitiendo siempre un ángulo estable de observación.

En la Tierra la órbita estacionaria se denomina geoestacionaria o geosincrónica (GEO) y está en aproximadamente entorno a los 35.800 Km, cuyo período corresponde pues al día terrestre: las 23 horas 56 min 4 seg; también se llama órbita de Clarke, que la propusiera para los satélites de comunicaciones ya en 1945. Para acceder a tal posición fija se utiliza como puente otra órbita, llamada de transferencia (GTO), o de Hohmann, cuyo apogeo es el lugar de destino geosincrónico. Pero las órbitas geoestacionarias precisan de una inclinación muy cercana al Ecuador, es decir, a los 0º, lo que lleva a perder efectividad cuando, por ejemplo en las telecomunicaciones, el área de destino terrestre está muy alejada del Ecuador, considerada la curvatura planetaria. En el caso de naciones con zonas muy al Norte, o al Sur, como Rusia, pueden optar por utilizar satélites con órbitas de 40.000 Km de apogeo y solo unos 500 o 1.000 Km de perigeo. Este último caso, mantener el servicio de cobertura constante, dado que el período será de aproximadamente la mitad del día, se precisa más de un satélite.

Si seguimos ascendiendo en altura orbital llegará el punto en que la gravedad terrestre perderá su influencia a favor de otro astro, que impondrá su propia gravedad; al entrar en otro campo, la velocidad irá gradualmente volviendo a acelerarse. Pero entre ambos, Tierra y otro (Sol o Luna, pero ello es válido también en otros cuerpos celestes), habrá una frontera de equilibrio en la que un satélite o sonda puede quedar, por así decir, inmovilizado orbitalmente, en una posición fija (aparentemente) de acompañamiento. Son los puntos denominados Lagrange (L 1 a L5), nombre debido a su descubridor, el matemático Joseph Lagrange. El L-1 está entre la Tierra y el Sol a 1.496.370 Km de la Tierra en dirección al Sol, el L-2 a otros 1.500.000 Km de distancia de la Tierra pero justo en el sentido opuesto al Sol, el L-3 sobre la misma órbita en que está la Tierra pero en las antípodas de la misma (mirando al Sol estaría siempre oculto por éste), y las posiciones L-4 y L5 están en la órbita de nuestro planeta, por delante y por detrás del mismo en su recorrido, formando en ambos casos un triángulo equilátero con el planeta y el Sol y ángulos con ambos de 60º. De los 5 puntos solo los 2 últimos resultan estables, precisando los L-1 y L-2 correcciones orbitales por sufrir leves alteraciones gravitatorias.

En relación a la Luna, el punto de equilibrio para un satélite que se quisiera dejar estacionario entre ésta y la Tierra está en los 324.800 Km de altura, y el punto exterior, por encima de la Luna, está a 446.000 Km.

La elección del tipo de órbita y su inclinación están determinadas por las necesidades u objetivos de la misión, y puede no ser la ideal, considerando siempre el mínimo costo, pero sí la más adecuada para las posibilidades y seguramente la más aproximada a aquélla. La condición de la densidad atmosférica, de los cinturones de radiación Van Allen, etc., ha de ser considerada en su caso.

              = VARIACIONES DE LA TRAYECTORIA ORBITAL.

Los cambios de órbita se realizan con los motores cohete disponibles y se denominan correcciones de trayectoria cuando son menores y maniobras cuando son cualitativamente importantes. Habitualmente, sobre todo los de órbita baja, para mantenerse en tal posición tienen que realizar regulares encendidos de motores. La fricción con la escasa atmósfera, más densa cuanto más baja la altura, los hace caer de manera constante y más cuanto menor sea la altura por tal razón.

Si aumentamos la velocidad con un encendido de motores en un punto de una órbita circular, tal posición pasará a ser el perigeo de la órbita y el apogeo, en el punto opuesto, será tanto más elevado cuanto más prolongada sea la actuación del motor. Un frenado en igual posición determina que el punto pasará a ser el apogeo y el perigeo será tanto menor cuanto mayor el encendido del motor. En los dos casos, frenado o aceleración, la órbita del satélite se convierte en elíptica. De otro modo, un frenado hace bajar al satélite en altura y un aumento de la velocidad lo hace subir. Para el mantenimiento en órbita del satélite interesa siempre que el perigeo sea lo más elevado posible (dentro de los objetivos que se marquen; se quiere decir que un perigeo muy elevado cuando la misión requiere menor altura no es deseable por motivos estratégicos de la misma).

Una aplicación del motor en un apogeo con vector horizontal de la fuerza durante el tiempo suficiente hace que la órbita se vuelta a transformar en circular, al alcanzar el perigeo la misma altura del apogeo, pero ahora de una mayor altura.

Otra modificación a realizar con motores puede ser la de la inclinación de la órbita.

En resumen. Una aceleración del satélite en el apoapsis significa que elevará la altura del periapsis. Un frenado causa el efecto contrario, la disminución de altura del periapsis. Acelerando en el periapsis se eleva el apoapsis y frenado se disminuye su altitud.

Incluso los aparentemente inamovibles satélites geoestacionarios, que están sobre la línea del Ecuador, dado que la misma no determina una circular exacta, tienden a derivar de Este a Oeste, por lo que, según posición, hay que corregirlos ligeramente (por ejemplo, en 10 cm/seg cada 2 semanas). Los mismos también pueden derivar de latitud (norte-sur) en un 1º al año y precisan pues de correcciones de 1 m/seg semanalmente; ello es debido a la influencia de las mareas gravitatorias del Sol y la Luna.

Al final, la mayor parte de las veces, la vida final del satélite viene determinada por su capacidad para las correcciones orbitales.

En los casos de separación de algún módulo o parte de un satélite, un pequeño impulso hacia arriba o abajo, a derecha o izquierda, puede llevar a alejarse al mismo del cuerpo madre o principal. Pero tales pequeñas modificaciones no significan el definitivo alejamiento de los dos cuerpos sino que sus órbitas cercanas tienden a cruzarse en al menos un punto de la órbita. Por ello, existe riesgo cierto de choque o contacto al cabo de media órbita. Un impulso hacia arriba de un cuerpo respecto al satélite principal hará que el cuerpo impulsado se eleve y se quede atrás respecto a la posición del suelo planetario para luego bajar y acercarse de nuevo, siendo al contrario cuando se impulsa hacia abajo, que inicialmente se acelera y adelanta. Pero al cabo de un tiempo, en el ciclo orbital, vuelve a confluir en el mismo punto en que abandonó al cuerpo madre. Digamos que un ligero impulso solo hace que se cambie un poco el plano orbital que tiene dos puntos de intersección con el plano del satélite principal.

El impulso que puede evitar la confluencia de los dos objetos ha de ser importante y repetido, y en la misma dirección y sentido de la marcha del satélite principal, o bien con un frenado en igual sentido de la marcha. En el primer caso, el objeto separado se eleva para luego quedar atrás por encima al tener una órbita de más altura, y por tanto más lenta; si luego se repite el impulso al cabo de media órbita más (en el perigeo) se habrá conseguido elevar la altura orbital respecto al otro cuerpo. Del mismo modo, el frenado hace bajar en altura al cuerpo y adelantar luego al satélite del que se desprendió, quedando así en una órbita más baja que es además ayudada en frenado por una atmósfera más densa.

              = CITAS Y ENSAMBLAJES. SEPARACIÓN DE MÓDULOS.

Algunos satélites, y sobre todo las naves tripuladas, pueden tener por objetivo su acercamiento o unión con otro cuerpo orbital, es decir, con otro satélite, estación tripulada o no. En caso de aproximación la maniobra se denomina cita orbital, o rendez-vous, y si la misma acaba en una firme unión se dice que se produce un ensamblaje o acoplamiento.

La misión o necesidad de estas maniobras viene dada por diversos objetivos: abastecimiento de una estación; para permitir una mayor propulsión; con fines militares antisatélite; sistemas de navegación espacial modular; etc. Es este el modo de dar versatilidad a las posibilidades del espacio y en el caso de los vuelos tripulados son operaciones básicas e imprescindibles en todos los programas espaciales..

Las maniobras de aproximación no son nada sencillo, pese a lo que pueda aparentar, y se realizan con sucesivas maniobras y correcciones de trayectoria, citadas anteriormente. Es decir, se van realizando encendidos de motores de una dirección y tiempo calculados hasta llegar a unos metros del objeto destino, que también puede a veces realizar también maniobras que facilitan tal encuentro, si bien generalmente suele permanecer pasivo en su órbita.

Para alcanzarlo, no basta situarse detrás y acelerar, puesto que ello llevaría a subir en una órbita propia, que por ser superior en altura es más lenta, y por lo tanto se alejaría. La solución es bajar decelerando para adelantarlo por abajo y cuando la aproximación es ya mínima elevarse acelerando un poco hasta el punto preciso. Si el satélite que maniobra está por delante puede dejarse alcanzar por el objetivo situándose en una órbita un poco más elevada y luego frenar para bajar hacia el punto de encuentro.

En caso de algunos satélites militares antisatélite la aproximación puede ser solo para provocar una explosión cercana al objetivo o sencillamente impactar. Pero en general, en otros casos, los objetivos civiles suelen tener como misión final el acoplamiento. En esta opción, las maniobras finales son más delicadas y calculadas que la mera cita orbital. Hay que buscar a unos metros de los puntos de atraque el alineamiento y los encendidos han de ser breves y varios. La posibilidad de choque es aquí alta y por tanto hay que actuar con mucha delicadeza. Finalmente, los acoplamientos han de realizarse con una velocidad relativa entre los dos cuerpos de menos de 35 cm por seg.

Cuando mayor es la masa de los cuerpos a ensamblar más problemático resulta este tipo de maniobra, como en el caso de las estaciones espaciales modulares. El acoplamiento produce ondulaciones de toda la masa y la estructura soporta una carga, ocasionando ligeras deformaciones; también incide ello en la orientación del conjunto formado. En el caso de la antigua estación soviética Mir se estudió la dinámica del complejo formado a todos estos efectos.

Los sistemas físicos de ensamblaje del satélite llegado y del de espera han de ser complementarios y precisan el engarce, fijación, solidez y también muchas veces la hermeticidad (si bien en los no tripulados puede no ser imprescindible; por ejemplo, un módulo de propulsión). 

Una vez que finaliza la misión del ensamblaje (agotamiento de propulsante, vaciado del módulo de abastecimiento, etc.), salvo rara excepción, todos los módulos o naves que se puedan acoplar, se pueden volver a desenganchar. Se produce entonces la separación, desenganche o desacoplamiento, invirtiendo el proceso. Primero se cierran las escotillas de paso entre los satélites, si es el caso y hubo enlace interior, y luego se sueltan los enganches. Posteriormente, el ingenio que se ha de alejar enciende brevemente motores. Luego, ya a mayor distancia para no dañar con los chorros de gas de los cohetes a partes sensibles del satélite fijo en su órbita, realiza un encendido de motores principales para el definitivo alejamiento.

              = SATURACIÓN Y BASURA ESPACIAL.

Con el paso del tiempo, algunas órbitas, como las geoestacionarias sobre el cenit de algunas longitudes, se han ido llenado o se pueden llenar de satélites dando lugar a algunos problemas. Uno de ellos es el puramente físico de la saturación, derivado la cercanía entre satélites. Por ello, algunos países, los menos pudientes aun sin su satélite (generalmente de comunicaciones), reclamaron a mediados de los años 80 del Siglo XX la reserva de la posición sobre su vertical del derecho a la órbita geoestacionaria para evitar su ocupación por otros. Anteriormente, en 1977, tras conferencia internacional celebrada en Ginebra, se asignaron posiciones orbitales, número de canales y frecuencias para cada país.

Tal saturación se va incrementando a un ritmo que pronto obligará a establecer un servicio regular de retirar de los satélites no operativos o de vida agotada en tales posiciones; en 2000, había catalogados fuera de servicio en la órbita geoestacionaria unos 115 satélites. El límite pensado en tal circunferencia a casi los 36.000 Km de altura es 1 satélites por grado de arco (unos 1.000 Km de separación para evitar interferencias), es decir, en total unos 360 satélites. Para evitar tales saturaciones, una solución hallada ha sido reservar para el final de su vida un último impulso de motores y elevar la órbita en unos 300 Km. También se puede hacer caer, en frenado, para destruirlo o dejarlo en órbitas bajas de futura caída. El envío de los satélites al final de su vida útil a órbitas-cementerio (más elevadas), es decir, órbitas reservadas para ellos, no es una solución final porque allí los mismos acabarán con el tiempo colisionando entre ellos, fragmentándose sin control y saliéndose de sus trayectorias; en definitiva, persistiría el problema. Esta opción es sin embargo la propuesta por la ONU en 1999 tras reunión en Viena de expertos de 61 naciones.

Las agencias espaciales tienen especial preocupación por resolver el problema, de modo que desde los años 90 algunas tomaron medidas para no incrementar el volumen del mismo. Incluso la empresa americana Tethers Unlimited diseñó un instrumento llamado Terminator Tether consistente en un cable metálico de varios Km de longitud que se engancharía a un satélite inactivo para hacerlo caer con su masa añadida o lastrada.

Luego de finalizar su misión o labor en órbita, a veces concluida antes de lo esperado por avería u otra incidencia, si la órbita es baja, por lo general el satélite caerá sobre la alta atmósfera, si no es muy pesado, y se quemará completamente. Pero si la órbita es elevada, quedará en ella durante años o incluso siglos, miles o millones de años, según cuanto más alta sea. Se convierte entonces en basura sideral, pero su posición suele ser previsible y conocida, así que no suelen, relativamente, entrañar riesgo.

En cambio, los restos de satélites destruidos en la propia órbita (no por reentrada, como es obvio, sino por impacto o explosión casual o intencionada), piezas o partes desprendidas de los mismos, las últimas fases de cohetes no reentradas, etc., suponen un grave riesgo para la circulación de los satélites y naves operativas. Además muchos suelen ser objetos pequeños, mucho más difíciles de detectar, y su velocidad orbital (pongamos una típica de 28.000 Km/h en una órbita baja o menos en una más alta) puede producir, por su energía inercial, un impacto lo suficientemente importante como para dejar fuera de servicio a cualquier ingenio en activo o causar una catástrofe en un vuelo tripulado. Con el tiempo, el incremento de estos objetos ha venido a suponer un problema considerable. Además, las posibles colisiones entre objetos, aun entre la propia basura citada, generan otros trozos más pequeños, que así se incrementan y son más difíciles de detectar.

Un objeto de 80 gramos a 36.000 Km/h se calcula que genera en colisión una energía como la explosión de 1 Kg de TNT. Con ello un satélite de media tonelada sería aniquilado.

Las órbitas más saturadas son las de hasta 2.000 Km de altitud. Pero también las geoestacionarias de 36.000 Km. Los objetos en órbita superior a los 1.000 Km tardarán en caer siglos y los que están por debajo desde años a décadas.

La mayoría, tarde o temprano, acabarán cayendo sobre la alta atmósfera y quemándose en la reentrada, pero mientras tanto son un peligro para los satélites en activo. El más pequeño tornillo es un gran peligro por la elevada velocidad a que va en su órbita si llega a chocar contra alguna parte vital de un satélite o nave espacial. De hecho, hasta 1998, en los Orbiter Shuttle se llevaban cambiadas 59 veces las ventanillas de los mismos por pequeños impactos que dejaban notables huellas en las mismas; y cada ventanilla tenía un costo de 7.000.000 pesetas. En otras partes de la nave los microchoques también son habituales. En numerosos vuelos, las naves espaciales han tenido que cambiar de órbita para evitar pasar rozando con diversos objetos, como fases de cohete, o trozos de las mismas.

Además, ocurrió ya algún caso de choque catastrófico de un satélite con basura espacial; tal es el caso del ingenio francés Cerise que en julio de 1996 chocó con una parte de un lanzador Ariane. Es el primer caso bien documentado de tales impactos. Anteriormente, en 1981 se cree que el Cosmos 1275 pudo también ser destruido por ser objeto de colisión. El primer caso de fragmentación en órbita, en este caso por explosión de una fase Able-Star que llevó al satélite TRANSIT 4A, ocurrió en 1961 y dejó 267 trozos detectables.

En abril de 1993 se celebró en la alemana Darmstadt una reunión de 250 expertos en la materia de todo el mundo en lo que se denominó la 1ª Conferencia Europea sobre Basura Espacial.

En 1997 se calculaba que se habían lanzado unos 5.000 satélites o ingenios (con más de 3.800 disparos que generaron en total 23.000 objetos de más de 10 cm en órbita, que es normalmente el tamaño mínimo para la detección desde tierra), de los que solo en torno a los 400 eran entonces operativos y unos 1.700 inactivos. Los restantes o abrían ya caído o forman parte de la llamada basura espacial, a la que se suman un número de fases últimas de satelización, trozos de todos ellos, piezas sueltas como tornillos indicados, etc. Hubo quien señaló entonces que había cerca de 10.000 objetos de basura espacial, de ellos 8.647 de más de 10 cm con órbitas controladas por los americanos. De más de 1 cm habría unos 100.000 objetos en órbita. Hasta 1997 se habrían producido 128 explosiones de diverso tipo, generalmente de fases últimas de cohete y más de una veintena sin explicación, quizá alguna por impacto con algún objeto. Solamente el estallido del cohete Pegasus en 1994 se cree que dejó 300.000 trocitos de más de 4 mm.

El NORAD, el ente con radares más capaces para estos casos, podía detectar a finales de los años 80 objetos de más de 4 mm en órbita baja, pero a medida que subimos en altura tal capacidad se va perdiendo y a 1.000 Km el tipo de objeto que podía captar tenía que tener como mínimo 10 cm de diámetro.

Generalmente, cabe pensar que los objetos detectados, de más de 10 cm se suponen controlados y por lo tanto no son un gran peligro, pues basta con evitarlos, pero los objetos menores son el verdadero problema. Los de menos de 1 cm, para evitar sus efectos, sobre todo las naves tripuladas, disponen de cubiertas, escudos o telas, que amortiguan o absorben los impactos. Pero los de entre 1 y 10 cm, dependiendo de su trayectoria o ángulo incidente y velocidad, así como la parte del satélite que reciba el impacto, pueden ser de un riesgo entre grave y catastrófico.

En tal año de 1997 se celebró de nuevo en Alemania la 2ª Conferencia de la ESA sobre Basura Espacial y la propia ONU elaboró desde 1996 un estudio al respecto para tratar de emanar una legislación que regulara estos problemas. Para entonces ya existe también un comité coordinador entre las distintas agencias espaciales para tratar este tema. Esta Conferencia se repetiría regularmente en la misma localidad de Darmstadt en años sucesivos para hacer intercambiar información en el seguimiento de la repetida basura espacial (la 3ª Conferencia en marzo de 2001).

En 1999 se estimaba en un total de entre 2 y 3 millones de objetos en órbita, contados tornillos, piezas, satélites operativos o no, basura de naves tripuladas, herramientas de astronautas, trozos de pintura soltados, etc.; los trozos referidos de pinturas son como escamas y su abundancia se ha calculado en cientos de miles o millones de ellos y su peligro, pese a su poca masa, no es desdeñable por su velocidad e imposibilidad de detección. Para entonces se creía que por lo menos 10 satélite habían sido dejados fuera de servicio por culpa de choques con basura espacial.

En tal momento, en 1999, otro sector, el de los astrónomos salió a relucir con su propio problema respecto a la basura espacial. Reunidos en Viena en julio de tal año, declararon que tal contaminación celeste sumada a los propios satélites en activo empezaba a causarles problemas; también se quejaron de la contaminación lumínica de las ciudades y del uso de frecuencias por las constelaciones de satélites de comunicaciones para telefonía móvil.

En marzo de 2000 el Comando Espacial americano captó la explosión en órbita de una fase última de un cohete chino CZ, seguramente originada en el propulsante restante en los tanques, que causó como mínimo 300 trozos detectados por radar.

En 2001 el Comando Espacial de Estados Unidos en Colorado Springs calculaba que había casi 9.000 objetos importantes en órbita terrestre, de los que cerca de 3.000 eran satélites en funcionamiento y el resto fragmentos de chatarra espacial de más de 10 cm. En 2.004, de tales 9.000 objetos, solo eran operativos en torno a los 650 (±50) satélites.

En tal 2001 la ESA inició un programa para la detección con un telescopio óptico de 1m de la basura sideral en las órbitas geoestacionarias, donde, dada la lejanía (casi 36.000 Km), los objetos de menos de 1 m resultan de difícil detección. Pero en 2004 se habían conseguido captar objetos de hasta 5 cm, si bien la mayoría resultaron ser de 20 a 25 cm y son posiblemente fragmentos de aislante de satélites; el censo registró en una primera fase 2.500 de tales objetos y se creía que podría haber unos 100.000 mayores de 1 cm. 

La propia ESA, en 2005, informaba del desarrollo del programa informático DRAMA para aplicar en la detección de la basura espacial y evaluar sus riesgos. En tal 2005, con unos 4.100 disparos, el número de objetos observables se estimaba en 26.000. Al mismo tiempo, la estimación de satélites operativos es del 7% sobre los 8.700 objetos mayores en órbita; el 50% son por otra parte satélites fuera de servicio o fragmentos mayores, y el 43% restante son restos de roturas o explosiones de diversos cuerpos orbitales. Por entonces, tal estimación apunta a una cifra de entre 100.000 y 150.000 objetos de más de 1 cm.

Las posibilidades de impacto de un objeto de más de 10 cm contra una nave del tamaño de un Orbiter americano estimadas en su momento eran de una a un millón, pero superiores para la Estación Internacional. Para ésta, en 2007 se cifraba en un alto porcentaje de posibilidades tras una prueba antisatélite china en enero y días más tarde la explosión de una fase de un cohete ruso que sumó entre ambos casos nada menos que cerca de 2.000 nuevos fragmentos en órbita.

En cualquier caso, en este apartado, las cifras son más que nunca relativas. De año en año, según fuentes, según evaluaciones, aparecen y desaparecen objetos por miles porque las referencias se toman según distintas consideraciones (por ejemplo el tamaño). Pero evidentemente el problema de la basura espacial existe y se agravará más en el futuro a menos que se tomen medidas.

La entidad que hace un mayor y detenido seguimiento de la basura espacial es el NORAD, el comando espacial de la USAF, gracias a sus potentes radares. Algunas misiones espaciales Shuttle emplearon objetos en simulación de basura para calibración de los detectores correspondientes. Pero los soviéticos/rusos no han sido menos y han dispuesto radares con seguimiento en bandas VHF y UHF y sistemas ópticos y electrónicos por toda Rusia y otras repúblicas CEI (Moscú, Irkutsk, Sebastopol, Alma Ata, Kiev, Balkhash, Riga, Petchora, Murmansk, Simeiz, Zvenigorod, Kourovka, Uzhgorod, Mingechaur, Dushanbe, Burokan, etc.).

Una de las soluciones posibles, además de la reglamentación con la que se pretende frenar el incremento del problema, fue propuesta en 1993 por los japoneses y consistiría en enviar al espacio un satélite que localizara y recolectara como una aspiradora todos los objetos pequeños existentes en órbitas entre los 500 y 1.000 Km de altitud. El problema de tan enorme multitud de citas orbitales requerirá en cualquier caso un desmesurado costo de propulsante y por tanto será un proyecto muy caro. Otra opción podría ser la destrucción de tal basura por medio de potentes rayos láser (proyecto americano Orión), cuando tal tecnología esté disponible para tal fin.

El diseño de cargas útiles que en su despliegue no liberen pequeños objetos, el precipitado de satélites hacia la alta atmósfera, así como de las fases últimas, etc., no serán medidas suficientes. En las órbitas bajas, la mejor limpieza será con el tiempo la que haga la propia tenue atmósfera de las mismas con sus fluctuaciones debidas a mareas y a la actividad solar. En cualquier caso, el problema será en el futuro lo suficientemente serio como para emprender, sino ésta, alguna iniciativa más que lo aminore, pero algo seguro que tendrán que hacer las agencias espaciales.

Otro aspecto es que algunos de los satélites fuera de servicio, especialmente muchos de la serie Cosmos soviético/rusos, y también considerados basura espacial, portan material radiactivo, lo cual añade un aliciente más de peligro y problemas porque pueden ser una fuente engañosa para otros satélites en su investigación. En 2001 se cree que había en órbita en suma 56 satélites de este tipo, el último lanzado en 1988, con un total de 2,6 Tm de material nuclear o radioactivo, todos soviéticos menos 9 americanos. La mayoría están en órbitas a 900 Km de altitud.

En abril de 2004, en Okayama, Japón, entraba en servicio el primer radar terrestre civil expresamente proyectado y dedicado al seguimiento de la basura espacial, con posibilidad de seguir de forma simultánea hasta 10 objetos del tamaño de 1 m y hasta una altitud de 600 Km. Denominado Centro de Vigilancia Cósmica Kamisaibara, su costo fue de 18.500.000$, su gestión es realizada por el denominado Foro Espacial del Japón, entidad privada, y controlado por el Centro Espacial de Tsukuba. Fue subvencionado por el Ministerio japonés de Ciencia, Tecnología y Educación.

En 2008, la agencia rusa Roskosmos optó por participar en la financiación del mayor telescopio láser de Rusia que se estaba construyendo en un centro en Altai y que estaría dedicado a la vigilancia de la basura espacial, incluidos los satélites perdidos. Entonces ya había otros 2 centros similares, en Ucrania y Uzbekistán.

Con referencia al 1 de enero de 2009 la estadística de objetos mayores de 10 cm en torno a la Tierra era de 12.743, de los que 9.535 eran restos de cohetes y otros objetos y los demás, 3.208, eran satélites, incluidos los no operativos. A su vez, de tal total, 4.415 eran de la URSS/Rusia, 4.259 americanos, 2.773 chinos y el resto de Francia, Japón, India, Europa y otros.

En la primavera de 2009, tras el choque fortuito de dos satélites el 10 de febrero anterior, la estimación de la NASA era que la basura espacial se había incrementado en un 9,05% desde entonces, situando la cifra exacta del incremento en 1.154 nuevos objetos y la suma total se cifra así en 13.897; de ellos, 5.018 eran de origen ruso-soviético, 4.550 americano, 2.932 chino, 459 francés, 185 japonés, 151 indio y 75 de la ESA.

En total, en todo el 2009, la basura espacial aumentaba nada menos que en casi un 20% respecto al año anterior, alcanzando la cifra de 15.090 objetos (de cuyo total 5.653 son ruso-soviéticos, 4.812 americanos, 3.144 chinos, 469 franceses, 187 japoneses, 171 indios y 85 de la ESA).

    En la primera mitad de 2010 la estimación del número de objetos asciende a 15.550 (de ellos: Rusia 5.833, USA 4.824, China 3.388 y ESA 83), con un incremento de un 3% (un 4,6% interanual). Por entonces, un estudio de la Universidad de Southampton dice que el incremento de CO2 en la atmósfera es un factor que favorece la abundancia de la basura sideral al perder densidad la alta atmósfera y así aumentar la permanencia en órbita de los satélites.
        A finales de 2013 se piensa que pueda haber orbitando en torno a 29.000 objetos de basura espacial mayores de los 10 cm, pero podría haber unos 670.000 mayores de 1 cm y nada menos que unos 170 millones mayores de 1 mm. 

    En 2010 se daba a conocer que la empresa australiana Electro Optic Systems proponía el control y seguimiento de la basura espacial con un sistema láser terrestre, más preciso que el seguimiento por radar y capaz de identificar los cuerpos más pequeños.

    Casi al mismo tiempo se proponía una posible solución para combatir, al menos en parte, un factor de generación de la basura sideral: dotar a los satélites en órbitas hasta 1.500 Km de altitud de un globo que al final de la vida útil del satélite se inflaría con helio, aumentando notablemente la resistencia aerodinámica y por tanto precipitando sobre la alta atmósfera con prontitud la caída del ingenio. Pero por encima de los 1.500 Km, el sistema no sería efectivo.

    En 2011 los rusos trabajan en un proyecto de nave tripulable para combatir en parte el problema de la basura orbital a partir de 2018. Quieren realizar el mantenimiento de satélites como los meteorológicos y los de recursos en vuelos de 2 semanas de duración. La nave podría ir tripulada por 2 cosmonautas y tendría una esclusa para realizar paseos para trabajar en los satélites.

    En agosto del mismo 2011 el italiano Marco M. Castronuovo y la Universidad Técnica de Delft, Holanda, presentan un proyecto de satélites dotados de brazos mecánicos para recoger basura espacial. El propósitos es que el satélite se situe en la misma órbita del objetivo a recoger y lo proyecte luego hacia una órbita muy baja para que lo frene la propia atmósfera y se queme en ella. El modo de empujar hacia abajo al objeto sería con un sistema propulsor, de forma que cada satélite debía llevar al menos 5 propulsores para liberar y tendría que recargarse de los mismos en una estación o base orbital. De tal modo se hizo un cálculo para eliminar los 300 objetos de mayor peligro en unos 20 años, suprimiendo 5 objetos por año con vida útil de 7 años cada  satélite.
        En septiembre de 2012, la ESA, preocupada por este problema, inicia con ayuda del ONERA francés y otras varias entidades del país galo, así como de España y Suiza, el diseño de un radar doble terrestre, o biestático, capaz de localizar y seguir o controlar la basura espacial, permitiendo así una mayor seguridad en la circulación de los ingenios orbitales. El radar emisor se pretende instalar en un aeropuerto junto a Crucey-Villages, a un centenar de Km al Oeste de París, y el receptor al Sur de París, cerca de Palaiseau.
    En el siguiente octubre de 2012 la ESA, con la participación de la empresa española INDRA, instala un radar de prueba distinto del anterior (monoestático) pero con igual fin en Santorcaz, a unos 30 Km de Madrid. También colabora el instituto alemán Fraunhofer de Física de Alta Frecuencia y Técnicas de Radar
    Al mismo tiempo, en algunos ámbitos astronáuticos hay cierto temor a que el incremento de la basura sideral pueda llegar a un límite en que la multiplicación por impactos alcance un nivel de incremento exponencial (llamado umbral o límite de Kessler).
    En junio de 2013, en la ONU se advierte del problema de la basura espacial que podría colapsar las telecomunicaciones y los sistemas de posicionamiento como el GPS en un par de décadas. Para entonces, el ritmo de generación de tal basura se podría triplicar. Al tiempo de esta evaluación, se estima hay 500.000 piezas de basura orbital, de las cuales unas 20.000 son de más de 10 cm, lo que les confiere mayor peligrosidad. 
    En 2014 un estudio dice del seguimiento de unos 17.000 objetos, considerados como los más peligrosos, pero estima que hay nada menos que 170 millones mayores de 1 mm.

  Por su parte, los militares americanos del DARPA califican de grave el problema de la basura espacial y por ello en 2011 dispusieron un telescopio de 3,5 m de abertura denominado SST, y otros medios, para la detección y seguimiento de objetos peligrosos de la repetida basura sideral.
    En 2014 en Europa se trabaja en el proyecto e.DeOrbit con el que se piensa atrapar satélites inservibles o incontrolables con un arpón que se clavaría en el mismo con un fuerte impulso para luego estabilizarlo y atraerlo hacia el satélite que realiza el servicio. Este sistema se estudia entonces en Stevenage (Inglaterra) por parte de la empresa Airbus Defence&Space.
    En el mismo año, en Australia, se trabaja en un proyecto completamente distinto pero  igualmente enfocado a resolver el mismo problema. Se trata aquí de desarrollar un sistema láser terrestre que pueda enfocar y mover los objetos orbitales que supongan un riesgo para los satélites operativos o no, puesto que aunque no estén activos un choque genera en cadena más basura espacial. Tal láser pretende mover de su órbita hasta los 1.000 Km de altitud a los objetos de la basura de un tamaño de hasta un puño que puedan suponer un riesgo de colisión, para lo que se debe hacer un seguimiento regular de los mismos. De funcionar el sistema, en una segunda fase se tendría como objetivo el derribo sistemático de las decenas de miles de tales objetos. Teniendo por centro el Observatorio de Stromio, cerca de Canberra, el proyecto cuenta con en tal época con la aportación de 13,7 millones de euros del Gobierno y 27,5 millones más de las empresas interesadas.
    A principios de 2015 la ESA planea para marzo una reunión en el centro ESTEC con la industria espacial del viejo continente bajo la iniciativa llamada Clean Space o CleanSat cuyo objetivo es aplicar las tecnologías y establecer requisitos que permitan limpiar las órbitas bajas de la basura espacial. Se pretende retirar los satélites inservibles hasta una altura de 2.000 Km en un plazo de 25 años a partir del cese de su actividad, precipitándolos para la reentrada en la alta atmósfera o bien elevándolos hacia una órbita cementerio.

Por último, una última utilidad de los satélites inactivos que forman parte de la basura espacial. Al ser seguidos regularmente por radar, con telescopio, prismáticos o láser, sirven para el estudio de la alta atmósfera y la leve materia gaseosa que contiene por observación del frenado que ejerce en los mismos y que provoca, junto algún otro factor, su caída.

    > TIPOS DE SATÉLITES ARTIFICIALES.

Los tipos posibles de satélites en torno a la Tierra están en función de sus objetivos, pero dado que algunos los tienen múltiples, los criterios clasificatorios pueden  a veces difusamente difíciles de establecer. Existe así una subclasificación abundante, pero aumentando la complejidad delimitadora por ello.

Nos atenemos pues a una clasificación inicial en satélites de investigación, o científicos, y satélites de aplicaciones.

Estadísticamente, hasta 2002, más de la mitad de los satélites lanzados eran militares. El grupo siguiente es de los satélites de comunicaciones, que son más del 17%, seguidos de los científicos (más de un 8%) y los experimentales y tecnológicos (más del 7%). Con aproximadamente un 3,5 % están los satélites de navegación, y con otro tanto los de aplicaciones diversas. Entre un 3 y un 2 % cada uno están los satélites meteorológicos, los de estudios de recursos terrestres, los de estudios sobre la microgravedad, y los astronómicos. Los geodésicos son los menos numerosos con menos del 1 %.

              = SATÉLITES DE INVESTIGACION.

Dentro de los satélites de investigación o científicos, clasificamos los mismos en 4 grandes grupos: Astronómicos, Científicos en general, de Microgravedad, y Experimentales y de investigación tecnológica. Algunos tienen carácter múltiple y muchos, por ello, pueden ser de difusa clasificación, como los biológicos que pueden ser asimilados a la experimentación en la microgravedad o a la científica simple si de otros estudios se trata.

                                - SATÉLITES DE INVESTIGACIÓN ASTRONÓMICA.

Son aquellos cuya labor consiste en recabar datos o entes de estudio de la Luna, el Sol, los planetas y sus satélites, las estrellas y cualquier ente celeste más allá de la magnetosfera de la Tierra. Según la banda espectral de estudio puede clasificarse en satélites de observación astronómica en la banda visible, en el IR, UV, rayos gamma, rayos equis, radioastronomía, etc. Una subclasificación de los mismos admitiría la consideración de todos estos rangos del espectro ETM.

Las órbitas de tales satélites son variadas, pero algunos casos han de tener presente que determinadas alturas, las de los cinturones o zonas de fuerte radiación, han de ser evitadas o hacer que los ingenios pasen por allí inactivos para evitar que los aparatos confundan tal radiación con la que se pretende estudiar; depende del tipo de satélite, según la finalidad del mismo.

                                - SATÉLITES DE INVESTIGACIÓN DE LA MICROGRAVEDAD.

Son satélites que tiene por finalidad el estudio de los efectos de la microgravedad en los seres vivos, fluidos, materiales, y cualquier otro ente terrestre de interés, tanto por su posible aplicación en el espacio como en la Tierra. Suelen contener cápsulas, bien recuperables con las muestras, bien dotadas de cámaras y sistemas de observación a distancia. Aunque la presencia directa humana es vital en algunos casos y de gran ayuda en otros, muchos experimentos biológicos (incubación de huevos, exposición de microseres al entorno espacial, etc.) no requieren manipulación alguna en órbita dado el alto grado de automatización. Se utilizan cámaras, programadores y controladores de temperatura, humedad, niveles de oxígeno y CO2, evoluciones de los seres, etc., y se puede hacer un seguimiento por telemetría desde la Tierra.

                                 - EXPERIMENTALES Y TECNOLÓGICOS.

Los satélites experimentales y de ensayo de tecnologías en el espacio comprenden un campo muy amplio de prueba de todo tipo de experimentación nueva y de instrumental pensado para su uso regular luego en los satélites de aplicaciones. Aquí se ensayan o prueban los satélites de comunicaciones, meteorológicos, de recursos, etc. Vienen a ser un prolegómeno de los de aplicaciones y de experimentación de los científicos más complejos o anteriores a la concepción definitiva de estos últimos. También comprenden los de exposición de materiales al entorno espacial y experimentación de crecimiento de cristales, electrofóresis, etc. Asimismo se ensayan técnicas de la vida común terrestre que en el espacio adquieren una dimensión distinta. Así, por ejemplo, el fuego en la microgravedad tiene un comportamiento distinto al no existir corrientes convectivas y las llamas tienen forma esférica que se forma en torno a la fuente que las origina. El gasto del oxígeno es más rápido y ello es un aspecto que hay que considerar para casos de incendio en este medio. Además, puede que las llamas emitan solo un brillo tan tenue que resulta imperceptible con el peligro que ello entraña. Los extintores utilizados en las estaciones espaciales son de agua pulverizada principalmente y también de CO2.

                                  - OTROS SATÉLITES CIENTÍFICOS.

Los satélites científicos en general pueden ser de finalidades u objetivos de varios tipos bien definidos: Biológicos, oceanográficos, sismológicos, atmosféricos (incluidos los magnetosféricos, ionosféricos, etc.), de medición gravimétrica, etc. Pero en realidad no tienen una definición específica, sino que suelen tener varios o compartidos objetivos de los citados tipos.

El interés de los experimentos biológicos es múltiple, no solo por el propio espacial de su aplicación posible sino cara a investigaciones terrestres. La materia orgánica en contacto directo con el espacio, prescindiendo de la microgravedad, sufre primero una dilatación por la falta de presión, luego una pérdida de agua y líquidos, que se evaporan de inmediato, y luego una cristalización o quemado de la materia, según incida la luz solar o la sombra. Toda actividad biológica, incluida la microorgánica, se detiene en razón a la acción de la fuerte radiación cósmica, UV, etc., y también debido a la falta de oxígeno. La protección contra tal agresividad del medio sideral es trascendental pues para el ser humano si quiere navegar por el cosmos.

En las investigaciones meteorológicas se estudian los contenidos de aerosoles en la atmósfera, temperaturas de las masas del aire, niveles contaminantes, evaporaciones terrestres, las capas de hielo polares, etc., etc.

En relación a estudios sismológicos, desde el espacio se pueden obtener datos que ayudan en la predicción de terremotos. China diseñó un sistema de 10 satélites en órbitas bajas, 3 de ellos dotados de radiómetros de microondas y el resto con radiómetros IR para el estudio de las alteraciones térmicas en el suelo de determinadas zonas que pueden apuntar a un posible inicio de un movimiento sísmico. Por otra parte, la observación desde el espacio de nubes plateadas sobre unos 70 Km de altura, hecho poco frecuente, ha venido evidenciando una correlación con los terremotos (según datos rusos; Mir, 07.12.88 y 17.01.94, terremotos de Armenia y Los Ángeles).

En el espacio también tienen su importancia los estudios oceanográficos, como por ejemplo los del fenómeno de El Niño, que genera con sus oscilaciones alteraciones en los climas y con efectos importantes en la meteorología global. También se estudian los niveles de agua marina, distribución y abundancia de plancton, temperaturas de las aguas, estudio de corrientes con seguimiento de boyas liberadas al efecto que emiten como radiofaros, etc.

              = SATÉLITES DE APLICACIONES.

Los satélites de aplicaciones tecnológicas los podemos clasificar en 7 grandes grupos: Comunicaciones, Meteorológicos, de Posicionamiento y Navegación aérea y marítima, Militares, Geodésicos, de Recursos Terrestres, y Otros Satélites de Aplicaciones.

                              - SATÉLITES DE COMUNICACIONES.

Los satélites de comunicaciones son aquellos que se utilizan como repetidores en las comunicaciones telefónicas, de telefonía móvil, de televisión, de radio, de transmisión de datos e imágenes, multimedia, fax, e Internet. Su privilegiada posición a gran altura les permite cubrir áreas que no es posible en tierra sino a base de gran número de repetidores y de ahí la utilidad de los mismos. Son especialmente una solución única en el caso de servicio sobre grandes áreas de población muy diseminadas, tal como islas y archipiélagos, y zonas más o menos desérticas o aisladas. Son geoestacionarios o en órbita baja, siendo los segundos propios de la telefonía móvil y los primeros para cobertura de áreas fijas. Suelen llevar los típicos transpondedores (repetidores, o receptores-transmisores), antenas, electrónica, etc., con multitud de canales, y ser operados por compañías comerciales; los satélites de comunicaciones militares naturalmente son operados por los ejércitos correspondientes, y en general serán clasificados como militares a pesar de que su función concreta sea la de comunicaciones.

Inicialmente fueron catalogados en dos tipos, activos y pasivos, siendo los primeros los que podían guardar la comunicación o almacenarla, o bien retransmitirla en directo, y los segundos los que se limitaban simplemente a reflejarlas las ondas con poca intensidad al no disponer de equipo electrónico. Los últimos solo fueron utilizados al principio y experimentalmente. Los activos, en cambio, reciben las señales, las amplifican y la retransmiten cambiando la frecuencia para evitar interferencias.

Las órbitas elegidas para los mismos será normalmente geoestacionarias (en torno a los 36.000 Km) o de gran apogeo con gran inclinación en su caso (los Molniya soviéticos) para cobertura de latitudes elevadas, disponiendo en todos los casos en tierra de antenas parabólicas grandes. Pero para los de telefonía móvil, para evitar las grandes antenas y mantener la operatividad, se disponen baterías de satélites en órbitas más bajas, en torno o por encima de los 1.000 Km de altura. En una órbita geoestacionaria con solo 3 satélites colocados estratégicamente en ángulos de 120º se puede cubrir teóricamente todo el planeta (salvo las zonas polares o de elevada latitud). Por el contrario, en la misma órbita geoestacionaria, la concentración de distintos satélites sobre una vertical provoca interferencias si se usan las mismas frecuencias por lo que han se estar separados al menos 3º, unos 2.200 Km sobre el arco de la órbita. Para tratar del asunto la UIT celebró varias conferencias en los primeros años (1959, 1963, 1971, 1977 y 1979) para ajustar a cada país en unas determinadas posiciones orbitales que serían declaradas, con todos las consecuencias de administración que ello implica, como “recursos naturales limitados”.

La zona o área geográfica que recibe de forma efectiva la señal de un satélite de telecomunicaciones se denomina zona de cobertura. La misma se puede ampliar con antenas terrestres de mayor diámetro en los límites de tal zona. Dicho de otro modo: el enfoque o dirección de apuntamiento de cada repetidor determina a su vez el área terrestre a dar servicio, con menor concentración o difuminado de la señal hacia los bordes de tal zona de cobertura; esta última circunstancia se suple pues, como se indica, disponiendo en tierra en tales extremos con antenas parabólicas mayores que recojan más señal.

En la terminología de estos satélites se denomina enlace descendente, o downlink, al tramo de recorrido de señal entre el satélite y la antena terrestre, y es enlace ascendente el tramo inverso, entre la estación de tierra y el satélite. La suma de la potencia de emisión del transpondedor y la de ganancia de la antena emisora se denomina potencia isotrópica de radiación efectiva. Si la potencia en transpondedor es inferior a los 30 vatios, el satélite se dice que es de baja potencia, y entre 20 y 100 vatios de media potencia. El mayor o menor número de repetidores de un satélite determina en igual proporción su capacidad.

El problema de la potencia de los satélites para ganar más calidad en la señal y tener mayor cobertura geográfica en su emisión puede producir el llamado “efecto de emisión de campo”. Tal efecto genera campos ETM intensos y produce un deterioro en las antenas y su electrónica.

Para la telefonía móvil por satélite, llamada MSS, se reservó la Banda L, sobre los 1.600 MHz.

El uso de Internet por satélite que se planifica a finales del pasado siglo XX requiere del usuario una antena parabólica adecuada (de un diámetro inversamente proporcional a la potencia-lejanía del satélite), un sistema descompresor digital normalizado con tarjeta PCI o en modo Set Top Box, y el módem para señal de salida, así como naturalmente el ordenador con programas navegadores y la conexión a un servidor.

La importancia de todos estos satélites de comunicaciones se deduce del hecho de que son un elemento vital en vida común de la sociedad humana y uno de los aspectos más trascendentes del espacio en la vida del hombre. Además, gracias a los mismos, el precio de las comunicaciones intercontinentales al cabo de sus primeros 15 años de existencia había bajado en más de un 50%.

                             - SATÉLITES METEOROLÓGICOS.

De los satélites meteorológicos podría decirse, por su importancia, lo mismo que de los de comunicaciones. Son un medio tecnológico humano de capital importancia en la predicción del tiempo con una antelación creciente, con el interés que ello representa para la agricultura y la pesca, o para todos en general, y especialmente en el aspecto de la predicción de catástrofes en determinadas zonas del planeta.

Estos satélites obtienen su información de la atmósfera, especialmente de las franjas donde se ubican las masas nubosas, bancos de nubes, formaciones borrascosas, huracanes, etc., y su evolución y recorrido, por diversos medios radiométricos, siendo los típicos los sistemáticos fotográficos en bandas visibles y colindantes. Las imágenes son retransmitidas con la cadencia de tiempo (1 h, 1/2 h, ¼ h, etc.) correspondiente para su análisis computerizado, estableciendo las líneas isobáricas e isotérmicas, así como otros detalles. Con todos los datos, por parte de los meteorólogos, se dan los partes a vista de la evolución de nubes, temperaturas, humedad, presiones, polución, dirección de vientos, nubes de polvo en suspensión, etc.; sobre las imágenes obtenidas se realizan mapas sinópticos del tiempo, se ponen las isobaras, los frentes, las borrascas o bajas presiones (que representan con la letra B), los anticiclones o altas presiones (representados con A), etc. Los márgenes de error, gracias a los satélites, son por ejemplo en temperaturas de solo 1ºC y en velocidad de los vientos, con cadencias de ½ hora, de 3 m/seg. Las predicciones resultan así muy fiables a 3 horas vistas, y bastante fiables hasta las siguientes 12 horas de las tomas correspondientes. Para mayor tiempo, se conjugan datos con fórmulas en procesos informatizados de modelos establecidos, dado que se aportan estadísticas y datos geoclimáticos de las zonas objeto de valoración, de modo que se establece una valoración posible de la evolución del tiempo en los días siguientes. Para mayor tiempo de un día las predicciones acertadas pasan de ser aceptables a diluirse progresivamente en menores probabilidades de fiabilidad.

En general, gracias a estos satélites, el estudio y la previsión del tiempo aumentaron en los primeros 25 años astronáuticos en un 20 % aproximadamente.

Uno de los estudios menos conocidos realizados con ayuda de los satélites en el campo de la meteorología son los de las grandes tormentas de nubes de polvo que principalmente se originan en el las zonas desérticas: en el Sahara, saliendo en dirección Oeste y menos hacia el Norte y Este; en China, saliendo hacia el Este; en Oriente Medio, hacia el Sur; y en Norteamérica, que barren principalmente hacia el Sureste. Con las fotografías de satélites se calcula de estas nubes su dirección, concentración, masa y composición, así como la influencia humana en las mismas por actividades erosivas en el suelo. Estas nubes influyen en otros parámetros ambientales y modifican los meteorológicos. También tienen su importancia al ser una barrera opaca para la observación de superficies desde los satélites.

Utilizan tanto las órbitas geoestacionarias como las bajas y, como los de comunicaciones, son objeto de importante colaboración de los distintos países, en cuanto a la información obtenida con los mismos.

La información aportada por los satélites de este tipo de distintos países se coordinó a partir de los años 70 del Siglo XX por la WMO (Organización Mundial Meteorológica) en el programa llamado GARP, de investigación global atmosférica, y comprendió en principio los programas TIROS, GOES y SMS americanos, Meteor soviético, METEOSAT europeo y GMS japonés. También se estableció colaboración europea-americana, coordinando las respectivas observaciones por satélite en 2006 dentro del denominado programa IJPS.

En la primavera de 2004, gracias a los datos de sus satélites, la NASA  y la NOAA informaban que la temperatura media de la superficie terrestre entre 1981 y 1998 (en 18 años) se había incrementado en 0,43ºC y con tendencia a continuar en subida. Ello da idea de la importancia de este tipo de satélites, no solo para la predicción a corto plazo que observamos a diario en las televisiones.

                              - SATÉLITES DE RECURSOS TERRESTRES.

Los satélites de recursos terrestres son los dedicados a la teledetección sistemática de zonas terrestres en busca de yacimientos de minerales, acuíferos, estudio de terrenos y masas boscosas, estudio de cosechas, detección de bancos de peces, etc. Todo ello tiene por objetivo facilitar la información precisa y ahorrar considerables costes a los correspondientes medios de prospección, estudio o búsqueda terrestres. Igualmente se puede hacer seguimiento de manadas de animales por sistemas IR, incluso de noche (para lo que el sistema IR es ideal).

También sirven para observar zonas contaminadas terrestres y marítimas, seguimiento de los arrecifes coralinos y sus recursos, evolución de las sedimentaciones en las deltas fluviales y los cambios que producen en la geografía, y en general todos aquellos entes y actividades en relación al medio ambiente que tienen una trascendencia económica para el ser humano. Muchas de estas actividades pueden en ocasiones ser realizadas por satélites cuya función es compatible pero con misión primordial distinta, como el caso de algunos militares y otros.

La identificación de estos objetivos terrestres se realiza a través de estudios multiespectrales y suelen utilizar órbitas bajas y también las de gran inclinación como las polares, con repetición de los sobrevuelos para la observación de la evolución de la superficie que se examina.

La teledetección, en general y aplicable a éstos y a cualquier otro tipo de satélite, comprende, además del objeto (superficie o atmósfera) observado, dotados de alguna fuente de emisión ETM (por incidencia de un astro o bien por emisión previa del ingenio observador), de un sistema sensor a la banda elegida, un sistema transmisor, a veces dotado de un almacenaje previo, en ocasiones con sistema de codificación, un sistema receptor y almacenaje o grabación, y otro de tratamiento o procesado y análisis de los datos o imágenes. A veces, antes de este último factor puede existir el intercalado de la comercialización.

Otra aplicación que tiene como finalidad los recursos terrestres, y que podría entrar en otras categorías (satélites científicos-biológicos, y de posicionamiento y navegación) es la que se deriva del seguimiento de animales desde el espacio. Se les coloca un collar o algún instrumento dotado de un transmisor que permite el seguimiento del animal para conocer su ruta, hábitos, etc. Se han realizado estas experiencias con diversos tipos de animal, alces, elefantes, etc. Tiene su aplicación no solo para el estudio de las especies y sus emigraciones, sino por su influencia en el medio ambiente; por ejemplo, en los elefantes para conocer sus rutas habituales y evitar que destrocen sembrados que se plantan en ellas, etc.

                               - SATÉLITES DE POSICIONAMIENTO Y NAVEGACIÓN.

También simplemente llamados de navegación, sirven de apoyo a la navegación aérea, marítima y terrestre, tanto a vehículos como a personas, estableciendo sus coordenadas, es decir, ubicando el punto exacto de su posición con la sola ayuda de un sencillo aparato localizador-receptor. Esto significa la localización de cualquier aeronave, buque, vehículo terrestre o persona, especialmente las necesitadas (como los ciegos), y la trascendente asistencia consecuente con los mismos en su ruta. Inicialmente fueron desarrollados con fines militares, para apoyar la guía de los misiles de todo tipo, especialmente los lanzados desde submarinos –que es de donde surge la idea inicialmente-, y bombarderos. No solo significa esta tecnología la localización simple de un vehículo, sino su orientación, dirección y guía en aterrizajes, atascos, etc.

La identificación de las señales del Sputnik 1 hizo pensar en 1958 a los especialistas  americanos, del Laboratorio de Física Aplicada de la Universidad John Hopkins, que el movimiento del satélite en relación a un observador establecía señales con efecto Doppler. Esta circunstancia, conocida la órbita del ingenio, facilitaba que la frecuencia localizada permitiera localizar al receptor de las señales, de tal modo que se daría así nacimiento al sistema de los satélites de navegación. Estos satélites emiten a cada milisegundo una señal de radio en una secuencia de pulsos. El sistema se basaba al principio pues en el efecto Doppler, calculando la posición por las distancias en función de las alteraciones en la frecuencia de la señal, bajo el requerimiento inicial de señal estable, y con la intervención de varios satélites de órbitas bien precisadas (3 más otro de verificación) luego con medición exacta del tiempo gracias al relojes de cesio; de otro modo: se mide el retardo de las señales sincronizadas entre el receptor y el satélite y ese tiempo entre emisión de la señal y el de su recepción por la velocidad de la luz determinan la distancia con bastante exactitud. La evolución en precisión fue pues posible gracias a relojes atómicos. Así, las varias distancias permiten triangular la posición, aunque también se pueden utilizar otros cálculos en ecuaciones. En el caso americano con los GPS NAVSTAR tenían un resolución inicial que para usos civiles se limitó a 100 m, pero es mucho mayor (menos metros) para los militares (unos 10 m).

Antes del sistema GPS los americanos experimentaron casi desde el principio de la era espacial principalmente con el sistema de satélites TRANSIT, que fueron considerados como los primeros operativos de este tipo en la historia y lo fueron para la US Navy. El sistema se basó, conocida la órbita de los satélites, en el citado efecto Doppler.

En las aplicaciones de búsqueda y socorro, el sistema SARSAT-COSPAS firmado en 1979 con inicialmente americanos, rusos, franceses y canadienses, había permitido hasta mediados de 2000 salvar la vida a más de 11.350 personas; más tarde se adhirieron otros países. El acuerdo de estos países consolidado en 1982 pero se renovó el 1 de julio de 1988 para 15 años. En este sistema, los vehículos accidentados usuarios (de superficie o aéreos) llevan un transmisor cuya señal y posición, activada automáticamente en su momento en caso de accidente o avería, recoge el satélite que la envía a una red de estaciones que movilizan los equipos de rescate. Inicialmente la señal de radiobaliza, activada automáticamente en siniestro, emitía en los 121,5 MHz (señal internacional reconocida por la ONU con la de 243 MHz para aviación civil) con cadencia de 50 seg durante 2 días con una potencia de menos de un vatio. Luego se utilizó también la señal de 406 MHz con codificación, para dar mayor cobertura y reducir el tiempo de localización. Al principio, cada satélite COSPAS-SARSAT puede captar simultáneamente 20 señales y guardar las coordenadas de hasta 200. La señal transmitida también llega a comprender información sobre nacionalidad, nombre y tipo de vehículo y clase de avería.

                                              SISTEMA GPS Y OTROS

El Sistema de Posicionamiento Global, GPS, fue el primero puesto en servicio (1978) con fines militares pero se declaró operativo en 1986 y sirve como ayuda de localización de personas o cosas que, llevando un aparato pequeño, equivalente más o menos a un teléfono móvil, llamado simplemente receptor, e indicando con precisión de metros la situación de la persona o cosa portadora del mismo, así como su velocidad si está en movimiento. El sistema fue creado por el ingeniero electrónico y físico Ivan A. Getting (New York, 1912-Coronado, California, 2003) y desarrollado por Brad Parkinson, de la USAF.

En el sistema GPS la señal de radio (emisión constante doble en la banda L, en los 1.575,42 y los 1.227,6 MHz; también utilizan la Banda S, descendente en los 2.227,5 y ascendente con los 1.783,74 MHz) ha de recibirse por el aparato al menos de 3 satélites sincronizados para los correspondientes cálculos (más un cuarto para ajuste de los errores relativistas que desfasan la exactitud de la señal); ello quiere decir que siempre (todo el día) hay 4 satélites a la vista desde cualquier punto de la superficie terrestre. Tales cálculos se resuelven en 4 ecuaciones en las que se consideran los conocidos parámetros orbitales de los cuatro satélites, la velocidad de la luz y la polarización del reloj del receptor. La emisión en cadencia de cada satélite hacia tierra es en realidad una emisión de 5 bloques que contienen la información necesaria para los cálculos: corrección del reloj, dos bloques de efemérides con las coordenadas de velocidad y posición, otro bloque de mensaje y uno llamado de almanaque y estado del satélite emisor. El sistema se apoya en estaciones y centros terrestres de control y ajuste: 3 estaciones de control en Isla de Diego García en el Índico, Isla de Kwajalein en el Pacífico e Isla Ascensión en el Atlántico, 5 estaciones de monitorización, 3 de ellas en los mismos sitios antes referidos, más otras dos en Hawai y en el centro de control principal del sistema, sito en la Base Falcon de la USAF en Colorado Spring; cada estación de monitorización consta básicamente de un sistema informático, un reloj atómico, un receptor de 4 canales y una antena en banda L.

Sus aplicaciones están en rescates, navegación aérea, marítima o circulación automovilística terrestre, ayuda de pilotos automáticos, invidentes, explotaciones mineras, movimientos geológicos, agricultura, satélites en órbita más baja que la de los GPS, etc.; en el caso de invidentes la señal se transforma en audiométrica. En la circulación automovilística sirve de apoyo para guiar al conductor hacia la ruta más corta, la de menos tráfico, estaciones de servicio, áreas de descanso, etc., y hará posible la conducción sin piloto con señales de mayor precisión. El GPS determina en el vehículo, la dirección, velocidad y posición y se conjugan con información cartográfica predeterminada. El sistema, gracias a trabajos de la NASA y la Universidad Purdue, también ha sido utilizado para observaciones medioambientales basadas en datos captados sobre océanos, superficie terrestre y atmósfera. También se han hallado aplicaciones GPS en estudios sísmicos (Universidad de Colorado en Boulder) detectando las ondas sísmicas con receptores distantes a miles de Km; el efecto se detecta en este caso con movimientos horizontales de varios centímetros durante unos segundos.

El aparato receptor del usuario civil ha de recibir del espacio con el sistema de señal SPS (posicionamiento estándar) y en el caso militar PPS (posicionamiento preciso). El receptor de usuario puede ser de 3 tipos: de 4 canales, uno por satélite; secuencial, que recibe sobre un mismo canal la señal del satélite más cercano y luego de otro, y así hasta los 4; y de un tipo mixto llamado multiplex.

El sistema GPS fue diseñado por el DOD, la Defensa estadounidense, en el programa NAVSTAR para apoyo de misiles pero, operativo civil en realidad desde 1994, hasta esta década no comenzó a aplicarse en el sector automovilístico y extenderse en otros diversos campos civiles; el primer aparato GPS fue comercializado en 1993. En 2001, la influencia del sistema estimaba que incidía reduciendo en un 5 % los trayectos y en un 13 % su duración, y en un 3% la posibilidad de accidentes.

El sistema es posible por ejemplo gracias a una batería de satélites coordinados en órbita; por ejemplo, en el caso americano un total de 24 ingenios (21 satélites, más 3 de reserva) a poco más de los 20.000 Km de altura, en órbita prácticamente circular, con 55º de inclinación. Cada satélite lleva dos pares de relojes atómicos (de cesio y rubidio) para garantizar la sincronía en los enlaces. La precisión del GPS en usos civiles está limitada a 100 m y en uso militar es de 20 a 36 m, o menos. Además, cada satélite emite cada medio minuto un mensaje de 1.500 bites que indica la hora y su posición con exactitud. Tanto la señal civil como la militar van encriptadas. Tanto la señal civil como la militar van encriptadas. Pero son susceptibles de ser modificadas o interferidas por terceros, sobre todo en el ámbito militar, con determinados medios instrumentales. 

La ligera distorsión originada a veces en las ondas por la atmósfera (ionosfera) y la incidencia en la misma de la actividad solar puede hacer al sistema fallar. La navegación aérea se ha visto también beneficiada con el GPS, utilizando el preciso GPS diferencial (también llamado DGPS), sistema más avanzado, de 1 m de precisión en el aterrizaje, pero que necesita ser ayudado con estaciones terrestres costeras o en aeropuertos. En este último caso, solo es utilizable pues en los cientos de Km de tramo antes del aterrizaje. Tal precisión aumenta hasta algunos cm en el acercamiento a menos de 10 Km. Para el caso de las costas americanas, el sistema diferencial se aplica desde 1996 en la llamada red NDGPS de la Guardia Costera y su precisión es entre 1 y 5 m.

También es preciso apuntar que el sistema no es perfecto en cuanto a precisión debido a errores que se derivan, no ya de las medidas y los parámetros originales de satélites e incluso del receptor, sino de las interferencias ionosféricas y atmosféricas, y sobre todo de algunas fuertes erupciones solares que pueden hacer disminuir la señal hasta en un 90% durante varias horas (estimación de 2006); también puede haber una ligera influencia del efecto de la relatividad einsteniana en la velocidad de la señal.

Con fines militares las frecuencias son codificadas y para evitar su utilización efectiva con igual destino por parte de otros países (y potenciales enemigos), las frecuencias abiertas son mucho menos precisas pero pueden tener, y tienen, evidente utilidad civil. Los militares americanos controlan la degradación de la señal para usos civiles. En 2000, por ejemplo, permitieron aumentar la precisión disminuyendo tal degradación y en 1999, en la guerra en la antigua Yugoslavia, se falsearon las posiciones para evitar el uso por parte del enemigo. De tal modo, en caso de necesidad, los americanos controlaban con la dependencia del sistema GPS este ámbito en el planeta. De ahí que otros países optaran por crear su propio sistema.

También hay que añadir que, según algún especialista ruso en la materia, el uso militar de los Navstar-GPS americanos era posible neutralizarlo (en los años 90) con un sencillísimo equipo basado en el de radioaficionados, por un costo de entonces cifrado en solo las 30.000 pesetas. Conocidas las frecuencias GPS, el sistema se basaría en un generador de interferencias.

El sistema GPS también puede ser empleado para estudios meteorológicos, como el del programa COSMIC, previsto iniciar en 2005 bajo presupuesto de 100 millones de dólares y con el que se debían tomar datos a diario de 3.000 puntos terrestres; la técnica utilizada se basa en la ocultación por radio de la señal GPS emitida y el estudio de las variaciones de la misma por interferencia de la densidad atmosférica, temperaturas, humedad, etc., lo que identifica el estado de la atmósfera.

En Europa, al tiempo del predominio de este sistema americano, se declaró obligado llevar el sistema GPS (un receptor y un transmisor) en buques de más de más de 24 m de eslora total, y en todos aquellos barcos que naveguen en aguas fuera del país propio.

    En 2011 se aumentó la precisión GPS por vía de programas informáticos en los parámetros verticales, en mediciones de la altitud. La precisión en tal aspecto es entonces de centímetros.
    En 2016 se trabaja en mejorar el sistema con el GPS OCX para aumentar la precisión y también para librarlo de los ataques informáticos y de interferencias. Para la señal militar se prepara nueva encriptación, la M-code. Para hacerlo efectivo se tendrá que cambiar todo el equipamiento del sistema. Una de las principales empresas implicadas en tal renovación es Raytheon y el costo se ha cifrado en unos 4.200 millones de dólares. Se quería que estuviera listo para 2014, pero se lleva un retraso de más de dos años y el primer satélite preparado con tales novedades se prevé lanzar en 2017 y que el sistema empiece a funcionar no antes de 2019.


El sistema ruso correspondiente es el GLONASS, puesto parcialmente en servicio en 1995 y de una precisión posible de 60 m, superior en 40 m al civil GPS; en uso ordinario civil, la precisión es inicialmente de unos 100 m horizontales y 150 m en vertical. También se utilizan 21 satélites, más 3 de reserva, en 3 planos orbitales sobre los 19.000 Km de altitud. Una de sus características diferenciales con el GPS es que utiliza una frecuencia distinta para cada satélite, si bien en total se usan 12 canales. Mientras los GPS tienen una distribución de estaciones de monitorización por todo el globo terrestre, el GLONASS las posee casi todas en el territorio de Rusia. La emisión GLONASS consta de 2 bloques de datos: corrección del reloj, y almanaque y datos con las coordenadas de velocidad y posición del satélite.

El sistema se relanzó en 2008 para potenciarlo respecto al GPS americano, luego que entre 2006 y 2007 se gastaran 560.000.000$ en el proyecto. Entonces se sacaron a la venta para los usuarios civiles del GLONASS unos 20.000 receptores; para usos militares se estimó que se dispondrían otros tantos. En 2007 la precisión del sistema es de 30 m para usos civiles, pero a partir de entonces fue aumentada a menos metros, dejándola igual que el GPS del momento, si bien los satélites en servicio GLONASS son solo en tal momento 13.

Por su parte los japoneses planificaron para usos aeronáuticos el MSAS a partir de 2005, con una precisión de 7 m. Tal precisión también es la misma de otro sistema, el WAAS, para usos aeronáuticos sobre toda Norteamérica, incluido Canadá y México y planificada para usar a partir de 2003, si bien no se homologó hasta mediados de tal 2003.

En Europa el sistema pensado para dar respuesta propia al modo GPS fue sintetizado en el proyecto Galileo, de un margen de error menor inicial en la precisión de localización del objetivo terrestre, con unos 2 m, o menos, e incluso en modos de pago hasta de centímetros. El sistema europeo GNSS proyectó 8 o 16 satélites con un incremento gradual hasta los 27 (más 3 de reserva). El mismo se establece previamente con una red que incluye las otras dos redes citadas y 3 satélites geoestacionarios, 2 de ellos INMARSAT y el Artemis (lanzado en 2001), con entrada en funcionamiento a partir del 2002. El sistema Galileo se proyectó para entrar en servicio en 2008, si bien luego registra retrasos. En junio de 2004, europeos y americanos acordaban compatibilizar el Galileo con el GPS, con un reparto de frecuencias y compatibilidad de receptores para ambos sistemas (tanto en la señal abierta como en la de pago, además de la encriptada de seguridad para usos gubernamentales).

El GPS, el GLONASS y el Galileo son de cobertura mundial, en tanto que el japonés lo es sobre aquella área del Pacífico. Pero el Galileo es más completo porque comprende o cubre áreas de sombra del GPS y los polos terrestres, amén de su precisión, su compatibilidad con teléfonos móviles de tercera generación, y pudiendo salvar obstáculos que no libran los demás sistemas, como los errores relativistas. VER el apartado del PROGRAMA GALILEO en el capítulo de SATÉLITES.

Por su parte, la India proyectaba en 2006 un sistema de navegación propio pero compatible con el GPS americano. Principalmente se pretende el uso del mismo, enmarcado en el llamado programa GAGAN, para apoyo de la navegación civil.

En cuanto a China, que anunció en su momento que se sumaba al Galileo europeo, tenía su propio proyecto llamado Beidou, o Compass.

                             - SATÉLITES GEODÉSICOS.

Son satélites destinados a trabajos de geodesia, mediciones cartográficas y similares, para su aplicación en confección de mapas de todo tipo sobre nuestro planeta, con toda su importancia en obras de ingeniería, precisión en la navegación, etc. No son muy abundantes porque en parte su labor también es recogida por otros satélites con misión principal en otros aspectos. La posición privilegiada que tiene el satélite permite, por ejemplo, triangulaciones, en mediciones mediante datos angulares, y así se establece la distancia exacta entre dos ciudades, o puntos determinados. Gracias a un satélite geodésico se estableció que nuestro planeta tiene una ligera forma de pera, se precisó el achatamiento del mismo, de precisaron notablemente las distancias entre continentes y otros entes geográficos, etc.

Una de las formas de determinar la distancia con bastante precisión entre dos puntos geográficos con la observación simultánea de ambos del mismo satélite a una altura suficiente es por triangulación. En los cálculos y mediciones, es necesario el conocimiento preciso de la órbita seguida por el satélite y disponer de estaciones terrestres para la observación.

Otro método utilizado por los satélites geodésicos son las variaciones gravitatorias de las órbitas recorridas por los satélites. Pero tales variaciones han de ser limpiadas primero de otras perturbaciones, como el frenado atmosférico, mareas y la radiación solar.

Muchos de estos satélites llevan reflectores láser de tipo pasivo para las mediciones de distancias desde la superficie terrestre.

                              - SATÉLITES MILITARES.

Los satélites militares son desde un principio la más extensa familia del espacio, tanto en variedad como en cantidad, y de los menos información se dispone, como resulta fácil de advertir; y esto último sin contar a veces la intencionada tergiversación de las misiones para ocultación de datos y confusión preparada hacia el enemigo o potencial enemigo; cuando nos referimos al enemigo, se trata en verdad mayormente del potencial enemigo, que pueden ser para muchas naciones casi todos los demás países.

La subclasificación de los satélites militares comprende casi todos tipos de satélites científicos y de aplicaciones, con el correspondiente enfoque de fines militares (comunicaciones, meteorológicos, etc.). Algunos de investigación militares pueden incluso obtener verdaderos datos científicos sin aplicación militar, pero en tales casos se suele tratar de calibrar sensores, instrumentos o sistemas pensados para un posterior uso en satélites de claro fin militar.

Las principales misiones de los satélites militares se pueden clasificar en 4 tipos: investigación, apoyo, vigilancia, y de acción directa. Los de investigación son los destinados a experimentación y pruebas tecnológicas con vistas a dotar o mejorar a los otros satélites, ingenios y técnicas militares. Los de apoyo son los utilizados en las infraestructuras militares (comunicaciones, meteorología, cartografía, navegación, detección de pruebas nucleares, etc.). Los satélites de vigilancia del enemigo son la base principal de la efectividad de los satélites militares y comprenden a su vez a los destinados a: la observación fotográfica para detección de instalaciones, armas y tropas; la vigilancia y la alerta temprana o detección inmediata de lanzamientos de misiles, o de cualquier disparo de cohete por medio de la teledetección del calor generado (con sensores IR); al espionaje de las comunicaciones del enemigo con enormes antenas que les confieren a estos satélites entonces una envergadura de hasta 200 o más, a veces menores pero en forma de red; la detección de pruebas nucleares de cualquier tipo; etc. Finalmente, los satélites de acción directa para el ataque o la defensa, pueden tratarse de satélites-minas orbitales o de ascenso directo (respectivamente, ya satelizados o con lanzamiento directo desde el suelo), siendo así interceptores suicidas por impacto o explosión cercana, ambos denominados ASAT, de bombardeo orbital (FOBS) y de captura; pero siempre, en cualquier caso, como arma para impedir que otro satélite del enemigo cumpla su función o, como el caso FOBS, para bombardeo, previa satelización, como si de un misil de cabeza múltiple se tratara. La detección de un disparo de un misil permite a las fuerzas propias disponer tanto posibles medidas para su derribo siguiendo su trayectoria aparente como activar el contraataque. En el caso de los FOBS se plantean varios inconvenientes de seguridad y falto de precisión (mucho menor que la de los misiles; y nos referimos a varios kilómetros) por lo que el sistema resulta no solo poco fiable sino peligroso. Los soviéticos fueron quienes investigaron más esta opción en los años 60 y los americanos abandonaron su estudio ya en 1965; el sistema solo tenía como ventaja respecto a un lanzamiento de un misil con cabezas nucleares el ahorro del tiempo entre el disparo y el apogeo de la trayectoria balística, pero a cambio no podía ser muy grande porque mayor masa exigía motores superiores para el frenado.

En cualquier caso, para las comunicaciones de este tipo de satélites es habitual el uso de sistemas contra interferencias y de transmisiones encriptadas para evitar el acceso a la información por parte de cualquier otro país (ya no solo los enemigos o potenciales enemigos).

En el caso de los satélites de reconocimiento o espionaje, las órbitas más adecuadas son las bajas. Cuando más cerca del suelo mayor será la resolución posible. Al principio, las imágenes obtenidas en película eran recuperada en una cápsula de retorno, pero más tarde se pasó al sistema de transmisión por señales codificadas o encriptadas. Las cápsulas de retorno, como en el caso americano de los Discoverer, podían ser recogidas tras la reentrada incluso en vuelo por aviones preparados al efecto. Los soviéticos tuvieron su réplica en algunos de los satélites Cosmos.

Aunque todos los tipos son importantes, para una acción contra el enemigo serían de considerar en importancia decreciente primero los de acción directa, luego los de vigilancia, más tarde los de apoyo y finalmente los de investigación.

Otros medios directos para derribar o anular un satélite también son los misiles, aéreos o de superficie, y los rayos láser o máser proyectados desde la superficie terrestre, desde un avión o buque, o desde otro satélite. Aquí, la mayor o menor altura orbital, hará preciso un misil antisatélite de mayor o menor alcance.

Un aspecto que podría no ser clasificado militar pero si de espionaje es el uso de satélites de evaluación de recursos naturales de países enemigos. Con ello se puede conocer sus posibilidades en relación a cosechas, contaminación y otros aspectos que influyen en la economía y por tanto que pueden ser factores sociales previsibles. Es el poder de la información y de adelantarse en los múltiples campos de confrontación internacional, el uso tecnológico espacial para influir preventivamente en beneficio propio a costa de otros.

También el espionaje comercial e industrial realizado usando las telecomunicaciones por satélite podría entrar en este apartado.

Son todos ellos, los renovados medios de guerra modernos, la gran lacra de la humanidad llevada o adaptada al medio espacial.

                                                    EL PROYECTO SDI (“LA GUERRA DE LAS GALAXIAS”)

La SDI o Iniciativa de Defensa Estratégica fue un proyecto propuesto oficialmente el 23 de marzo de 1983 por el entonces Presidente americano R. Reagan para una defensa integral nacional contra ataques nucleares, impidiendo la llegada a territorio americano de cualquier misil hostil. Se trataba de cambiar la política de “destrucción mutua asegurada”, basada en la disposición disuasoria y masiva de misiles y armas nucleares, que Reagan consideraba “repulsiva”, por un sistema defensivo confiado en la tecnología propia. Se basaba en el uso de satélites destructores por impacto (KKV), misiles y disparadores de potentes y destructores rayos láser contra misiles y satélites enemigos utilizando cañones terrestres y orbitales y juegos de espejos en órbita de 5 m de diámetro y con disparos cada seg o ½ seg con enormes requerimientos energéticos. La finalidad sería impedir que una carga nuclear enemiga llegara a tierra norteamericana. Vulgarmente, por los medios de comunicación, fue conocido como “la guerra de las galaxias”, en alusión al film americano de igual título en el que se hacía profusa utilización de las pretendidas armas láser, aunque en realidad la idea de los láseres de aniquilación espacial era ya anterior a tal película de 1976.

Recordemos, antes de seguir, que cualquier país del mundo está al alcance de cualquier misil en un tiempo máximo de una media hora y que algunos misiles pueden albergar varias cabezas nucleares. El tiempo es pues vital, primero en la detección y luego en la interceptación. El rayo láser u otro similar (haces de partículas) es un rayo de energía a la máxima velocidad posible, la de la luz, a 300.000 Km/seg, y de ahí su elección.

El sistema, en resumen, pretendía derribar en poco menos del citado tiempo de ½ h los misiles atacantes por medio de la siguiente secuencia de acción. PRIMERO: localización del misil por medio de una red de satélites; SEGUNDO: calculo de su trayectoria y velocidad; TERCERO: calcular el derribo, fuerza y punto de impacto y apuntamiento; CUARTO: derribo con láseres químicos en órbita y misiles antibalísticos, en submarinos y también en órbita; y QUINTO: Comprobación del derribo. El sistema estaría escalonado en 3 niveles, uno global, otro regional y uno local, y su pretensión era derribar el 99,9 por ciento de los misiles atacantes.

Los americanos, que querían suplantar con ello a su red de misiles antibalísticos, se hallaron con la lógica oposición de los soviéticos que los acusaron de violar los acuerdos ABM al respecto y de promover una nueva carrera de armamentos, entre otras cosas, por obligarles a desarrollar también ellos un sistema parecido; por supuesto, a los chinos tampoco les gustó y los europeos, una vez más, solo fueron los oportunos convidados de piedra. El citado tratado ABM prohibía crear nuevas armas de tipo antimisil pero no su investigación, alegaban los americanos.

El sistema debería haber contado con un total de nada menos que 4.600 satélites, muchos con cañones láser, que también se ubicarían en tierra, principalmente debido a los enormes requerimientos energéticos, cuanto menos de decenas de megavatios, no disponibles razonablemente en el espacio y equivalentes los terrestres a 300 centrales!.... que habría que construir expresamente. Se debían satelizar 18 plataformas de 800 Tm cada una en órbita polar circular a 1.750 Km de altitud y debían ser capaces de derribar con los láseres 1.000 ICBMs en 100 seg con la imprescindible ayuda de un desarrollado y monumental sistema informático. Este último, de una complejidad difícil de imaginar, un software con al menos 10 millones de líneas (si no varias decenas de millones) que hubiera precisado 8.000 programadores y analistas trabajando durante 10 años, y de su infalibilidad habría dependido el funcionamiento de todo el sistema.

También se contempló que los láseres UV fueran emitidos desde tierra hacia espejos en órbita geoestacionaria (a 36.000 Km) que se orientarían para reflejar el rayo hacia otros espejos que enviaría ya el rayo al objetivo con un margen de error total de 5 m. Pero los requerimientos de energía ascienden entonces a los 400 megavatios, que a pesar de ser terrestres, son una barbaridad.

Los láseres, además del problema energético (en realidad insalvable por su costo), para grandes distancias quizá no podrían resultar eficaces debido a la dispersión del rayo por la absorción o desviación de la masa de aire atravesada, sin olvidar los aerosoles en suspensión. Todo ello sin contar que como contramedida los soviéticos podrían haber recubierto de espejos sus misiles, anulando el efecto de impacto con el reflejo del rayo.

El proyecto SDI fue al final algo tan pretendidamente fulminante como ingenuo, lo suficiente como para despertar las incrédulas sonrisas de más de un experto. Los vuelos hubieran debido ser unos 24 anuales durante medio siglo; algo imposible en realidad para las disponibilidades y posibilidades Shuttle del momento, aunque una enorme inyección económica lo hubiera podido hacer realidad. Su costo final en cálculo en los años 80 se estimó que podría llegar como máximo a los 1.500.000 millones de dólares (también se dieron otras cifras menores, según conveniencias de parte y del momento), aunque para empezar, para las pruebas o ensayos, “solo” se pedían unos 26.000 millones para 5 años (Apollo había costado poco más de una década atrás 25.000 millones para casi dos lustros). Claro que no se trata nunca de dinero “tirado”; hubiera sido dinero para la industria aeroespacial propia y al avance tecnológico, y tal sería su único aspecto positivo. Pero, después de todo, en los años del auge en el intento de desarrollo de estas armas, a los contribuyentes americanos les costó la considerable cifra de 4.000 millones de dólares anuales. Es posible, sin embargo, que el intento soviético de seguir el mismo camino ayudar a colapsar su economía y precipitar el final de la URSS, paradoja curiosa que haría innecesario luego el proyecto mismo americano.

Los escudos antimisiles, contemplados como opción de control desde el espacio, o con sistemas ABM terrestres no son una garantía absoluta contra un ataque masivo con misiles, ni mucho menos contra acciones localizadas con otros medios (maletín o cajón bomba nuclear) fácilmente transportables en automóvil, camión o tren. Sí puede resultar eficaz contra un disparo de un misil por error o uno o pocos lanzamientos concretos y localizados, aun siendo intencionados y hostiles. Pero nada más. Una acción masiva de una potencia nuclear puede ir acompañada de lanzamientos señuelo que suponen el consumo de la acción defensiva de forma inútil; y si para los señuelos hay identificación informática por su masa u otro ente, y son dejados pasar, también fabricaría el enemigo bombas que imiten su característica. Asimismo, la dotación a los misiles de pinturas, escudos o determinados materiales reflectantes inutilizaría en todo o en parte la acción del rayo láser. Pero aun hay más. Los lanzamientos de misiles desde submarinos, o los misiles cruceros lanzados desde un simple avión (militar o no), que podrían estar muy cerca del objetivo y que vuelan muy bajo, podrían ser tan rápidos como para alcanzar los objetivos en 10 min o menos, lo que harían de muy difícil eficacia el arma láser, salvo casualidades de posicionamiento. Y por si fuera poco, un enemigo dispuesto a atacar con misiles se cuidaría también primero de disponer un ataque previo a aquellos satélites de la red SDI, a los satélites dotados de los láseres, bien con otros láseres o con minas o bombas orbitales previa y estratégicamente preparadas al efecto enmascarados en satélites aparentemente de otro tipo. Al final, sería una nueva carrera de armamento o alternativamente la asunción final americana de su preponderancia mundial, pero también la rotura los acuerdos antibalísticos de 1972 con los soviéticos/ahora-rusos, y sobre todo un gasto monumental. Por otra parte el programa informático de control, imprescindible para coordinar en tan poco tiempo la acción defensiva (detección e identificación de miles de misiles enemigos o sus cabezas entre miles de señuelos, calculo de su ruta, apunte de los cañones de rayos propios, acción, cálculo de la efectividad, programación de nueva acción si falla, etc.), sería de tal complicación que resultaría casi imposible que saliera sin errores a la primera por lo que se convirtió en uno de los puntos claves de los detractores ya que su prueba real solo podría ser realizada una vez, en caso de guerra y sin segunda oportunidad, y es sabido lo que supone la depuración de un programa informático para eliminar sus fallos. Pero además de que es fácil que el programa no funcionara en la primera batalla, el sistema podría fallar funcionando solo y causar un ataque automático por error; por ejemplo, ¿cómo pueden los detectores discriminar a tiempo, en los primeros momentos de vuelo, un disparo de un misil de un cohete astronáutico? En definitiva, el software no resultaba fiable por la complejidad del mismo.

El enorme y desmedido gasto, la oposición de muchos expertos y la no menos compleja necesidad tecnológica para el desarrollo del proyecto se toparon al final con la imposibilidad del mismo. Algunos responsables del proyecto llegaron a insinuar o dar a entender, siempre bajo las difusas declaraciones que el secreto militar les impuso para el caso, que la tecnología de los láseres y cañones gamma sí era viable y que de hecho disponían con el mejor de los secretos ya de una significativa fracción de la misma. Lo cierto es que casi ninguna de las armas resultaba lo suficientemente efectiva como para cubrir las necesidades pretendidas. Por ejemplo, los láseres necesitaban energías imposibles, tenían tamaños inviables, y los cañones de rayos equis eran mucho menos fuertes o efectivos de lo esperado.

En realidad la mayor parte de los científicos e ingenieros, propios y extranjeros, no le llegaron a conceder al proyecto una credibilidad mínima en cuanto a su efectividad, aunque los rusos no las tuvieron nunca todas consigo. Y luego, los nuevos presidentes americanos, los sucesores de Reagan, no se dieron por vencidos (o mejor dicho, movidos por militares y/o la industria militar) y replantearon el proyecto con menores expectativas y con un sustancial recorte respecto al original.

El proyecto sucesor sería el “escudo antimisiles” de Clinton de los años 90, impulsado luego por G. W. Bush bajo la justificación de que era necesario modernizar el armamento luego de más de 10 años sin actualizar; Bush hizo referencia a volver a considerar la SDI en su discurso del Estado de la Unión el 29 de enero de 1991. El mismo proyecto, entonces renombrado NMD, Defensa Nacional Antimisiles, volvió a ser criticado por científicos y expertos como de muy dudosa eficacia puesto que el sistema no podía reconocer señuelos ni impedir ataques químicos o biológicos, o ataques limitados, por ejemplo contra un barco en alta mar, o simplemente el mayor riesgo de un ataque con una bomba nuclear camuflada. Además, el desarrollo del láser para ser efectivo a atravesar la atmósfera es dudoso porque bastan para reducir notablemente sus efectos las partículas en suspensión atmosférica que se interpongan en el camino del rayo. Todo ello sin contar con que un ataque podría llevar implícito el uso de contramedidas para la detección; por ejemplo, el uso de numerosos globos, envueltas térmicas (de baja temperatura), etc. Tampoco habría que olvidar que cualquier arma espacial, cualquier satélite importante, en una guerra, sería lo primero en ser atacado y precisamente con bastante eficacia desde tierra con rayos láser o con un misil.

El programa se puso oficialmente en marcha en abril de 1984 con la creación de la Agencia de Defensa, y el responsable sería el general James Abrahamson, que tras dejar el ejército en febrero de 1989, sería sucedido por George Monahan. Fue considerado, por su parte, el padre del proyecto el físico Edward Teller, que jugara un papel trascendental en el desarrollo de la bomba de hidrógeno décadas atrás y el que defendería equivocadamente las posibilidades de un cañón espacial de rayos equis (que en las pruebas resultó mucho más débil de lo esperado).

En realidad, ya en mayo de 1983 los americanos habían probado en California un láser  de CO2 de 400 kW en un KC-135 que interceptó el sistema de guía de 5 misiles aire-aire Sidewinder. Anteriormente los americanos habían hecho pruebas desde 1973, con derribo de aviones y pequeños misiles (antitanque) y el 1 de junio de 1981 habían probado con un láser aerotransportado en un Boeing. También en enero de 1984 se había disparado con éxito un misil de dos fases y 15 Kg de carga útil explosiva desde un F-15 contra un satélite.

El 12 de junio de 1984 se prueba con éxito el primer misil anti-misil. Consistió el ensayo en lanzar en Vandenberg un misil Minuteman hacia el Océano Pacífico, saliendo de las islas Kwajalein un misil interceptor, llegando luego ambos a la colisión.

El 13 de noviembre de 1984 un F-15 soltaba sobre Vandenberg un misil para una prueba antisatélite (ASAT) a 810 Km de altitud sobre el Pacífico.

El 21 de junio de 1985 se hizo con éxito un ensayo de reflexión de un rayo láser hacia un espejo en órbita (Shuttle).

En julio de 1985 falla un intento de prueba láser para el proyecto sobre Hawai al no poder apuntar al objetivo adecuadamente.

El 6 de septiembre de 1985 se ensayó el láser llamado MIRACL que se instalaría en White Sands. Se disparó con éxito contra un Titán, quieto en su rampa. En el mismo mes se hicieron dos pruebas en total de tal tipo.

El día 13 siguiente se hizo con éxito un ensayo ASAT contra el satélite de vida útil finalizada SOLWIND, siendo disparado un misil de guía IR por un F-15 en California, a 320 Km de distancia del objetivo. La generación en el acto de cientos de fragmentos que aumentarían la basura espacial no conllevaba en el ensayo un aspecto muy positivo.

El 6 diciembre de 1985, la SDI recibía el apoyo de cooperación del Reino Unido bajo un protocolo secreto, convirtiéndose en el primer aliado al respecto.

En enero de 1986 llega el trágico accidente del Challenger que, junto a las inminentes conversaciones soviético-americanas sobre desarme, sería un hecho que desapuntaló en gran medida el proyecto de la SDI.

El 5 de septiembre de 1986 se realiza otra prueba para la SDI con un lanzamiento en Cabo Cañaveral de un satélite.

El 15 de mayo de tal 1987, por su parte, los soviéticos lanzaron al ingenio Polyus, que falló pero con el que se cree que se iba a realizar un ensayo de respuesta al proyecto SDI americano.

El 18 de septiembre 1987 comenzarían las pruebas de derribo de misiles en vuelo con rayos láser MIRACL. El objetivo volaba a 500 m de altura.

El 23 de diciembre de 1987 la USAF probaba el rayo láser llamado Alpha en Alburquerque, pensado para satelizar al contrario que el MIRACL; ambos fueron construidos por la TRW, pero también intervienen otras empresas como la Lockheed. Entonces se pensaba que el ingenio a colocar en órbita para el Alpha sería un cuerpo de 25 m de longitud y 50 Tm de peso, características que le dejaban por lo pronto en tierra porque en tal momento los norteamericanos no disponen de un cohete que satelizara tal carga útil.

El 23 de febrero de 1989 se realiza en Nuevo México una prueba de destrucción de un misil con un rayo láser para la SDI.

En tal 1989 la nueva Administración Bush reduciría las expectativas teóricas de la SDI, reduciéndola a una cobertura de defensa sobre objetivos concretos. Entre otras cosas, el misil ABM Patriot se quería sustituir por el THAAD.

El 1990 la no consecución de los resultados ambicionados con los láseres hizo que se replantearan las expectativas y que el esquema del sistema SDI se pasara a basar más en pequeños satélites-misiles. Los científicos defensores de las armas láser habían sido demasiado optimistas. Ahora se trataba de poner en órbita miles de los llamados “guijarros brillantes” propuestos por el Laboratorio Livermore en sustitución de los láseres. El sistema, más barato y posiblemente más eficaz contra lanzamientos de misiles de largo alcance, no sería sin embargo efectivo contra los de medio alcance o, en general, de más corta trayectoria. Para tales opciones de misiles de corto alcance o medio se consideraba la disposición de misiles antimisil en buques o en tierra sobre las costas americanas con apoyo de una red de radares. La inutilización de satélites enemigos sería de nuevo por impacto directo pero no por explosión sino con una especie de choque con un disco con radios o brazos; los ensayos anteriores en este aspecto se habían suspendido en 1987. El coste del reconsiderado proyecto se cifraba ahora en 22.000 millones de dólares, abaratando en cualquier caso notablemente el anterior en tanto que, entre otras cosas, la fase de investigación y desarrollo resultaba muchísimo más sencilla por no decir que casi ya estaba prácticamente hecha. La tecnología hasta entonces desarrollada para el proyecto en materia de láseres, según se dijo por entonces –por ser cierto o por justificar el gasto tan grande llevado a término hasta aquel momento-, sería de utilidad y aplicación en otros campos como el astronómico, el médico, etc.

A finales de enero de 1991 se realizó un ensayo ERIS, de disparo de misil ABM sobre el Pacífico que interceptó a una cabeza nuclear simulada a 155 Km de altura llevada hipotéticamente por un misil que fue lanzado en Vandenberg.

En 1993 el programa antisatélite fue suspendido al ser recortados los presupuestos de armamento consecuentes a la desaparición del enemigo soviético, pero aparecería de nuevo un par de años más tarde.

El 12 de agosto de 1997 se hizo un último ensayó en el programa KEASAT para derribo de satélites por colisión.

A mediados de octubre de 1997 se hizo con éxito desde White Sands un ensayo de disparo doble con láser MIRACL contra un satélite de la USAF de vida útil agotada. Uno de los disparos fue de 1 seg y el otro de 10 seg de duración. Los americanos declararon que no querían comprobar la efectividad del láser sino si era posible anular o destruir un satélite por tal medio.

El 3 de octubre de 1999 tiene lugar con éxito una prueba de interceptación de un misil balístico Minuteman 2 lanzado en Vandenberg con un antimisil lanzado en Kwajalein, islas Marshall. Es el primer ensayo de una nueva fase del proyecto, ahora denominado NMD, y la interceptación tiene efecto a 225 Km de altitud sobre el Pacífico.

Tras una segunda prueba fracasada en enero de 2000, el 8 de julio siguiente tiene lugar un ensayo de interceptación con misil disparado en el  atolón de Kwajalein, islas Marshall, de un Minuteman 2 lanzado en Vandenberg (a 7.800 Km de tales islas) 21 min antes. El encuentro de ambos cohetes tendría lugar a 230 Km de altura a los 10 min de la partida del interceptor. Pero el ensayo fue un fracaso y no hubo interceptación al fallar la correcta separación de la segunda fase del Minuteman, no captar el interceptor las señales de modificación consecuente que debió enviar el satélite de seguimiento, y hacer al final que ambos cohetes se cruzaran a una distancia mínima en torno a los 100 m. Esta prueba costó 100 millones de dólares y se consideraba decisiva para continuar el proyecto.

Tras esos dos intentos fallidos (enero y julio de 2000), vistas las dificultades, el recorte del presupuesto, así como el progresivo derrumbe que llevó a desaparición de la URSS, el potencial y tradicional enemigo por antonomasia de los americanos, el Presidente Clinton paralizó el segundo proyecto de la comúnmente llamada “guerra de las galaxias”.

El relanzamiento en 2001 del proyecto SDI por el nuevo Presidente americano G. W. Bush (hijo) replanteó el mismo bajo la misma denominación de NMD, Defensa Nacional Antimisiles, con un notable recorte en su envergadura respecto a  la SDI de Reagan; en realidad, se trató del relanzamiento de un proyecto original del Presidente anterior, Clinton. En tanto que se podría circunscribir en el tratado ABM con los soviéticos de 1972, estos últimos denunciaron su violación a lo que recibieron la respuesta de su denuncia o anulación unilateral por la parte americana.

El nuevo proyecto debía contar con el despliegue de 21 satélites  de detección IR para captar los lanzamientos y trayectoria inicial de misiles, y una red de radar UHF y radar en banda equis para seguimiento de misiles; también se vuelve a la tecnología láser. Para el derribo de los mismos se planificó el disparo de 24 satélites con sistemas láser de interceptación en una primera fase del vuelo del misil, cohetes de medio y largo alcance de interceptación por impacto en la fase de apogeo (o en torno a la misma) del misil, y finalmente con más cohetes de menor alcance con sistemas propios de detección por radares. Los radares de primera detección se debían situar en Massachussets, California, Groenlandia, Alaska y Reino Unido; la estación de Alaska tendría además la misión de identificación de señuelos y de ser  uno de los centros de mando, siendo el otro ubicado en las Montañas Cheyenne, en Colorado.

La entrada en servicio de este sistema, a vista de 2001, se fijó para 2015 y su presupuesto sería de 60.000 millones de dólares según se dijo, si bien hubo estimaciones que elevaron la cifra hasta la enormidad de 5 veces más. Solo en el presupuesto de defensa 2002-2003 la cantidad aportada para este fin fue de 7.000 millones de dólares. Fue nombrado director militar del nuevo proyecto el general Ronald Kadish.

En junio de 2001 se informó de la creación de dos escuadrones en la USAF destinados a la defensa de un posible ataque contra satélites americanos de todo tipo. Uno de ellos, el Escuadrón Espacial 76 con base en Shriever, Colorado, comienza su andadura el 22 de enero de tal 2001.

El 15 de julio de 2001 se llevó a cabo la cuarta prueba del proyecto con el lanzamiento en el atolón de Kwajalein, islas Marshall, de un misil de interceptación llamado Kill Vehicle (vehículo matador) que logró destruir a 225 Km de altitud, sobre el Pacífico, a un Minuteman 2 lanzado en Vandenberg 31 min antes; el interceptor, cuya carga útil pesaba 54 Kg, se lanzó 21 min 34 seg tras el Minuteman desde un avión, entonces a 7.725 Km de distancia del objetivo, el cual fue alcanzado tras 9 min de vuelo. El ensayo es un éxito pues un señuelo intencionado (un globo caliente) que volaba en paralelo no confundió al interceptor. Las felicitaciones al Pentágono por la prueba se contrapusieron con el enfado ruso y chino. El costo del ensayo se cifró en 100 millones de dólares.

El 4 de diciembre de 2001 se lleva a cabo una quinta prueba de disparo similar a la anterior, con disparos de misil y antimisil en los mismos lugares que el antes citado. El ensayo vuelve a tener éxito y la interceptación tiene lugar a 250 Km de altitud, con presencia también de señuelos.

A mediados del mismo mes de diciembre de 2001, tras una prueba fallida, la US Navy anunciaba la cancelación de su propio proyecto antimisil para misiles de corto alcance, llamado Área Defensiva Antimisiles, enmarcado en el proyecto general debido a los fallos de sus pruebas y pasarse ampliamente del presupuesto, no sin antes gastar 2.800 millones de dólares. La primera prueba, que había tenido éxito, se había hecho para esta fase del proyecto en 1997. El fracaso era debido en realidad a la falta de viabilidad de un programa informático que coordinara las acciones de los misiles; como ya se indicó, un software de control de semejante red, aquí en la Marina muy limitada, es de tal complejidad que resultó inoperante.

El 17 de febrero de 2002 se informaba del fracaso de una prueba antimisil con un misil Patriot lanzado en Nuevo México que no pudo interceptar un misil crucero.

El 16 de marzo siguiente tenía lugar la prueba 6 de interceptación de un misil lanzado en Vandenberg con otro disparado a las 3 h 32 m GMT en el atolón de Kwajalein, islas Marshall. Esta vez se repitió el éxito (el 4º) y eso que esta vez el misil a derribar iba acompañado de 3 señuelos por vez primera. La interceptación tiene lugar a 225 Km de altitud.

El 30 de mayo se ensaya a las 2 h GMT en Wake Island un vector SR19 de la USAF para el mismo programa de defensa de misiles.

En el verano de 2002 la Agencia de Defensa de Misiles contrataba a la TRW por 868.000.000$ para el desarrollo del proyecto SBIRSL para la detección de lanzamientos de misiles dentro del proyecto de “escudo espacial”.

El 15 de octubre se realizaba un disparo a las 2 h GMT de un Minuteman 2 en Vandenberg y a las 2 h 20 min GMT en Kwajalein de un misil de interceptación para el programa de defensa de misiles.

El 11 de diciembre de 2002 se hizo una nueva prueba con el típico lanzamiento en California de un Minuteman 2 a las 8 h 26 min GMT y del interceptor PLV a las 8 h 46 min GMT en Kwajalein. Esta vez fue un fracaso y el último se perdió. Se totalizaban 8 pruebas, de las que 3 habían fallado.

A pesar de todo ello, el Presidente Bush anunciaba el día 17 siguiente el despliegue parcial o bien en versión “moderada” del escudo antimisiles para 2004, con la disposición de 10 misiles interceptores en la base Fort Greely, en Alaska; los mismos tienen entonces un coste de 80.000.000$.

El 9 de enero de 2004 la USAF lanzó a las 18 h 40 m GMT en Vandenberg un misil para una prueba de interceptación, la quinta en su tipo. La carga alcanzó unos 200 Km de altitud.

En febrero de 2004 se hizo público por parte de los rusos de la disposición de los mismos de un misil Topol acompañado de un misil crucero que tiene una capacidad de maniobra en vuelo suficiente para eludir armas antimisiles, confirmando la vulnerabilidad del pretendido escudo americano.

El 14 de diciembre de 2005 se hizo un lanzamiento en Kwajalein en otro ensayo ABM, pero no dio en el hipotético blanco.

El 2 de septiembre de 2006 se volvió a realizar otro lanzamiento en Vandenberg para cruzar el misil con un interceptor sobre el Pacífico, resultando el ensayo con éxito.

El 6 de abril de 2007 se informaba de la 3ª prueba del programa THAAD americano de interceptación de misil sobre el Pacífico.

A últimos de septiembre del mismo 2007 se realiza con éxito otra prueba de interceptación de misil con lanzamiento en la isla de Kodiak, Alaska, y del interceptor en Vandenberg, California.
    En 2010 la OTAN inició su proyecto antimisiles BMD en el que han de participar buques de la US Navy dotados de misiles como los SM-3 y radares en tierra.

    Con vistas a contener en la misma Europa un ataque de misiles procedentes de Oriente Medio y zonas adyacentes, los norteamericanos promovieron con la OTAN un escudo europeo antimisiles, a pesar de la oposición rusa. La primera prueba real del mismo se produce el 20 de octubre de 2015 en el Atlántico, donde un destructor, el USS Ross dispara un ABM Standard SM-3 Block IA contra un misil balístico simulado disparado desde las Hébridas, junto isla South Uist. A la vez otro misil, un SM-2, desde otro destructor intercepta un misil crucero. El sistema es denominado Aegis BMD. Participan además buques de Holanda y España como apoyo.
      El sistema en tierra cuenta desde 2012 con radares de alerta inmediata en Malatya (Turquía) y tiene su centro de control en Ramstein (Alemania). Hay, además de buques, desde 2015, bases terrestres con baterías de misiles Patriot en Develesu (Rumania) y se prevé entonces situar otra en Polonia en 2018. El sistema marino utiliza radares AN/SPY1 de barrido electrónico con capacidad de dirigir y hacer seguimiento simultáneo de al menos 100 misiles hasta 190 Km de distancia; y por control aéreo hasta 500 Km. En total, el sistema se instala en un centenar de buques de la OTAN y son sus misiles principales los modelos SM-2 y SM-3.
       El  Aegis también ha sido probado como antisatélite para objetos en orbita baja.

        ==> EL PROYECTO CONTINÚA AL REDACTAR ESTAS LÍNEAS.

                                   - OTROS SATÉLITES.

Aunque existen otros tipos de satélites que han hallado aplicación en el espacio, hay entre ellos uno especial que casi resulta anecdótico. Una compañía de Texas, la Celestis, no es precisamente de cohetes ni de ingeniería espacial, sino mortuoria... Entre sus servicios ofrece enviar al espacio, hacia una órbita terrestre, las cenizas de los difuntos (en realidad, solo una parte de las cenizas) por el precio de 624.000 pesetas (en 1996; aunque el primer envío de estas cenizas al espacio se haría en 1997); en 2006 la tarifa estaba entre los 995 y 5.300$, menos que un funeral ordinario. El plan fijaba enviar 300 cápsulas en un primer viaje y 600 en el siguiente. La ceremonia funeraria incluye la asistencia al lanzamiento. La compañía no garantizaba la permanencia por más de una órbita en el espacio, aunque se esperaba que permaneciera un tiempo. Un lustro después ya había enviado varias cargas con cohetes.

> REENTRADA. RESCATE DE CARGAS ÚTILES.

Para un satélite la tardanza en caer sin actuación de motores que lo remedie va en función de la altura orbital, sea circular o elíptica. Cuenta un poco aquí la forma aerodinámica del satélite. Un gran cuerpo con paneles solares, por ejemplo, o grandes áreas desplegadas al sentido de la marcha, caerá antes que otro con forma de bala. Un satélite típico sin actuación de motores en una órbita de menos de unos 300 Km de altura media sobre la Tierra caerá al cabo de unas dos semanas; al doble de altura media tardará en caer en cambio unos 3 meses. Estos datos son orientativos y no precisos puesto que influyen algunos factores como el punto de perigeo, grado de excentricidad, forma y masa del satélite y área de exposición al frenado, etc.; y son naturalmente considerados para nuestro planeta.

De forma natural pues, llegado el momento, la progresiva deceleración de un ingenio lo lleva hacia una caída cada vez más rápida hasta entrar en las capas atmosféricas más densas y precipitándose finalmente en una trayectoria curva hacia tierra. Es entonces cuando el satélite se quemará y desintegrará por la fricción establecida con las moléculas aéreas. Pero si es de tamaño suficiente, de varias toneladas, corre el riesgo de que llegar a impactar un cuerpo principal que sobrevivirá a tal quemado. Son los efectos de la reentrada. Si se quiere impedir el quemado hay que utilizar técnicas adecuadas, como son la disposición de una trayectoria precisa y escudos antitérmicos.
     Para facilitar la reentrada, además del uso de motores en posición de frenado, llamados entonces retropropulsores, y de la acción de lento frenado continuo de la atmósfera, mayor cuanto a menor altura, se han estudiado otras posibilidades puesto que a veces no llevan motores o agotan su propulsante en los objetivos de la misión. Una de las soluciones propuestas para “derribar” satélites es el uso de velas o una especie de paracaídas que se despliega cuando se quiera incrementar la caída al exponer una mayor superficie del satélite a la rarificada atmósfera superior. Desarrollada en la Universidad inglesa de Surrey para la ESA, tal tela es de kapton aluminizado de unas milésimas de mm de gruesa sobre ligeras tiras de fibra de carbono, con un peso total de solo 2 Kg, y ha sido denominada Vela Gossamer para Desorbitación. Se cree que es funcional para satélites de hasta 700 Kg en órbita hasta los 700 Km de altitud.

La parte final del vuelo de un satélite puede ser, cumplida toda su misión, su quemado y destrucción en la alta atmósfera. Pero otras veces puede llevar una cápsula que se quiera recuperar y que disponga de motores de frenado (en un módulo del que se separa una vez actúa), un escudo térmico, un sistema que lo dirija adecuadamente en la reentrada y finalmente sistemas para el aterrizaje. Estos últimos suelen componerse de paracaídas y, a veces, motores de frenado final. Las cápsulas también pueden caer en el mar y en ocasiones la opción es su recuperación en el aire, cuando descienden en paracaídas, por captura de algún avión a la espera y dotado de varas de enganche al respecto.

Los sistemas para la reentrada requieren en general 3 condiciones: ángulo adecuado de penetración atmosférica; materiales térmicos muy resistentes, ablativos o buenos disipadores del calor engendrado; y una forma adecuada de la cápsula o ingenio que exponga en el ángulo de ataque. Al ir decelerando el ingenio en contacto con el aire que lo frena, la fricción atmósfera genera tal calor que la parte de choque se va quemando o al menos alcanzando temperaturas de mil y pico ºC como mínimo.

En Europa, a finales del Siglo XX, se concibió un sistema para retorno de satélites o cargas útiles sobre la atmósfera denominado IRDT basado en un escudo térmico de 2 fases cuya característica principal es que es hinchable. Fue probado con ayuda rusa en 2000.

Tales cápsulas pueden portar el resultado de experimentos de tipo biológico, rollos de película tomada en órbita (sobre todo fue el caso de los primeros satélites militares de observación o espionaje), etc.

--------------------ooo000OOO000ooo---------------------

Copyright © Eduardo Martínez González