LA IONOSFERA, ¿UNA ALTERNATIVA REAL PARA LAS
TELECOMUNICACIONES? José Manuel Elena Ortega Joaquín Luque Rodríguez Depto. de Tecnología Electrónica Enero de 1994
Cables fulgurantes
entre
centelleantes rayos
y fatales cortocircuitos.
Placas madre y circuitos ahijados
se preparan a recibir
la descarga determinante.
Integrados y desintegrados
comienzan a ronronear
como un elefante sobre la roca
de los vientos eléctricos.
Y finalmente llegó la hora.
Y finalmente llegó el microsegundo.
Y finalmente los robots
funcionaron
entre chirriantes y oxidados
gemidos.
Tomy
1
SUMARIO
1 INTRODUCCIÓN ......................................... 2
2 LA IONOSFERA ......................................... 6
3 EL FENÓMENO FÍSICO ................................... 12
4 LA PROPAGACIÓN REAL .................................. 19
5 LA CALIDAD DE LA SEÑAL ............................... 35
6 LA ELECCIÓN DE LA FRECUENCIA ......................... 44
7 LA AUTOMATIZACIÓN DEL ENLACE ......................... 57
8 REFERENCIAS .......................................... 68
2
1 INTRODUCCIÓN.
Podría parecer que la utilización de la ionosfera con el fin de establecer comunicaciones
radioeléctricas es equiparable al uso de la vela para navegar por el mar, algo deportivo, incluso románti-
co, pero no realmente útil, ya que la existencia en la actualidad de múltiples satélites de comunicaciones
con cientos de canales permanentemente dispuestos para ser utilizados, hace aparecer a las
comunicaciones a larga distancia por vía ionosférica como algo periclitado y sin utilidad práctica alguna.
Esta fue una opinión generalizada durante la década de los setenta, pues mientras la capacidad y
fiabilidad de los satélites de comunicaciones crecía, también se creía que eran inmunes a cualquier
intervención extraña que pretendiera alterar sus funciones o ponerlos fuera de servicio. Era por tanto
lógico que se les considerara como los elementos ideales para una comunicación fiable, a pesar del
serio inconveniente que representaba su alto coste, tanto en el orden económico como en la necesaria
dependencia tecnológica respecto a unos pocos países, los únicos capaces de construir y poner en
órbita tales ingenios.
Todo ello condujo a la pérdida sistemática de los conocimientos depositados en operadores
expertos, a la drástica disminución de los fondos empleados en la investigación y el desarrollo de
sistemas en este campo y a la creencia generalizada en que las comunicaciones ionosféricas en HF eran
3
algo del pasado y utilizables tan solo cuando no había ninguna otra posibilidad real de establecer el
enlace deseado, o bien para fines lúdicos -Servicio de Radioaficionados- [GOO92].
Sin embargo, es en la década de los ochenta cuando se inicia un cambio de actitud en todo este
proceso. El elevado costo de la sustitución de todas las comunicaciones que con anterioridad se
realizaban en HF por los enlaces vía satélite, unido a los avances tecnológicos en los métodos de
interferencia y destrucción de los mismos, -misiles antisatélite, pulsos electromagnéticos de alta
intensidad producidos por explosiones nucleares en la alta atmósfera, haces de microondas de alta
densidad energética, etc-, da lugar a que se comience a pensar que la evolución de los sistemas de
comunicaciones no era totalmente satisfactoria y empiece a considerarse como ni económica ni
estratégicamente adecuada, por parte de un número cada vez mayor de países, la dependencia total de
todas la comunicaciones de un sistema caro y demostradamente vulnerable.
Como consecuencia pues de todo lo anteriormente expuesto, vemos cómo en la actualidad
existe un renovado interés por el uso de las comunicaciones por vía ionosférica [MAS90], favorecido
por los continuados avances en la tecnología electrónica empleada en la fabricación de equipos de
comunicaciones en HF -síntesis digital de frecuencia, filtros activos, control de los equipos mediante
ordenador, etc-, unido a la posibilidad de grandes potencias de cálculo ligadas a pequeños sistemas -
ordenadores de la línea PC-, con elevadas velocidades de reloj y grandes cantidades de memoria, tanto
central de funcionamiento como de almacenamiento, todo ello a precios sorprendentemente bajos.
4
Muestra de este interés por las comunicaciones en HF es el intento de crear una nueva genera-
ción de equipos de radiocomunicaciones inteligentes, capaces de crear y mantener los enlaces de
manera automática, los denominados HF ALE RADIOS -High Fre-cuency Automatic Link
Establishment Radios-, para los cuales hay propuestos cinco nuevos estándares federales en los
EE.UU. de Norteamérica [ADA92], dentro del FTPS -The Federal Telecommuni-cation
Standards Program- para el NCS -National Communications System- [BOD85].
Otro factor favorable a tener en cuenta es el cambio realizado en las condiciones sociopolíticas
en el mundo, debidas al cese de la política de confrontación de bloques, que hace que el uso comercial
de la radiodifusión en HF predomine sobre el uso político realizado de manera prioritaria hasta enton-
ces, con todo lo que ello significa de aportación de fondos económicos a la investigación en este área.
Es conveniente hacer notar también el destacado papel que vuelven a tener las comunicaciones
a larga distancia vía HF en los sistemas de comunicaciones militares [WAL92,SAL92], en las
comunicaciones diplomáticas y en la coordinación de la ayuda nacional e internacional en caso de
desastre a través de los servicios de Protección Civil, Radioaficionados, Cruz Roja y Creciente Rojo.
Existen, no obstante, algunos factores negativos en este proceso, tales como la falta de personal
con experiencia en general y lo escaso del número de grupos de investigación en este área, entre los
cuales es necesario mencionar al Grupo VI del CCIR -Comité Consultivo Internacional de Radio-,
perteneciente a la ITU -Unión Internacional de Telecomunicaciones-, que ha logrado mantener vivo
el interés por este campo de la investigación en tiempos muy difíciles.
5
Es en este sentido de evitar las dificultades generadas por la falta de personal suficientemente
formado, utilizando las facilidades tecnológicas actuales en lo que a posibilidades de cálculo
automatizado y bajo precio de los equipos necesarios se refiere, en el que desean avanzar los trabajos
que a continuación se exponen y a los que estas líneas pretenden servir de introducción.
6
2 LA IONOSFERA.
La ionosfera es una capa atmosférica alta, dotada de una gran conductividad eléctrica gracias a
los electrones liberados en la intensa ionización producida por la radiación solar, básicamente en las
porciones ultravioleta y de rayos X de su espectro, y en menor medida por las partículas cargadas
generadas por el Sol junto a los rayos cósmicos.
Se extiende entre los 50 y 2000 Km de altitud sobre la superficie terrestre, dividiéndose por
razones históricas en tres capas o regiones denominadas D, E y F en orden creciente de altura y
concentración de electrones, cumpliendo las capas E y F el papel de reflector de las ondas
radioeléctricas y siendo la capa D la principal causante de la atenuación sufrida por las mismas entre las
frecuencias de 2 y 30 MHz -HF- y la responsable también de la reflexión de las ondas de muy baja
frecuencia -VLF- y extra baja frecuencia -ELF-.
Al ser su origen la radiación solar fundamentalmente, es lógico esperar, como así sucede, que la
intensidad de la ionización dependa de la intensidad de dicha radiación y de la trayectoria o camino que
la misma recorra a través de la atmósfera. Esto se traduce en una mayor ionización de las capas
7
atmosféricas más altas y en una relación inversa entre la ionización medida y el ángulo solar cenital1,
con un valor máximo donde éste ángulo sea cero.
Asímismo constatamos una relación directa entre las variaciones en la altura, la concentración
de electrones y el comportamiento de las distintas capas ionosféricas y los cambios reflejados en la acti-
vidad solar durante el día, a través de las distintas estaciones del año y a lo largo de los sucesivos ciclos
solares.
La actividad de la ionosfera en lo que a su papel dentro de la comunicación a larga distancia
-CLD- le corresponde, depende de la intensidad de ionización de la misma, la cual, como ya hemos
comentado, es fiel reflejo de la actividad solar. Esta a su vez mantiene una relación directa con el
número de manchas solares existentes en cada momento, cuyo número varía cíclicamente con una
periodicidad de 10.7 años, aunque nos referiremos en general al ciclo de los 11 años, siendo éste sólo
un valor medio, pues se han registrado ciclos de 7.3 años como el más corto y de 17.1 años como el
más largo [ARR92].
1Ángulo delimitado entre la recta que une un punto de la superficie terrestre con el sol y la vertical de ese punto.
Un número elevado de manchas solares provoca una fuerte radiación solar con gran ionización
en las capas altas de la atmósfera que es entonces capaz de devolver a la tierra frecuencias de hasta 40
8
MHz, mientras que por el contrario un bajo número de manchas y la baja actividad solar que le acom-
paña hace que descienda fuertemente la ionización, convirtiendo en prácticamente inútiles para la CLD
las frecuencias situadas por encima de los 20 MHz.
La indicación de la actividad solar podemos obtenerla para propósitos estadísticos y
actividades retrospectivas de investigación a través del International Sunspot Number -ISN-
[ARR92], calculado mensualmente mediante la media suavizada del número de manchas solares conta-
bilizadas durante los seis meses anteriores y los seis posteriores al mes en cuestión.
Si lo que necesitamos es la actividad solar actual la obtendremos a través del flujo de ruido
radioeléctrico en la frecuencia de 2.800 MHZ [CCI90], que ha demostrado ser una buena indica-
ción del flujo solar. Se le acostumbra a denominar flujo solar en 10.7 centímetros y es transmitido
por la estaciones patrón de frecuencia y tiempo WWV -Ft.Collins, Colorado, USA- en el minuto 18
de cada hora y WWVH -Kauai, Hawaii, USA- en el minuto 45 de cada hora, en las frecuencias de
1.5 MHz, 5 MHZ, 10 MHz 15 MHz y 20 MHz. Estas emisiones además de su utilidad como patrón de
frecuencias y tiempo pueden servir como balizas para la comprobación de las predicciones de
propagación que realicemos [ARR92].
Las capas ionosféricas que han demostrado tener relación con la CLD son las siguientes
[CCI90a]:
9
Capa F: Se extiende por encima de los 130 Km y es la más alta de todas las capas que
componen la ionosfera, dividiéndose durante el día en dos subcapas, la F1 o de
Appleton entre los 130-210 Km y la F2 o de Van Allen entre los 250-400
Km de altura.
La subcapa F1 alcanza una densidad electrónica máxima de 2·1011 e/m3, existiendo
sólo durante el día, y si bien puede cumplir el papel de deflectora de algunas frecuen-
cias, es más frecuente que actúe como atenuadora de las frecuencias que se reflejan en
la subcapa F2.
La subcapa F2 presenta una densidad típica de electrones de 1012 e/m3 durante el día
y de 5·1010 e/m3 durante la noche, siendo la principal zona deflectora responsable de
la comunicación a larga distancia, con una máxima distancia de salto único de 4000
Km. Su comportamiento es difícil de modelar, debido a que está influida por los
vientos, por distintos efectos electrodinámicos y por la variación de la ionización debida
a la diferente radiación solar durante el día y la noche, durante el curso de las distintas
estaciones del año y a lo largo del ciclo solar de los once años.
Capa E: También denominada de Headviside-Kennelly, está situada entre los 90-130
Km de altura sobre la tierra e incluye a la capa E normal y a las denominadas
capas esporádicas E -Es-.
10
La capa normal E es homogénea y existe sólo durante la radiación solar directa, alcan-
zando por tanto su máximo durante el mediodía local y desapareciendo durante la
noche, ya que aquí la atmósfera es todavía lo suficientemente densa para que pueda
existir una gran recombinación de los iones generados por la actividad solar. Presenta
por tanto una fuerte dependencia del ángulo solar cenital, con máximos en su densidad
electrónica durante el verano en lo que a la variación estacional se refiere e in-
crementándose asimismo al aumentar el número de manchas solares. Este máximo es
del orden de los 1011 e/m3 a la altura de 110 Km. Durante la noche desaparece
prácticamente, quedando sólo restos de la ionización existente durante el día. Es la
capa ionosférica mas baja y aún capaz de ser útil en la CLD, siendo muy adecuada
para la propagación diurna a distancias menores de 2.000 Km.
Las capas Esporádicas-E, tienen su origen en la existencia de zonas relativamente
densas de ionización situadas a unos 110 Km de altura, produciéndose únicamente en
determinadas estaciones del año. No dependen de la actividad cíclica solar y son
especialmente útiles en los períodos en los que la baja actividad solar deja cortada la
propagación en las bandas por encima de los 21 MHz.
Capa D: Situada a 50-90 Km sobre la tierra. Tiene una actividad directamente
proporcional a la radiación solar recibida, presentando unos valores máximos
de ionización de 108-109 e/m3 inmediatamente después del mediodía local y
11
bajando a valores muy pequeños durante la noche, manteniendo asimismo una
pronunciada variación estacional. Produce un marcado efecto de absorción de
toda señal que pasa a través de ella, siendo esta absorción inversamente
proporcional a la raíz cuadrada de la frecuencia utilizada. Su incremento diurno
y correspondiente disminución nocturna marcan la mínima frecuencia utiliza-
ble -LUF- para un determinado recorrido entre dos estaciones.
12
3 EL FENÓMENO FÍSICO.
Cuando una onda de radio penetra en la ionosfera su campo eléctrico asociado imprime a los
electrones liberados en la ionización producida por la radiación solar, un movimiento de oscilación que
les hace volver a radiar como nuevos emisores, proceso en el cual podemos observar dos fenómenos
distintos, uno de cambio de velocidad del frente de onda que produce la refracción del mismo y otro de
cambio de la polarización de la onda reemitida, debido este último a la influencia del campo magnético
terrestre sobre los orbitales afectados por los procesos de absorción-reemisión de la onda de radio.
Veamos a continuación como una onda de radio de una frecuencia determinada que llega con
un ángulo de incidencia adecuado, al encontrar un medio con una concentración creciente de electrones,
sufre sucesivas refracciones hasta retornar a la tierra.
Si ignoramos la influencia de campo magnético terrestre el índice de refracción de la ionosfera
viene dado por la expresión siguiente [MAS90],
n2 = 1 - (fN / f)2 (3.1)
13
donde f es la frecuencia de la onda incidente y fN es la denominada frecuencia de resonancia2,
proporcional a la raíz cuadrada de la concentración de electrones y cuyo valor viene determinado por la
expresión,
fN = 9 N 1/2 (3.2)
Al ascender en la atmósfera vamos desde una concentración de electrones nula, con un índice
de refracción igual a uno3, hacia una concentración creciente de electrones, con su correspondiente
disminución en el índice de refracción. Esto quiere decir que si la anchura de la capa ionizada es sufi-
ciente, la refracción de una onda radioeléctrica incidente continuará hasta que alcance los noventa
grados.
A partir de aquí el proceso continuará y la onda retornará de nuevo a la tierra por simetría, ya
que ahora tendremos una onda de regreso que penetrará en una ionosfera de densidad electrónica
decreciente e índice de refracción creciente, con un ángulo inicial de incidencia de noventa grados.
2También denominada frecuencia de plasma.
3Como obtenemos de la expresión 3.1, ya que si N = 0 entonces de 3.2 se deduce que fN = 0, con lo que n = 1.
14
Si bien la variación de la concentración de electrones es continua y la trayectoria de la onda es
una curva también continua, modelaremos este proceso como si existiera un número casi infinito de
capas de un ancho casi nulo.
Aplicando la ley de Snell en el límite de
cada capa obtendremos,
n0 sen t0 = n1 sen t1 = n2 sen t2 = ....= nn sen tn (3.3)
Para un rayo que entre en la ionosfera bajo un ángulo de incidencia t0 desde la atmósfera no
ionizada, donde n0 = 1, la reflexión tendrá lugar cuando tn valga noventa grados, o lo que es lo mismo,
sen tn = 1
Llevando estas consideraciones a la expresión (3.3) llegamos a la conclusión de que la reflexión
tendrá lugar a una altura donde la ionización tenga un valor que haga que el coeficiente de refracción
sea,
n = sen t0 (3.4)
15
Para un incidencia vertical, donde sen t0 = 0, la reflexión ocurre a la altura donde n = 0. De la
ecuación (3.1) deducimos que esto ocurre cuando, f = fN .
Si fV es la frecuencia reflejada en incidencia vertical a la altura donde la frecuencia de plasma es
fN, obtenemos para la onda que incide oblicuamente la siguiente expresión,
n2 = sen2 t0 = 1 - (fN /f)2 = 1 - (fV / f)2 (3.5)
y por tanto,
(fV/f)2 = 1 - sen2 t0
luego,
(fV/f)2 = cos2 t0
y
fV/f = cos t0
16
o, lo que es lo mismo,
f = fV sec t0 (3.6)
Esto nos lleva a la conclusión de que una onda de frecuencia f que incide en la ionosfera bajo un
ángulo t0 será reflejada a la misma altura donde la intensidad de ionización electrónica sea suficiente
para producir la reflexión de una onda de incidencia vertical y frecuencia,
fv= f cos t0
es decir, una determinada capa ionosférica reflejará siempre frecuencias más altas con una incidencia
oblicua que con incidencia vertical.
El análisis de una situación ionosférica determinada se realiza frecuentemente mediante sondeos
verticales, comprobando el valor de fV o frecuencia máxima que en ese momento se refleja bajo un
ángulo de incidencia vertical. A esta frecuencia se le denomina frecuencia crítica -fo-.
Vemos como al aumentar el ángulo de incidencia también aumenta la frecuencia
máxima utilizable junto al alcance, siendo esto último por razones geométricas evidentes -fig. 3.2 ra-
yos 3 y 4-.
17
Asimismo vemos como en un frente de ondas que estaba siendo reflejado hacia la tierra, al dis-
minuir el ángulo de incidencia, llega un momento en el que en lugar de reflejarse totalmente se refracta
realizando una penetración lateral en la ionosfera -fig. 3.2 rayo 1-, pudiendo retornar a la tierra bajo án-
gulos muy diferentes.
A este ángulo, por debajo del cual no
existe un retorno neto de los frentes de onda
previsto por leyes geométricas lo denominamos
ángulo de distancia de silencio4.
Si seguimos disminuyendo el ángulo de incidencia aún más, nos encontraremos con que el frente
de ondas incidente no sufrirá una refracción suficiente y después de una ligera desviación escapará al
espacio exterior, denominándose entonces rayos de escape -Fig. 3.2, rayo 2-, los cuales han incidido
en la ionosfera bajo un ángulo inferior a un ángulo límite denominado ángulo crítico.
4Denominado habitualmente en la literatura anglosajona como ángulo de skip.
A estas conclusiones hemos llegado considerando una superficie terrestre y una ionosfera
ambas planas, así como una densidad de iones estable en cada punto a lo largo del tiempo. Si conside-
ráramos que la tierra tiene forma esférica y que la densidad de electrones varía en cada punto y a lo
18
largo del tiempo, obtendríamos expresiones realmente complejas para encontrar la frecuencia a utilizar
en función de la frecuencia reflejada bajo incidencia vertical. La práctica demuestra que es suficiente
introducir un coeficiente de corrección k para obtener una aproximación adecuada.
Así la ecuación 3.5 queda de la siguiente forma,
f = k fv sec t0 (3.7)
En esta expresión, en la que lo mas importante es su forma funcional, fv es la máxima frecuencia
reflejada en incidencia vertical, to es el ángulo de entrada del frente de onda en la ionosfera y k una
constante cuyo valor dependerá de la capa en cuestión sobre la que se efectúa la refracción y de las cir-
cunstancias particulares de cada momento, tales como la estación del año, momento del ciclo solar en
el que estemos, etc.
Es en el cálculo del valor de ésta constante, para cada caso en particular, donde se centran
todos los esfuerzos de los diferentes programas para la predicción de la propagación ionosférica.
19
4 LA PROPAGACIÓN REAL.
Cuando una onda de radio se refracta en alguna capa ionosférica y vuelve a la tierra decimos
que ha efectuado un salto, denominándose Distancia de Salto Único -DSU- a la distancia que, sobre
la superficie terrestre, separa el punto de emisión de la señal del punto de llegada de nuevo a la tierra. El
valor máximo que toma esa magnitud para una capa determinada en unas condiciones determinadas
recibe la denominación de Máxima Distancia de Salto Único -MDSU-.
Denominamos Ángulo de Radiación -AR- al ángulo formado por la trayectoria de la onda
radioeléctrica emitida por una antena con el plano de la tierra. Las ondas emitidas bajo un gran ángulo
desviarán poco su trayectoria, no retornando a la tierra. El ángulo a partir del cual se produce el retorno
recibe el nombre de Ángulo de Radiación Crítico -ARC-. El valor de este ángulo dependerá
fundamentalmente de la frecuencia utilizada, de la capa donde se efectúe la reflexión y de la distancia
entre emisor y receptor.
Definimos zona de silencio5 a la distancia comprendida entre el punto donde ya no se recibe la
señal transmitida, debido a la atenuación de la onda de tierra, y el punto donde de nuevo volvemos a
recibirla, debido a la onda reflejada. Más adelante veremos como éste no es un concepto absoluto, ya
5Denominada habitualmente en la literatura anglosajona como distancia de Skip.
20
que la señal puede ser recibida en esta zona a causa del fenómeno de dispersión unas veces, y por
efecto de la capa Esporádica E en otras ocasiones.
Frecuentemente es más práctico considerar el trayecto de una onda radioeléctrica como el
resultado de una reflexión en lugar de una refracción. Para una determinada DSU hablamos de una
Altura Virtual -AV-, que es la altura donde estaría situada una hipotética capa que reflejaría nuestras
ondas, de manera que obtuviéramos la misma DSU.
Asimismo, definiremos el Ancho de Banda de Propagación como el conjunto de frecuencias
utilizable para establecer un enlace radioeléctrico entre dos puntos geográficos determinados. Al límite
superior de dicho intervalo lo denominamos frecuencia máxima utilizable o MUF6 y al límite inferior
frecuencia mínima utilizable o LUF7. Entre ambos límites situamos la Frecuencia Óptima de
Trabajo -FOT- como frecuencia mas adecuada al uso concreto que se pretende. Podemos considerar
como válida la mayoría de las veces la aproximación que utiliza el valor de la FOT como 0.85 veces el
valor de la MUF [CCIR 90b].
Todos estos valores se definen para unas condiciones de trabajo determinadas tales como
potencia utilizada, modo de transmisión, la hora solar en los puntos de emisión y recepción de la señal,
época del año, actividad solar, etc.
6De la expresión inglesa Maximum Usable Frecuency.
7De la expresión inglesa Lowest Usable Frecuency.
21
Naturalmente, una onda radioeléctrica puede refractarse en la ionosfera, retornar a la tierra y
reflejarse sobre ella para, de nuevo, volver a refractarse y así realizar un número variable de sucesivos
saltos, número que depende tanto del estado de la ionosfera como de las capas envueltas en la re-
fracción, así como de la naturaleza de la superficie terrestre donde se efectúen las reflexiones.
Esto provoca el que, en determinadas condiciones, el receptor pueda captar ondas que han
realizado un diferente número de saltos, bien por haber sido emitidas bajo diferentes ángulos de emisión
y haberse refractado en distintos puntos de la misma capa ionosférica, bien debido a que el trayecto de
llegada se ha realizado por circunvalación de la superficie terrestre en distintos sentidos. Los distintos
recorridos provocan la llegada de diferentes frentes de ondas con el mismo contenido pero con diferen-
cias de tiempo, lo cual causará en definitiva fenómenos de desfase e interferencia con la consecuente
alteración de la información transmitida.
La repercusión final de esos procesos dependerá de las exigencias de fiabilidad del enlace, del
modo de codificación de la información y de la forma de transmisión. Así pues, todas estas alteraciones
en la onda radioeléctrica transmitida apenas producirán trastornos a una emisión en código Morse
transmitido y recibido manualmente por operadores expertos, causarán dificultades de comprensión en
determinadas circunstancias en la emisiones vocales de amplitud modulada -AM- o en banda lateral
única -BLU-, y crearán severas alteraciones en los diferentes modos de transmisión digital como RTTY
-radioteletipo-, ASCII, etc.
22
Esto ha determinado la creación de nuevos modalidades de transmisión digital con sistemas de
corrección de errores como PACKET RADIO8, AMTOR -comercialmente denominado TOR9- en
sus distintas modalidades FEC10, ARQ11, etc., siendo necesario destacar la última aportación
efectuada, denominada PACTOR que, como su nombre indica, es una asociación de las mejores
características de los modos digitales PACKET y TOR.
8Versión para Radioaficionados del protocolo X25.
9Del inglés, Transmiting Over Radio.
10Del inglés, Forward Error Correction.
11De la exp resión inglesa Automatic Repeat reQuest.
La propagación de una onda electromagnética entre dos puntos situados en la superficie
terrestre se efectúa habitualmente por el camino mas corto, recorrido sobre un círculo máximo, que es
la línea imaginaria producida por el corte de la superficie terrestre con un plano que pasa por los puntos
de emisión y recepción de la onda, así como por el centro de la tierra. Sin embargo a veces no es éste
23
el camino seguido, pues la trayectoria realizada sigue un círculo máximo pero por el camino mas largo.
Esto puede ser debido, entre otros factores, a que este camino largo se recorra por un área donde al
ser de noche, la capa D, principal responsable de la atenuación de las ondas refractadas en la ionosfera,
ha desaparecido, pudiendo suceder además que, las reflexiones producidas sobre la tierra amortigüen
más la onda que va por el camino corto que la del camino largo. Esto último puede suceder si las
últimas reflexiones se producen sobre zonas altamente conductoras, y por tanto muy reflectantes, como
la superficie del mar.
Denominamos línea o franja gris a la línea que separa el día de la noche. En una cara de la
tierra avanza hacia el día con el amanecer y en la cara opuesta avanza hacia la noche con el atardecer.
La propagación a lo largo de la línea gris es muy eficiente, debido fundamentalmente a que la capa D,
que absorbe fuertemente la radiación electromagnética, desaparece rápidamente con el anochecer y no
le ha dado tiempo a formarse en el lado del amanecer, eliminándose de esta manera y en ese recorrido
el principal obstáculo para la CLD.
Consideraremos en último lugar el fenómeno denominado dispersión12, por el cual una onda
altera la trayectoria esperada según las leyes puras de la refracción y reflexión. La dispersión o scatter
puede ser en sentido directo o de avance, produciéndose en la troposfera y para frecuencias superiores
a los 20 MHz. Esto tiene como consecuencia la recepción de la señal radiada en la zona de silencio,
siendo un fenómeno esporádico y poco utilizable para enlaces fijos. A veces observamos que después
del primer salto las ondas se reflejan sobre la tierra hacia el transmisor, ya que la superficie terrestre no
24
es, en general, un medio liso y homogéneo, hablándose entonces de dispersión inversa. Este fenóme-
no, cuando se produce, es más estable, ayudando a disminuir la zona de silencio.
Veremos a continuación el comportamiento genérico respecto a la CLD de las distintas bandas
de radioaficionado, ya que será en ellas donde se realizarán todos los desarrollos experimentales, al
estar uniformemente distribuidas por todo el espectro de frecuencias de la HF y ser accesibles con los
menores trámites administrativos y legales[ARR92].
Hacemos la salvedad de que la banda de 1.8 MHz, correspondiente a 160 metros de longitud
de onda, no pertenece en realidad a la HF sino a las frecuencias medias o MF, pero la incluimos aquí
porque su uso puede ser, en algunas situaciones, determinante para conseguir el enlace deseado.
12Denominado Scatter en inglés.
Banda de 1.8 MHz (160 metros de longitud de onda).
Sufre extrema absorción en la capa D durante el día, aunque las señales emitidas bajo
ángulos muy altos pueden retornar a la tierra, proporcionando durante las hora diurnas
un alcance de hasta 125 Km, aproximadamente.
25
Durante la noche, al disiparse la capa D, las señales emitidas con ángulos de radiación
bajos proporcionan alcance de varios miles de Km.
Los ruidos estáticos y los procedentes de las tormentas son muy abundantes durante el
verano, llegando a veces a hacer imposible su uso. Es por tanto una banda nocturna y
de utilización preferente durante el invierno.
Banda de 3.5 MHz (80 metros de longitud de onda).
Comportamiento muy parecido a la banda de 1.8 MHz pero sin tanta absorción diurna,
por lo que su alcance puede llegar durante el día hasta los 400 Km.
Durante la noche sus señales pueden llegar a los antípodas, manteniéndose la
sensibilidad a los estáticos y a las ruidos producidos por las tormentas estivales. Es
pues una banda nocturna e invernal como la anterior.
Banda de 7 MHz (40 metros de longitud de onda).
26
Es la banda de frecuencia más baja en la que apreciamos la existencia de una zona de
silencio o de skip.
Podemos utilizarla durante el día para comunicaciones hasta una distancia de unos 800
Km, distancia que variará en función de la hora solar en el punto donde se realiza la
primera, y en general única refracción diurna, lugar que está situado normalmente en la
mitad del trayecto entre el punto de emisión y el de recepción.
Durante la noche posibilita comunicaciones alrededor del mundo entero, aunque de
nuevo una cierta sensibilidad a los ruidos estáticos y a los producidos por tormentas
provoca cierta incomodidad durante los meses veraniegos, sin llegar al extremo de las
dos bandas anteriores, por lo que podremos usarla durante las horas nocturnas tanto en
invierno como en verano.
Es la banda de radioaficionados de frecuencia más baja utilizable para realizar
comunicaciones alrededor del mundo entero.
Banda de 10 MHz. (30 metros de longitud de onda).
27
Posee características comunes a las bandas diurnas y nocturnas, pudiéndose utilizar
hasta los 1600 Km durante el día y proporcionando un alcance mundial durante la
noche.
Si bien, en general, puede ser considerada una banda de uso durante las 24 horas,
durante las épocas de mínimo solar la MUF puede caer por debajo de los 10 MHz,
pasando entonces a poseer el perfil de las bandas diurnas de frecuencias más altas. Es
la banda de frecuencia más baja en la que se hace notar el efecto de las variaciones
debidas al ciclo solar.
Banda de 14 MHz. (20 metros de longitud de onda).
Es la banda más usada para la CLD, pues está siempre disponible durante las horas
diurnas con independencia de la influencia del ciclo solar, aunque en los momentos de
máxima actividad de este queda abierta para las comunicaciones también durante toda
la noche, pues es una frecuencia lo suficientemente elevada como para no sufrir una
gran absorción en la capa D y al mismo tiempo lo suficientemente baja como para
refractarse de una forma adecuada en las capas F1 y F2.
Presenta una zona de silencio apreciable, no siendo de gran perturbación los ruidos
estáticos sobre las comunicaciones.
28
Todas estas características positivas generan un importante problema que es la gran
congestión existente en esta banda, lo cual produce frecuentes interferencias entre las
distintas transmisiones.
Banda de 18 MHz. (17 metros de longitud de onda).
Similar en muchos aspectos a la banda de 21 MHz que describiremos a continuación,
pero sin un influjo tan marcado de la actividad solar.
Durante los años de elevada actividad solar es utilizable durante el día y las primeras
horas de la noche para comunicaciones con todo el mundo, mientras que los períodos
en los que esta actividad es moderada se cierra para todas las comunicaciones
inmediatamente al anochecer.
En los períodos de baja actividad solar es utilizable únicamente en las horas de
mediodía en trayectos norte-sur y sólo en latitudes medias o en el ecuador.
Banda de 21 MHz. (15 metros de longitud de onda).
29
Comportamiento muy similar a la banda de 14 MHZ pero con una gran dependencia
de la actividad solar.
En los años en los que esta es máxima se mantiene abierta durante todo el día y hasta
muy avanzada la noche a las comunicaciones con todo el mundo, pasando a ser una
banda diurna en los años de actividad solar media y cerrándose completamente los
años de baja actividad solar.
Banda de 24 MHz. (12 metros de longitud de onda).
Banda fundamentalmente diurna durante los períodos de moderada y baja actividad
solar, siendo utilizable hasta bien avanzada la noche en los máximos de la misma.
Nunca queda sin actividad salvo en los años de mínimo solar en latitudes altas. Incluso
entonces se activa por esporádica E desde el final de la primavera hasta el otoño,
aunque a veces es utilizable en ciertos períodos del invierno.
Banda de 28 MHz. (10 metros de longitud de onda).
30
Es la banda con variaciones más extremas respecto al ciclo solar, durante cuyos
máximos es posible establecer comunicaciones a grandes distancias utilizando muy
poca potencia en el transmisor durante el día y hasta horas muy avanzadas de la noche.
Al ir decayendo la actividad solar va recortándose el número de horas que es utilizable,
llegando a quedar totalmente sin propagación durante los años de mínimo solar.
También se activa por esporádica E desde finales de Abril hasta mediados de Agosto,
con total independencia del ciclo solar.
Si pretendemos establecer una comunicación entre dos puntos de la superficie terrestre
separados por una determinada distancia necesitaremos conocer el intervalo de frecuencias que
podemos utilizar, ya que si utilizamos frecuencias muy altas pueden no reflejarse en la ionosfera y
escapar al espacio exterior y si utilizamos frecuencias muy bajas obtendremos una comunicación con
ruidos excesivos y utilizando potencias mayores de las estrictamente necesarias[MAS87].
El intervalo de frecuencias utilizables está limitado para cada lugar y momento por la frecuencia
máxima utilizable y la frecuencia mínima utilizable, es decir la MUF y la LUF.
La MUF la obtendremos multiplicando la frecuencia crítica por un factor que manifieste la
relación existente entre la distancia de transmisión, el ángulo de elevación de la onda transmitida y la
capa ionosférica donde se efectúe la refracción, pero la dificultad principal para la obtención de este
31
factor va a ser la variación de la ionización en las distintas capas ionosféricas, las cuales se
corresponden con la distinta radiación solar durante el día y la noche, durante las distintas estaciones del
año y a lo largo del ciclo solar de los once años.
La LUF nos va a venir determinada por la absorción ejercida por la capa D, que va a ser
inversamente proporcional a la raíz cuadrada de la frecuencia utilizada. Dado que la utilidad o no de una
señal determinada para la realización de una comunicación va a venir determinada por el hecho de que
la relación señal/ruido de la onda recibida sea mayor que la permitida por el receptor utilizado, la LUF
va a estar influida por todos aquellos factores que modifiquen la cantidad de energía que finalmente
llegue al lugar de recepción, siendo mayor cuanto más lo sean las pérdidas sufridas por la onda en su
camino desde el emisor hasta el receptor cualquiera que sea el origen de las mismas. Cuando se incre-
menta la potencia de transmisión, disminuyen las pérdidas de propagación ionosférica o se mejora el
rendimiento de las antenas se obtiene un descenso, a veces muy importante, de la mínima frecuencia
utilizable.
Entre ambos límites se sitúa la frecuencia óptima de trabajo o FOT, que como ya hemos
mencionado, se obtiene de una manera empírica multiplicando por el factor 0.85 el valor medio mensual
de la MUF para el circuito en cuestión.
Una vez tenidos en cuenta todos los efectos anteriormente mencionados, vemos como nuestro
principal objetivo va a ser la determinación de la frecuencia crítica para un determinado circuito, lo cual,
32
como vamos a ver a continuación, no resultará fácil dada su dependencia de múltiples factores, algunos
de los cuales van a resultar a efectos prácticos casi aleatorios.
Denominaremos f0X a la frecuencia crítica de la capa X, siendo la máxima frecuencia
reflejada desde esa capa. Así f0E y f0F2 son las frecuencias críticas de las capas E y F2 respectivamente
en una situación determinada, que estará relacionada con las densidades electrónicas máximas en la
mismas.
La densidad electrónica crece con la altura, siendo mínima en la capa D y máxima en la capa F2
por lo que f0F2 será siempre mayor que f0E y tomándose como válida, en general y para incidencia
vertical, la igualdad,
MUF = f0F2
Como ya hemos visto en la expresión (3.1), a la frecuencia de plasma fN la podemos expresar
con bastante aproximación como
fN = 9 N1/2 (4.1)
siendo N la densidad electrónica en una capa determinada y fN la frecuencia en Hz.
33
Si tomamos Nm como el valor máximo de la densidad electrónica en una capa, todas las ondas
con incidencia vertical y con una frecuencia menor a su frecuencia de plasma serán capaces de volver a
la tierra, estando la frecuencia crítica expresada por lo tanto como
f0 = 9 Nm1/2 (4.2)
Podemos ver algunos valores habituales en la tabla de la siguiente página, aunque
desgraciadamente estos valores sólo nos sirven como referencia, ya que para un mismo recorrido
podemos observar grandes variaciones en la frecuencia crítica con el transcurrir del día, con los
cambios de estación a lo largo del año y con los años dentro del ciclo de los once años, sin contar con
la posible ocurrencia de variaciones en la propagación prevista, debidas a irregularidades en la radiación
solar y a otros fenómenos como las esporádicas E, auroras boreales, etc.
Podemos tener una apreciación de esta variabilidad de las condiciones considerando que se han
determinado valores de la f0F2 que no alcanzaban los 2 MHZ durante los años mas bajos del ciclo solar
y tan altos como 15 MHz en presencia de esporádicas E, pudiéndose considerar como normal un valor
de 10 MHz.
34
CAPA IONOSFÉR.
PERÍODO
CONC. ELECTR.
F. CRÍT. (MHz)
D
Mediodía
108 - 109
0.09 - 0.28
E
Mediodía
1011
2.8
F1
Día
2 1011
4.0
F2
Día
1012
9.0
F2
Noche
5 1010
2.0
Tabla 4.1
35
5 LA CALIDAD DE LA SEÑAL.
Otro factor a tener en cuenta y tan importante como la MUF para un determinado recorrido es
la calidad de la señal obtenida, pues de nada nos serviría recibir una señal con una aceptable relación
señal/ruido si la distorsión sufrida durante el trayecto es de tal magnitud que nos imposibilite la
decodificación de la misma.
Una onda electromagnética sufre durante su recorrido desde el punto de emisión al de
recepción diferentes alteraciones, siendo las mas importantes para el caso de una onda reflejada en la
ionosfera las debidas a atenuación, retardo, fading o desvanecimiento, desplazamiento en frecuencia
(Doppler), dispersión en frecuencia y en tiempo y distorsión de retardo.
Tomemos una señal compleja y por tanto con distintas frecuencias dentro de un ancho de
banda, la denominamos E(t) y la transmitimos de un punto a otro de la superficie terrestre, realizando
este paso mediante una única reflexión ionosférica. Como toda onda que cruza un medio físico sufrirá
retardo. Al ser la ionosfera un medio dispersivo, las distintas frecuencias que componen nuestra onda
recorrerán caminos ligeramente distintos, lo cual conducirá a retardos también distintos para las mismas.
A esta nueva onda compleja, distorsionada por el retardo temporal, la denominaremos E´(t).
36
Sabemos también que nuestra onda va a sufrir atenuación y desvanecimiento13 aleatorio, el
primero de estos procesos debido a que el proceso de refracción ionosférica no tiene un rendimiento
total del 100 % y el segundo producido por súbitas variaciones de los valores de ionización debidas a
su vez a alteraciones de la radiación solar en el punto de la ionosfera donde se produce la refracción.
Esta multiplicidad de procesos podemos incorporarla a nuestra onda E´(t) multiplicándola por
una ganancia aleatoria expresada por G(A,v,s,t), donde A representa la atenuación con un valor entre
0 y 1, v y s representan al fading en términos de desplazamiento y dispersión de frecuencia respectiva-
mente.
Ahora la onda que recibimos ER(t) tendrá la siguiente expresión,
ER(t) = G(A.v,s ,t).E´(t-t ) (5.1)
13Fading en lengua inglesa.
37
Debemos ahora tener en cuenta el hecho de que nuestra onda puede haber sido reflejada por
las capas E o F1, que puede además haberse dividido en dos haces, uno ordinario y otro extraordinario,
debido al efecto del campo magnético terrestre14 y que finalmente puede haber llegado mediante un
único salto o mediante varios. Todas estas posibles variaciones configuran los distintos modos de
transmisión de una onda.
Para el modo j-ésimo tendremos la expresión siguiente,
ERj(t) = Gj(Aj,vj,s j,t).E´(t-t j) (5.2)
y la señal recibida, expresada como resultado de la suma de los diferentes modos, tendrá finalmente la
siguiente expresión,
ER(t) = j=1? n Gj(Aj,vj,s j,t).E´(t-t j) (5.3)
Si además deseamos considerar la señal que nos pueda llegar a través de la onda de superficie
(onda de tierra), esta sufrirá un retraso t g diferente pero no tendrá variaciones aleatorias y la nueva
expresión de nuestra onda será,
Eg(t) = Ag(t-t g) + j=1? n Gj(Aj,vj,s j,t).E´(t-t j) (5.4)
14Denominado habitualmente en lengua inglesa como splitting.
38
La aparente complicación de esta expresión se ve disminuida por el hecho de que la mayor
parte de los distintos modos posibles sufre una fuerte atenuación, siendo útiles tan sólo unos pocos de
ellos y siendo también frecuente el que no tengamos influencia alguna de la onda de superficie debido al
relativo corto alcance de la misma.
Veamos ahora con detalle cada uno de los fenómenos anteriormente expuestos, su causa,
magnitud, variabilidad y efecto sobre la onda transmitida [MAS90].
Dispersión temporal (t j):
La señal que obtenemos en el punto de recepción es en realidad una suma de señales que han
realizado recorridos muy distintos y que por tanto han sufrido distintos retrasos, dando lugar a
una dispersión en el tiempo de la onda final. Esto es lógico si tenemos en cuenta que podemos
estar recibiendo simultáneamente la señal propagada a través de la denominada onda de tierra
junto a la refractada en la ionosfera, refracción que se ha podido realizar en varias capas de la
misma simultáneamente y que por tanto ha podido dar lugar a distinto número de saltos durante
su trayecto.
Debemos de tener en cuenta también la posibilidad de estar recibiendo además señales que
han realizado distintos trayectos ionosféricos debido a la posible incidencia en la ionosfera bajo
39
las denominadas trayectorias de ángulos alto y bajo, junto a la posibilidad siempre existente de
que el efecto magnetoiónico en la ionosfera haya desdoblado nuestra onda en dos haces ,
ordinario y extraordinario, bajo la influencia del campo magnético terrestre.
Todos estos procesos pueden interferir gravemente en la transmisión de datos cuanto estos
retrasos son de magnitud comparable al período de la información digital transmitida, es decir a
la duración de la información que separa un estado digital del siguiente transmitido, que
denominaremos duración de estado, denominando al fenómeno descrito como interferencia
interestados.
Estudios recientes al respecto demuestran que existe una frecuencia por debajo de la MUF en
la que la dispersión en el tiempo toma valores máximos. Valores que pueden servirnos como
referencia son los siguientes [DAV66]: para un recorrido de 2.500 Km podemos llegar a tener
una dispersión temporal máxima de 3 ms, para 1.000 Km de 5 ms y para 200 Km puede llegar
a los 8 ms.
Vemos por tanto como una elección adecuada de la frecuencia a utilizar es algo básico para
obtener elevadas frecuencias de transmisión de datos, estando limitada la elección a un estrecho
intervalo de frecuencias por debajo de la MUF ya que si descendemos mucho por debajo de la
misma incrementamos notablemente la posibilidad de encontrar grandes retrasos por trayectos
múltiples y de que por tanto tengamos que recurrir a la disminución del ritmo de transmisión de
datos para poder evitar la interferencia interestados.
40
Desvanecimiento (Gj):
Es frecuente que al analizar las señales recibidas en un receptor veamos que fluctúan en
amplitud y fase, fenómeno al que hemos denominado desvanecimiento, que se aprecia como
disminuciones de la intensidad de la señal recibida, con un carácter periódico y de frecuencia
variable, del que son responsables los cambios que sufre la ionosfera.
Estos son básicamente cambios en la curvatura del reflector ionosférico, rotaciones en los ejes
de la elipse de polarización, variaciones temporales de la absorción y cambios en la densidad
electrónica de la ionosfera, todo esto en lo que se refiere a un único modo de propagación, ya
que a todo lo anterior debemos añadir los fenómenos de interferencia entre dos o más modos
que tengan amplitudes equivalentes.
En trayectorias de 2.000 Km el desvanecimiento más común es el producido al amanecer y al
anochecer, con un ritmo típico de 10 a 40 desvanecimientos por minuto
Dispersión en frecuencia (vj):
El desplazamiento en frecuencia que se produce para una trayectoria simple (de modo único)
está causado por las variaciones producidas en el tiempo de la altura de la capa reflectora y de
la densidad electrónica.
41
En el caso de que el transmisor y el receptor estén fijos y si ? es el ángulo de fase para un
determinado haz en un tiempo t, resulta,
Los mayores desplazamientos en frecuencia -debidos al efecto Doppler- ocurren durante el día,
con valores positivos relativamente elevados durante el amanecer y valores negativos durante el
atardecer. En días en los que no hay grandes alteraciones ionosféricas podemos obtener valores
que oscilan entre 0.01 y 1 Hz para trayectos de salto único, siendo en general mayores para las
trayectorias con reflexión en la capa F que para las que lo hacen en la capa D, incrementándose
en mayor medida en las incidencias verticales que en las oblicuas.
No obstante, es frecuente encontrarse con desplazamientos entre 5 y 10 Hz durante la ocurren-
cia de grandes alteraciones ionosféricas , aunque sólo durante unos pocos minutos. Nos puede
servir como referencia el hecho de que durante las llamaradas solares encontramos
desplazamientos de 1 - 2 Hz.
Dispersión en el tiempo (s j):
Dado que cada modo de propagación está compuesto por un número determinado de rayos o
haces con trayectorias ligeramente diferentes, cada uno de ellos sufrirá desplazamientos en
frecuencia ligeramente diferentes, resultando una dispersión de las frecuencias recibidas.
cdtfd
=v j?
42
Valores aproximados en condiciones ionosféricas de tranquilidad podría ser [MAS87] de 0.02
Hz para las reflexiones en la capa E y de 0.15 Hz para las efectuadas en la capa F.
Esta dispersión en frecuencia modula cada pulso transmitido y contribuye al desvanecimiento
periódico de los pulsos recibidos, aunque con un período mayor que la duración típica de los
mismos.
Distorsión por retardo (t j):
La distorsión por retardo tiene su origen en el hecho de que el retardo sufrido por una onda
depende de su frecuencia y por tanto no es constante para las distintas frecuencias contenidas
en un ancho de banda determinado y en que la dispersión causada por la reflexión en la capa E
es muy pequeña mientras que es de mayor magnitud si la capa reflectora es la F.
En lo que se refiere a la transmisión de datos la importancia de la distorsión por retardo está
relacionada con la tasa de cambio del retardo con la frecuencia y el tiempo, dado que un canal
de propagación ionosférica no es estacionario ni en frecuencia ni en tiempo, aunque si limitamos
el ancho de banda a unos 10 KHz y consideramos un tiempo lo suficientemente corto,
alrededor de 10 minutos, podremos utilizar frecuentemente el modelo estacionario. De esta
forma y considerando un número discreto de modos de propagación, podemos modelar
43
nuestro canal ionosférico mediante una línea de retardo con un numero también discreto de
tomas, cada una de las cuales estará modulada en fase y amplitud por un coeficiente que varía
en el tiempo.
44
6 LA ELECCIÓN DE LA FRECUENCIA.
La posibilidad de comunicación en HF a través de la ionosfera entre dos puntos geográficos
determinados va indisolublemente ligada a la capacidad de determinar en cada momento cuál es la
frecuencia adecuada para llevarla a cabo desde el primer momento en el que se inicia la comunicación y
a todo lo largo del tiempo que dure la misma. A esta capacidad de elección de las frecuencias
adecuadas en función de las condiciones existentes en cada momento se le acostumbra a denominar
gestión de frecuencias.
Esta gestión de frecuencias se lleva a cabo mediante diferentes técnicas, que podemos clasificar
en tres grandes grupos:
1. Predicciones ionosféricas a largo y a corto plazo.
2. Sondeos por pulsos ionosféricos y sondeos con desplazamiento de la frecuencia.
3. Evaluación en tiempo real de las condiciones de los canales de transmisión existentes.
1. Predicciones ionosféricas.
45
Ya hemos visto como las grandes variaciones en las concentraciones de las distintas capas
electrónicas tienen un fiel reflejo en la MUF de cada momento -tabla 4.1-. Para establecer una
comunicación de la calidad adecuada es necesario mantener la frecuencia utilizada por debajo de la
MUF de cada período pero sin bajarla demasiado para no sufrir una absorción ionosférica excesiva,
siendo la mejor elección en general, la FOT de cada recorrido.
Es posible en la actualidad cumplir estas condiciones con una exactitud muy adecuada a los
fines para los que se pretende, gracias a diferentes programas para ordenador, que realizan el cálculo
de la media mensual de la FOT para cualquier lugar del planeta, evalúan la adecuación de las posibles
frecuencias utilizables en términos de relación señal-ruido probable y otorgan un factor de calidad o
coeficiente de confiabilidad para un rango de las mismas y para cada recorrido estudiado, definiendo así
una ventana de frecuencias utilizables.
El punto de partida de toda predicción de la MUF es la determinación de las frecuencias
críticas de las capas E y F, es decir, f0E y f0F. La determinación en cualquier momento y lugar de la f0E
es fácil, debido a su relación directa con el ángulo cenital solar, tiempo local y latitud, no existiendo sin
embargo una relación tan directa como la anterior para la f0F, extremo éste de la máxima importancia,
ya que es mucho mas frecuente el uso de esta última capa que el de ninguna otra, sobre todo en lo que
a la CLD concierne.
Esta dificultad se evita realizando sondeos de incidencia vertical en unas 200 estaciones
distribuidas a lo largo y ancho de todo el mundo, obteniéndose cada hora valores de f0F2 y de factores
46
relacionados con la MUF. Con las medias mensuales suavizadas obtenemos mapas mundiales de
frecuencias críticas y de factores de la MUF.
Los mapas así obtenidos corresponden sólo a un determinado mes y con un determinado nivel
de actividad solar, aunque como ya se han realizado mediciones durante más de un ciclo solar
completo, tenemos disponibles mapas para cualquier mes y con cualquier nivel de actividad solar. A
estos mapas se les denomina mapas numéricos, ya que se utiliza una función del tipo f(?,?,t), donde
intervienen las tres variables implicadas en la propagación ionosférica, la latitud ?, la longitud ? y el
tiempo t.
Dicha función se obtiene mediante el ajuste de series polinómicas de estas funciones a los datos
ionosféricos previamente obtenidos, siendo especialmente útiles cuando deseamos efectuar predicciones
para un gran número de recorridos.
Si comparamos las medianas mensuales de las predicciones obtenidas mediante el método
recomendado actualmente por el CCIR [CCI90c] para las latitudes centrales europeas, con los datos
obtenidos por sondeos de incidencia vertical durante el último ciclo de los 11 años, vemos que existe un
acuerdo razonable entre ambos, con una variación menor del 10 % para la MUF. Ahora bien, este
margen de error se duplica durante los períodos del amanecer y anochecer, pudiendo llegar hasta quin-
tuplicarse en estas mismas situaciones durante el período estival [CCI90d].
47
La dificultad real de este tipo de predicción es que se basa en la observación estadística de
períodos anteriores, por lo cual no es capaz de tener en cuenta las variaciones diarias originadas por la
irregularidad de la actividad solar. Es por ello que tiene su utilidad en la predicción del
comportamiento de base de la propagación ionosférica para cada período del año y en relación a la
situación del año dentro del ciclo solar, debiendo ser complementada por otras técnicas de predicción
para períodos más cortos junto a la realización de sondeos y utilización de balizas.
A la hora de efectuar predicciones de la LUF las dificultades aumentan, pues a la dependencia
de las condiciones ionosféricas hay que añadir la dependencia de las condiciones con las que estamos
trabajando, potencia de transmisión, equipos receptores, antenas, etc.
El límite inferior de la frecuencia más baja utilizable depende a su vez de la relación señal/ruido
menor que admita el servicio que pretendemos utilizar. Es lógico suponer que no necesitamos la misma
intensidad de señal para retransmitir complejas formas de onda para un enlace de alta velocidad de
transmisión de datos que para una emisión de audio de alta fidelidad, de TV de alta definición o de un
enlace telegráfico con código Morse. A todo lo anterior es necesario añadir la dificultad con la que los
distintos programas de ordenador para la predicción de la fuerza relativa de la señal llevan a cabo el
cálculo de la misma, obteniéndose a veces resultados dispares entre distintos programas.
Podemos decir que, en general, las pérdidas producidas a lo largo de un determinado recorrido
dependen de la dispersión espacial de la energía, de la absorción ionosférica y de la existencia o no de
la posibilidad de enfocar adecuadamente la energía transmitida en la dirección adecuada.
48
El primero de estos factores, las pérdidas por dispersión espacial, es de fácil apreciación
mediante simples cálculos matemáticos. Sin embargo, el cálculo de la energía absorbida por la ionosfera
es un proceso muy complejo que dependerá de la existencia de un buen modelo de lo que podríamos
denominar atmósfera standard, para lo cual debe de tener una buena representación analítica de la
variación de la concentración electrónica con la altura.
Es muy importante tener en cuenta que esta dificultad de modelado es máxima a la hora de
representar el comportamiento ionosférico en situaciones como el amanecer, el anochecer, auroras
boreales, etc.
El último de los factores, la capacidad de dirigir o enfocar la energía radiada en la dirección
deseada, tiene una gran variabilidad, desde situaciones inmejorables entre estaciones fijas con antenas
directivas y capacidad multibanda, hasta las dificultades provenientes de estaciones móviles con antenas
isotrópicas, de pequeño tamaño y sin compensar adecuadamente para su uso en las distintas bandas de
frecuencia.
Podemos por tanto afirmar que, para realizar cualquier predicción de la LUF, es básico tener en
cuenta tanto la potencia transmitida como el rendimiento y características del sistema de antenas.
Cualquier disminución de la potencia eficaz transmitida en la dirección deseada o una alteración de las
características de rendimiento de las antenas utilizadas, limitará en gran manera la ventana de frecuencias
utilizables en un determinado recorrido.
49
2. Sondeos.
Mediante los sondeos evaluamos propiedades del medio ionosférico tales como respuesta del
canal utilizado a un impulso de corta duración, retrasos en la propagación y amplitud de la señal
recibida.
A través de los sondeos medimos la respuesta de cada canal bajo prueba, transmitiendo bien un
pulso electromagnético bien una señal cuya frecuencia se desplaza a lo largo del tiempo y entre unos
límites determinados, estudiando luego las características de la onda reflejada.
Los sondeos mediante pulsos consisten en la emisión de un pulso de gran potencia y corta
duración en frecuencias previamente seleccionadas, analizándose la señal después de su reflexión en la
capa elegida.
Los sondeos mediante desplazamientos lineales de frecuencia15 se efectúan enviando una señal
de baja potencia cuya frecuencia se desplaza en el tiempo entre 2 y 30 MHz. Mediante un preciso
sincronismo entre el emisor y el receptor, operando este último en conjunción con un analizador de
espectro, podemos determinar todas las características que nos interesan de la propagación en ese
15Denominados como chirpsounding en la literatura inglesa.
50
recorrido, tales como retardos, desplazamientos en frecuencia, potencias recibidas en las distintas
frecuencias, etc.
Procesando esos datos podemos obtener estadísticas sobre la ocupación de los distintos
canales, sus niveles de ruido, atenuación, etc, pudiéndose tomar decisiones respecto a cuales son las
mejores frecuencias a utilizar por tener las mejores condiciones de propagación, y dentro del rango de
frecuencias elegido las frecuencias específicas con los menores niveles de ruido.
Ambas técnicas se pueden utilizar con incidencia vertical u oblicua en la capa ionosférica cuyas
propiedades queremos determinar. En este último caso, debemos disponer el emisor y el receptor en
los extremos del trayecto a estudiar, o bien podemos tener ambos en el mismo lugar y aprovechar la
reflexión irregular en el suelo de la onda reflejada en la ionosfera con incidencia oblicua -sondeo por
dispersión inversa-16.
Otra técnica de sondeo bastante utilizada es la que se concreta en la comprobación sólo de
determinadas frecuencias o sondeo de canales. Para llevarla a cabo es necesario un buen sincronismo
entre receptor y emisor, llevándose éste a efecto mediante relojes controlados por cristal de cuarzo. La
ventaja fundamental de este último sistema consiste en que comprobamos únicamente aquellas
frecuencias que sabemos podemos utilizar, debido a limitaciones administrativas o técnicas. Además
16Denominado backscatter sounding en la literatura inglesa.
51
esta rapidez en el análisis de las frecuencias disponibles nos permitirá utilizar vías inusuales de
propagación y corta duración, como esporádicas-E, etc.
3. Evaluación en tiempo real de los canales de transmisión existentes.
Las predicciones de propagación nos proporcionan ventanas de frecuencias para recorridos y
períodos de tiempo determinados con una aproximación del 10 %, siendo corriente asimismo indicar la
FOT prevista para cada hora. En un circuito real lo más frecuente es elegir de entre las frecuencias
previstas como utilizables un conjunto de las mismas durante el día y otro durante la noche para el
recorrido que nos interesa.
Este proceso puramente teórico tiene como principales dificultades las siguientes:
- No tenemos en cuenta las interferencias producidas por otros usuarios.
- El volumen de datos sobre los que se han realizado los cálculos es frecuentemente muy
limitado.
- Ciertos fenómenos de ocurrencia aleatoria, como las alteraciones ionosféricas repentinas,
tormentas ionosféricas y alteraciones en los casquetes polares, no pueden ser previstos, dada la
propia naturaleza de esos fenómenos.
52
- Otros fenómenos transitorios, como la ocurrencia de esporádicas-E, no son siempre
previsibles.
Para conseguir salvar la mayor parte de estas dificultades se acostumbra a realizar predicciones
a corto plazo, que se basan en la información obtenida en tiempo real de la actividad solar, de los
parámetros ionosféricos y de la propia información sobre la propagación obtenida mediante las comuni-
caciones que en ese momento se están llevando a cabo.
A pesar de todo, todavía seguimos observando los siguientes inconvenientes:
- Los datos correctores están basados en un muestreo realizado en tiempo real y de una forma
limitada, por lo que no podemos garantizar su adecuación para todos los recorridos.
- La transmisión en tiempo real del flujo de información generado encuentra problemas
logísticos y económicos para su realización.
- Las correcciones así transmitidas no delimitan en general cual es el subconjunto de frecuencias
más adecuado para un determinado recorrido.
- De nuevo el ruido generado por la actividad humana no es tenido en cuenta, pues es muy
variable en cada recorrido.
53
Vemos por tanto como el análisis y la predicción por ordenador de las frecuencias más
adecuadas para establecer un enlace entre dos puntos determinados de la tierra y a una hora
determinada pueden ser útiles, y de hecho lo son, para su utilización genérica y como punto de partida
para determinaciones más específicas, pero no son suficientes cuando necesitamos disponer de vías de
comunicación con alta disponibilidad y fiabilidad, máxime cuando uno o los dos puntos a enlazar están
situados sobre vehículos en movimiento, aeronaves, automóviles o navíos.
Es por ello por lo que se recurre frecuentemente al análisis en tiempo real de las frecuencias a
utilizar, método que denominaremos por sus iniciales anglosajonas como RTCE, proveniente de Real
Time Channel Evaluation, y que según el CCIR es "el conjunto de los procesos de medida de los
parámetros apropiados de un grupo de canales de comunicación en tiempo real y el empleo de los
datos así obtenidos en la descripción cuantitativa de los estados de esos canales y de sus capacidades
relativas para ser utilizado con unos tipos determinados de tráfico de comunicaciones".
En realidad lo que se pretende es obtener un modelo numérico para cada uno de los canales o
frecuencias analizados, de manera que pueda ser utilizado como criterio diferenciador de la adecuación
del canal al uso que se pretende y con el fin de controlar todo el proceso de transmisión, llegándose
más allá de la mera medición de las condiciones ionosféricas al último minuto, ya que podremos tener en
cuenta las interferencias producidas por los otros usuarios.
54
El término tiempo real implica el medir los parámetros deseados en el canal analizado a
intervalos del mismo orden de magnitud del tiempo de respuesta del sistema a las entradas de control,
pues de nada serviría tomar medidas que el sistema, por su lentitud en reaccionar, no pudiera utilizar.
Realmente esperamos algo mas que la frecuencia mas adecuada de trabajo de un sistema
RTCE. Buscamos además los tiempos adecuados para iniciar la transmisión así como la velocidad de
flujo de datos mas idónea.
El esquema de funcionamiento de un sistema de este tipo es básicamente el siguiente:
- Elegimos un número determinado de bloques de frecuencias en HF, los cuales vendrán
determinados por ser aquéllos en los que estemos autorizados a trabajar o bien hallan sido
recomendados por el organismo oficial adecuado por ser los más adecuados al fin que se
pretende.
- El tamaño de estos bloques debe de ser de pocos cientos de KHz de amplitud, pues es el
intervalo en el que razonablemente se conservarán las condiciones de propagación observadas,
de manera que cualquier apreciación de las condiciones de propagación realizada sobre una de
las frecuencias del bloque será considerada válida para todas las otras frecuencias que forman
parte del mismo.
55
- Efectuaremos las pruebas de manera cíclica sobre una sóla de las frecuencias de cada bloque,
en orden ascendente de frecuencia desde la menor a la más alta.
- La prueba puede consistir únicamente en el envío de una señal por parte del emisor y su
posterior evaluación en el punto de recepción o puede a su vez ser enviada información poste-
riormente en sentido inverso hacia la estación inicialmente emisora.
- Además de recibir y analizar señales en función de sondeo, el sistema debe ser capaz de
medir los niveles de interferencia en todas las frecuencias de cada bloque, determinando la
adecuación o no de las mismas para el uso que se espera de las mismas.
La primera parte del proceso para cada canal a estudiar consiste en la medición del nivel de
ruido de fondo en la estación que inicia la evaluación, siendo emitida esta información a la estación
receptora donde se medirá además la relación señal/ruido de la emisión recibida, todo esto naturalmente
si el estado de la propagación ha permitido la conexión.
Una vez se ha efectuado la evaluación de una de las frecuencias de cada uno de los bloques
disponibles se ha cerrado un ciclo, que puede volver a repetirse de manera inmediata o con intervalos
programados según las necesidades del sistema. La estación receptora tiene entonces una apreciación
general del estado de la propagación en ese momento y puede iniciar el enlace, eligiendo la frecuencia
mas adecuada en función de los parámetros recibidos de la estación transmisora y de aquellos otros que
hayan sido medidos "in situ".
56
Todo este proceso exige bien la recepción simultánea en cada una de las frecuencias de
referencia dentro de cada bloque, bien un adecuado sincronismo para los cambios de frecuencias entre
las estaciones inicialmente emisora y receptora, o la realización de un algoritmo bien estudiado de
manera que facilite el intercambio de datos que permita el sincronismo inicial.
Vemos como esta técnica puede suplir las deficiencias de todos los sistemas de predicción
anteriormente estudiados, desplazando a los grandes sistemas de antenas con transmisores de gran
potencia para realizar los sondeos en favor de sistemas mas pequeños y manejables, donde las
posibilidades de cálculo y operación automáticos que poseemos en la actualidad toman un papel
preponderante
57
7 LA AUTOMATIZACIÓN DEL ENLACE.
Es mucho y a la vez poco lo que podemos expresar sobre enlaces automatizados. Mucho
porque muy elevadas son las exigencias que sobre el papel deben cubrir los equipos de conexión
automatizada, HF ALE Radios -High Frecuency Automatic Link Establishment Radios- según unas
denominaciones, o ALIS -Automatic Link Setup- según otras. Poco porque no es demasiado lo que
en la actualidad tenemos realizado .
Veamos en primer lugar qué es lo que se le pide a un equipo capaz de establecer
comunicaciones fiables y estables por sí mismo, guiándonos para ello de diversos estándares federales
[ADA92,BOD85], unos ya existentes y otros solamente propuestos, en los EE.UU. de Norteamérica.
- Las señales que constituyen la información a transferir deben de pasar a través del ancho de
banda de audio de los equipos actuales de HF en Banda Lateral Única o BLU17, denominados
en los países anglosajones como Single Side Band Radios -SSB Radios-.
17Límite inferior de 400 Hz y superior de 2600 Hz. Es decir un ancho de banda de paso de 2200 Hz.
58
-Deben poseer modems digitales robustos y de la mayor velocidad que sea posible para
proveer transmisiones digitales con llamada selectiva.
-Seleccionarán de forma automática el mejor canal, basándose en un proceso de análisis de la
calidad del enlace y cuyos datos deberán poder almacenar en su propia memoria.
-Es necesario que establezcan las conexiones y las confirmen de manera automática.
-Deben de poder transferir datos y órdenes de control, efectuar control de errores, trabajar
como circuitos de comunicaciones18 y, si es posible, tener la capacidad de establecerlos de
manera automática.
-Es conveniente que su diseño sea lo suficientemente abierto como para que sea posible
incorporarles todas aquellas nuevas funciones que el proceso de pruebas y desarrollo por el
que deben pasar haga necesarias.
18Networks en la literatura anglosajona.
59
Durante el proceso de establecimiento del enlace, un equipo ALE debe mantener las siguientes
condiciones:
-Debe estar siempre a la escucha de señales provenientes de otros equipos ALE barriendo las
frecuencias que tenga predeterminadas, independientemente de otras funciones que esté llevan-
do a cabo.
-Responderá, salvo orden expresa en contra, a cualquier requerimiento de conexión.
-Nunca interferirá en aquellos canales donde se esté llevando a efecto una comunicación ALE.
-Intercambiará siempre los análisis de calidad de los enlaces -LQA19- cuando sea requerido
para ello y medirá la calidad de señal de los posibles corresponsales aunque en ese momento
no tenga prevista conexión alguna con ellos.
-Responderá con las pautas temporales que se le indique, con el fin de poder atender las
distintas modalidades de comunicaciones, en tiempo real, circuitos de comunicaciones,
llamadas especiales, etc, que se le soliciten.
19Del inglés, Link Quality Analysis.
60
-Procurará, salvo instrucción en contra, establecer y mantener la conectividad -posibilidad de
establecer un enlace cuando le sea solicitado-, siempre que le sea posible.
-Buscará la utilización de todas las potencialidades con los equipos con los que conecte, es
decir, optimizará la velocidad de transmisión de datos y minimizará tanto el tiempo utilizado
como la potencia radiada durante el intercambio de datos.
El análisis de la calidad del enlace o LQA al que nos hemos referido con anterioridad, consiste
en la medida automática de la calidad de la señal intercambiada entre las estaciones que forman el
enlace, y se basa en la determinación de la relación de errores de bit -BER20- y el cociente entre los
suma de los niveles de la señal más el ruido más la distorsión y la suma de los niveles de ruido más la
distorsión -SINAD-.
Los datos adquiridos y procesados deben de poderse almacenar en memoria, tomándolos en
cuenta a la hora de elegir el mejor canal disponible para realizar la comunicación que se pretende.
20Bit Error Ratio en los países de habla inglesa.
Una de las características mas poderosas de un enlace ALE consiste en la posibilidad de
establecer llamadas selectivas. La estación que llama lo hará con su identificación propia y la de la
estación llamada. Cuando esta llamada es oída, la estación receptora la reconoce y responde. Luego la
61
estación que llamó originalmente confirma la recepción del reconocimiento y da por establecido el lazo
de comunicación, transmitiendo en primer lugar los datos LQA que posee respecto a esa estación y a
todas las demás con la que mantiene conectividad.
Esta característica la poseen en la actualidad los equipos que trabajan en modo AX25 -radiopacket-,
en AMTOR o en TOR en modo ARQ o con la última novedad Packtor, que reúne las mejores carac-
terísticas de los dos sistemas anteriores.
Los actuales equipos presentan la característica de tener en un mismo conjunto los
microprocesadores que realizan los cálculos y los equipos de transmisión y recepción encargados de la
comunicación. Esto tiene la ventaja de constituir unidades muy compactas, lo cual es en general una
ventaja, pero presentan al mismo tiempo el inconveniente de que, al ser equipos totalmente dedicados a
un sólo y específico uso, resultan caros para una gran cantidad de aplicaciones no intensivas, ya que la
capacidad de cálculo no puede ser dedicada a otras tareas, al tiempo que el número de unidades
fabricada es bastante pequeño, con el consiguiente encarecimiento del precio de las mismas.
Otro de los inconvenientes de las equipos actualmente en funcionamiento es el hecho de que en
realidad todo o casi todo su funcionamiento se reduce a las posibilidades inherentes al RTCE expresa-
das anteriormente, junto a la posibilidad de llamada y conexión automática.
Si analizamos todo lo expresado a lo largo de este trabajo vemos que se perfila la idea de que
la conexión entre una o varias estaciones de HF es una operación que requiere gran pericia, un
conocimiento pleno del manejo de los equipos adecuados y recurrir tanto a la experiencia previa, como
62
a los procedimientos de cálculo y pronóstico de frecuencias actualmente existentes, para poder
determinar las que son más adecuadas a la distancia entre las estaciones entre las que se pretende
comunicar, teniendo en cuenta la hora del día, el día del mes, la época del año, etc, factores
determinantes, como ya sabemos, del éxito de la operación. Si añadimos lo escaso del número de
personas que en la actualidad posee las cualidades necesarias para todo ello, surge una pregunta: ¿No
son éstas las condiciones más idóneas para la utilización de un Sistema Experto?.
Veamos algunas definiciones habituales para un Sistema Experto [NEB88]:
-Bajo el término Sistema Experto -SE- se entiende un nuevo tipo de software que imita el
comportamiento de un experto humano en la solución de un problema. Pueden almacenar
conocimientos para un campo determinado -y muy delimitado- solucionando los problemas
mediante deducción lógica de conclusiones.
-Los SE se utilizan preferentemente en problemas en los que se necesite un procedimiento de
resolución basado en el conocimiento, entendiendo como tales procedimientos a los que tengan
las siguientes capacidades:
-Utilización de normas u otras estructuras que contengan conocimientos y experiencia
de expertos especializados.
-Deducción lógica de conclusiones.
63
-Interpretación de datos ambiguos.
-Manipulación de conocimientos vagos, es decir, conocimientos afectados por valores
de probabilidad.
Una de las particularidades que hacen especialmente interesantes a los sistemas expertos es el
que separan los conocimientos -reglas, hechos- del procesamiento de los mismos, por lo que es posible
añadir o eliminar información sin cambiar el programa.
Un sistema experto se compone en esencia de los siguientes elementos:
-La base de conocimientos, que contiene el conocimiento de los hechos y la experiencia de
los expertos en un dominio determinado. Contiene todos los hechos, las reglas y los
procedimientos del dominio de la aplicación que son importantes para la solución del problema.
Podemos pensar en ella [SCH88] como una lista de objetos con sus reglas y atributos listados,
definiéndose un objeto como una conclusión que se define por sus reglas asociadas y siendo un
atributo una cualidad específica que, junto con su regla, ayuda a definir al objeto.
-El motor de inferencia, que puede simular la estrategia de solución de un problema tal y
como lo abordaría un experto humano. Es la unidad lógica con la que se extraen conclusiones
64
de la base de conocimientos , según un método fijo de resolución de problemas que está confi-
gurado para imitar el procedimiento de los expertos para solucionarlos. Se pueden establecer
dos amplias categorías de mecanismos de inferencia donde se podrían encuadrar a la mayor
parte de los SE existentes en la actualidad, los de carácter determinista y los de carácter proba-
bilístico.
-El componente explicativo, cuya utilidad es la de explicar al usuario la estrategia de solución
encontrada y el porqué de las decisiones tomadas. Las soluciones descubiertas por los SE
deben de poder ser repetibles tanto por el ingeniero de conocimiento en la fase de comproba-
ción como por el usuario, siendo deseable que durante el trabajo del sistema se conozca en qué
grado de progreso está el procesamiento del problema. Esto es muy difícil de conseguir, no
habiendo sido posible hasta ahora cumplir todos los requisitos de un buen componente explica-
tivo.
-El interfaz de usuario, que hace que éste pueda realizar su consulta al SE en la forma más
cercana al lenguaje natural posible. Establece la forma en la que se presenta al usuario,
debiendo tener la posibilidad de un aprendizaje rápido de su manejo, evitar dentro de lo posible
la introducción de datos erróneos y poder presentar los resultados de una manera clara e
inteligible para el usuario. Es estrictamente necesario el que las preguntas, explicaciones y
respuestas sean comprensibles.
65
-El componente de adquisición, que ofrece ayuda a la estructuración e incorporación del
conocimiento a la base de conocimientos. Debe de tener las siguientes cualidades:
-El conocimiento, es decir, las reglas, los hechos, las relaciones, etc, deben de poderse
introducir de la forma mas sencilla posible.
-Debe permitir una representación clara de todos las informaciones contenidas en la
base de conocimientos, junto a una comprobación automática de la sintaxis.
-Debe de ofrecer la posibilidad de acceder de manera constante al lenguaje de
programación subordinado.
La posibilidad de cumplimiento de todos estos requisitos dependerá de una manera directa
tanto del lenguaje de programación elegido como del hardware asociado.
Visto todo lo anterior, la cuestión es, ¿porqué no confiar la gestión de frecuencias a un
SE?.
Un SE puede utilizar los datos proporcionados por un programa de predicción de las
condiciones de propagación ionosférica a medio y largo plazo, incluir en su base de conocimientos la
forma de actuar y operar una estación de HF por un experto en comunicaciones en los modos en los
que estemos interesados y puede finalmente controlar de forma directa los parámetros que permitan el
66
funcionamiento de un sistema de emisión-recepción, para que pueda realizar un análisis en tiempo real -
RTCE- del conjunto de frecuencias previamente elegidas y establecer la comunicación en el canal más
adecuado.
Este SE se puede realizar mediante un programa escrito en un lenguaje de uso común, tal y
como LISP o PROLOG [BEL87] y utilizarse sobre un ordenador tipo PC, con lo cual el paso de
ordenes al equipo de transmisión se podría realizar a través del dispositivo de salida serie estándar
RS232, siendo recibidas estas órdenes por cualquiera de los equipos transceptores en HF que en la
actualidad están dotados de interfaces adecuadas que le permiten recibir ordenes y dar información por
esta vía.
Las ventajas de una realización de este tipo serían múltiples:
-Tanto el ordenador como el transceptor utilizados son equipos convencionales de uso común y
por consiguiente de bajo precio.
-Los lenguajes de programación LISP y PROLOG están ampliamente divulgados y
profusamente documentados lo cual facilita su uso en la programación del SE. El uso de un
SHELL o núcleo de SE comercial acortaría la fase de desarrollo, pero tendría a su vez el
inconveniente de su elevado coste.
67
-El sistema puede ser utilizado como tal en unas determinadas condiciones, y al variar éstas
seguimos teniendo disponibles de forma separada las capacidades tanto de cálculo del ordena-
dor como las de comunicación del transceptor.
-El precio final del sistema es necesariamente bajo al utilizarse elementos no específicos sino de
uso común, lo cual permitiría su empleo en aplicaciones no intensivas que por tanto no justi-
ficarían el uso de un sistema integrado de alto coste, o donde el presupuesto tenga prioridad
sobre cualquier otro tipo de consideración.
Vemos pues como un sistema como el anteriormente descrito podría aunar los mejores medios
de que disponemos en la actualidad, el análisis de la propagación ionosférica a medio y largo plazo con
la comprobación de la posibilidad de utilización real de las frecuencias predichas junto a la automatiza-
ción real de los enlaces.
68
REFERENCIAS.
[ADA92] Adair, Robert T. & Dennis Bodson, 1992, "A Family of Federal Standards for HF
Radios, QST May 1992, págs. 73-76, American Radio Relay League, Newington,
CT, USA.
[ARR92] The ARRL Handbook. American Radio Relay League. Newington, Conneticut, USA,
1992.
[BEL87] Bell, Doug and Ian Morrey, "Ingeniería del Software aplicada a la Programación". John
Pugh. Anaya Editorial. Madrid, 1987.
[BOD85] Bodson, Dennis, 1985, "The Federal Telecommunication Standards Program", IEEE
Communications Magazine January 1985, págs. 56-62, Piscataway, NJ, USA.
[CCI90a] "CCIR Ionospheric Properties", Report 725-3 in Recommendations and Reports of the
CCIR, 1990, Vol. VI (Propagation in Ionized Media), XVIIth Plenary Assembly, ITU,
Düsseldorf, Alemania.
69
[CCI90b] "CCIR Definitions of Maximum and Minimum Transmission frecuencies",
Recommendation 373-6 in Recommendations and Reports of the CCIR, 1990, Vol.
VI (Propagation in Ionized Media), XVIIth Plenary Assembly, ITU, Düsseldorf,
Alemania.
[CCI90c] CCIR HF Propagation Prediction Method. Report 894-2 in Reports of the CCIR,
1990, Vol. VI (Propagation in Ionized Media), XVIIth Plenary Assembly, ITU, Düs-
seldorf, Alemania.. Düsseldorf, Alemania, 1990.
[CCI90d] CCIR Short-term Forecasting of Critical Frecuencies, Operational Maximum Usable
Frecuencies and Total Electron Contents. Report 888-2 in Reports of the CCIR, 1990,
Vol. VI (Propagation in Ionized Media), XVIIth Plenary Assembly, ITU, Düsseldorf,
Alemania.Düsseldorf, Alemania, 1990.
[CCI90e] CCIR Real-time Evaluation of HF Ionospheric Radio Circuits. Report 889-2 in
Reports of the CCIR, 1990, Vol. VI (Propagation in Ionized Media), XVIIth Plenary
Assembly, ITU, Düsseldorf, Alemania. Düsseldorf, Alemania, 1990.
[CCI90f] CCIR Short-Term Forecasting of Critical Frecuencies, Operational Maximum Usable
Frecuencies and Total Electron Contents. Report 888-2 in Reports of the CCIR, 1990,
Vol. VI (Propagation in Ionized Media), XVIIth Plenary Assembly, ITU, Düsseldorf,
Alemania.
70
[GOO92] Goodman, John M. "HF Communications Science and Technology". Van Nostrand
Reinhold. New York, USA, 1992.
[DAV66] Davies, K. , 1966, "Ionospheric Radio Propagación", Dover Publications, New York,
USA.
[HEL91] Helfert, H.P. & U. Strate. Pactor, Radioteletype with memory ARQ and Data
Compression. QEX, October 1991. Pags. 3-6. American Radio Relay League. Ne-
wington, Conneticut, USA, 1992.
[HEN92] Henry, Bill. Getting Started in Digital Communications. ARRL QST, June 1992.
PAGS. 34- . American Radio Relay League. Newington, Conneticut, USA, 1992.
[MAS87] Maslim, Nicholas, 1987, "HF Communications, A Systems Approach", Pitman,
London, UK.
[NEB88] Nebendahl, Dieter. "Sistemas Expertos. Introducción a la Técnica y Aplicación".
Marcombo S.A. Barcelona, 1988.
71
[SAL92] Salerno, Dennis P. & Thomas F. Washer II, "Desert Storm: Air Assault
Communications", IEEE Communications Magazine January 1992, págs. 36-41,
Piscataway, NJ, USA.
[SCH88] Schildt, Herbert. "Turbo Prolog, Programación Avanzada". Osborne/McGraw-Hill.
Madrid, 1988.
[WAL92] Wallace, Michael A, "HF Radio in Southwest Asia", IEEE Communications Magazine
January 1992, págs. 58-61, Piscataway, NJ, USA.
[WAT70] Watterson, C.C. "Experimental Confirmation of an HF Channel Model". IEEE Trans.
Comm. Tech. COM-18,1970. Piscataway, NJ, USA.
72
NOTAS.
73
Top Related