Das Variometer

als Balun ist eine interessante Anwendung, dessen Kopplung durch Variation der Gegeninduktivität kontinuierlich verändert werden kann. Es besteht aus zwei oder mehr Spulen, die magnetisch gekoppelt sind und in der einfachen Ausführung eine feststehende Primärspule und eine drehbare Sekundärspule hat. Durch das Verdrehen der Sekundärspule, relativ zur Primärspule, ist der Koppelgrad von 0 bis 1 möglich.

Ein Variometer eignet sich hervorragend als Balun zur Symmetrierung in KW-Antennenanlagen. Anders als ein gewickelter Luft-Balun erlaubt das Variometer eine feinstufige Veränderung des Koppelgrades, was besonders bei wechselnden Frequenzen oder unterschiedlichen Impedanzen von Vorteil ist.

Das Variometer hat Verluste, die durch die Güte der Induktivitäten beschrieben wird, es kann nicht in Sättigung gehen und hat einen brauchbaren Wirkungsgrad, weil immer beide Induktivitäten – unabhängig von der Gesamtinduktivität – im Eingriff sind.

In der Amateurfunktechnik findet das Variometer Anwendung als veränderliche Induktivität in Anpassnetzwerken und als Balun, wobei die Nutzung als Balun eine stabile mechanische Konstruktion erfordert, insbesondere der drehbare Teil muss robust und präzise und mit guten Schleifkontakten ausgerüstet sein, um eine gleichmäßige Funktion zu gewährleisten und um die HF-Ströme über die Schleifer zu leiten.
Besonders geeignet sind die Variometer aus russischer Fertigung, die oft auf den Flohmärkten angeboten werden und einen Koppelgrad von k = O,94 erreichen.

Die optimale Antennenanlage besteht aus: Transceiver, asymmetrisches LC- Anpassnetzwerk, Variometer als Balun, Hühnerleiter und Antenne, wobei der Balun galvanisch getrennt oder als PUT mit galvanischer Verbindung zwischen Antennen, Zuleitung und Anpassnetzwerk möglich ist.
Natürlich kann ein Variometer auch als veränderliche Induktivität mit diversen Möglichkeiten der Zusammenschaltung von primärer und sekundärer Induktivität in Reihe und beide parallel eingesetzt werden.

Die o.g. Variometer aus russischen Beständen sind für größere Leistungen ausgelegt und haben etwa die Dimension eines Würfels von 10 cm Kantenlänge, was im Shack sicherlich kein Hindernis darstellt.

Ein Variometer als Balun ist eine gute Symbiose von elektromagnetischer Theorie und praktischer Ingenieurskunst. Es verbindet die Notwendigkeit einer präzisen Impedanz Anpassung mit dem Vorteil der vielseitigen Anwendungen.

Der Einsatz in der Hochfrequenztechnik und der Funkkommunikation unterstreicht den Wert als unverzichtbare Komponente – auch in heutigen Antennensystemen. Variometer wurden schon im 2. WK in den Würfelbausteinen E10k, S10k, E10 k3, usw. und im Sender Lo40k39 u.a. zur Anpassung einer Langdrahtantenne verwendet – es ist also nichts Neues.

Wer mehr wissen will, sei auf meinen Beitrag über Variometer hingewiesen.

Dr. Walter Schau, DL3LH

Magnetische Kopplung

Magnetisch gekoppelte Induktivitäten oder Spulen sind elektrische Komponenten, die elektrische Energie durch magnetische Felder von einer Primär- in eine Sekundärspule oder mehrere Spulen überträgt. In solchen Systemen treten immer Verluste auf, die durch physikalische Prinzipien und geometrische Umstände verursacht werden.
Hauptverlustbringer sind die Kupferverluste, die Wirbelstromverluste, die Hystereverluste, die dielektrischen Verluste und die Verluste durch mangelhafte Kopplung der Spulen. Während die ersten 4 reale Verluste sind, sind Koppelverluste keine Verluste, die in Wärme gewandelt werden.

Ein Magnetfeld entsteht nur durch einen Stromfluss. Ohne Strom gibt es keine Energieübertragung. Kupferverluste entstehen durch den elektrischen Widerstand der Wicklungen, wenn Strom durch die Spulen fließt. Werden Drähte auf magnetischem Kernmaterial gewickelt, entstehen Wirbelstromverluste durch wechselnde magnetische Felder. Daher ist die Wahl des richtigen Kernmaterials von großer Wichtigkeit. Ein unbekannter Kern aus der Bastelkiste sollte in der Bastelkiste bleiben. Alle Kernverluste sind abhängig von der Frequenz, dem Maximalwert der magnetischen Induktion, der Temperatur, des Materials und des Volumens. Es ist daher völlig unsinnig mehrere Kerne aufeinander zu kleben, weil damit das Volumen und die Verluste steigen.

Koppelverluste sind keine Verluste im eigentlichen Sinne und beschreiben die Energie, die nicht perfekt zwischen den Spulen gekoppelt wird. Dieser Kopplungsverlust bezeichnet den Teil des magnetischen Flusses, der nicht zur Kopplung zwischen Primär- und Sekundärspule/n führt, wenn das magnetische Feld außerhalb des beabsichtigten Pfads entweicht, weil die magnetische Kopplung zwischen Primär- und Sekundärwicklung nie perfekt ist. Ein Teil des Magnetflusses entweicht als Streufluss und ist besonders relevant in Anwendungen mit hoher Leistungsdichte und wird durch Optimierung des Wicklungsdesigns und die Verringerung des Abstandes zwischen den Wicklungen minimiert.

Bei Wechselstrom konzentriert sich mit wachsender Frequenz der Stromfluss auf die Oberfläche der Leiter, was den effektiven Widerstand erhöht und als Skin Effekt bezeichnet wird. Benachbarte Leiter, wie bei einer Wicklung, beeinflussen einander und es kommt zu einer Verschiebung der Stromdichte, wodurch der Widerstand und die Verluste steigen – bekannt als Proximity-Effekt.

Um die Verluste in Antennenanlagen zu minimieren, kann zur Symmetrierung ein 1:1 oder ein 1:4 PUT- Luft Transformator eingesetzt werden, mit der Folge, dass nur Kupfer-, Koppel- und Haut- und Proximity Verluste verbleiben und dem Vorteil, dass beide Arten die gleichen Leerlaufgüten aufweisen.

Die Gegeninduktivität M ist ein Maß dafür, welche Spannung in dem Sekundärkreis induziert wird, wenn sich im Primärkreis der Strom nach der Zeit ändert. Die Änderung verringert immer die Ursache – Lenzsche Regel – die besagt, dass der durch elektromagnetische Induktion hervorgerufene Strom stets so gerichtet ist, dass er die Ursache seiner Entstehung verringert.
M hängt von der räumlichen Anordnung der Spulen im Magnetkreis ab. Enge Wicklungen sind wesentliche Maßnahmen zur Minimierung dieses Effekts. Eine Einkoppel-Spule außen auf einer Spule anzuordnen – wie bei bekannten Antennen Kopplern – zeugt nur von der Unkenntnis der magnetischen Zusammenhänge, denn 95 Prozent des Magnetfeldes einer Spule befindet sich im Innern der Spule.

Kupferverluste entstehen durch den ohmschen Widerstand der Spulendrähte, der vom Material und der geometrischen Struktur der Leiter abhängt. Die Verlustleistung ist P = I^2 mal R, mit R als der effektive Widerstand. Längere Wicklungen führen zu höheren Widerständen und zu höheren Verlusten, während ein größerer Querschnitt die Verluste reduziert. Kupfer mit hoher Reinheit minimiert den spezifischen Widerstand und die Verluste.
Die Leerlaufgüte einer Spule ist abhängig von der Frequenz und dem ebenfalls frequenzabhängigen Verlustwiderstand und erreicht selten Werte Q > 100.

Alle Verlustarten, außer den Koppelverlusten, führen letztlich zur Wärmeentwicklung, was die thermische Belastung erhöht. Daher ist eine effektive Wärmeableitung entscheidend für die Stabilität und Langlebigkeit der Komponenten. So sollte ein Ringkern niemals mit Teflon Band bewickelt werden, bevor die Wicklung aufgebracht wird, weil dann die Wärme nicht abfließen kann und evtl. zur Zerstörung des Kernes führt. Werden Kerne dabei in die Sättigung getrieben, verliert der Trafo alle normalen Eigenschaften.

Verluste in magnetisch gekoppelten Spulen sind ein komplexes Zusammenspiel verschiedener physikalischer Phänomene. Das Verständnis und die gezielte Minimierung dieser Verluste sind Ziel jeder Berechnung, insbesondere in Transformatoren, Motoren und anderen elektromagnetischen Anwendungen wie Balun und Co. Ein Balun muss – auch ein Luftbalun immer berechnet werden – weil die Verluste auch immer noch von den äußeren frequenzabhängigen Lastimpedanzen abhängen und bei der Optimierung berücksichtigt werden müssen.
Daher Finger weg von Kochrezepten. Hier hilft auch kein VNA, weil alle Messungen von S21, S12 wertlos sind, da immer in einem 50 Ohm System gemessen wird, das nichts mit der technischen Wirklichkeit zu tun hat,

Wer mehr wissen will, sei auf die diversen Beiträge von mir zu diesem Thema verwiesen.

Dr. Walter Schau, DL3LH

MIMO-Antennen

Technik ist eine neue Technologie, die die drahtlose Kommunikation revolutioniert hat. MIMO ist eine Abkürzung für „Multiple Input, Multiple Output“ und ist eine bahnbrechende Technologie in der drahtlosen Kommunikation, die die Effizienz und Kapazität von Netzwerken erhöht. MIMO nutzt mehrere Sende- und Empfangsantennen, um gleichzeitig verschiedene Datenströme zu übertragen und ist ein Schlüsselelement moderner Kommunikationssysteme wie WLAN, 4G, 5G und 6G.

MIMO basiert auf dem Prinzip, mehrere Antennen sowohl auf der Sender- als auch auf der Empfängerseite zu verwenden. Durch den Einsatz von parallelen Kanälen wird die verfügbare Bandbreite optimal genutzt und durch ausgeklügelte Algorithmen zur Signalkodierung und – Dekodierung, um die einzelnen Datenströme voneinander zu unterscheiden und die Leistung zu maximieren, unterstützt.
Ein wesentlicher Vorteil von MIMO ist, mit dem Mehrwegeeffekt umzugehen, denn es werden Funksignale von Hindernissen wie Gebäuden, Bäumen und Wänden reflektiert, wodurch Interferenzen und Datenverluste entstehen können. MIMO-Technologie nutzt gerade diese Reflexionen aktiv, um zusätzliche Datenströme zu übertragen.
Die Arten von MIMO-Systemen sind – SISO – Single Input, Single Output – traditionelle Kommunikation mit nur einer Antenne auf beiden Seiten wie im Amateurfunk, MISO – Multiple Input, Single Output – mehrere Senderantennen und eine Empfängerantenne, SIMO – Single Input, Multiple Output – eine Senderantenne und mehrere Empfängerantennen, MIMO – mehrere Antennen auf beiden Seiten, was die höchste Effizienz und Leistung bietet. MIMO in Mobilfunknetzwerken wie 4G- und 5G-Systemen erhöhen die Netzkapazität und bieten schnellere Datenübertragungs-Geschwindigkeiten. Massive MIMO, eine Weiterentwicklung, nutzt Hunderte von Antennen, um mehrere Benutzer gleichzeitig zu bedienen.
Vorteile sind die parallele Datenübertragung mit einer besseren Nutzung der Bandbreite, eine verbesserte Zuverlässigkeit durch die Mehrwegeverarbeitung und eine robuste Signalübertragung – auch in schwierigen Umgebungen und eine größere Kapazität der Netzwerke können mehrere Benutzer gleichzeitig bedienen und das ohne Qualitätsverlust.

Mit dem Aufkommen der 6G-Technologie wurde MIMO weiter entwickelt, um noch höhere Frequenzbänder zu nutzen und ultradichte Netzwerke zu unterstützen.
Massive-MIMO-Systeme werden durch KI und maschinelles Lernen ergänzt, um die Effizienz weiter zu steigern. Die Technologie wird auch für die Kommunikation in Smart Cities, autonomes Fahren und die Industrie 4.0 entscheidend sein.

MIMO-Antennen sind mehr als nur ein technischer Fortschritt – sie sind Grundlage für die drahtlose Kommunikation der Zukunft. Mit dem Verständnis ihrer physikalischen Prinzipien, mathematischen Modellen und praktischen Anwendungen wird deutlich, dass diese Technologie unverzichtbar ist.
MIMO bleibt ein Kernstück der Entwicklung bis hin zu einer vollständig vernetzten Welt. Die MIMO Technik wird auch den Amateurfunk revolutionieren, weil tausende Stationen und Antennen bei den Ömern auf eine effektivere Nutzung warten, mit der Folge, dass Endstufen verschrottet werden können und die T2FD Antenne in der Kurz- oder Lang-Form zur Anwendung kommt.

Dr. Walter Schau, DL3LH

Laplace-Transformation

ist ein einfaches mathematisches Werkzeug, das eine Differentialgleichung in eine algebraische Gleichung überführt und so die Analyse und Lösung komplexer Systeme erlaubt. Die LT wandelt eine Zeit Funktion f(t) in eine Funktion F(s) im Bildbereich um, dabei ist s eine komplexe Variable.

In der Physik treten immer Differentialgleichungen auf, wie bei der Analyse elektrischer Schaltkreise oder mechanischer Systeme. Die Laplace-Transformation vereinfacht diese, indem sie sie in lineare Gleichungen wandelt.

In der Signalverarbeitung wird die LT verwendet, um Signale und Systeme zu analysieren und zu modellieren, insbesondere in Kombination mit der Rücktransformation in den Zeit Bereich.

Die LT-Transformation ist Grundlage der SDR Technik und aus der modernen Wissenschaft nicht mehr wegzudenken. Die Fähigkeit, Zeit- und Bildbereiche zu verknüpfen hat revolutionäre Fortschritte in der Ingenieurwissenschaft, Signalverarbeitung und der Mathematik ermöglicht, in dem sie scheinbar unlösbare Gleichungen in einfache algebraische Ausdrücke wandelt.

So wird die Ableitung einer Zeit Funktion im Bildbereich zu der einfachen Funktion sF(s) – f(0) und vereinfacht die Lösung von Differentialgleichungen, da aus der Differentiation eine algebraische Beziehung entsteht, die leicht lösbar ist.
Wird eine Funktion im Zeit Bereich verschoben, ergibt das im Bildbereich eine einfache Multiplikation mit der e-Funktion. Auch die Faltung zweier Zeit Funktionen f(t) * g(t) erzeugt im Bildbereich nur eine einfache Multiplikation.

Die Inverse Laplace-Transformation erfordert entweder das Anwenden des Residuen Satzes, der einfachen Partialbruchzerlegung oder Tabellen, um zur ursprünglichen Funktion f(t) zurückzukehren.

Praktische Beispiele sind die Untersuchung von Dämpfung und Resonanz in Schwingungssystemen, das Design von Filtern und Modellen zur Übertragung von Signalen sowie der Entwurf stabiler Regelsysteme.

Die Laplace-Transformation ist das Bindeglied zwischen Theorie und Praxis, deren Mächtigkeit in der Fähigkeit liegt, komplexe Probleme auf elegante Weise zu vereinfachen – von der Differentialgleichung bis hin zu mechanischen Schwingungen von Lüfterschaufeln und Turbinen.

Literatur:

  1. Laplace-, Fourier- und z-Transformation von Hubert Weber und Helmut Ulrich.
  2. Einführung in Theorie und Anwendung der LT von Gustav Doetsch. Ein Klassiker, der die
    Grundlagen und Anwendungen der Laplace-Transformation detailliert erklärt.
  3. Holbrook: Laplace-Transformationen. Ein Lehrbuch für Elektroniker ist Teil der Uni-Texte-

Reihe und bietet eine Einführung in die Theorie und Anwendungen der LT, insbesondere für Studierende der Elektrotechnik und kann von jedem Funkamateur mit Grundkenntnissen in der Mathematik verstanden werden. Meiner Meinung nach die beste Literatur unter den 3 Hinweisen.

Natürlich kommt der normale Amateur auch ohne diese Grundkenntnisse aus, er kauft den fertigen SDR Transceiver und hat keine Ahnung, was hinter der Frontplatte so alles abläuft. Die Einstellungen der SDR Parameter kann dem Netz entnommen werden und ähnelt mehr einem Blindflug ohne Instrumente. Das ist moderner Amateurfunk und kein Versuchsfunk mehr.
Wie sagte DJ9LZ, Klaus aus Stade: „Nur noch Frontplatten Snacker“.

Dr. Walter Schau, DL3LH

PLL


der oder die Phase-Locked Loop besteht aus mehreren Komponenten, deren Optimierung für die Funktion entscheidend ist. Der Phase Detector – PD – erzeugt ein Signal, das proportional zur Phasendifferenz zwischen dem Eingangssignal und dem Rückkopplungssignal ist. Das folgende Loop Filter entscheidet über die Schleifenbandbreite und beeinflusst die Stabilität des Gesamtsystems. Der Spannung gesteuerte Oszillator – VCO – bestimmt, wie stark die Frequenzänderung auf Spannungsschwankungen reagiert.

Wird der PLL als Regelkreis dargestellt, ähnelt das Blockschaltbild einem linearen System mit Rückkopplung. Die Laplace-Darstellung ergibt dann die Gesamtübertragungsfunktion, wobei die Stabilität der Schleife durch die Position der Pole in der Übertragungsfunktion bestimmt wird. Zum Verhalten der Pole ist das Wurzelortskurven Verfahren üblich.

Ein einfaches PI-Loop-Filter erhöht die Stabilität, wobei die Zeitkonstante in der Übertragungsfunktion die Geschwindigkeit beschreibt, mit der der PLL sich einloggt. Eine kleine Zeitkonstante führt zwar zu schnellerem Einlocken, erhöht jedoch das Rauschen und die Rauschempfindlichkeit, wobei ein schmales Loop-Bandfilter das Phasenrauschen reduziert, aber zu einer schmalen Bandbreite führt und die Lock-In-Zeit verlängert.
Der Pull-In-Bereich ist der Bereich, der die maximal erlaubte Frequenzdifferenz beschreibt, die das System korrigieren kann. Der Hold-In-Bereich gibt an, in welchem Bereich der PLL bei Störungen stabil bleibt, nachdem er verriegelt ist.
Das Phasenrauschen ist ein Grundproblem beim PLL- es zu minimieren ist Aufgabe der Dimensionierung von VCO, Schleifenfilter und Optimierung der gesamten Übertragungsfunktion im Laplace Bereich.

Moderne Systeme wie ADPLLs – All-Digital Phase-Locked Loops – ersetzen zunehmend die analogen Komponenten durch Algorithmen, um Flexibilität und Präzision zu steigern.
PLLs werden in Mobilfunkbasisstationen verwendet, um Frequenzen im GHz-Bereich stabil zu halten. Sie synchronisieren Sender und Empfänger und verhindern Phasen-Drifts, die in Satellitensystemen auftreten können.

In SDR Anwendungen werden digitale PLLs verwendet, um Basisbandsignale zu erzeugen und flexibel auf verschiedene Frequenzbänder zuzugreifen zu können.

Wer mehr wissen möchte, sei auf das Buch von Michael H.W. Hoffmann und das von Pestel/Kollmann: Grundlagen der Regelungstechnk, hingewiesen.

Dr. Walter Schau, DL3LH

IMD3


ist die Intermodulationsverzerrung dritter Ordnung und ein Kriterium zur Beurteilung der Linearität von Verstärkerstufen bei Großsignal Aussteuerung.
Linear-Endstufen, die es nur in der Theorie gibt, werden in der HF- und NF-Technik eingesetzt.
Mathematisch gesehen entstehen diese Verzerrungen durch den nicht linearen Charakter der aktiven Bauelemente, der dazu führt, dass neue Frequenzkomponenten entstehen, die nicht im ursprünglichen Eingangssignal vorhanden waren.

Werden zwei Sinussignale mit den Frequenzen f1 und f2 in einen Verstärker eingespeist, erzeugen die nicht linearen Kennlinien der Bauteile zusätzliche Frequenzkomponenten nach einer Taylor-Reihenentwicklung:
Uout = a1 Uin + a2 Uin ^2 + a3 Uin^3 + usw.

Für den kubischen Term ergibt sich nach Einsetzen von Uin und entsprechender trigonometrischer Zerlegung die Intermodulationsprodukte:
2f1 – f2 und 2f2 – f1, die aufgrund der kubischen Nichtlinearität dominieren und spektral nahe den Eingangsfrequenzen f1, f2, liegen, besonders stören und nicht durch Filter zu beseitigen sind.

Der IMD3 ist abhängig von der Aussteuerung der nicht linearen Kennlinie, wie auch der dynamische Innenwiderstand vom Stromflusswinkel abhängig ist und keine konstante Größe, was besonders bei einer Leistungs-Reduzierung beachtet werden muss. Wird die Ansteuerung reduziert ändern sich sämtliche HF-Parameter der Endstufe incl. der notwendigen Arbeitspunktanpassung, der auch noch von der Temperatur der Bauteile abhängig ist.

Zur Verringerung des IMD3 wurden Gegentakt-Stufen, die durch ihre symmetrische Betriebsweise einige nicht lineare Verzerrungen vermindern, da sich die ungeradzahligen Terme der Taylor-Reihe gegenseitig aufheben.
Dazu gehören auch die Verwendung von Si -Transistoren, GaAs- oder auch GaN-Bauelemente in Parallelschaltung mit ausgesuchten, gleichen Kennlinien.

Heute werden digitale Techniken – Predistortion – eingesetzt. Dabei wird das Ausgangssignal analysiert und dem Eingangssignal ein inverses Verzerrungsmuster hinzugefügt und so die spektrale Reinheit des Signals erheblich verbessert.

Zur Bewertung von IMD3 wird der „Third-Order-Intercept Point“ verwendet. Dies ist ein theoretischer Punkt, der aus der Schnittstelle der Extrapolation der Verstärkungsgerade des gewünschten Signals und der Intermodulationsprodukte berechnet wird. Der TOI gibt Auskunft darüber, wie ein System starke Signalen verarbeitet, und wird in dBm angegeben.

Zur Bestimmung der IMD3 werden zwei unkorrelierte Sinussignale über einen Powersplitter in die Endstufe eingespeist und das Ausgangssignal als Funktion der Aussteuerung mit einem Spektrum Analysator untersucht. Der IMD3 ist dann der 10er Logarithmus der Leistungen des IMD3 Produktes zur Leistung des eingespeisten Signals. Gemessen wird an einer genau definierten reellen Last und ist dann nicht identisch mit dem IMD3 im aktiven Betrieb mit frequenzabhängigen Lasten. Hier hilft nur die moderne digitale Technik mit der Predistortion.

Wer mehr wissen will, sei auf die Beiträge: „Messungen an Leistungsstufen“ und „Leistungsstufen im KW Bereich“ verwiesen.
IMD3 Erkenntnisse können leicht mit dem Programm LTspice erworben werden.

Dr. Walter Schau, DL3LH

Desinteresse


oder das schwindende Interesse an der HF-Technik und einer optimalen Antennenanlage ist offensichtlich. Funkamateure waren einst Pioniere, die sich mit Leidenschaft ihrer Ausrüstung widmenden, wobei die Antennenanlage als das Herzstück galt.

Die Zeiten haben sich geändert. Heute steht der Transceiver im Mittelpunkt und die Antenne ist Nebensache. Ganz langsam hat sich Desinteresse an der Optimierung der Antennenanlagen eingeschlichen. Man braucht ja nur mal einem QSO zu lauschen. Da wird über ein tolles Signal, das Mikrofon, die Audi Qualität, die richtige Einstellung des Equalizers, die Bilder bei QRZ.com, der IMD 3 und das was man im Wasserfall sieht, schwadroniert.

Gründe für das Desinteresse könnte der technologische Fortschritt sein. Mit der Entwicklung von SDR richtete sich das Interesse auf die vielen Möglichkeiten, die die Software bietet. Dabei wird vergessen, dass der beste Transceiver nichts ist ohne eine gut funktionierende Antennenanlage.

Das Internet und der Mobilfunk machen uns abhängig und unabhängig vom eigenen Antennensystem. Auch WebSDR hat sicherlich dazu beigetragen, geringes Gewicht auf die eigene Antennenanlage zu legen. Vorgefertigte Antennenlösungen diverser Hersteller verzichten auf individuelle Lösungen und den Selbstbau.

Das Hobby selbst hat sich stark verändert – während früher der Fokus auf der technischen Innovation lag, steht heute der soziale Aspekt im Vordergrund, denn viele Funkamateure wollen nur quatschen, ohne sich tiefgehend mit der HF-Technik dahinter zu beschäftigen. Der Trend geht dahin, Antennen aus der Schachtel zu verwenden, anstatt Zeit und Mühe in die Optimierung der Antennenanlage zu investieren. Die geringen Anforderungen zum Erwerb einer Lizenz weisen den falschen Weg.

Ein Grund für das schleichende Desinteresse an der HF-Technik ist vermutlich der allgemeine Zeitmangel. In unserer hektischen Welt fällt es vielen schwer, neben Beruf, Familie und anderen Verpflichtungen noch die Muße zu finden, sich intensiv mit komplexen technischen Aspekten wie der Antennenoptimierung zu befassen. Das Hobby wird auf die reine Nutzung reduziert, anstatt sich mit dem Hobby zu beschäftigen.

Viele Funkamateure leben in städtischen Gebieten, wo Platzmangel und baurechtliche Vorschriften es uns schwer machen umfangreiche Antennenanlagen zu installieren und führt zu Notlösungen mit weniger leistungsfähigen Antennenanlagen, die kaum Raum für Optimierung bieten.

Gleichzeitig hat der Austausch von Wissen unter Funkamateuren stark nachgelassen. Einst war es üblich, Erfahrungen und Tipps zur Antennenoptimierung innerhalb der Gemeinschaft zu teilen, was heutzutage zunehmend verloren gegangen scheint. Selten hört man noch technische Gespräche auf den Bändern, was die Bereitschaft zur Verbesserung der eigenen Antennenanlage weiter verringert.

Das Desinteresse an einer optimalen Antennenanlage führt zu einem allgemeinen Rückgang der Innovation in der Amateurfunktechnik. Ohne den Antrieb zur Optimierung drohen wichtige technische Kenntnisse und Fertigkeiten verloren zu gehen, die in der Vergangenheit die Grundlage für den Fortschritt im Bereich des Amateurfunks waren.

Bleibt die Frage, wie man diesem Trend entgegenwirken kann. Ich war mal überzeugt, dass meine technischen Beiträge etwas ändern würden, weit gefehlt. Die werden zwar reichlich per Download frequentiert, nur haben sie in den letzten 30 Jahren nichts oder fast nichts bewirkt.

Auch Gemeinschaftsprojekte seitens der Vereine mit ihren Workshops und Veranstaltungen haben – so habe ich den Eindruck – wenig bis gar nichts erreicht. Veranstaltungen wie Weinheim und Treffen am Bodensee mit einer Masse an Menschen, die sich angeblich für Amateurfunk interessieren, bringen letztendlich wenig. Ebenso die Vorträge erfahrener Funkamateure und Kenner der Materie werden gerne in Anspruch genommen, nur es fehlt dann an der Umsetzung der gewonnenen Erkenntnisse. Dabei ist es doch wichtig, Informationen an jüngere Generationen weiterzugeben, um das Interesse an der HF-Technik wiederzubeleben oder wach zu halten.

Vielleicht spielt auch die öffentliche Wahrnehmung des Amateurfunks eine Rolle, weil es nicht mehr gelingt, die Faszination und Bedeutung des Amateurfunks dem Normalbürger darzustellen. Einst konnten Interessierte motiviert werden, sich tiefergehend mit den technischen Aspekten, insbesondere der Antennenoptimierung, zu beschäftigen. Das war eine spannende Zeit, wir haben viel über HF gelernt und manche haben es zu ihrem Beruf gemacht.

Dr. Walter Schau, DL3LH

Ist SSB noch zeitgemäß?

Auf der Kurzwelle ist die Sprachübertragung SSB vorherrschend, das Gleiche im See-, und Flugfunk, in militärischen Anwendungen und im Amateurfunk. Mit der Entwicklung von SDR wurden die früheren Empfänger-Konzepte unbrauchbar. Dabei wird das analoge SSB in ein digitales Signal gewandelt und mit mathematischen Methoden weiter verarbeitet. Die Wandlung eines analogen Signals in eine digitales hat so seine Tücken und Nachteile. Warum nicht gleich ein digitales Signal senden und den DA-Wandler sparen. Daher haben sich vorerst auf den höheren Amateurfrequenzen die digitale Revolution mit D-STAR u.a. etabliert.

DMR – Digital Mobile Radio – ist ein Standard, der ursprünglich für kommerzielle Anwendungen entwickelt wurde, aber auch im Amateurfunkbereich populär ist, eine gute Sprachqualität und effiziente Nutzung der Frequenzen bietet.

System Fusion – C4FM – unterstützt sowohl digitale als auch analoge Sprachübertragung, integrierte digitale und analoge Repeater für nahtlose Kommunikation. Vorteile sind – bessere Sprachqualität durch fortschrittliche Sprachkodierung AMBE+2 – ein von Yaesu entwickelter Standard. Das System bietet eine einfache Bedienung und gute Sprachqualität.

D-STAR – Digital Smart Technologies for Amateur Radio – DV-Modus – Digital Voice Kombination von digitalisierter Sprache und Datenübertragung für zusätzliche Informationen. Wird hauptsächlich im 23-cm-Band verwendet für Hochgeschwindigkeits-Datenübertragungen. Wurde von Icom entwickelt.

NXDN ist ein weiterer, digitaler Sprachübertragungsstandard, der hauptsächlich in kommerziellen Anwendungen verwendet wird, aber auch im Amateurfunk sich langsam durchsetzt. FDMA – Frequency Division Multiple Accesse, wird hauptsächlich in kommerziellen Anwendungen verwendet, aber auch im Amateurfunkbereich, robust und effizient, mit guter Sprachqualität und Störfestigkeit.

M17 verwendet eine 4-Level-Frequenzumtastung. M17 ermöglicht die Übertragung von Niedriggeschwindigkeitsdaten zusammen mit Sprache, wie GNSS-Positionsdaten und ist ein Open-Source-Protokoll und eine flexible Alternative für die digitale Sprachkommunikation im Amateurfunk.

Die Vorteile der digitalen Sprachübertragung im Amateurfunk sind: Verbesserte Sprachqualität und klarere und verständlichere Sprache als analoge Übertragungen wie SSB. Die bessere Spektrum-Effizienz nutzt das verfügbare Frequenzspektrum effizienter aus und ermöglicht es mehren Nutzern auf demselben Kanal zu arbeiten nebst Datenübertragungsmöglichkeiten, die im Bereich der Kurzwellen noch durch gesetzliche Regelungen ausgebremst werden.

Amateurfunk ist Versuchsfunk – es war einmal.

Dr. Walter Schau, DL3LH

Der Antennen Gewinn

ist ein Maß, wie gut die Antenne Energie in eine bestimmte Richtung abstrahlt, im Vergleich zu einer idealen – isotropen – Antenne, die Energie gleichmäßig in alle Richtungen abstrahlt.

Der Antennengewinn bezieht sich immer auf das Fernfeld, also auf den Bereich, in dem die elektromagnetischen Wellen ebene Wellen sind, also weit genug von der Antenne. Das Fernfeld beginnt ab einer Entfernung von etwa 3 bis 4 Lambda und nicht im eigenen Garten, wie oft von YouTubern propagiert oder von den kostenlosen Antennen Berechnungs-Programmen berechnet wird.

Antennen mit Gewinn übertragen Signale über größere Entfernungen, ohne die Signalqualität zu verringern oder die Sendeleistung zu erhöhen und helfen Störungen zu minimieren, weil die empfangene Signalstärke erhöht wird.
Der absolute Gewinn in dBi wird im Vergleich zu einer isotropen Antenne berechnet, während der relative Gewinn – dBd – im Vergleich zu einer Dipolantenne erfolgt. Der Unterschied ist 2,15 dB und zugleich der Unterschied zwischen EIRP und ERP.

Das Nahfeld einer Antenne ist stark inhomogen und der Antennengewinn in diesem Bereich sinnlos. Stattdessen wird die Nahfeldkopplung betrachtet wie bei einem Bandfilter mit kapazitiver Kopplung. Daher sind auch Messungen in geringem Abstand von der Antenne für die SE Nonsens.

Der Wirkungsgrad einer Antenne bestimmt, wie gut die Antenne die zugeführte elektrische Leistung in elektromagnetische Energie wandelt. Er wird als Verhältnis der abgestrahlten zur zugeführten Leistung definiert und berechnet sich aus dem Realteil des Strahlungswiderstandes Rs und dem Verlustwiderstand Rv und ist unabhängig davon, wo die Antenne eingespeist wird. Er liegt in der Größenordnung von 70 bis 90 %, es sei denn, es wird den Empfehlungen der YouTube Jünger vertraut, die Feldkabel und Stahldraht als das Non Plus Ultra bezeichnen. Ein hoher Wirkungsgrad bedeutet, dass die Antenne einen Großteil der zugeführten Wirkleistung abstrahlt und nur wenig Energie in Form von Wärme gewandelt wird.

Beispiel: Die zugeführte Leistung sei 100 Watt und strahlt davon EIRP 80 Watt ab. Der Wirkungsgrad ist 80 %. Ist der Strahlungs-Widerstand bekannt, kann daraus der Verlustwiderstand – bezogen auf den Strahlungswiderstand im Speisepunkt – berechnet werden. Ist bei einem endgespeisten Langdraht Rs = 1000 Ohm, dann ist der Verlustwiderstand Rv = 250 Ohm und bei einem Dipol mit einem Rs = 60 Ohm der Rv = 15 Ohm – berechnet mit 80 Prozent.
Der Wirkungsgrad wird durch Verluste im Antennen Material, der Bodenbeschaffenheit und auch den Skin Effekt verursacht, der den Stromfluss in einem Leiter so verteilt, dass die Stromdichte an der Oberfläche des Leiters am größten ist und mit zunehmender Tiefe im Leiter exponentiell abnimmt und so mit zunehmender Frequenz der effektive Querschnitt des Leiters reduziert wird und sich auch der Wirkwiderstand des Leiters erhöht.

Die Verwendung von HF-Litzen aus vielen dünnen voneinander isolierten Drähten ist nur sinnvoll bei tiefen Frequenzen um die Spulengüte zu erhöhen. Die obere Frequenzgrenze liegt in etwa im Bereich der Mittelwellen. Versilberung von massiven Kupferdrähten/Rohren erhöht die Leitfähigkeit und verringert die Rauheit und Beschaffenheit der Oberfläche, mit der Folge einer verbesserten Spulengüte.

Nicht nur bei Hochfrequenz, sondern schon bei Haushalts Wechselstrom tritt der Skin Effekt auf, daher werden hohle Leiter oder rechteckige Stromschienen eingesetzt, die 10 % weniger Verluste haben und in diesem Bereich von besonderer Bedeutung sind, wie auch bei Rollspulen in Anpassnetzwerken für größere Leistungen.

Wer mehr wissen will, sei auf den Beitrag: „Hauteffekt“ und „Alu im Antennenbau“ hingewiesen.

Dr. Walter Schau, DL3LH

Koaxkabel

war in den frühen Tagen des Amateurfunks – im Bereich der Kurzwellen als Antennenzuleitung – die erste Wahl, weil das Augenmerk auf resonante Antennen lag, deren niederen Impedanz bei der Serienresonanz in der Nähe des Wellenwiderstandes der verwenden Kabel liegt. Antennen wie W3DZZ, G5RV, ZS6BKW, FD4, der Langdraht usw. waren die bevorzugten Antennenformen, die teilweise mit aller Gewalt – durch Einfügen von konzentrierten Elementen in die Antenne – auf Resonanz gequält wurden, wie die W3DZZ.

Amateure – ganz allgemein – haben dann entdeckt, dass bei Fehlanpassungen zusätzliche Verluste durch Stehwellen entstehen und es wurden immer verlustärmere Koaxkabel favorisiert.

Erst relativ spät entdeckten dann die Amateure die Vorteile der Zweidrahtleitung und ersetzten die klobigen Koaxialkabel. Eine 600 Ohm ZDL hat bei 3 MHz etwa 0,1 dB/100 m, bei 10 MHz etwa 0,2 dB/100 m und bei 30 MHz etwa 0,4 dB/100 m Dämpfung. Im Vergleich haben Koaxkabel bei 50 MHz etwa 2-3 dB/100 m, bei 100 MHz etwa 3-5 dB/100 m, bei 400 MHz etwa 7-9 dB/100 m, bei 1 GHz etwa 12-15 dB/100 m und 2 GHz etwa 18-22 dB/100 m.

Hauptvorteil des Koaxialkabels ist die höhere Störfestigkeit, während eine ZDL anfälliger ist für Störungen, weil die parallelen Drähte als Antenne wirken können.
Koaxialkabel bieten außerdem eine größere Frequenz-Bandbreite, sind mechanisch robuster, dafür aber relativ schwer, was bei einem Dipol zu erheblichen Kräften in den Abspann Seilen sorgt.

Koaxkabel sind einfacher zu verlegen und es gibt eine Vielzahl von Steckern und Verbindungen, während jeder Amateur seine eigene Lösung für den Anschluss der ZDL finden muss. Koaxkabel sind anfällig gegen Feuchtigkeit bis hin zur Unbrauchbarkeit.

Die Nutzung von Koaxialkabeln als Antennenzuleitung auf den kurzen Wellen hat im Amateurfunk wenig Vorteile, während im Profi Bereich bei den Rundfunk- und Fernseh-Sendern immer noch Koaxkabel – Gas gefüllt – vorrangig sind um die großen Leistungen zu übertragen, dennoch werden in Hochleistungs – Sende-Anlagen in zunehmenden Maße Reusen Leitungen für Leistungen im Mega Watt Bereich und bei großer Entfernung zwischen Sender Einheit und Antenne, eingesetzt.

Koaxkabel sind asymmetrisch gegen Masse, während eine ZDL symmetrisch gegen Masse betrieben wird. Um störende Mantelwellen zu vermeiden, ist dem Übergang von asymmetrisch zu symmetrisch besondere Aufmerksamkeit zu widmen.
Im Amateurbereich werden gerne Ringkerne mit ihren nichtlinearen Eigenschaften und den für den Amateur unübersichtlichen Impedanz Verhältnissen favorisiert, obwohl es weitaus bessere Möglichkeiten gibt.
Diese Balune mit Ringkernen funktionieren in einer Antennenanlage gut, während sie in einer anderen total versagen, weil deren elektrische Eigenschaften maßgeblich von den Impedanzen an den Ein- und Ausgangsklemmen abhängen. Deshalb funktionieren auch keine Kochrezepte über eine angeblich überragende Wickeltechnik oder gekaufte mit Angaben wie: 50 auf 200 Ohm, usw.
Es geht auch ohne Balun – besser – durch die Wahl einer geeigneten Schaltungsanordnung, weil jeder Balun im aktiven Teil einer Antennenanlage deren Funktion katastrophal einschränkt.

Wer mehr wissen will, sei auf den Beitrag über symmetrische Antennenkoppler von HB9AWJ verwiesen.

Dr. Walter Schau, DL3LH