Verlustleistungen


erhöhen die Temperatur einer Masse, abhängig von Masse, der spezifischen Wärme-Kapazität und der Erhöhung der Temperatur. Q = m c Delta T. Die Zeit t über der die Temperaturerhöhung stattfindet, führt direkt zur Leistung, weil Leistung Energie pro Zeiteinheit ist.

Diese Energie entspricht der gesamten Energie, die von der Materie aufgenommen wird, wenn keine Wärmeverluste durch Abgabe an die Umgebung auftreten. Das ist die theoretische Verlustleistung, die erforderlich ist, um die Temperatur über einen bestimmten Zeitraum zu erhöhen.

Falls Wärme an die Umgebung abgegeben wird, muss man diese zusätzlich berücksichtigen oder das Testobjekt gut dämmen. Die tatsächliche Verlustleistung ist daher immer höher, als durch die obige Formel berechnet.

Beispiel: Wir messen die Erhöhung der Temperatur eines Ferrit Kernes zu 50 Grad innerhalb einer Zeit von 3 Minuten. Welche Leistung erwärmt den Ringkern?

Mit der spezifischen Wärme-Kapazität des Ferrit typischerweise bei etwa 0,5 bis 0,9 J/(g K) und für dieses Beispiel c = 0,7 J/(g K) und einer angenommenen Masse des Ferrit von m = 100 g wird die Wärme-Energie dann Q = 3500 J. Die Verlustleistung berechnet sich daraus zu
P = 19,44 W, wenn keine Wärme durch Wärme Leitung und Konvektion abgegeben wird, was meist nicht vermieden werden kann. Die tatsächliche Verlustleistung ist daher immer höher als die berechnete.
Ist die Leistung bekannt und wird diese über einen Zeitraum t der Masse zugeführt, erhöht sich die Temperatur kontinuierlich nach einer e-Funktion bis zu einem Maximalwert, der immer unterhalb der Curie Temperatur liegen muss, bei dem magnetisches Material seine Eigenschaften total verliert.

Bei Pulsbetrieb erfolgt die Berechnung in einfacher Weise mit der Laplace Transformation. Im Zeitbereich hat die Leistung P(t) im Idealfall eine rechteckige Form mit einer Amplitude, einer Pulsdauer und einer Ruhezeit. Der Signalverlauf im Zeit-Bereich kann als periodische Funktion dargestellt werden, die sich durch eine Kombination aus Rechteckimpulsen ergibt. Für den periodischen Betrieb Puls + Pause wird die Transformation in den Laplace Bereich über eine Summe der periodischen Komponenten definiert. Die mittlere Leistung kann mithilfe der Laplace-Darstellung und der spektralen Eigenschaften des Pulsbetriebes analysiert werden, insbesondere die Energieverteilung im Frequenzbereich.

Da nicht jede die Laplac -Transformation beherrscht, hier ein Beispiel für die Berechnung eines Signals im Zeit Bereich mit einer Pulsbreite von t = 10ms, einer Impulshöhe von U = 1 Volt an einem Widerstand von 1 Ohm und einer Gesamtanzahl von Pulsen N = 30, einer Pausenzeit von 10ms. Jeder Impuls hat eine Rechteckform mit der Höhe 1 Volt der Dauer 10ms. Es handelt sich hierbei hier um eine periodische Folge von 30 Pulsen.

Die mittlere Leistung des Signals berechnet sich, indem die Energie pro Puls über die Zeit verteilt wird. P = Energie pro Puls mal N mal Gesamtdauer.
Mit der Impulshöhe 1 Volt an einem Widerstand von 1 Ohm, der Pulsbreite 10ms, Anzahl der Pulse N = 30 und der Pausenzeit von 10ms ist die Energie pro Puls ist E = P mal t Puls, E = 1 W mal 0,01s = 0,01 Joule und die Gesamtenergie für 30 Pulse dann
Eges = N mal E Puls = 30 mal 0,01 Joule = 0,3 Joule. Die Gesamtdauer umfasst alle Pulse und die dazwischenliegenden Pausen zu Tges = N mal t Puls + (N – 1) mal t Pause. Mit der Pausenzeit von 10ms berechnet sich Tges = 30 mal 0,01 s + 29 mal 0,01 s = 0,59 s. Die mittlere Leistung berechnet sich aus der gesamten Energie über die Gesamtdauer zu Pmittel = Eges / Tges und mit den Werten wird die mittlere Leistung des Signals etwa Pmittel = 0,51 Watt. Rechnet man mit einem Widerstand von 50 Ohm ergibt die Berechnung Pmitt = 10,2 Milliwatt.

Wer mehr wissen will sei auf meinen Beitrag: „Die Antenne macht die Musik“ verwiesen und in Bezug auf die Laplace Transformation das Buch von Holbrook.

Dr. Walter Schau, DL3LH

Mantelwellen Sperre


Ein Koaxkabel über leitender Erde ist ein 3 Leiter System auf dem elektromagnetische Wellen auch entlang der Außenoberfläche des Kabels gegen Erde auftreten können. Diese Mantelwellen umfassen elektrische und magnetische Felder, die unerwünschte Effekte verursachen. Die Mantelwellen-Sperre – MWS – soll nun diese Wellen und ihre Wechselwirkungen verringern.

Mantelwellen entstehen immer dann, wenn ein Koaxialkabel nicht vollständig asymmetrisch betrieben wird, der Mantel nicht geerdet oder eine ungleichmäßige Leistungsverteilung am Ende des Kabels vorhanden ist und bestehen aus einem elektrischen und einem magnetischen Feld.
Das elektrische Feld liegt parallel zum Kabelmantel und bewirkt eine Kopplung mit externen Systemen und Geräten, während das magnetische Feld um das Kabel zirkuliert und mit anderen leitenden Objekten in der Nähe des Kabels koppelt. Die MWS soll nun die elektromagnetischen Wellen und die durch diese Wellen verursachten Ströme gegen Erde reduzieren. Dazu werden Ferrite mit hoher magnetischer Permeabilität auf dem Kabelmantel angebracht und die Energie durch magnetische Absorption und Wirbelstromverluste in Wärme umgesetzt.

Als Materialen eignen sich NiZn-Ferrite für hohe Frequenzen f >10 MHz und MnZn-Ferrite für niedrigere Frequenzen f < 10 MHz. Entscheidend ist die Positionierung der Ferrite, die in der Nähe von Ein- und Austrittspunkten des Kabels verankert werden sollten und durch den Reflexionskoeffizient beschrieben wird, der besagt wie viel Energie durch Impedanz Fehlanpassungen zurück auf dem Außenmantel gegen Erde reflektiert wird. Dieser Reflexionskoeffizient ist nicht identisch dem auf dem Kabel.

Die Energieabsorption im Ferrit lässt sich durch die magnetische Verlustleistung berechnen, ist vom Material, der Frequenz und dem Quadrat der magnetischen Feldstärke H abhängig. Die Anzahl der Windungen des Kabels durch den Ferritkern erhöht die Dämpfung mit zunehmender Windungszahl, weil sich die Impedanz gegen Masse erhöht, verändert aber auch die Impedanz Verhältnisse zum Nachteil der Funktion.

Der Ferrit der MWS absorbiert die Energie der Mantelwellen durch zwei Hauptmechanismen. Das magnetische Feld der Mantelwellen bewirkt zyklische Magnetisierungsprozesse im Ferrit und erzeugt Wärmeverluste, die proportional zur magnetischen Feldstärke H Quadrat sind, sowie Wirbelstromverluste, die zirkulierende Ströme im Ferrit bewirken.
Die absorbierte Energie dieser Wirbelströme wird ebenfalls in Wärme gewandelt und ist proportional zum Quadrat der elektrischen Feldstärke E.
Die effektive Impedanz des Kabelmantels gegen Erde wird durch die MWS erheblich vergrößert, weil die höhere Impedanz zu einer Verringerung der Stromamplitude gegen Masse führt. Die Dämpfung ist abhängig von der Frequenz, wobei bei tiefen Frequenzen der kapazitive Effekt dominiert und die Sperre weniger Wirkung hat, während bei der Resonanzfrequenz des Ferrit Materials die Dämpfung maximal wird. Bei tiefen Frequenzen sind die magnetischen Verluste bestimmend und die Sperre optimal.

Die effektive Permeabilität des Ferrits hängt von der Frequenz ab und kann Tabellen der Hersteller entnommen werden, ebenso die Resonanzfrequenz des Materials. Die Dämpfungskonstante des Ferrit ist alpha = Wurzel aus (R/L) und die Dämpfung der Mantelwellenleistung proportional zur Dämpfungskonstanten des Ferrits.
Die Kopplung des magnetischen Feldes der Mantelwellen im Ferrit bewirkt, dass das magnetische Feld innerhalb des Kerns verstärkt wird und erhöht somit die induktive Reaktanz und blockiert den Energiefluss.
Das elektrische Feld der Mantelwelle beeinflusst sekundär die Oberflächeneffekte auf dem Kabel unter Berücksichtigung des Skin Effektes und führt zur Erwärmung des Außenleiters des Kabels und ist daher weniger dominant als das magnetische Feld, weil hier Wärme leichter an die Umgebung abgegeben werden kann.

Wir rechnen noch ein Beispiel um etwas Licht in das Dunkel um die MWS zu bringe:
f = 10 MHz, Kabel RG 213 mit einem Wellenwiderstand von 50 Ohm und berechnen die Impedanz des Kabels gegen Erde für eine Länge von 15 m. Dazu benötigen wir die spezifischen Parameter des Kabels. Der Außendurchmesser des Mantels ist 10,3 mm, die Kapazität pro Meter C&#039; = 101 pF/m, die Induktivität pro Meter ist L&#039; = 0,25 mH/m, der ohmsche Widerstand des Mantels R&#039; = 0,017 Ohm/m für Kupfer. Die Gesamtkapazität des Kabels gegen Erde ergibt sich aus der Kapazität pro Meter multipliziert mit der Länge des Kabels, ebenso die Gesamtinduktivität und der gesamt wirksame ohmsche Widerstand.
Die Impedanz des Kabels gegen Erde ist frequenzabhängig und berechnet sich aus o.g. Werten zu Z = R + jX – j 1 durch Omega C zu: Z = (0,255 + j 235,5 – j 1049,3) Ohm oder auch Z = (0,255 – j 813,8) Ohm – kapazitiv. Aus o.g. Werten berechnet sich Resonanzfrequenz des Kabels gegen Erde zu f = 665 kHz. Daraus die Kapazität gegen Erde C = 1,515nF, Induktivität gegen Erde L = 3,75mH und Z ungefähr 813,8 Ohm – kapazitiv, verteilt über die Länge der Leitung.

Die MWS muss nun die Werte der Leitung gegen Erden nicht nur kompensieren, sondern so weit vergrößern, dass der HF- Strom möglichst stark verringert wird. Null wird der Strom niemals. Ein beliebiger Kern aus der Bastelkiste mit unbekannten Werten sollte dort auch bleiben. Man kann eine MWS sehr leicht berechnen und nicht nach dem Motto Versuch und Irrtum auswählen.

Auch Messungen mit dem VNA – nur am Kabel – sind völliger Unsinn, wie dem o.g. Beispiel entnommen werden kann. Die Dämpfungsvorgänge spielen sich zwischen Kabel und Erde ab.

Auch kann man durch Messung der Erhöhung der Temperatur des Kernmaterials Rückschlüsse auf die richtige Positionierung der MWS finden.

Wer mehr über die richtige Wahl der Magnet-Kerne wissen will, sei auf meine Beiträge zu diesem Thema verwiesen.

Dr. Walter Schau, DL3LH

Das Variometer

als Balun ist eine interessante Anwendung, dessen Kopplung durch Variation der Gegeninduktivität kontinuierlich verändert werden kann. Es besteht aus zwei oder mehr Spulen, die magnetisch gekoppelt sind und in der einfachen Ausführung eine feststehende Primärspule und eine drehbare Sekundärspule hat. Durch das Verdrehen der Sekundärspule, relativ zur Primärspule, ist der Koppelgrad von 0 bis 1 möglich.

Ein Variometer eignet sich hervorragend als Balun zur Symmetrierung in KW-Antennenanlagen. Anders als ein gewickelter Luft-Balun erlaubt das Variometer eine feinstufige Veränderung des Koppelgrades, was besonders bei wechselnden Frequenzen oder unterschiedlichen Impedanzen von Vorteil ist.

Das Variometer hat Verluste, die durch die Güte der Induktivitäten beschrieben wird, es kann nicht in Sättigung gehen und hat einen brauchbaren Wirkungsgrad, weil immer beide Induktivitäten – unabhängig von der Gesamtinduktivität – im Eingriff sind.

In der Amateurfunktechnik findet das Variometer Anwendung als veränderliche Induktivität in Anpassnetzwerken und als Balun, wobei die Nutzung als Balun eine stabile mechanische Konstruktion erfordert, insbesondere der drehbare Teil muss robust und präzise und mit guten Schleifkontakten ausgerüstet sein, um eine gleichmäßige Funktion zu gewährleisten und um die HF-Ströme über die Schleifer zu leiten.
Besonders geeignet sind die Variometer aus russischer Fertigung, die oft auf den Flohmärkten angeboten werden und einen Koppelgrad von k = O,94 erreichen.

Die optimale Antennenanlage besteht aus: Transceiver, asymmetrisches LC- Anpassnetzwerk, Variometer als Balun, Hühnerleiter und Antenne, wobei der Balun galvanisch getrennt oder als PUT mit galvanischer Verbindung zwischen Antennen, Zuleitung und Anpassnetzwerk möglich ist.
Natürlich kann ein Variometer auch als veränderliche Induktivität mit diversen Möglichkeiten der Zusammenschaltung von primärer und sekundärer Induktivität in Reihe und beide parallel eingesetzt werden.

Die o.g. Variometer aus russischen Beständen sind für größere Leistungen ausgelegt und haben etwa die Dimension eines Würfels von 10 cm Kantenlänge, was im Shack sicherlich kein Hindernis darstellt.

Ein Variometer als Balun ist eine gute Symbiose von elektromagnetischer Theorie und praktischer Ingenieurskunst. Es verbindet die Notwendigkeit einer präzisen Impedanz Anpassung mit dem Vorteil der vielseitigen Anwendungen.

Der Einsatz in der Hochfrequenztechnik und der Funkkommunikation unterstreicht den Wert als unverzichtbare Komponente – auch in heutigen Antennensystemen. Variometer wurden schon im 2. WK in den Würfelbausteinen E10k, S10k, E10 k3, usw. und im Sender Lo40k39 u.a. zur Anpassung einer Langdrahtantenne verwendet – es ist also nichts Neues.

Wer mehr wissen will, sei auf meinen Beitrag über Variometer hingewiesen.

Dr. Walter Schau, DL3LH

Magnetische Kopplung

Magnetisch gekoppelte Induktivitäten oder Spulen sind elektrische Komponenten, die elektrische Energie durch magnetische Felder von einer Primär- in eine Sekundärspule oder mehrere Spulen überträgt. In solchen Systemen treten immer Verluste auf, die durch physikalische Prinzipien und geometrische Umstände verursacht werden.
Hauptverlustbringer sind die Kupferverluste, die Wirbelstromverluste, die Hystereverluste, die dielektrischen Verluste und die Verluste durch mangelhafte Kopplung der Spulen. Während die ersten 4 reale Verluste sind, sind Koppelverluste keine Verluste, die in Wärme gewandelt werden.

Ein Magnetfeld entsteht nur durch einen Stromfluss. Ohne Strom gibt es keine Energieübertragung. Kupferverluste entstehen durch den elektrischen Widerstand der Wicklungen, wenn Strom durch die Spulen fließt. Werden Drähte auf magnetischem Kernmaterial gewickelt, entstehen Wirbelstromverluste durch wechselnde magnetische Felder. Daher ist die Wahl des richtigen Kernmaterials von großer Wichtigkeit. Ein unbekannter Kern aus der Bastelkiste sollte in der Bastelkiste bleiben. Alle Kernverluste sind abhängig von der Frequenz, dem Maximalwert der magnetischen Induktion, der Temperatur, des Materials und des Volumens. Es ist daher völlig unsinnig mehrere Kerne aufeinander zu kleben, weil damit das Volumen und die Verluste steigen.

Koppelverluste sind keine Verluste im eigentlichen Sinne und beschreiben die Energie, die nicht perfekt zwischen den Spulen gekoppelt wird. Dieser Kopplungsverlust bezeichnet den Teil des magnetischen Flusses, der nicht zur Kopplung zwischen Primär- und Sekundärspule/n führt, wenn das magnetische Feld außerhalb des beabsichtigten Pfads entweicht, weil die magnetische Kopplung zwischen Primär- und Sekundärwicklung nie perfekt ist. Ein Teil des Magnetflusses entweicht als Streufluss und ist besonders relevant in Anwendungen mit hoher Leistungsdichte und wird durch Optimierung des Wicklungsdesigns und die Verringerung des Abstandes zwischen den Wicklungen minimiert.

Bei Wechselstrom konzentriert sich mit wachsender Frequenz der Stromfluss auf die Oberfläche der Leiter, was den effektiven Widerstand erhöht und als Skin Effekt bezeichnet wird. Benachbarte Leiter, wie bei einer Wicklung, beeinflussen einander und es kommt zu einer Verschiebung der Stromdichte, wodurch der Widerstand und die Verluste steigen – bekannt als Proximity-Effekt.

Um die Verluste in Antennenanlagen zu minimieren, kann zur Symmetrierung ein 1:1 oder ein 1:4 PUT- Luft Transformator eingesetzt werden, mit der Folge, dass nur Kupfer-, Koppel- und Haut- und Proximity Verluste verbleiben und dem Vorteil, dass beide Arten die gleichen Leerlaufgüten aufweisen.

Die Gegeninduktivität M ist ein Maß dafür, welche Spannung in dem Sekundärkreis induziert wird, wenn sich im Primärkreis der Strom nach der Zeit ändert. Die Änderung verringert immer die Ursache – Lenzsche Regel – die besagt, dass der durch elektromagnetische Induktion hervorgerufene Strom stets so gerichtet ist, dass er die Ursache seiner Entstehung verringert.
M hängt von der räumlichen Anordnung der Spulen im Magnetkreis ab. Enge Wicklungen sind wesentliche Maßnahmen zur Minimierung dieses Effekts. Eine Einkoppel-Spule außen auf einer Spule anzuordnen – wie bei bekannten Antennen Kopplern – zeugt nur von der Unkenntnis der magnetischen Zusammenhänge, denn 95 Prozent des Magnetfeldes einer Spule befindet sich im Innern der Spule.

Kupferverluste entstehen durch den ohmschen Widerstand der Spulendrähte, der vom Material und der geometrischen Struktur der Leiter abhängt. Die Verlustleistung ist P = I^2 mal R, mit R als der effektive Widerstand. Längere Wicklungen führen zu höheren Widerständen und zu höheren Verlusten, während ein größerer Querschnitt die Verluste reduziert. Kupfer mit hoher Reinheit minimiert den spezifischen Widerstand und die Verluste.
Die Leerlaufgüte einer Spule ist abhängig von der Frequenz und dem ebenfalls frequenzabhängigen Verlustwiderstand und erreicht selten Werte Q > 100.

Alle Verlustarten, außer den Koppelverlusten, führen letztlich zur Wärmeentwicklung, was die thermische Belastung erhöht. Daher ist eine effektive Wärmeableitung entscheidend für die Stabilität und Langlebigkeit der Komponenten. So sollte ein Ringkern niemals mit Teflon Band bewickelt werden, bevor die Wicklung aufgebracht wird, weil dann die Wärme nicht abfließen kann und evtl. zur Zerstörung des Kernes führt. Werden Kerne dabei in die Sättigung getrieben, verliert der Trafo alle normalen Eigenschaften.

Verluste in magnetisch gekoppelten Spulen sind ein komplexes Zusammenspiel verschiedener physikalischer Phänomene. Das Verständnis und die gezielte Minimierung dieser Verluste sind Ziel jeder Berechnung, insbesondere in Transformatoren, Motoren und anderen elektromagnetischen Anwendungen wie Balun und Co. Ein Balun muss – auch ein Luftbalun immer berechnet werden – weil die Verluste auch immer noch von den äußeren frequenzabhängigen Lastimpedanzen abhängen und bei der Optimierung berücksichtigt werden müssen.
Daher Finger weg von Kochrezepten. Hier hilft auch kein VNA, weil alle Messungen von S21, S12 wertlos sind, da immer in einem 50 Ohm System gemessen wird, das nichts mit der technischen Wirklichkeit zu tun hat,

Wer mehr wissen will, sei auf die diversen Beiträge von mir zu diesem Thema verwiesen.

Dr. Walter Schau, DL3LH

MIMO-Antennen

Technik ist eine neue Technologie, die die drahtlose Kommunikation revolutioniert hat. MIMO ist eine Abkürzung für „Multiple Input, Multiple Output“ und ist eine bahnbrechende Technologie in der drahtlosen Kommunikation, die die Effizienz und Kapazität von Netzwerken erhöht. MIMO nutzt mehrere Sende- und Empfangsantennen, um gleichzeitig verschiedene Datenströme zu übertragen und ist ein Schlüsselelement moderner Kommunikationssysteme wie WLAN, 4G, 5G und 6G.

MIMO basiert auf dem Prinzip, mehrere Antennen sowohl auf der Sender- als auch auf der Empfängerseite zu verwenden. Durch den Einsatz von parallelen Kanälen wird die verfügbare Bandbreite optimal genutzt und durch ausgeklügelte Algorithmen zur Signalkodierung und – Dekodierung, um die einzelnen Datenströme voneinander zu unterscheiden und die Leistung zu maximieren, unterstützt.
Ein wesentlicher Vorteil von MIMO ist, mit dem Mehrwegeeffekt umzugehen, denn es werden Funksignale von Hindernissen wie Gebäuden, Bäumen und Wänden reflektiert, wodurch Interferenzen und Datenverluste entstehen können. MIMO-Technologie nutzt gerade diese Reflexionen aktiv, um zusätzliche Datenströme zu übertragen.
Die Arten von MIMO-Systemen sind – SISO – Single Input, Single Output – traditionelle Kommunikation mit nur einer Antenne auf beiden Seiten wie im Amateurfunk, MISO – Multiple Input, Single Output – mehrere Senderantennen und eine Empfängerantenne, SIMO – Single Input, Multiple Output – eine Senderantenne und mehrere Empfängerantennen, MIMO – mehrere Antennen auf beiden Seiten, was die höchste Effizienz und Leistung bietet. MIMO in Mobilfunknetzwerken wie 4G- und 5G-Systemen erhöhen die Netzkapazität und bieten schnellere Datenübertragungs-Geschwindigkeiten. Massive MIMO, eine Weiterentwicklung, nutzt Hunderte von Antennen, um mehrere Benutzer gleichzeitig zu bedienen.
Vorteile sind die parallele Datenübertragung mit einer besseren Nutzung der Bandbreite, eine verbesserte Zuverlässigkeit durch die Mehrwegeverarbeitung und eine robuste Signalübertragung – auch in schwierigen Umgebungen und eine größere Kapazität der Netzwerke können mehrere Benutzer gleichzeitig bedienen und das ohne Qualitätsverlust.

Mit dem Aufkommen der 6G-Technologie wurde MIMO weiter entwickelt, um noch höhere Frequenzbänder zu nutzen und ultradichte Netzwerke zu unterstützen.
Massive-MIMO-Systeme werden durch KI und maschinelles Lernen ergänzt, um die Effizienz weiter zu steigern. Die Technologie wird auch für die Kommunikation in Smart Cities, autonomes Fahren und die Industrie 4.0 entscheidend sein.

MIMO-Antennen sind mehr als nur ein technischer Fortschritt – sie sind Grundlage für die drahtlose Kommunikation der Zukunft. Mit dem Verständnis ihrer physikalischen Prinzipien, mathematischen Modellen und praktischen Anwendungen wird deutlich, dass diese Technologie unverzichtbar ist.
MIMO bleibt ein Kernstück der Entwicklung bis hin zu einer vollständig vernetzten Welt. Die MIMO Technik wird auch den Amateurfunk revolutionieren, weil tausende Stationen und Antennen bei den Ömern auf eine effektivere Nutzung warten, mit der Folge, dass Endstufen verschrottet werden können und die T2FD Antenne in der Kurz- oder Lang-Form zur Anwendung kommt.

Dr. Walter Schau, DL3LH

Laplace-Transformation

ist ein einfaches mathematisches Werkzeug, das eine Differentialgleichung in eine algebraische Gleichung überführt und so die Analyse und Lösung komplexer Systeme erlaubt. Die LT wandelt eine Zeit Funktion f(t) in eine Funktion F(s) im Bildbereich um, dabei ist s eine komplexe Variable.

In der Physik treten immer Differentialgleichungen auf, wie bei der Analyse elektrischer Schaltkreise oder mechanischer Systeme. Die Laplace-Transformation vereinfacht diese, indem sie sie in lineare Gleichungen wandelt.

In der Signalverarbeitung wird die LT verwendet, um Signale und Systeme zu analysieren und zu modellieren, insbesondere in Kombination mit der Rücktransformation in den Zeit Bereich.

Die LT-Transformation ist Grundlage der SDR Technik und aus der modernen Wissenschaft nicht mehr wegzudenken. Die Fähigkeit, Zeit- und Bildbereiche zu verknüpfen hat revolutionäre Fortschritte in der Ingenieurwissenschaft, Signalverarbeitung und der Mathematik ermöglicht, in dem sie scheinbar unlösbare Gleichungen in einfache algebraische Ausdrücke wandelt.

So wird die Ableitung einer Zeit Funktion im Bildbereich zu der einfachen Funktion sF(s) – f(0) und vereinfacht die Lösung von Differentialgleichungen, da aus der Differentiation eine algebraische Beziehung entsteht, die leicht lösbar ist.
Wird eine Funktion im Zeit Bereich verschoben, ergibt das im Bildbereich eine einfache Multiplikation mit der e-Funktion. Auch die Faltung zweier Zeit Funktionen f(t) * g(t) erzeugt im Bildbereich nur eine einfache Multiplikation.

Die Inverse Laplace-Transformation erfordert entweder das Anwenden des Residuen Satzes, der einfachen Partialbruchzerlegung oder Tabellen, um zur ursprünglichen Funktion f(t) zurückzukehren.

Praktische Beispiele sind die Untersuchung von Dämpfung und Resonanz in Schwingungssystemen, das Design von Filtern und Modellen zur Übertragung von Signalen sowie der Entwurf stabiler Regelsysteme.

Die Laplace-Transformation ist das Bindeglied zwischen Theorie und Praxis, deren Mächtigkeit in der Fähigkeit liegt, komplexe Probleme auf elegante Weise zu vereinfachen – von der Differentialgleichung bis hin zu mechanischen Schwingungen von Lüfterschaufeln und Turbinen.

Literatur:

  1. Laplace-, Fourier- und z-Transformation von Hubert Weber und Helmut Ulrich.
  2. Einführung in Theorie und Anwendung der LT von Gustav Doetsch. Ein Klassiker, der die
    Grundlagen und Anwendungen der Laplace-Transformation detailliert erklärt.
  3. Holbrook: Laplace-Transformationen. Ein Lehrbuch für Elektroniker ist Teil der Uni-Texte-

Reihe und bietet eine Einführung in die Theorie und Anwendungen der LT, insbesondere für Studierende der Elektrotechnik und kann von jedem Funkamateur mit Grundkenntnissen in der Mathematik verstanden werden. Meiner Meinung nach die beste Literatur unter den 3 Hinweisen.

Natürlich kommt der normale Amateur auch ohne diese Grundkenntnisse aus, er kauft den fertigen SDR Transceiver und hat keine Ahnung, was hinter der Frontplatte so alles abläuft. Die Einstellungen der SDR Parameter kann dem Netz entnommen werden und ähnelt mehr einem Blindflug ohne Instrumente. Das ist moderner Amateurfunk und kein Versuchsfunk mehr.
Wie sagte DJ9LZ, Klaus aus Stade: „Nur noch Frontplatten Snacker“.

Dr. Walter Schau, DL3LH

PLL


der oder die Phase-Locked Loop besteht aus mehreren Komponenten, deren Optimierung für die Funktion entscheidend ist. Der Phase Detector – PD – erzeugt ein Signal, das proportional zur Phasendifferenz zwischen dem Eingangssignal und dem Rückkopplungssignal ist. Das folgende Loop Filter entscheidet über die Schleifenbandbreite und beeinflusst die Stabilität des Gesamtsystems. Der Spannung gesteuerte Oszillator – VCO – bestimmt, wie stark die Frequenzänderung auf Spannungsschwankungen reagiert.

Wird der PLL als Regelkreis dargestellt, ähnelt das Blockschaltbild einem linearen System mit Rückkopplung. Die Laplace-Darstellung ergibt dann die Gesamtübertragungsfunktion, wobei die Stabilität der Schleife durch die Position der Pole in der Übertragungsfunktion bestimmt wird. Zum Verhalten der Pole ist das Wurzelortskurven Verfahren üblich.

Ein einfaches PI-Loop-Filter erhöht die Stabilität, wobei die Zeitkonstante in der Übertragungsfunktion die Geschwindigkeit beschreibt, mit der der PLL sich einloggt. Eine kleine Zeitkonstante führt zwar zu schnellerem Einlocken, erhöht jedoch das Rauschen und die Rauschempfindlichkeit, wobei ein schmales Loop-Bandfilter das Phasenrauschen reduziert, aber zu einer schmalen Bandbreite führt und die Lock-In-Zeit verlängert.
Der Pull-In-Bereich ist der Bereich, der die maximal erlaubte Frequenzdifferenz beschreibt, die das System korrigieren kann. Der Hold-In-Bereich gibt an, in welchem Bereich der PLL bei Störungen stabil bleibt, nachdem er verriegelt ist.
Das Phasenrauschen ist ein Grundproblem beim PLL- es zu minimieren ist Aufgabe der Dimensionierung von VCO, Schleifenfilter und Optimierung der gesamten Übertragungsfunktion im Laplace Bereich.

Moderne Systeme wie ADPLLs – All-Digital Phase-Locked Loops – ersetzen zunehmend die analogen Komponenten durch Algorithmen, um Flexibilität und Präzision zu steigern.
PLLs werden in Mobilfunkbasisstationen verwendet, um Frequenzen im GHz-Bereich stabil zu halten. Sie synchronisieren Sender und Empfänger und verhindern Phasen-Drifts, die in Satellitensystemen auftreten können.

In SDR Anwendungen werden digitale PLLs verwendet, um Basisbandsignale zu erzeugen und flexibel auf verschiedene Frequenzbänder zuzugreifen zu können.

Wer mehr wissen möchte, sei auf das Buch von Michael H.W. Hoffmann und das von Pestel/Kollmann: Grundlagen der Regelungstechnk, hingewiesen.

Dr. Walter Schau, DL3LH

IMD3


ist die Intermodulationsverzerrung dritter Ordnung und ein Kriterium zur Beurteilung der Linearität von Verstärkerstufen bei Großsignal Aussteuerung.
Linear-Endstufen, die es nur in der Theorie gibt, werden in der HF- und NF-Technik eingesetzt.
Mathematisch gesehen entstehen diese Verzerrungen durch den nicht linearen Charakter der aktiven Bauelemente, der dazu führt, dass neue Frequenzkomponenten entstehen, die nicht im ursprünglichen Eingangssignal vorhanden waren.

Werden zwei Sinussignale mit den Frequenzen f1 und f2 in einen Verstärker eingespeist, erzeugen die nicht linearen Kennlinien der Bauteile zusätzliche Frequenzkomponenten nach einer Taylor-Reihenentwicklung:
Uout = a1 Uin + a2 Uin ^2 + a3 Uin^3 + usw.

Für den kubischen Term ergibt sich nach Einsetzen von Uin und entsprechender trigonometrischer Zerlegung die Intermodulationsprodukte:
2f1 – f2 und 2f2 – f1, die aufgrund der kubischen Nichtlinearität dominieren und spektral nahe den Eingangsfrequenzen f1, f2, liegen, besonders stören und nicht durch Filter zu beseitigen sind.

Der IMD3 ist abhängig von der Aussteuerung der nicht linearen Kennlinie, wie auch der dynamische Innenwiderstand vom Stromflusswinkel abhängig ist und keine konstante Größe, was besonders bei einer Leistungs-Reduzierung beachtet werden muss. Wird die Ansteuerung reduziert ändern sich sämtliche HF-Parameter der Endstufe incl. der notwendigen Arbeitspunktanpassung, der auch noch von der Temperatur der Bauteile abhängig ist.

Zur Verringerung des IMD3 wurden Gegentakt-Stufen, die durch ihre symmetrische Betriebsweise einige nicht lineare Verzerrungen vermindern, da sich die ungeradzahligen Terme der Taylor-Reihe gegenseitig aufheben.
Dazu gehören auch die Verwendung von Si -Transistoren, GaAs- oder auch GaN-Bauelemente in Parallelschaltung mit ausgesuchten, gleichen Kennlinien.

Heute werden digitale Techniken – Predistortion – eingesetzt. Dabei wird das Ausgangssignal analysiert und dem Eingangssignal ein inverses Verzerrungsmuster hinzugefügt und so die spektrale Reinheit des Signals erheblich verbessert.

Zur Bewertung von IMD3 wird der „Third-Order-Intercept Point“ verwendet. Dies ist ein theoretischer Punkt, der aus der Schnittstelle der Extrapolation der Verstärkungsgerade des gewünschten Signals und der Intermodulationsprodukte berechnet wird. Der TOI gibt Auskunft darüber, wie ein System starke Signalen verarbeitet, und wird in dBm angegeben.

Zur Bestimmung der IMD3 werden zwei unkorrelierte Sinussignale über einen Powersplitter in die Endstufe eingespeist und das Ausgangssignal als Funktion der Aussteuerung mit einem Spektrum Analysator untersucht. Der IMD3 ist dann der 10er Logarithmus der Leistungen des IMD3 Produktes zur Leistung des eingespeisten Signals. Gemessen wird an einer genau definierten reellen Last und ist dann nicht identisch mit dem IMD3 im aktiven Betrieb mit frequenzabhängigen Lasten. Hier hilft nur die moderne digitale Technik mit der Predistortion.

Wer mehr wissen will, sei auf die Beiträge: „Messungen an Leistungsstufen“ und „Leistungsstufen im KW Bereich“ verwiesen.
IMD3 Erkenntnisse können leicht mit dem Programm LTspice erworben werden.

Dr. Walter Schau, DL3LH

Desinteresse


oder das schwindende Interesse an der HF-Technik und einer optimalen Antennenanlage ist offensichtlich. Funkamateure waren einst Pioniere, die sich mit Leidenschaft ihrer Ausrüstung widmenden, wobei die Antennenanlage als das Herzstück galt.

Die Zeiten haben sich geändert. Heute steht der Transceiver im Mittelpunkt und die Antenne ist Nebensache. Ganz langsam hat sich Desinteresse an der Optimierung der Antennenanlagen eingeschlichen. Man braucht ja nur mal einem QSO zu lauschen. Da wird über ein tolles Signal, das Mikrofon, die Audi Qualität, die richtige Einstellung des Equalizers, die Bilder bei QRZ.com, der IMD 3 und das was man im Wasserfall sieht, schwadroniert.

Gründe für das Desinteresse könnte der technologische Fortschritt sein. Mit der Entwicklung von SDR richtete sich das Interesse auf die vielen Möglichkeiten, die die Software bietet. Dabei wird vergessen, dass der beste Transceiver nichts ist ohne eine gut funktionierende Antennenanlage.

Das Internet und der Mobilfunk machen uns abhängig und unabhängig vom eigenen Antennensystem. Auch WebSDR hat sicherlich dazu beigetragen, geringes Gewicht auf die eigene Antennenanlage zu legen. Vorgefertigte Antennenlösungen diverser Hersteller verzichten auf individuelle Lösungen und den Selbstbau.

Das Hobby selbst hat sich stark verändert – während früher der Fokus auf der technischen Innovation lag, steht heute der soziale Aspekt im Vordergrund, denn viele Funkamateure wollen nur quatschen, ohne sich tiefgehend mit der HF-Technik dahinter zu beschäftigen. Der Trend geht dahin, Antennen aus der Schachtel zu verwenden, anstatt Zeit und Mühe in die Optimierung der Antennenanlage zu investieren. Die geringen Anforderungen zum Erwerb einer Lizenz weisen den falschen Weg.

Ein Grund für das schleichende Desinteresse an der HF-Technik ist vermutlich der allgemeine Zeitmangel. In unserer hektischen Welt fällt es vielen schwer, neben Beruf, Familie und anderen Verpflichtungen noch die Muße zu finden, sich intensiv mit komplexen technischen Aspekten wie der Antennenoptimierung zu befassen. Das Hobby wird auf die reine Nutzung reduziert, anstatt sich mit dem Hobby zu beschäftigen.

Viele Funkamateure leben in städtischen Gebieten, wo Platzmangel und baurechtliche Vorschriften es uns schwer machen umfangreiche Antennenanlagen zu installieren und führt zu Notlösungen mit weniger leistungsfähigen Antennenanlagen, die kaum Raum für Optimierung bieten.

Gleichzeitig hat der Austausch von Wissen unter Funkamateuren stark nachgelassen. Einst war es üblich, Erfahrungen und Tipps zur Antennenoptimierung innerhalb der Gemeinschaft zu teilen, was heutzutage zunehmend verloren gegangen scheint. Selten hört man noch technische Gespräche auf den Bändern, was die Bereitschaft zur Verbesserung der eigenen Antennenanlage weiter verringert.

Das Desinteresse an einer optimalen Antennenanlage führt zu einem allgemeinen Rückgang der Innovation in der Amateurfunktechnik. Ohne den Antrieb zur Optimierung drohen wichtige technische Kenntnisse und Fertigkeiten verloren zu gehen, die in der Vergangenheit die Grundlage für den Fortschritt im Bereich des Amateurfunks waren.

Bleibt die Frage, wie man diesem Trend entgegenwirken kann. Ich war mal überzeugt, dass meine technischen Beiträge etwas ändern würden, weit gefehlt. Die werden zwar reichlich per Download frequentiert, nur haben sie in den letzten 30 Jahren nichts oder fast nichts bewirkt.

Auch Gemeinschaftsprojekte seitens der Vereine mit ihren Workshops und Veranstaltungen haben – so habe ich den Eindruck – wenig bis gar nichts erreicht. Veranstaltungen wie Weinheim und Treffen am Bodensee mit einer Masse an Menschen, die sich angeblich für Amateurfunk interessieren, bringen letztendlich wenig. Ebenso die Vorträge erfahrener Funkamateure und Kenner der Materie werden gerne in Anspruch genommen, nur es fehlt dann an der Umsetzung der gewonnenen Erkenntnisse. Dabei ist es doch wichtig, Informationen an jüngere Generationen weiterzugeben, um das Interesse an der HF-Technik wiederzubeleben oder wach zu halten.

Vielleicht spielt auch die öffentliche Wahrnehmung des Amateurfunks eine Rolle, weil es nicht mehr gelingt, die Faszination und Bedeutung des Amateurfunks dem Normalbürger darzustellen. Einst konnten Interessierte motiviert werden, sich tiefergehend mit den technischen Aspekten, insbesondere der Antennenoptimierung, zu beschäftigen. Das war eine spannende Zeit, wir haben viel über HF gelernt und manche haben es zu ihrem Beruf gemacht.

Dr. Walter Schau, DL3LH

Ist SSB noch zeitgemäß?

Auf der Kurzwelle ist die Sprachübertragung SSB vorherrschend, das Gleiche im See-, und Flugfunk, in militärischen Anwendungen und im Amateurfunk. Mit der Entwicklung von SDR wurden die früheren Empfänger-Konzepte unbrauchbar. Dabei wird das analoge SSB in ein digitales Signal gewandelt und mit mathematischen Methoden weiter verarbeitet. Die Wandlung eines analogen Signals in eine digitales hat so seine Tücken und Nachteile. Warum nicht gleich ein digitales Signal senden und den DA-Wandler sparen. Daher haben sich vorerst auf den höheren Amateurfrequenzen die digitale Revolution mit D-STAR u.a. etabliert.

DMR – Digital Mobile Radio – ist ein Standard, der ursprünglich für kommerzielle Anwendungen entwickelt wurde, aber auch im Amateurfunkbereich populär ist, eine gute Sprachqualität und effiziente Nutzung der Frequenzen bietet.

System Fusion – C4FM – unterstützt sowohl digitale als auch analoge Sprachübertragung, integrierte digitale und analoge Repeater für nahtlose Kommunikation. Vorteile sind – bessere Sprachqualität durch fortschrittliche Sprachkodierung AMBE+2 – ein von Yaesu entwickelter Standard. Das System bietet eine einfache Bedienung und gute Sprachqualität.

D-STAR – Digital Smart Technologies for Amateur Radio – DV-Modus – Digital Voice Kombination von digitalisierter Sprache und Datenübertragung für zusätzliche Informationen. Wird hauptsächlich im 23-cm-Band verwendet für Hochgeschwindigkeits-Datenübertragungen. Wurde von Icom entwickelt.

NXDN ist ein weiterer, digitaler Sprachübertragungsstandard, der hauptsächlich in kommerziellen Anwendungen verwendet wird, aber auch im Amateurfunk sich langsam durchsetzt. FDMA – Frequency Division Multiple Accesse, wird hauptsächlich in kommerziellen Anwendungen verwendet, aber auch im Amateurfunkbereich, robust und effizient, mit guter Sprachqualität und Störfestigkeit.

M17 verwendet eine 4-Level-Frequenzumtastung. M17 ermöglicht die Übertragung von Niedriggeschwindigkeitsdaten zusammen mit Sprache, wie GNSS-Positionsdaten und ist ein Open-Source-Protokoll und eine flexible Alternative für die digitale Sprachkommunikation im Amateurfunk.

Die Vorteile der digitalen Sprachübertragung im Amateurfunk sind: Verbesserte Sprachqualität und klarere und verständlichere Sprache als analoge Übertragungen wie SSB. Die bessere Spektrum-Effizienz nutzt das verfügbare Frequenzspektrum effizienter aus und ermöglicht es mehren Nutzern auf demselben Kanal zu arbeiten nebst Datenübertragungsmöglichkeiten, die im Bereich der Kurzwellen noch durch gesetzliche Regelungen ausgebremst werden.

Amateurfunk ist Versuchsfunk – es war einmal.

Dr. Walter Schau, DL3LH