dsp-skript/main.tex

1448 lines
63 KiB
TeX
Raw Permalink Normal View History

2024-07-13 11:19:40 +02:00
\documentclass[11pt, a4paper]{article}
% \usepackage[utf8]{inputenc}
\usepackage[german]{babel}
\usepackage[left=2cm,right=2cm,top=2cm,bottom=2cm]{geometry}
\usepackage{mathtools}
\usepackage{MnSymbol} % for >>> \ggg sign
\usepackage{derivative}
\usepackage{bbold} % \mathbb font
\usepackage{braket}
\usepackage{siunitx}
\usepackage{graphicx}
\usepackage[shortlabels]{enumitem} % easily change enums to use letters, eg [(a)] or [a)]
\usepackage{etoolbox}
\usepackage{xcolor}
\usepackage{float}
\usepackage[hidelinks]{hyperref}
\usepackage{subcaption}
% \hypersetup{colorlinks = true, % Colours links instead of ugly boxes
% urlcolor = blue, % Colour for external hyperlinks
% linkcolor = cyan, % Colour of internal links
% citecolor = red % Colour of citations
% }
\DeclarePairedDelimiter{\abs}{\lvert}{\rvert}
% \DeclareMathOperator{\d}{d}
\renewcommand{\d}{\text{d}}
\DeclareMathOperator{\e}{e}
\DeclareMathOperator{\T}{T} % transposed
\DeclareMathOperator{\sgn}{sgn}
\DeclareMathOperator{\tr}{tr}
\DeclareMathOperator{\const}{const}
\newcommand{\explUnder}[2][=]{%
\underset{\substack{\uparrow\\\mathrlap{\text{\hspace{-1em}#2}}}}{#1}}
\newcommand{\textbetweenrules}[2][.4pt]{%
\par\vspace{\topsep}
\noindent\makebox[\textwidth]{%
\sbox0{#2}%
\dimen0=.5\dimexpr\ht0+#1\relax
\dimen2=-.5\dimexpr\ht0-#1\relax
\leaders\hrule height \dimen0 depth \dimen2\hfill
\quad #2\quad
\leaders\hrule height \dimen0 depth \dimen2\hfill
}\par\nopagebreak\vspace{\topsep}
}
\newcommand{\lecture}[1]{
\textbetweenrules{Vorlesung #1}
}
\providecommand{\tightlist}{%
\setlength{\itemsep}{0pt}\setlength{\parskip}{0pt}}
\def\gt{>}
\def\lt{<}
\def\R{\mathbb{R}}
\def\F{\mathcal{F}}
\newcommand{\Fvon}[1]{\mathcal{F}\left\{#1\right\}}
\newcommand{\Zvon}[1]{\mathcal{Z}\left\{#1\right\}}
\newcommand{\Fourier}[1]{
\mathcal{F}\left\{#1\right\}
}
\title{%
Einführung in die Digitale Signalverarbeitung \\
\large Studentische Mitschrift zur Vorlesung
}
\author{Matthias Quintern}
\date{\today}
\begin{document}
\maketitle
\tableofcontents
\newpage
% \setcounter{page}{1}
\lecture{1}
\section{Grundbegriffe}
\paragraph{Gegenstand} ~\\
Manipulation von Signalen, welche in der Form von Zahlenfolgen vorliegen.
Signale repräsentieren eine zu übermittelnde Nachricht. Heutzutage werden Signale zumeist elektrisch dargestellt; für das folgende ist die Repräsentation unerheblich
(nur der durch die physikalische Größe dargestellte Zahlenwert ist für uns relevant).\\
Digitale Signale kommen in der Natur normalerweise nicht vor, sondern müssen erst durch einen Umwandlungsmeachnismus aus analogen Signalen erzeugt werden.
Nach Bearbeitung durch Signalprozessor erfolgt die Rückumwandlung.
\paragraph{Beispiel: Signal-Prozess-Kette eines analogen Telefons} ~\\
Analoges Werte- und Zeit-kontinuierliches Signal
\begin{enumerate}
\item Tiefpassfilter
\item Abtaster (entnimmt zu äquidistanten Zeitpunkten ``Amplitudenproben'' aus dem Signal)
\item Kompressor (Absenkung hoher Amplituden, Verstärkung kleiner Amplituden)
\item 8-bit AD-Wandler (Zeit und Wert-diskretes Signal)
\item Zahlenstrom zum Vermittlungspartner
\item Vermittlung
\item DA-Wandler
\item Dekompression
\item Tiefpass
\item Analoges Ausgangssignal
\end{enumerate}
\paragraph{Kennwerte} ~\\
International genormt, CCITT, ITU
\begin{itemize}
\item Übertragungsbereich: $\SI{300}{\Hz}\,\dots\, \SI{3,4}{\kilo\Hz}$ (ermöglicht Identifizierung)
\item Abtastrate: $\SI{8000}{\per\s} = \SI{8}{\kilo\Hz}$ \rightarrow alle $\SI{125}{\micro\s}$ ein Abtastwert
\item AD und DA-Wandler mit 8-bit \rightarrow Übertragungsrate $\SI{8000}{\per\s} \times \SI{8}{\bit} = \SI{68}{\kilo\bit\per\s}$
\end{itemize}
\noindent\textit{Könnte unvollständig sein, war bei Vorlesung 1 nicht anwesend.}
\lecture{2}
\section{Signale}
\subsection{Anwendungen digitaler Signaltechnik}
\begin{itemize}
\item
Bildverarbeitung
\item
Kommunikationstechnik
\item
Sprachsysnthetisierung
\end{itemize}
\subsection{Analog vs. Digital}
\begin{itemize}
\item
D: Nur 2 states: 0/1 (z.B: 5V = 1, 0V = 0, oder besser $1 \ge 2.5$) \Rightarrow ungewollte flips unwahrscheinlich
\item
A: Kleine V Schwankung \Rightarrow Wertänderung
\item
D: Exakte Werte \Rightarrow
\begin{itemize}
\tightlist
\item
genauer
\item
besser reproduzierbar
\item
weniger Störanfällig
\end{itemize}
\item
D: Mikroelektronik - Kombination
\begin{itemize}
\tightlist
\item
Ermöglicht Operationen die analog nicht/schwer möglich sind
\item
Hohe Zuverlässigkeit
\item
Niedrige Produktionskosten
\item
Reprogrammierbarkeit/Freie Programmierbarkeit
\item
verarbeitung mehrdimensionaler Signale
\item
Schalung mit sehr langsamen Zeitverhalten
\end{itemize}
\end{itemize}
\subsection{Häufig genutzte
Signale}\label{huxe4ufig-genutzte-signale}
\subsubsection{Trigonometrische
Funktionen}\label{trigonometrische-funktionen}
Charakterisiert durch: - Periode $T = t_1 - t_0 = 1/f$ -
Nullphasenwinkel $\alpha = \omega t_0 = 2\pi f t_0$ - Amplitude $A$
z.B. $u(t) = A \sin(\omega (t-t_0))$
\subsubsection{Sprungfunktion s(t)}\label{sprungfunktion-st}
$s(t) = \{ 0\, \mathrm{für}\,x < 0, 1\, \mathrm{für}\,t >= 0$
Ermöglicht es, Signal auszublenden Bsp: Bestimmtes Signal $f(t)$
zwischen $t_1, t_2$ betrachten, rest wegschneiden:
\begin{equation}
f'(t) = f(t) \cdot [ s(t- t_1) - s(t - t_2) ]
\end{equation}
% \begin{Shaded}
% \begin{Highlighting}[]
% \ImportTok{import}\NormalTok{ matplotlib.pyplot }\ImportTok{as}\NormalTok{ plt}
% \ImportTok{import}\NormalTok{ numpy }\ImportTok{as}\NormalTok{ np}
% \NormalTok{x }\OperatorTok{=}\NormalTok{ np.linspace(}\OperatorTok{{-}}\DecValTok{1}\NormalTok{, }\DecValTok{1}\NormalTok{, }\DecValTok{1000}\NormalTok{)}
% \AttributeTok{@np.vectorize}
% \KeywordTok{def}\NormalTok{ s(t):}
% \ControlFlowTok{return} \DecValTok{1} \ControlFlowTok{if}\NormalTok{ t }\OperatorTok{\textgreater{}=} \DecValTok{0} \ControlFlowTok{else} \DecValTok{0}
% \AttributeTok{@np.vectorize}
% \KeywordTok{def}\NormalTok{ f(t):}
% \ControlFlowTok{return}\NormalTok{ np.sin(np.pi }\OperatorTok{*}\NormalTok{ t) }\OperatorTok{*}\NormalTok{ (s(t }\OperatorTok{+} \FloatTok{0.5}\NormalTok{) }\OperatorTok{{-}}\NormalTok{ s(t }\OperatorTok{{-}} \FloatTok{0.5}\NormalTok{))}
% \NormalTok{plt.plot(x, f(x))}
% \NormalTok{plt.show()}
% \end{Highlighting}
% \end{Shaded}
\begin{figure}[H]
\centering
\includegraphics[width=0.8\textwidth]{img/Figure_1.png}
\caption{Figure\_1.png}
\end{figure}
\subsubsection{Deltaimpuls / Diracfunktion}\label{deltaimpuls-diracfunktion}
Unendlich kurze Dauer Betrachtet man $\delta(t)$ auf approximierte
Weise ergibt sich eine Kastenfunktion: $f(t) = 1/2T$ für $t$ in
$[-T, T]$, sonst 0 mit Fläche 1
Zusammenhang Sprung - Delta:
$\delta(t) = \lim_{T \rightarrow 0} 1/{2T} [s(t + T) - s(t - T)]$
$\delta(t)$ kann auch als Ableitung der Sprungfunktion aufgefasst
werden
$\int_{-\infty}^\infty f(x) \delta(x) dx = f(0)$
\section{Lineare Systeme}\label{lineare-systeme}
\begin{itemize}
\tightlist
\item
Eingangsgröße (auch Ursache) $x(t)$
\item
System / Wirkung $W$
\item
Ausgangsgröße $y(t) = W\{x(t)\}$
\end{itemize}
\subsection{Wichtige Systemeigenschaften}
\begin{itemize}
\item
\textbf{Stabilität}: Ein System ist stabil wenn für ein beliebiges aber beschränktes Eingangssignal folgt,
dass das Ausgangssignal auch beschränkt ist \emph{beschränkt:}\\
$< \infty$
\item
\textbf{Linearität}: Ein System ist linear, wenn
$W\big\{\sum_i^N a_i x_i(t)\big\} = \sum_i^N a_i y_i(t)$ \emph{keine
Gegenseitige Beeinflussung der einzelnen Eingangsgrößen beim Durchgang
durch das System}
\end{itemize}
\lecture{3}
Man kann im Fall von N Eingangsgrößen ein bel. lin System der
Ausgangsgrößen von N linearen Gliedern mit jeweils einer Ausgangsgröße
erhalten. Als einziges System mit mehreren Eingangsgrößen ist dann das
Summenglied zu betrachten.\\
\begin{center}
\includegraphics[width=0.5\textwidth]{img/0c93bdcafbbb39b714fb6472a65a88e5.png}
\end{center}
\subsection{Zeitinvarianz}\label{zeitinvarianz}
Ein System ist zietinvarianz, wenn die Wirkungsfunktion nicht von der
Zeit abhängt. Also wenn $W\{x(t)\} = y(t)$ dann gilt bei
Zeitinvarianten Systemen $W\{x(t-t_0)\} = y(t-t_0)$.
$w_0, t_0 \in \R$ beliebig.
\subsection{Kausalität}\label{kausalituxe4t}
Ein Systme ist kausal, wenn der Verlauf von $y(t)$ nur vom Verlauf von
$x(t)$ abhängt. Insbesondere gilt $x(t)=0$ für $t < 0$,
$y(t) = 0$ für $t < 0$
Systeme, die linear und Zeitinvariant sind werden auch als
\textbf{LTI}-Systeme bezecihent \emph{(linear, time invariant)}
\subsection{Zieĺsetzung bei der Behandlung linearer
Systeme}\label{zieux13asetzung-bei-der-behandlung-linearer-systeme}
\begin{enumerate}
\def\labelenumi{\arabic{enumi}.}
\tightlist
\item
Berechnung des Ausgangssignals $y(t)$ bei gegebenen Eingangssignal
$x(t)$ und bei bekanntem Systemverhalten $W\{\}$
\item
Berechnung des Systemverhaltens $W\{\}$ bei bekannten
Systemparametern
\end{enumerate}
\emph{in dieser VL Behandlung von 1.}
\paragraph{Vorgehen bei 1.}\label{vorgehen-bei-1.}
\begin{enumerate}
\def\labelenumi{\arabic{enumi}.}
\tightlist
\item
(experimentelle) Bestimmung des Systemverhaltens = Reaktion des
Systems auf eine Standardtestfunktion
\item
Erzeugung von $x(t)$ durch geeignete Kombination zeitlich
verschobener und unterschiedlich starker Realisierungen der
Standardtestfunktion
\item
Ausgangssignal ist die Überlagerung der unterschiedlichen Funktionen,
die durch die Wirkung es Systems auf die Standardtestfunktion am
Eingang entstanden sind
\end{enumerate}
\subsubsection{Beispiel: LTI-System}\label{beispiel-lti-system}
\begin{figure}[H]
\centering
\includegraphics[width=0.8\textwidth]{img/f36f9e521e19d9ccad6673279cc1b81e.png}
\caption{f36f9e521e19d9ccad6673279cc1b81e.png}
\end{figure}
\subsection{Systembeschreibung über
Standard-Signalverläufe}\label{systembeschreibung-uxfcber-standard-signalverluxe4ufe}
Darstellung des Systemverhatens über die Sprungfunktion $s(t)$: Beim
Anlegen von $s(t)$ reagiert das System mit einer Sprungantwort oder
Übergangsfunktion $a(t) = W\{s(t)\}$. \\
Zunächst: \textbf{Jede beliebige Eingangsfunktion $x(t)$ lässt sich
über Sprungfunktionen beliebig genau annähern}\\
\begin{figure}[H]
\centering
\includegraphics[width=0.5\textwidth]{img/9e419d11871db4a6fd2dc33bf21db0a3.png}
\end{figure}
\noindent Es gilt
\begin{align}
x(t) &\approx x(\tau_{n-1}) s(t-\tau_n) + s(t-\tau_n) [x(\tau_n) - x(\tau_n-\tau_{n-1})] + s(t-\tau_{n+1}) [x(\tau_{n+1}) - x(\tau_n-\tau_{n})] + \dots \\
&= \sum_{n=-\infty}^\infty s(t-\tau_{n+1}) x[(\tau_{n+1}) - x(\tau_n)] + \explUnder[{x(-\infty)}]{weil nur Zuwachs betrachtet wird}
\end{align}
Damit: Berechnung des Ausgangssignals
\begin{equation}
W\{x(t)\} \approx W\{\sum_{n=-\infty}^\infty s(t-\tau_{n+1}) [x(\tau_{n+1}) - x(\tau_n)]\}
\end{equation}
mit der Linearitätseigenschaft:
\begin{equation}
y(t) = \sum_{n=-\infty}^\infty W\{s(t-\tau_{n+1})\} [x(\tau_{n+1}) - x(\tau_n)])
\end{equation}
Erweiterung des $x(\tau_{n+1}) - x(\tau_n)$ mit $\Delta \tau$:
\begin{equation}
y(t) = \lim_{\Delta\tau \rightarrow 0}\sum_{n=-\infty}^\infty W\{s(t-\tau_{n+1})\} [\frac{x(\tau_{n+1}) - x(\tau_n)}{\Delta\tau} \Delta\tau])
\end{equation}
Grenzübergang $\tau \rightarrow 0$, dann gilt
$\tau_n \rightarrow \tau, \Delta\tau \rightarrow \d\tau$ und es
resultiert
\begin{equation}
y(t) = \int_{-\infty}^{\infty}W\{s(t-\tau)\} \odv{x(\tau)}{\tau}\d\tau
\end{equation}
\begin{equation}
= \int_{-\infty}^{\infty}\,a(t-\tau) x^{'}(\tau)\,d\tau
\end{equation}
Die Systemantwort ist daher bei bekanntem Eingangssignal und bei
bekannter Sprungantwort $a(t)$ vollständig bekannt.\\
\Rightarrow \textbf{Sprungantwort $a(t)$ charakterisisert ein lineares System vollständig}
\lecture{4}
\subsection{Charakterisierung von Systemen über
Impulsantwort}\label{charakterisierung-von-systemen-uxfcber-impulsantwort}
Beim Anlegen von $\delta(t)$ reagiert das System der
\textbf{Impulsantwort} oder \textbf{Gewichtsfunktion}
\begin{equation}
h(t) = W\{\delta(t)\}
\end{equation}
Darstellung von $x(t)$ über Rechteckimpulse:\\
\begin{center}
\includegraphics[width=0.5\textwidth]{img/2be591dc6a7d867f9539da71598d89c0.png}
\end{center}
\begin{equation}
x(t) \approx \sum_{n=-\infty}^\infty x(\tau_n) [s(t-\tau_n) -s(t-\tau_{n+1})]
\end{equation}
Erweiterung um $\Delta\tau$:
\begin{equation}
x(t) \approx \sum_{n=-\infty}^\infty x(\tau_n) [\frac{s(t-\tau_n) -s(t-\tau_{n+1})}{\Delta\tau}\Delta\tau]
\end{equation}
Mit der Linearitätseigenschaft:
\begin{equation}
y(t) \approx \sum_{n=-\infty}^\infty x(\tau_n) W\Big\{\frac{s(t-\tau_n) -s(t-\tau_{n+1})}{\Delta\tau}\Delta\tau\Big\}
\end{equation}
Nach Grenzübergang $\Delta\tau\rightarrow 0, \sum \rightarrow \int$,
wird
\begin{equation}
y(t) = \int_{-\infty}^\infty x(\tau_n) W\Big\{\delta(t-\tau)\Big\}d\tau
\end{equation}
Schließlich erhält man das \textbf{Faltungsintegral}:
\begin{equation}
y(t) = \int_{-\infty}^\infty x(\tau_n) h(t-\tau) d\tau\\
= x(t) \ast h(t)
\end{equation}
\begin{center}
\textbf{\Rightarrow Kenntnis der Impulsantwort des Systems reicht zu
seiner Beschreibung völlig aus.}
\end{center}
\noindent
Eigenschaften: Faltung ist
\begin{itemize}
\tightlist
\item Kommutativ:
$h(t) \ast g(t) = g(t) \ast h(t)$
\item Distributiv:
$h(t) \ast\big (g_1(t) + g_2(t)\big) = h(t) \ast g_1(t) + h(t) \ast g_2(t)$
\item Assoziativ:
$h(t) \ast \big(g_1(t) \ast g_2(t)\big) = \big(h(t) \ast g_1(t)\big) \ast g_2(t)$
\end{itemize}
Das Faltungsintegral ist oft schwierig zu berechnen. Im Zeit diskreten
Fall geht es über die Faltungssumme.
\section{Beschreibung linearer Systeme im
Frequenzbereich}\label{beschreibung-linearer-systeme-im-frequenzbereich}
Ohne Verlust von Informationen ist auch eine Darstellung im
Frequenzbereich möglich. Damit ist oft eine einfachere mathematische
Behandlung sowie die Gewinnung zuästzlicher Einsicht
möglich.
Vorgehen (zunächst mit periodischen Signalen): Ein Signal wird als das
Ergebnis der Überlagerung von periodischen Elementarsignalen
unterschiedlicher Amplitude, Frequenz und Phase betrachtet. Es wird so
dann beschrieben, welche Amplituden und welche Phase welcher Frequenz
zugewiesen werden muss, um nach Überlagerung dieser Funktionen wieder
das betrachtete Signal zu erhalten. Die Verteilung der Amplituden über
die Frequenz bezeichnet man auch als \textbf{Spektrum}.
\subsection{Fourieranalyse}\label{fourieranalyse}
\textbf{Definitionen}
\begin{itemize}
\item Funktion ist periodisch mit Periode $T$, wenn
$f(t) = f(t+T)$
\item Frequenz: $\frac{1}{T}$
\item Kreisfrequenz: $\omega = 2\pi f = \frac{2\pi}{T}$
\end{itemize}
Häufig: $\omega_0:= \frac{2\pi}{T}$
Beobachtung: die trig Funktionen
$\sin(\omega_0 t), \cos(\omega_0 t)$ sind immer auch periodisch in
$T$. Deshalb naheliegend: Entwicklung einer periodischen Funktion
$f(t)$ in einer Reihe der Form
\begin{equation}
f(t) = \sum_{n=0}^{\infty}[a_n\cos(n\omega_o t) +b_n\sin(n\omega_0 t)]
\end{equation}
(Fourier-Reihe mit Fourierkoeffizienzen $a_n, b_n$, Grundschwinung
$\omega_0$ und Oberschwingungen (oder Harmonische)
$n\omega_0, n \gt 1$ Zur Berechnung der Koeffizienten $a_n$ und
$b_n$ erfolgt eine Multiplikation der F-Reihe mit
$\cos(m\omega_0 t)$ bzw $\sin(m\omega_0 t)$ und Integration von
$-\frac{T}{2}$ bis $\frac{T}{2}$.
\begin{align}
a_n &= \frac{2}{T} \int_{-T/2}^{T/2} f(t)\cos(n\omega_0 t) \d t \\
b_n &= \frac{2}{T} \int_{-T/2}^{T/2} f(t)\sin(n\omega_0 t) \d t
\end{align}
Einfaches Beispiel: Periodisches Rechtecksignal\\
\begin{center}
\includegraphics[width=0.5\textwidth]{img/f518751e303c817b71baf302f993c8a3.png}
\end{center}
\begin{align}
a_n &= \frac{2}{T} \int_{-T/2}^{0} (-1))\cos(n\omega_0 t) \d t +
\frac{2}{T} \int_{0}^{T/2} \cos(n\omega_0 t) \d t = 0 \\
b_n &= \frac{2}{T} \int_{-T/2}^{0} -\sin(n\omega_0 t) \d t + \int_{0}^{T/2} \sin(n\omega_0 t) dt = \frac{2}{n\pi}[1-\cos(n\pi)]
\end{align}
also $b_n = \frac{4}{\pi n}$ für $n$ ungerade, $0$ für $n$
gerade.\\
\begin{center}
\includegraphics[width=0.5\textwidth]{img/8204e0ed75faf3c88307216170425ec4.png}
\end{center}
\lecture{5}
\emph{einige rechenschritte übersprungen}
Kompelxe Darstellung der Fourierreihe:
\begin{align}
f(t) = \sum_{n=0}^\infty\Big[c_n(\e^{j\, n\,\omega_0 t} + c^*_n (\e^{-j\,n\, \omega_0 t}\Big] \\
\shortintertext{mit}
c = \frac{1}{2} (a_n - j b_n) \\
c^*_n = \frac{1}{2}(a_n + j b_n)
\end{align}
Aus
\begin{align}
c_n &= \frac{1}{T} \int_\frac{-T}{2}^\frac{+T}{2} f(t) \e^{-j n\omega_0 t} \d t \\
c_n^* &= \frac{1}{T} \int_\frac{-T}{2}^\frac{+T}{2} f(t) \e^{+j n\omega_0 t} \d t
\end{align}
folgt $c_n = c^*_{-n}$. Damit kann die Fourierreihe sher kompakt
geschrieben werden als
\begin{equation}
f(t) = \sum_{n=-\infty}^\infty c_n \e^{j\, n\,\omega_0 t}
\end{equation}
$c_n = |c_n|\e^{j\phi_n}$ wobei inter Benutzung von
$c_n = 1/2 (a_n-j b_n)$: $|c_n| = \frac{1}{2}\sqrt{a_n^2+b_n^2}$
Folgerungen: Komplexe $c_n$ enthalten die gleiche Information wie die
$a_n$ und $b_n$ zusammen. Statt jeweils eines Spektrums für die
$\sin$ und $\cos$ Anteile erhält man ein \textbf{Komplexes
Spektrum}, das sich in ein \textbf{Betrags} und \textbf{Phasenspektrum}
zerlegen lässt. Außerdem sehr wichtig: das Spektrum ist nun auch für
negative $n$ (d.h. ``negative Frequenzen'') erklärt.
\subsection{Fouriertransformation}\label{fouriertransformation}
Zweck: Analyse nichtperiodischer kontinuierlicher Signale, d.h. von
Signalen mit der Periodendauer $T\rightarrow \infty$ -\textgreater{}
$\omega_0 \rightarrow 0$ Eine Unterscheidung in diskrete
Spektrallinien, die jeweils eine diskrete Elementarfunktion
repräsentieren, ist nicht mehr möglich. Stattdessen Definition einer
Amplitudendichte $F(\omega)$. Die Dichte ist kontinuierlich definiert
für $-\infty < \omega < \infty$. Sie bezeichnet ``Amplitude pro
Frequenz'': $F(\omega) = \frac{c_n}{\Delta\omega}$ Also: das Signal
wird jetzt aufgefasst als zusammengesetzt aus nicht abzählbar unendlich
vielen Elementarfunktionen. Jetzt Ausführung des Grenzübergangs
$T\rightarrow\infty$ d.h. der Abstand zwischen Spektrallinien
$\Delta\omega \rightarrow d\omega$, $c_n \rightarrow c$ und die
Amplitudendichte
$\frac{c_n}{\Delta\omega} = F(\omega) \rightarrow c=F(\omega) \,d\omega$
Nach Ausführung dieses Grenzübergangs wird die Komplexe Fourier-Reihe
zum Fourier-Integral: \emph{wichtig:} Amplitudendichtespektrum nach
Zeitfunktion:
\begin{equation}
f(t) = \frac{1}{2\pi}\int_{-\infty}^{\infty}F(\omega)\e^{j\omega t} d\omega
\end{equation}
Zeitsignalunktion nach Amplitudendichtespektrum:
\begin{equation}
2024-08-04 10:10:17 +02:00
F(\omega) = \frac{1}{2\pi}\int_{-\infty}^{\infty} f(t)\e^{-j\omega t} d t
2024-07-13 11:19:40 +02:00
\end{equation}
2024-08-04 10:10:17 +02:00
\def\rmapsto{\reflectbox{\multimap}}
Schreibweisen:
\begin{itemize}
\item Fourier-Trafo: $\mathcal{F}\{f(t)\}=F(\omega)$
\item Rück-Trafo: $\mathcal{F}^{-1}\{F(\omega)\}=f(t)$
\item $f(t) \rmapsto F(\omega)$ (\textit{$\rmapsto$ bedeutet "ist korrespondierende"})
\end{itemize}
2024-07-13 11:19:40 +02:00
\begin{enumerate}
\def\labelenumi{\alph{enumi}.}
\tightlist
\item
$\delta$ Impuls: $\mathcal{F}\{\delta(t)\} = 1$ (enthält alle
Frequenzen)
\item Rechteckimpuls:
$\mathcal{F} = \frac{2}{\omega}\sin(\omega\frac{T}{2})$\\
\includegraphics[width=0.5\textwidth]{img/d1d77a60e5748fbb6075be9e7ce3c379.png}
\item
Komplexe Zeitfunktion $f(t) = \Big\{ \e^{i\omega_0 t}$ für
$-T \lt t \lt T$
$\mathcal{F}(\omega) = ... = 2\frac{\sin[(\omega_0 - \omega)T]}{\omega_0 - \omega}$
rein reelles Spektrum\\
\includegraphics[width=0.5\textwidth]{img/b461995caf296304f338fa58179292e0.png}
\end{enumerate}
Sonderfall: undendlich lang andauernde Schwingung, d.h. $T\to\infty$
Grenzübergang:
\begin{align}
2024-08-04 10:10:17 +02:00
\lim_{T\to\infty} F(\omega)= \lim_{T\to\infty}\Big[ 2\pi\frac{sin[(\omega_0-\omega)T]}{\pi(\omega_0-\omega)}\Big] &= 2\pi\delta(\omega_0 - \omega) = 2\pi\delta(\omega-\omega_0) &\\
2024-07-13 11:19:40 +02:00
\intertext{d.h. es ist:}
2024-08-04 10:10:17 +02:00
\mathcal{F}\{\e^{\pm j \omega_0 t}\} &= 2\pi \delta(\omega \mp \omega_0)
2024-07-13 11:19:40 +02:00
\end{align}
Damit Analyse für verschiedene andere Funktionen möglich:
\begin{enumerate}
\item
$\omega_0 = 0 \Rightarrow \mathcal{F}\{1\} = 2 \pi\delta(\omega)$
\item
$\mathcal{F}\{\cos(\omega_0 t)\} = \pi\Big(\delta(\omega - \omega_0) + \delta(\omega+\omega_0)\Big)$\\
\includegraphics[width=0.5\textwidth]{img/87c76eb06054283058dc7446bfa6b016.png}
\item
$\mathcal{F}\{\sin(\omega_0 t)\} = j\pi\Big(\delta(\omega + \omega_0) - \delta(\omega-\omega_0)\Big)$
\end{enumerate}
\lecture{6}
\subsubsection{Eigenschaften der Fouriertransformation}
\begin{enumerate}
\item
Linearität:
$\mathcal{F}\left\{a f_1(t) + b f_2(t)\right\}= a F_1(\omega) + b F_2(\omega)$
\item
Zeitliche Spiegelung:
$\mathcal{F}\left\{f(-t)\right\}= F(-\omega)$
\item
Vertauschungssatz:
$\mathcal{F}\left\{F(t)\right\}= 2\pi f(\omega)$
\item
Ähnlichkeitssatz:
$\mathcal{F}\left\{f(a t)\right\}= \frac{1}{|a|} F(\frac{\omega}{a})$
\item
Zeitverschiebung:
$\mathcal{F}\left\{f(t-t_0)\right\}= F(\omega) \, \e^{-j\omega t_0}$
\item
Frequenzverschiebung:
$\mathcal{F}\left\{f(t)\, \e^{\pm j\omega_0 t}\right\}= F(\omega \mp \omega_0)$ \\
Anwendung: AM-Radio: Niederfrequenzsignal auf $\cos$ Träger: \\
$\mathcal{F}\left\{f_\text{NF}(t)\frac{1}{2}\left(\e^{j\omega_0 t}+\e^{-j\omega_0 t}\right)\right\}= \frac{1}{2}\left[F_\text{NF}(\omega - \omega_0) + F_\text{NF}(\omega+\omega_0)\right]$ \\
Damit kann das ursprüngliche Signal über Kanäle übertragen werden, die
eine Übertragung im ``Basisband'' nicht zulassen, also z.B. über das
Funkstrecken
\item
\textbf{Faltungssatz}:
\begin{align}
\mathcal{F}\left\{f_1(t) * f_2(t)\right\} &= F_1(\omega) F_2(\omega) \\
\mathcal{F}\left\{f_1(t) f_2(t)\right\} &= \frac{1}{2\pi} F_1(\omega) * F_2(\omega)
\end{align}
\end{enumerate}
\subsection{Systemfunktion}\label{systemfunktion}
Sei $x(t)$ ein Eingangssignal, $y(t)$ ein Ausgangssignal und
$h(t)$ die Impulsantwort eines Systems, dann gilt:
\begin{align}
y(t) &= h(t) * x(t) \\
Y(\omega) &= h(\omega) \, X(\omega)
\end{align}
$H(\omega)$ wird als \textbf{Systemfunktion} oder
\textbf{Übertragungsfunktion} bezeichnet. Beispiele für
Systemfunktionen:
\begin{itemize}
\item
Tiefpass, löscht hohe Frequenzanteile\\
\includegraphics[width=0.5\textwidth]{img/d2139093bf75907709b5b4931f9e79f3.png}
\item
Hochpass, löscht tiefe Frequenzanteile:\\
\includegraphics[width=0.5\textwidth]{img/3e7159914163c2bd518b3d958356e1b3.png}
\item
Bandpass:\\
\includegraphics[width=0.5\textwidth]{img/479f34ce10c157575e467ab190f00e3b.png}
\end{itemize}
Bei Betrachtung dieser Systemfunktionen zeigen sich die Vorteile der
Darstellung im Frequenzbereich: Einfache mathematische Behandlung,
anschauliche Deutung. Außerdem: die wesentlichen Korrespondenzen sind
aufgelistet
\subsubsection{Beispiel: Tiefpass}\label{beispiel-tiefpass}
$H(\omega) = r_\Omega(\omega)$ 1 für $-\Omega\le\omega\le\Omega$, 0
sonst
$y(t) = \mathcal{F}^{-1}\{1\cdot H(\omega)\} = 1/2\pi \int_{-\Omega}^\Omega 1\cdot \e^{+j\omega t}d\omega = \frac{1}{\pi}\frac{\sin{\Omega t}}{t}$
\\
\begin{center}
\includegraphics[width=0.8\textwidth]{img/a7da8e0493a32dad6d808155e40296d2.png}\\
\includegraphics[width=0.8\textwidth]{img/21c9dfc6806c3164051d39b049436e06.png}\\
\end{center}
Der ideale Tiefpass ist ein nicht-kausales System. Die Reaktion auf ein Ereignis
zum Zeitpunkt t=0 erfolgt bereits vorher. Der Ideale Tiefpass ist also
nicht realisierbar.
\subsection{Fourierspektren von
Singularitätsfunktionen}\label{fourierspektren-von-singularituxe4tsfunktionen}
\begin{itemize}
\tightlist
\item
$\sgn(x)$: $F(\omega) = \frac{2}{j \omega}$
\item
$s(t)$: $F(\omega) = \pi\delta(\omega) + \frac{1}{j \omega}$
\item
Eingeschalteter Sinus $Im\left(s(t) \, \e^{j\omega_0 t}\right)$:
$F(\omega) = j \frac{\pi}{2}[\delta(\omega+\omega_0) - \delta(\omega-\omega_0) + \frac{\omega_0}{\omega_0^2 - \omega^2}]$
\item
Kammfunktion (Folge von Delta-Impulsen im Abstand $T_A$):\\
\begin{align}
f(t) &= \sum_{n=-\infty}^\infty \delta(t-n T_A) \\
F(\omega) &= \frac{2\pi}{T_A} \sum_{n=-\infty}^\infty \delta(\omega-n \frac{2\pi}{T_A})
\end{align}
wieder Kammfunktion mit Höhe und Periode $\omega_A = 2\pi/T_A$
\end{itemize}
\lecture{7}
\section{Abtastung und Abtasttheorem}
Betrachtet werde die Abtastung eines kontinuierlichen beliebigen Zeitsignals $f(t)$.
Aus diesem Signal werden äquidistantem Zeitpunkten $n\cdot T_A$ Amplitudenproben entnommen.
Annahme: der \textbf{ideale} Abtaste liefert eine Folge unendlich schmaler und unendlich hoher $\delta$-Impulse, deren Fläche proportional zum Wert
der Funktion $f(t)$ sein. Nur in diesem Fall haben wir eine verfälschungsfreie Abtastung.
\begin{figure}[H]
\centering
\includegraphics[width=0.8\textwidth]{img/vl07-id-abtast.png}
% \caption{img/vl07-id-abtast.png}
% \label{fig:img-vl07-id-abtast-png}
\end{figure}
Frage: Kann das Ursprungssignal $f(t)$ aus dem abgetasteten Signal $f_A(t)$ wiedergewonnen werden?
Welcher Wert für $T_A$ muss gewählt werden, mit welcher Frequenz? \\
Für die Zeitfunktion $f_A(t)$ gilt nach idealer Abtastung:
\begin{align}
f_A(t) &= \dots + f(-T_A) \delta(t + T_A) + f(0) \delta(t) + f(T_A) \delta(t - T_A) + \dots \\
f_A(t) &= f(t) [\dots + \delta(t + T_A) + \delta(t) + \delta(t - T_A) + \dots ] \\
&= f(t) \sum_{n=-\infty}^{\infty} \delta(t - n T_A)
\end{align}
Berechnung des Spektrums der abgetasteten Funktion:
\begin{align}
F_A(\omega) &= \Fourier{f_A(t)} = \Fourier{f(t) \cdot \sum_{n=-\infty}^{\infty} \delta(t-n T_A)} \\
&= \frac{1}{2\pi} \Fourier{f(t)} * \Fourier{\sum_{n=-\infty}^{\infty} \delta(t-n T_A)}
\intertext{mit $\Fourier{\sum_{n=-\infty}^{\infty} \delta(t-n T_A)} = \frac{2\pi}{T_A} \sum_{n=-\infty}^{\infty} \delta(\omega-n \frac{2\pi}{T_A})$ folgt}
F_A(\omega) &= F(\omega) * \frac{1}{T_A} \sum_{n=-\infty}^{\infty} \delta(\omega - n \frac{2\pi}{T_A}) = \frac{1}{T_A} \sum_{n=-\infty}^{\infty} F(\omega -n\omega_A)
\end{align}
\Rightarrow Durch die Abtastung wird das Spektrum von $f(t)$ unendlich oft um die Frequenzen in $n\,\omega_A$ mit reproduziert.
\subsection{Bandbegrenzte Signale}
Sei $F(\omega)$ nun \textbf{bandbegrenzt}, d.h. $F(\omega) \equiv 0$ für $\omega > \omega_g$ bzw. $\omega < -\omega_g$
\begin{figure}[H]
\centering
\includegraphics[width=0.8\textwidth]{img/vl07-bandbegrenzt.png}
% \caption{img/vl07-bandbegrenzt.png}
% \label{fig:img-vl07-bandbegrenzt-png}
\end{figure}
\begin{enumerate}
\item
Das Originalspektrum um $\omega = 0$ repräsentiert das Originalsignal im Frequenzbereich, also die Zeitfunktion $f(t)$. Nach Entnahme dieses Teils des Spektrums mit Hilfe eines Tiefpasses ist die Rekonstruktion des Originalsignals erfolgt.
\item
Bedingung dafür, dass die Teilspektren nicht ``ineinander laufen'' ist
\begin{equation}
\omega_g \le \omega_A - \omega_g \Rightarrow \omega_A \ge 2\omega_g
\end{equation}
\Rightarrow Wenn das Spektrum der Originalfunktion bandbegrenzt ist und die Abtastfrequenz hoch genug, dann kann das Originalsignal exakt reproduziert werden\\
\Rightarrow Die Abtastfrequenz muss mindestens doppelt so hoch sein wie die die höchste (nach Bandbegrenzung) im Originalsignal vorhandene Frequenz\\
\Rightarrow Außerdem ist wichtig: das Spektrum des abgetasteten Signals ist mit $\omega_A$ periodisch: $F_A(\omega) = F_A(\omega + \omega_A)$
\end{enumerate}
\paragraph{Beispiele}
\begin{itemize}
\item
Telefon: $\omega_g = \SI{3.4}{\kilo\Hz}$ \quad\Rightarrow\quad $\omega_A = \SI{8}{\kilo\Hz}$
\item
CD-Spieler: $\omega_g = \SI{20}{\kilo\Hz}$ \quad\Rightarrow\quad $\omega_A = \SI{44.1}{\kilo\Hz}$
\end{itemize}
Wenn $\omega_A \gg 2\omega_g$, dann werden an die ``Flankensteilheit'' des Tiefpasses geringere Anforderungen gestellt. \\
Außerdem: wenn die Abtastfrequenz zu niedrig ist, dann überlappen sich die Einzelspektren. Man nennt diesen Effekt \textbf{Aliasing}, weil andere als das Originalsignal vorgetäuscht werden.
\paragraph{Digitale Frequenz}
Einführung des Begriffs der \textbf{digitalen Frequenz}:
\begin{figure}[H]
\centering
\includegraphics[width=0.5\textwidth]{img/vl07-digitale_frequenz.png}
\end{figure}
\noindent Ersetzung von $\omega$ durch ein auf $\omega_A$ bezogenes $\omega_d$ mit $\omega_d = \omega \cdot T_A$
\begin{figure}[H]
\centering
\includegraphics[width=0.5\textwidth]{img/vl07-digitale_frequenz2.png}
\end{figure}
$\omega_d$ ist im Gegensatz zu $\omega$ ohne Einheit. Im \textit{digitalen Bereich} wird der Index ``d'' typischerweise weggelassen und man hat:
\begin{equation}
-\pi \le \omega \le \pi
\end{equation}
\section{Zeitdiskrete Signale}
Ein zeitdiskretes Signal ist eine Folge von Zahlen, deren einzelne Elemente mithilfe einer diskreten Variable geordnet sind.
Notation:
\begin{align}
x&=\{x(t_n)\} \\
&= \{\dots, x(t_{-2}),\,x(t_{-1}),\,x(t_0),\,x(t_1),\,x(t_2), \dots\}
\end{align}
Normalerweise Abtastung zu äquidistanten Zeitpunkten, also $t_n = n T_A$. Deshalb die kürzere Schreibweisen:
\begin{equation}
x = \{x(n)\} = \{\dots, x({-2}),\,x({-1}),\,x(0),\,x(1),\,x(2), \dots\}
\end{equation}
\textbf{Definitionen}:
\begin{enumerate}[a)]
\item
kausale Zeitreihe: $x \equiv 0$ für $n < 0$
\item
2024-08-04 10:10:17 +02:00
akausale Zeitreihe: $x \equiv 0$ für $n < 0$
2024-07-13 11:19:40 +02:00
\item
zweiseitige Zeitreihe: Ist immer über die Kombination von kausaler und akausaler Zeitreihe möglich
\item
deterministische Signale: $x(n)$ ist spezifiziert bevor das Signal erzeugt wird.\\
Oft sind diese Signale mit Hilfe analytischer Funktionen beschreibbar ($\sin(\omega t),\,s(t)\,\,\dots$)
\item
nichtdeterministische Signale: das Signal ist erst bekannt, nachdem das Zufallsexperiment ausgeführt wurde. Analyse dann mit Hilfe von Methoden der Statistik und Wahrscheinlichkeitsrechnung
\end{enumerate}
\lecture{8}
\subsection{Wichtige Signale für die Analyse zeitdiskreter, linearer Systeme}
\begin{enumerate}[a)]
\item
Einheitsimpuls (entspricht dem $\delta$-Impuls im kontinuierlichen Fall):\\
\begin{align}
\delta(n) = \left\{ \begin{array}{cl} 1 & \text{für $n=0$} \\ 0 & \text{sonst} \end{array} \right
\end{align}
\item
Einheitsschrittfunktion (entspricht $s(t)$ im kontinuierlichen Fall)\\
\begin{minipage}{0.4\textwidth}
\begin{center}
\includegraphics[width=\textwidth]{img/vl08-schrittfunktion.png}
\end{center}
\end{minipage}
\hfill
\begin{minipage}{0.5\textwidth}
\begin{align}
u(n) &= \left\{ \begin{array}{cl} 1 & \text{für $n\ge0$} \\ 0 & \text{sonst} \end{array} \right \\
\intertext{Es gilt:}
\delta(n) &= u(n) - u(n-1) \\
u(n) &= \sum_{m=0}^{\infty} \delta(n-m)
\end{align}
\end{minipage}
\item
Exponentialfunktion:\\
\begin{minipage}{0.4\textwidth}
\begin{figure}[H]
\centering
\includegraphics[width=\textwidth]{img/vl08-exponential.png}
\caption*{Einseitige Exponentialfunktion für $a<1$}
\end{figure}
\end{minipage}
\begin{minipage}{0.5\textwidth}
\begin{align}
x(n) = b \cdot (a)^n
\end{align}
mit $a,b \in \mathbb{C}$, außerdem ``zweiseitig'', d.h. definiert für $n \lesseqgtr 0$\\
\end{minipage}
\item
Kreisfunktion:\\
\begin{minipage}{0.4\textwidth}
\begin{figure}[H]
\centering
\includegraphics[width=\textwidth]{img/vl08-kreis.png}
% \caption*{Einseitige Exponentialfunktion für $a<1$}
\end{figure}
\end{minipage}
\begin{minipage}{0.5\textwidth}
\begin{align}
x(n) &= b\cdot \e^{j(\omega_n + \phi)} \\&= b\,\big\{\cos(\omega_n + \phi) + j \sin(\omega_n + \phi)\big\}
\end{align}
mit $b\in \R$ Amplitude, $\omega \in \R$ digitale Kreisfrequenz, $\phi \in \R$ Nullphasenwinkel
\end{minipage}
\end{enumerate}
\subsection{Operationen auf Zeitreihen}
\subsubsection{Elementare Operationen}
\begin{itemize}
\item
Multiplikation: Multiplikation der einzelnen Elemente
\begin{align}
a\left\{x(n)\right\} &= \left\{a\,x(n)\right\} \\
\left\{x(n)\right\}\left\{y(n)\right\} &= \left\{ x(n)\,y(n)\right\}
\end{align}
\item
Addition: Zeitreihen werden elementweise addiert
\begin{align}
\left\{x(n)\right\}+\left\{y(n)\right\} = \left\{x(n) + y(n)\right\}
\end{align}
\end{itemize}
\subsubsection{Allgemeine Operationen}
\begin{itemize}
\item
\textbf{Operator} transformiert eine Eingangszeitreihe $x(n)$ in eine Ausgangszeitreihe $y(n)$
\item
\textbf{LTI-Operatoren}
\end{itemize}
Im folgenden ausschließlich Betrachtung von lineare, zeitinvarianten (LTI) Operatoren.
Bei einem LTI-Operator ist der Zusammenhang zwischen Eingangszeitreihe $x(n)$ und Ausgangszeitreihe $y(n)$ in der Form eine \textbf{linearen Faltung} darstellbar:
\begin{align}
y(n) &= \sum_{k=-\infty}^{\infty} h(k) \cdot x(n-k) \\
&= \sum_{m=-\infty}^{\infty} h(n-m) \cdot x(m) \\
&= h(n) * x(n)
\end{align}
Die Reihe $h(n)$ ($\hateq$ Impulsantwort) bestimmt den Operator vollständig.\\
\Rightarrow Setze $x(n) = \delta(n)$, dann ist $y(n) = h(n)$\\
Offensichtlich: $\delta(n)$ lässt sich erzeugen durch $u(n) - u(n-1)$. Entsprechend ist auch im Zeit diskreten Fall die Impulsantwort die Differenz der Sprungantworten.
\subsubsection{Kausale Operatoren}
Ein \textbf{Kausaler} LTI-Operator ($h(n) \equiv 0$ für $n<0$) lässt sich durch die \textbf{einseitige Faltungssumme}
\begin{align}
y(n) &= \sum_{k=0}^{\infty} h(k) \cdot x(n-k) \\
&= \sum_{k=-\infty}^{n} h(n-k) x(k)
\end{align}
und ein nicht-Kausaler LTI-Operator damit
\begin{align}
y(n) &= \sum_{k=-\infty}^{-1} h(k) \cdot x(n-k) \\
&= \sum_{k=n+1}^{\infty} h(n-k) x(k)
\end{align}
ausdrücken.
\paragraph{Beispiel für einen Kausalen Operator}
\begin{minipage}{0.4\textwidth}
\begin{figure}[H]
\centering
\includegraphics[width=\textwidth]{img/vl08-kausal1.png}
\end{figure}
\end{minipage}
\hfill
\begin{minipage}{0.5\textwidth}
$h(n) = \{1,\,2,\,2,\,0,\,0,\,\dots\}$
\end{minipage}\\
angewendet auf eine Zeitreihe wie folgt:\\
\begin{minipage}{0.4\textwidth}
\begin{figure}[H]
\centering
\includegraphics[width=\textwidth]{img/vl08-kausal2.png}
\end{figure}
\end{minipage}
\hfill
\begin{minipage}{0.5\textwidth}
$x(n) = \{1,\,1,\,0,\,0,\,0,\,\dots\}$
\end{minipage}\\
\begin{figure}[H]
\centering
\includegraphics[width=\textwidth]{img/vl08-kausal3.png}
\caption*{$x(t)$ (grün) gefaltet mit $h(t)$ (rot)}
% \label{fig:img-vl08-kausal3-png}
\end{figure}
\begin{figure}[H]
\centering
\includegraphics[width=0.5\textwidth]{img/vl08-kausal4.png}
% \caption*{$x(t)$ (grün) gefaltet mit $h(t)$ (rot)}
% \label{fig:img-vl08-kausal3-png}
\end{figure}
Realisierung in Hardware:
\begin{figure}[H]
\centering
\includegraphics[width=0.6\textwidth]{img/vl08-hardware.png}
\caption*{
Für jeden Zeitschritt wird ein neuer Wert $x(n)$ ins Register geschoben.
Die Werte werden mit denen des Festwertregisters $h$ multipliziert und aufsummiert.
}
\end{figure}
\paragraph{Weitere Eigenschaften von LTI-Operatoren}
\begin{enumerate}[a)]
\item
Linearität
\begin{equation}
L\left[a_1 \left\{x_1(n)\right\} + a_2\left\{x_2(n)\right\}\right] =
a_1 L\left[ \left\{ x_1(n) \right\} \right] + a_2 L \left[ \left\{ x_2(n) \right\} \right ]
\end{equation}
mit $a_1, a_2 \in \R$, $n\in\mathbb{Z}$
\item
$\left\{ g(n-m) \right\} = L [\left\{ x(n-m) \right\}$, d.h. System reagiert zu allen zeitpunkten gleich, $m$ beliebig
\end{enumerate}
\subsubsection{Beschränktheit von Zeitreihen und ein Stabilitätskriterium}
Eine Zeitreihe wird \textbf{beschränkt} genannt, wenn für alle $n,\,M\in\R$ gilt:
\begin{equation}
\abs*{x(n)} < M
\end{equation}
Also: der Betrag einer Zeitreihe bleibt immer kleiner als eine bestimmte obere Schranke $M$.
\noindent\underline{Frage}: Wie muss die Impulsantwort $h(n)$ beschaffen sein, damit das System stabil ist,
d.h. auf ein beschränktes Eingangssignal mit einem beschränkten Ausgangssignal antwortet?
\\
\underline{Antwort}: Für das Ausgangssignal gilt:
\begin{align}
\abs*{y(t)} &= \abs*{\sum_{k=-\infty}^{\infty} h(k) x(n-k)} \\
&= \abs*{\dots + h(k-1)x(n-k+1) + h(k) x(n-k) + h(k+1) x(h-k-1) +\dots}
\end{align}
mit $\abs*{a+b} \le \abs*{a} + \abs*{b}$ hat man
\begin{align}
\abs*{y(t)} &\le \sum_{k=-\infty}^{\infty} \abs*{h(k) x(n-l)} \\
&= \sum_{k=-\infty}^{\infty} \abs*{h(k)}\,\abs*{x(n-k)} \\
&\le M \sum \abs*{h(k)}
\end{align}
Also ist eine Bedingung für Stabilität:
\begin{align}
\boxed{
\sum_{k=-\infty}^{\infty} \abs*{h(k)} < \infty
}
\end{align}
\lecture{9}
\subsection{Rekursive und nicht-rekursive Systeme}
Definitionen:
\begin{itemize}
\item
Ein lineares, nicht-rekursives System ist beschreibbar durch eine \textbf{Faltungssumme} mit einer endlichen Anzahl von Elementen (\textit{finite impulse response system})
\item
Ein universelles, rekusrives System hat in der Regel eine unendlich lang andauernde Impulsantwort, die durch sogenannte ``Rückkopplungszweige'' erzeugt wird (\textit{infinite impulse response system})
\end{itemize}
\subsubsection{Nicht rekursives Systeme:}
\begin{equation}
y(n) = \sum_{k=s}^{q} h(k) x(n-k)
\end{equation}
Kausales nicht rekursives System:
\begin{equation}
y(n) = h(0) x(n) + h(1) x(n-1) + \dots + h(q) x(n-q)
\end{equation}
\begin{figure}[H]
\centering
\includegraphics[width=0.8\textwidth]{img/vl09-faltungssumme.png}
\caption{Transversalfilter}
\end{figure}
Dieser Filter wird auch als Transversalfilter, FIR (Finite-Impulse-Response) filter oder MA (Moving Average) Operator bezeichnet.
\subsubsection{Rekursives Systeme}
Der Zusammenhang zwischen $x(n)$ und $y(n)$ bei einem linearen, rekursiven System ist darstellbar:
\begin{equation}
\sum_{k=1}^{p_2} a_k y(n-k) = \sum_{k=q_1}^{q_2} b_k x(n-k)
\end{equation}
Im Kausalen Fall ($y(n) \equiv 0$ für $n<0$, wenn $x(n) \equiv 0$ für $n>0$) gilt:
\begin{equation}
\sum_{k=0}^{p} a_k y(n-k) = \sum_{k=0}^{q} b_k x(n-k)
\end{equation}
bzw:
\begin{equation}
\boxed{
y(n) = \sum_{k=0}^{q} b_k x(n-k) - \sum_{k=1}^{p} a_k y(n-k)
}
\end{equation}
Hier wird das ``aktuelle'' Element $y(n)$ aus dem gegenwärtigen und den letzten $q$ Eingangswerten gebildet (nicht rekursiver Anteil) sowie den letzten $p$ Ausgangswerten (rekusriver Anteil).
\begin{figure}[h]
\centering
\includegraphics[width=0.8\textwidth]{img/vl09-rekursives_system.png}
\caption{Rekursives System}
% \label{fig:img-vl09-rekursives_system-png}
\end{figure}
$y(n)$ ist berechenbar, wenn zumindest $y(n-1)$ berechnet wurde.
Im weiteren Beschränkung auf diese Klasse von Systemen.
\paragraph{Wesentliche Unterschiede}
\begin{itemize}
\item Rekusrive Operatoren sind zumeist mit geringerer Anzahl von Elementen realisiserbar als nicht-rekursive mit gleicher/ähnlicher Übertragugnsfunktion
\item Nicht rekursiver Operator ist immer stabil
\end{itemize}
\Rightarrow System von nicht-rekursiven Operatoren einfacher, keine Stabilitätsbetrachtung erfolrderlich
2024-08-04 10:10:17 +02:00
\subsection{Die z-Transformation}
Zunächst Betrachtung der Fourer-Transformation
\begin{equation}
F(\omega) = \int_{-\infty}^\infty f(t) \e^{-j\omega t} \d t
\end{equation}
Frage: Was ändert sich hier, wenn $f(t)$ ein zeitdiskretes (abgetastetes) Signal ist, das nur zu den Zeitpunkten $t=nT$ definiert ist?
\\DTFT (\neq DFT!) \textit{discrete-time Fourier transform}:
\begin{equation}
\boxed{
X(\e^{j\omega}) = \sum_{n=-\infty}^{\infty} x(n) \e^{-jn\omega}
}
\end{equation}
wobei $w$ die digitale Frequenz $-\pi \le \omega \le +\pi$ darstellt, mit $\omega \in \R$.
\\
IDTFT (inverse):
\begin{equation}
\boxed{
x(n) = \frac{1}{2\pi} \int_{-\pi}^{+\pi}X(\e^{j\omega}) \e^{-jn\omega} \d \omega
}
\end{equation}
2024-07-13 11:19:40 +02:00
2024-08-04 10:10:17 +02:00
\begin{itemize}
\item
Integration wird Summation, da nur Beiträge zu den Abtastzeitpunkten (dazwischen nicht definiert)
\item
Statt kontinuierlicher Frequenz $\omega$ nun digitale Frequenz, da Spektrum periodisch, d-h- für $\omega \lessgtr \pi$ Wiederholung
\\Um die Periodizität anzudeuten wird im Argument von $X$ $\omega$ durch $\e^{j\omega}$ ersetzt, $\e^{j\omega}$ ist ja mit $2\pi$ periodisch
\end{itemize}
2024-07-13 11:19:40 +02:00
2024-08-04 10:10:17 +02:00
\textbf{Problem}: Für viele nichtperiodische Funktionen konvergiert das Integral $\int_{-\infty}^{\infty} f(t) e^{-j\omega t} \d t$ nicht
\\ Deshalb (im kausalen Fall) Dämpfung der Zeitfunktion mit $\e^{-\sigma t}$. Dann ist in Abhängigkeit von $f(t)$ für bestimmte Werte von $\sigma \ge 0$ Konvergenz herstellbar.
D.h. neues Integral:
\begin{equation}
F_\sigma(\omega) = \int_0^\infty f(t) \e^-{j\omega t} \d t
\end{equation}
Nun Einführung der Komplexen Variablen $s=\sigma + j \omega$.
$F_\sigma(\omega)$ stellt eine ganze Schar von Spektraldichten dar, von denen einige nicht existieren können.
Betrachtung in der $s$-Ebene:
\begin{figure}[H]
\centering
\includegraphics[width=0.8\textwidth]{img/vl09-s-ebene.png}
\caption{$s$-Ebene}
\end{figure}
Schreibt man
\begin{equation}
F(s) = \sigma_0^\infty f(t) \e^{(-\sigma + j\omega)t} \d t
\end{equation}
dann stellt $F(s)$ bei festem $\sigma$ die Spketraldichte der mit $\e^{-\sigma t}$ gedämpften Zeitfunktion $f(t)$ dar. Man bezeichnet $F(s)$ als einseitige \textbf{Laplace-Transformation} der Zeitfunktion $f(t)$.
\\
Die L-Transformation verfügt im wesenetlichen über die gleichen Eigenschaften wie die F-Transformation, deckt aber die meisten in der Praxis vorkommenden Fälle nichtperiodischer Funktionen ab.
Schreibt man die L-Transformierte
\begin{equation}
F(s) = \int_{0/-\infty}^{+\infty} f(t) \e^{-s t}
\end{equation}
(wobei die die Integrationsgrenze $0$ die einseitige und $-\infty$ die zweiseitige bezeichnet) für zeitdiskrete Signale auf, so hat man (im zweiseitigen Fall):
\begin{equation}
F(s) = \sum_{n=-\infty}^{\infty} f(n) \e^{-s n T}
\end{equation}
und mit der Abkürzung $z=\e^{sT}$ wird daraus die \textbf{z-Transformation}:
\def\Z{\mathcal{Z}}
\begin{equation}
\boxed{
X(z) = \sum_{n=-\infty}^{\infty} x(n) z^{-n} = \Z\left\{x(n)\right\}
}
\end{equation}
2024-07-13 11:19:40 +02:00
\lecture{10}
2024-08-04 10:10:17 +02:00
\begin{figure}[H]
\centering
\includegraphics[width=0.8\textwidth]{img/vl10-z.png}
\end{figure}
Die z-Transformation bildet eine diskrete Zahlenfolge in den z-Bereich ab.
Die Vorteile der Laplace-Transformation im kontinuierlichen Fall bleiben erhalten.
Insbesondere: Ersetzung der Berechnung von Faltungssummen durch die Multiplikation von Spektren im z-Bereich.
2024-07-13 11:19:40 +02:00
2024-08-04 10:10:17 +02:00
\subsubsection{Rücktransformation}
\begin{equation}
x(n) = \Z^{-1}\left\{X(z)\right\} = \frac{1}{2\pi j} \oint_c X(z) z^{n-1} \d z
\end{equation}
Komplexes Integral: Integration über geschlossenen Weg in der Komplexen Ebene (\rightarrow Funktionentheorie, Residuensatz).
2024-07-13 11:19:40 +02:00
2024-08-04 10:10:17 +02:00
z-Transformation ist die Entwicklung von $x(n)$ in eine \textbf{Laurent-Reihe} zum $z=0$ (keine Potenzreihe, nur negative Exponenten für $z$).
\begin{equation}
\Z\left\{x(n)\right\} = x(0) + \frac{x(1)}{z} + \frac{x(2)}{z^2} + \dots
\end{equation}
\paragraph{Beispiel}: z-Transformation der Zeitreihen
\begin{align}
&\left\begin{array}{l}
h(n) = \{1,2,2,0,0,0,\dots\}\\
x(n) = \{1,1,0,1,0,0,\dots\}
\end{array}\right\} \text{siehe obiges zur Faltung} \\
&H(z) = 1 + 2z^{-1} + 2z^{-2} \\
&X(z) = 1+ z^{-1} + z^{-3}
\end{align}
2024-07-13 11:19:40 +02:00
2024-08-04 10:10:17 +02:00
Jetzt Multiplikation der Spektren: Polynommultiplikation
\begin{equation}
H(z)\cdot X(z) = 1 + 3z^{-1} + 4z^{-2} + 3z^{-3} + 2z^{-4} + 2z^{-5} = Y(z)
\end{equation}
Das entspricht Offensichtlich: der z-Transformation der Zeitreihe $y(n) = \{1,3,4,3,2,2,0,0,\dots\}$ \Rightarrow siehe Bsp. zur Faltung
2024-07-13 11:19:40 +02:00
2024-08-04 10:10:17 +02:00
Beobachtung:
\begin{enumerate}[a)]
\item Der Wert vor dem Ausdruck $z^{-n}$ ist offensichtlich der Wert der Reihe zum Zeitpunkt $n$
\item Die Spektren $H(z)$ und $X(z)$ sind $<\infty$ für alle Werte von $\neq0$ \Rightarrow Konvergenz der z-Transformation
\end{enumerate}
2024-07-13 11:19:40 +02:00
2024-08-04 10:10:17 +02:00
\subsubsection{Konvergenz der z-Transformation}
Die z-Transformation ist nur sinnvoll, wenn sie beschränkt ist.
Daher ist die Konvergenzuntersuchung der Reihe notwendig.
2024-07-13 11:19:40 +02:00
2024-08-04 10:10:17 +02:00
Definition eines Konvergenzgebietes:
\begin{equation}
R = \left\{z: \left\lvert \sum_{n=-\infty}^{\infty} x(n) z^{-n}\right\rvert < \infty\right\}
\end{equation}
Konvergenzregion $R$ umfasst alle Werte von $z$, für die der Betragswert der Summe endlich ist.
Um die Analyse zu strukturieren, kann man die Reihe in eine kausale Reihe und eine akausale Reihe aufteilen:
\begin{equation}
X(z) = \sum_{n=0}^{\infty} x(n) z^{-n} + \sum_{n=-\infty}^{-1} x(n)z^{-n} = X_\text{c}(z) + X_\text{a}(z)
\end{equation}
Es gilt:
\begin{itemize}
\item $\abs*{X_\text{c}(z)} < \infty$ für $\abs*{z} > r_\text{c}$, d.h für alle $z$ außerhalb eines Konvergenzradius $r_\text{c}$
\item $\abs*{X_\text{a}(z)} < \infty$ für $\abs*{z} < r_\text{<}$, d.h für alle $z$ innerhalb eines Konvergenzradius $r_\text{a}$
\end{itemize}
Wobei $r_\text{c},\,r_\text{a}\in \R^+$.
2024-07-13 11:19:40 +02:00
2024-08-04 10:10:17 +02:00
In der z-Ebene:
\begin{figure}[H]
\centering
\includegraphics[width=0.48\textwidth]{img/vl10-z-konvergenz-kausal.png}
\includegraphics[width=0.48\textwidth]{img/vl10-z-konvergenz-akausal.png}\\
\includegraphics[width=0.96\textwidth]{img/vl10-z-konvergenz-beide.png}\\
\end{figure}
2024-07-13 11:19:40 +02:00
2024-08-04 10:10:17 +02:00
\paragraph{Beispiel für Konvergenzregion}
\begin{enumerate}[a)]
\item $x(n) = a^n$ wo $n\gt0$ sei (kausaler Fall) \\
2024-07-13 11:19:40 +02:00
\begin{align}
2024-08-04 10:10:17 +02:00
X(z) &= \sum_{n=0}^{\infty} a^nz^{-n} = \sum_{n=0}^{\infty} (az^{-1})^n = \\
\shortintertext{geometrische Reihe für $\abs*{\frac{a}{z}} <1$ \Rightarrow $\abs*{a} < \abs*{z}$}
&= \frac{1}{1-\frac{a}{z}}
2024-07-13 11:19:40 +02:00
\end{align}
2024-08-04 10:10:17 +02:00
\begin{center}
\includegraphics[width=0.5\textwidth]{img/vl10-beispiel-kausal.png}
\end{center}
\item $x(n) = b^n$ für $n<0$
2024-07-13 11:19:40 +02:00
\begin{align}
2024-08-04 10:10:17 +02:00
X(z) &= \sum_{n=-\infty}^{-1} b^nz^{-n} = -1 + \sum_{n=0}^{\infty} \left( \frac{z}{b}\right)^n =
\shortintertext{geometrische Reihe für $\abs*{\frac{z}{b}} <1$ \Rightarrow $\abs*{z} < \abs*{b}$}
&= -1 + \frac{1}{1-\frac{z}{b}}
2024-07-13 11:19:40 +02:00
\end{align}
2024-08-04 10:10:17 +02:00
\begin{center}
\includegraphics[width=0.5\textwidth]{img/vl10-beispiel-akausal.png}
\end{center}
2024-07-13 11:19:40 +02:00
2024-08-04 10:10:17 +02:00
\item $x(n) = \cos(n\omega) ) \frac{1}{2}(\e^{jn\omega}+\e^{-jn\omega})$
2024-07-13 11:19:40 +02:00
\begin{align}
2024-08-04 10:10:17 +02:00
X(z) &= \frac{1}{2} \sum_{n=0}^{\infty} (\e^{jn\omega}+\e^{-jn\omega})z^{-n}
= \frac{1}{2}\left[\sum_{n=0}^{\infty} \left(\frac{\e^{j\omega}}{z}\right)^n + \sum_{n=0}^{\infty} \left(\frac{\e^{-j\omega}}{z}\right)^{-n}\right] =\\
\shortintertext{$\abs*{z}>1$}
&= \frac{1}{2}\left[\frac{1}{1-\frac{\e^{j\omega}}{z}} + \frac{1}{1-\frac{\e^{-j\omega}}{z}}\right] = \frac{z(z-\cos\omega)}{z^2-2z\cos\omega + 1}
2024-07-13 11:19:40 +02:00
\end{align}
2024-08-04 10:10:17 +02:00
\begin{center}
\includegraphics[width=0.5\textwidth]{img/vl10-beispiel-cos.png}
\end{center}
Sonderfall $\omega=0$ \Rightarrow $x(n)=1$ für $n\gt1,\,x(n)=u(n)$
2024-07-13 11:19:40 +02:00
\begin{equation}
2024-08-04 10:10:17 +02:00
X(Z) = \frac{z(z-1)}{z^2-2z+1}=\frac{z}{z-1}
2024-07-13 11:19:40 +02:00
\end{equation}
\end{enumerate}
2024-08-04 10:10:17 +02:00
\noindent\Rightarrow Lage von Polen und Nullstellen in der z-Ebene charakterisisert die Eigenschaften von Systemen
hinsichtlich Stabilität!
\subsubsection{Stabilitätskriterium im Frequenzbereich}
Bei einem stabilen System war im Zeitbereich ein Kriterium:
2024-07-13 11:19:40 +02:00
\begin{equation}
2024-08-04 10:10:17 +02:00
\sum_{n=-\infty}^{\infty} \abs*{h(n)} < \infty
2024-07-13 11:19:40 +02:00
\end{equation}
2024-08-04 10:10:17 +02:00
Für die Übertragungsfunktion eines Kausalen Systems gilt:
\begin{align}
\abs*{H(z)} &= \abs*{\sum_{n=0}^{\infty} h(n)z^{-n}} \,\explUnder[\le]{Dreicksungleichung}\,\sum_{n=0}^{\infty} \abs*{h(n)}\cdot\abs*{z^{-n}} \\
\shortintertext{also ist für $\abs*{z} \gt 1$}
\abs*{H(z)} &\le \abs*{\sum_{n=0}^{\infty} h(n)}
\end{align}
\Rightarrow bei stabilem System ist $H(z)$ sicher beschränkt für $\abs{z}\gt1$. Ein Kausales System, das stabil ist, hat keine Pole auf oder außerhalb des Einheitskreises.
Für unsere Beispiele gilt entsprechend:
\begin{enumerate}[a)]
\item stabil für $a<1$, offensichtlich klar auch im Zeitbereich
\item stabil für $b>1$
\item Pole für $z^2-2z \cos\omega+1=0$ \Rightarrow $z_{1/2} = \cos\omega\pm j\sin\omega$
\begin{center}
\includegraphics[width=0.4\textwidth]{img/vl10-beispiel-pole.png}
\end{center}
\end{enumerate}
Wenn man bei c) die Transformierte als Systemantwort interpretiert, dass ist dies die Reaktion des Systems auf einen Einheitsimpuls. Reaktion ist eine $\cos$-Schwingung undendlicher Dauer (ungedämpft).\\
Für eine gedämpften $\cos$:
\begin{equation}
\Z \left\{a^n\cos n\omega\right\} = \frac{z(z-a\cos\omega)}{z^-2az\cos\omega + a^2}
\end{equation}
\Rightarrow Pol bei $z_{1/2} = a\cos\omega \pm j a\sin\omega$ \Rightarrow stabil für $a<1$
\subsubsection{Einige Korrespondenzen der z-Transformation}
\newcolumntype{C}{>{$\displaystyle}c<{$}}
\begin{center}
\begingroup
\renewcommand{\arraystretch}{3}
\begin{tabular}{C|C}
f(n) & F(z) \\\hline\hline
\delta(n) & 1 \\\hline
u(n) & \frac{z}{z-1} \\\hline
u(n)\,a^n & \frac{z}{z-a} \\\hline
u(n)\,\cos n\omega & \frac{z(z-\cos\omega)}{z^2-2z-\cos\omega+1} \\\hline
u(n)\,\sin n\omega & \frac{z\sin\omega}{z^2-2z\cos\omega + 1} \\\hline
u(n)\,n & \frac{z}{(z-1)^2} \\\hline
u(n)\,\cosh n\beta & \frac{z(z-\cosh\beta)}{z^2-2z\cosh\beta+1} \\\hline
u(n)\, \frac{1}{n!} & \e^\frac{1}{z}
\end{tabular}
\endgroup
\end{center}
\lecture{11}
\subsubsection{Eigenschaften der einseitigen z-Tranformation}
\begin{enumerate}[a)]
\item \textbf{Linearität}: Linearkombination von k Zeitreihen
\begin{equation}
\Zvon{\sum_{k=-1}^{i} c_k x_k(n)} = \sum_{k=1}^{i}c_k \Zvon{x_k(n)}
\end{equation}
\item \textbf{Verschiebung im Zeitbereich}
Sei y(n) die um $m$ Zeitpunkte nach rechts (später) verschobene kausale Zeitreihe $x(n)$, also $y(n) = x(n-m)$.
Dann ist
\begin{align}
Y(z) &= \sum_{n=0}^{\infty}[x(n-m)]z^{-n} \explUnder[=]{subst $k=n-m$} \sum_{k=-m}^{\infty}x(k) z^{-m+k} \\
&= z^{-m} \explUnder[\sum_{k=0}^{\infty}]{da Kausalität vorausgesetzt kein Beitrag für $k=-m\dots-1$} x(k) z^{-k} = z^{-m} X(z)
\end{align}
Bei Linksverschiebung (früher) $y(n) = x(n+m)$:
\begin{align}
Y(z) &= \sum_{n=0}^{\infty} x(n+m) z^{-n} \explUnder{k=n+m} \sum_{k=m}^{\infty}x(k) z^{+(m-k)} \\
&= z^{+m} \Big[\underbrace{\sum_{k=0}^{\infty} x(k)z^{-k}}_{X(z)} - \sum_{k=0}^{m-1} x(k) z^{-k} \Big] \\
\Rightarrow Y(z) &= z^{+m} \left(X(z)-\sum_{n=0}^{m-1}x(n)z^{-n}\right)
\end{align}
\includegraphics[width=0.8\textwidth]{img/vl11-z-verschoben.png}
\item Ähnlichkeit:
\begin{align}
\Zvon{a^n x(n)} &= \sum_{n=0}^{\infty}a^n x(n) z^{-n} = \sum_{n=0}^{\infty}x(n)z(z\,a^{-1})^{-n} \\
&= X(z\, a^{-1})
\end{align}
\item \textbf{Faltungssatz}:
\begin{equation}
\Zvon{f(n) * g(n)} = F(z) \cdot G(z)
\end{equation}
Bei linearen Systemen ist
\begin{align}
y(n) &= h(n) * x(n) \\
Y(z) &= H(z) \cdot X(z)
\end{align}
wobei $H(z)$ die Überlappungsfunktion des Systems ist
\item Differentation der Bildfunktion:
\begin{align}
-z \odv{F(z)}{z} = \Zvon{n\cdot f(n)} \\
\shortintertext{allgemein}
\left(-z \odv{}{z} \right)^k F(z) = \Zvon{n^k f(n)}
\end{align}
\end{enumerate}
\subsubsection{Die z-Transformation bei linearen rekursiven Systemen}
Die Klasse der kausalen linearen rekusriven Systeme ist beschreibbar durch:
\begin{equation}
\sum_{k=0}^{p}a_k y(n-k) = \sum_{k=0}^{q} b_k x(n-k)
\end{equation}
Nunmehr z-Transformation auf beiden Seiten:
\begin{align}
\Zvon{\sum_{k=0}^{p}a_k y(n-k)} &= \Zvon{\sum_{k=0}^{q} b_k x(n-k)} \\
\shortintertext{mit Linearitätssatz}
\sum_{k=0}^{p}a_k \Zvon{y(n-k)} &= \sum_{k=0}^{q} b_k \Zvon{x(n-k)} \\
\shortintertext{mit Vertauschungssatz}
\sum_{k=0}^{p}Y(z) z^{-k} &= \sum_{k=0}^{q} b_k X(z) z^{-k}
\end{align}
Daraus:
\begin{align}
H(z) &= \frac{Y(z)}{X(z)} = \frac{\sum_{k=0}^{q}b_k z^{-k}}{\sum_{k=0}^{p} a_k z^{-k}} \\
\Aboxed{
H(z) &= \frac{b_0 + b_1z^{-1} b_2z^{-2} + \dots + b_qz^{-q}}{a_0 + a_1z^{-1} a_2z^{-2} + \dots + a_pz^{-p}}
}
\end{align}
\Rightarrow Ein lineares, rekursives System hat immer eine in $z$ rationale Übertragungsfunktion.
Mit dem Hauptsatz der linearen Algebra lässt dies umschreiben zu
\begin{align}
H(z) &= c \frac{\prod_{k=1}^{q} \left(1-z_kz^{-1}\right)}{\prod_{k=1}^{p} \left(1-p_kz^{-1}\right)} \\
&= c \frac{\left(1-z_1 z^{-1}\right) \left(1-z_2 z^{-1}\right) \dots \left(1-z_q z^{-1}\right)}
{\left(1-p_1z^{-1}\right) \left(1-p_2z^{-1}\right) \dots \left(1-p_pz^{-1}\right)}
\end{align}
Für
\begin{itemize}
\item $z=z_k$: $H(z) = 0$ \Rightarrow Übertragungsfunktion hat eine Nullstelle, Systemausgang $=0$
\item $z\to p_k$: $H(z) \to \infty$ \Rightarrow Übertragungsfunktion hat einen Pol, Systemausgang ist unendlich hoch
\end{itemize}
\paragraph{Beispiel}
2024-07-13 11:19:40 +02:00
\begin{align}
2024-08-04 10:10:17 +02:00
H_1(z) &= \frac{b_0 + b_1 z^{-1} + b_2 z^{-2}}{a_0 + a_1 z^{-1} + a_2 z^{-2}} \\
&= \frac{b_0 z^2 + b_1 z + b_2}{a_0 z^2 + a_1 z + a_2} \\
&= \frac{(z-z_1)(z-z_2)}{(z-p_1) + (z-p_2)} = \frac{(1-z_1 z^{-1})(1-z_2z^{-1})}{(1-p_1z^{-1})(1-p_2z^{-1})}
\shortintertext{wo:}
z_{1,2} &= \frac{-b_1\pm \sqrt{b_1^2-4b_0b_2}}{2b_0} \\
p_{1,2} &= \frac{-a_1\pm \sqrt{a_1^2-4a_0a_2}}{2a_0}
2024-07-13 11:19:40 +02:00
\end{align}
2024-08-04 10:10:17 +02:00
\begin{enumerate}
\item $b_1 = b_2 = 0$\\\Rightarrow $H(z)$ hat zwei Pole bei $z=p_1$ und $z=p_2$ \Rightarrow ``Allpol-System''
\item $b_2 = 0$\\\Rightarrow $H(z)$ hat zwei Pole (wie bei Fall 1), eine Nullstelle bei $z=0$ und eine Nullstelle bei $z=\frac{-b_1}{b_0}$
\item keine Einschränkungen, d.h. Pole wie Fall 1, Nullstellen für $z=z_1$ und $z=z_2$
\end{enumerate}
\subsubsection{Realisierungen}
\begin{center}
\includegraphics[width=0.8\textwidth]{img/vl11-z-beispiel.png}
\end{center}
Für das allgemeine, rekursive, lineare System ist die Beschreibungsgleichung
2024-07-13 11:19:40 +02:00
\begin{align}
2024-08-04 10:10:17 +02:00
\sum_{k=0}^{p} a_k y(n-k) = \sum_{k=0}^{q} b_k x(n-k)
\shortintertext{bzw:}
Y(z) \sum_{k=0}^{p} a_k z^{-k} = X(z) \sum_{k=0}^{q} b_k z^{-k}
2024-07-13 11:19:40 +02:00
\end{align}
2024-08-04 10:10:17 +02:00
Aus der Gleichung ist sofort ersichtlich, dass 3 Grundoperationen ausreichen:
\begin{enumerate}
\item Multiplikation mit einer Konstanten
\item Summation (Subtraktion)
\item Verzögerung um \textbf{einen} Abtasttakt
\end{enumerate}
Realisierung eines gewünschten Umformalgorithmus durch ein Rechenprogramm oder direkt durch Hardwarebausteine Multiplizierer, Summierer und Schieberegister, die in bestimmter Weise verknüpft werden.\\
Prinzipiell können unterschiedliche Strukturen den gleichen Algorithmus realisieren.
Bei endlicher Rechengenauigkeit bleiben jedoch Unterschiede bestehen.
\paragraph{Blockdiagramme} geben die Struktur einer Realisierung an. 3 Bauelemente decken alle Anwendungen ab:
\begin{enumerate}
\item Multiplizierer mit einer Konstanten $a$ \\
\includegraphics[width=0.5\textwidth]{img/vl11-block-Multiplizierer.png}
\item Addierer (Subtrahierer) \\
\includegraphics[width=0.5\textwidth]{img/vl11-block-addierer.png}
\item Verzögerung, Zeitverschiebung um einen Abtasttakt\\
\includegraphics[width=0.5\textwidth]{img/vl11-block-verzögerung.png}
\end{enumerate}
2024-07-13 11:19:40 +02:00
2024-08-04 10:10:17 +02:00
\paragraph{Beispiele}
\begin{itemize}
\item Nichtrekursives System \\
\includegraphics[width=0.8\textwidth]{img/vl11-bsp-nichtrekursiv.png} \\
\begin{align}
y(n) &= x(n) + x(n-1) - a\,x(n-2) \\
Y(z) &= X(z) (1 + z^{-1} - a\,z^{-2}) \\
H(z) &= \frac{Y(z)}{X(z)} = 1 + z^{-1} - a\,z^{-2} \\
\mathcal{Z}^{-1}\{H(z)\} &= \delta(n) + \delta(n-1) - a\,\delta(n-2)
\end{align}
\includegraphics[width=0.5\textwidth]{img/vl11-bsp-nichtrekursiv-H.png}
\begin{itemize}
\item System mit endlicher Impulsantwort, FIR
\item System hat zwei Verzögerungselemente, entspricht Grad des Polynoms
\end{itemize}
\item Rekursives System 1. Ordnung \\
\includegraphics[width=0.8\textwidth]{img/vl11-bsp-rekursiv.png} \\
\begin{align}
y(n) &= x(n) + a\, y(n-1) \\
\end{align}
Impulsantwort: \\
\newcolumntype{C}{>{$}c<{$}} % math-mode version of "c" column type
\begin{tabular}{C|C|C}
n & x(n) & y(n) \\
0 & 1 & 1 \\
1 & 0 & a \\
2 & 0 & a^2 \\
3 & 0 & a^3 \\
4 & 0 & a^4 \\
5 & 0 & a^5 \\
\end{tabular}\\
\Rightarrow System mit Impulsantwort von unendlich langer Dauer:
\begin{align}
Y(z) &= X(z) + a\,z^{-1} Y(z) \\
H(z) &= \frac{1}{1-a\,z^{-1}} = \frac{z}{z-a} \\
\mathcal{Z}^{-1}\{H(z)\} &= a^n u(n)
\end{align}
Beachte: der Addierer darf nur Werte erhalten, die bereits berechnet wurden.
Deshalb, in jedem Zyklus mindestens ein Verzögerer erforderlich!
Kaskadierung dieses Systems ergibt rekursives System 2. Ordnung:\\
\includegraphics[width=0.8\textwidth]{img/vl11-bsp-rekursiv-kaskadiert.png} \\
Zwei Gleichungen
\begin{align}
w(n) &= x(n) + a\,w(n-1) \\
y(n) &= w(n) + a\,y(n-1) \\
\Rightarrow y(n) &= x(n) + 2a\,y(n-1) - a^2 y(n-2) \\
Y(z) &= X(z) + 2a\,z^{-1} Y(z) - a^2z^{-2} Y(z) \\
\Rightarrow H(z) &= \frac{1}{1 - 2a\,z^{-1} + a^2z^{-2}} = \frac{1}{(1-a\,z^{-1})^2}
\end{align}
\Rightarrow Kaskadierung bedeutet Multiplikation der Übertragungsfunktion
\end{itemize}
2024-07-13 11:19:40 +02:00
\end{document}