\documentclass[11pt, a4paper]{article} % \usepackage[utf8]{inputenc} \usepackage[german]{babel} \usepackage[left=2cm,right=2cm,top=2cm,bottom=2cm]{geometry} \usepackage{mathtools} \usepackage{MnSymbol} % for >>> \ggg sign \usepackage{derivative} \usepackage{bbold} % \mathbb font \usepackage{braket} \usepackage{siunitx} \usepackage{graphicx} \usepackage[shortlabels]{enumitem} % easily change enums to use letters, eg [(a)] or [a)] \usepackage{etoolbox} \usepackage{xcolor} \usepackage{float} \usepackage[hidelinks]{hyperref} \usepackage{subcaption} % \hypersetup{colorlinks = true, % Colours links instead of ugly boxes % urlcolor = blue, % Colour for external hyperlinks % linkcolor = cyan, % Colour of internal links % citecolor = red % Colour of citations % } \DeclarePairedDelimiter{\abs}{\lvert}{\rvert} % \DeclareMathOperator{\d}{d} \renewcommand{\d}{\text{d}} \DeclareMathOperator{\e}{e} \DeclareMathOperator{\T}{T} % transposed \DeclareMathOperator{\sgn}{sgn} \DeclareMathOperator{\tr}{tr} \DeclareMathOperator{\const}{const} \newcommand{\explUnder}[2][=]{% \underset{\substack{\uparrow\\\mathrlap{\text{\hspace{-1em}#2}}}}{#1}} \newcommand{\textbetweenrules}[2][.4pt]{% \par\vspace{\topsep} \noindent\makebox[\textwidth]{% \sbox0{#2}% \dimen0=.5\dimexpr\ht0+#1\relax \dimen2=-.5\dimexpr\ht0-#1\relax \leaders\hrule height \dimen0 depth \dimen2\hfill \quad #2\quad \leaders\hrule height \dimen0 depth \dimen2\hfill }\par\nopagebreak\vspace{\topsep} } \newcommand{\lecture}[1]{ \textbetweenrules{Vorlesung #1} } \providecommand{\tightlist}{% \setlength{\itemsep}{0pt}\setlength{\parskip}{0pt}} \def\gt{>} \def\lt{<} \def\R{\mathbb{R}} \def\F{\mathcal{F}} \newcommand{\Fvon}[1]{\mathcal{F}\left\{#1\right\}} \newcommand{\Zvon}[1]{\mathcal{Z}\left\{#1\right\}} \newcommand{\Fourier}[1]{ \mathcal{F}\left\{#1\right\} } \title{% Einführung in die Digitale Signalverarbeitung \\ \large Studentische Mitschrift zur Vorlesung } \author{Matthias Quintern} \date{\today} \begin{document} \maketitle \tableofcontents \newpage % \setcounter{page}{1} \lecture{1} \section{Grundbegriffe} \paragraph{Gegenstand} ~\\ Manipulation von Signalen, welche in der Form von Zahlenfolgen vorliegen. Signale repräsentieren eine zu übermittelnde Nachricht. Heutzutage werden Signale zumeist elektrisch dargestellt; für das folgende ist die Repräsentation unerheblich (nur der durch die physikalische Größe dargestellte Zahlenwert ist für uns relevant).\\ Digitale Signale kommen in der Natur normalerweise nicht vor, sondern müssen erst durch einen Umwandlungsmeachnismus aus analogen Signalen erzeugt werden. Nach Bearbeitung durch Signalprozessor erfolgt die Rückumwandlung. \paragraph{Beispiel: Signal-Prozess-Kette eines analogen Telefons} ~\\ Analoges Werte- und Zeit-kontinuierliches Signal \begin{enumerate} \item Tiefpassfilter \item Abtaster (entnimmt zu äquidistanten Zeitpunkten ``Amplitudenproben'' aus dem Signal) \item Kompressor (Absenkung hoher Amplituden, Verstärkung kleiner Amplituden) \item 8-bit AD-Wandler (Zeit und Wert-diskretes Signal) \item Zahlenstrom zum Vermittlungspartner \item Vermittlung \item DA-Wandler \item Dekompression \item Tiefpass \item Analoges Ausgangssignal \end{enumerate} \paragraph{Kennwerte} ~\\ International genormt, CCITT, ITU \begin{itemize} \item Übertragungsbereich: $\SI{300}{\Hz}\,\dots\, \SI{3,4}{\kilo\Hz}$ (ermöglicht Identifizierung) \item Abtastrate: $\SI{8000}{\per\s} = \SI{8}{\kilo\Hz}$ \rightarrow alle $\SI{125}{\micro\s}$ ein Abtastwert \item AD und DA-Wandler mit 8-bit \rightarrow Übertragungsrate $\SI{8000}{\per\s} \times \SI{8}{\bit} = \SI{68}{\kilo\bit\per\s}$ \end{itemize} \noindent\textit{Könnte unvollständig sein, war bei Vorlesung 1 nicht anwesend.} \lecture{2} \section{Signale} \subsection{Anwendungen digitaler Signaltechnik} \begin{itemize} \item Bildverarbeitung \item Kommunikationstechnik \item Sprachsysnthetisierung \end{itemize} \subsection{Analog vs. Digital} \begin{itemize} \item D: Nur 2 states: 0/1 (z.B: 5V = 1, 0V = 0, oder besser $1 \ge 2.5$) \Rightarrow ungewollte flips unwahrscheinlich \item A: Kleine V Schwankung \Rightarrow Wertänderung \item D: Exakte Werte \Rightarrow \begin{itemize} \tightlist \item genauer \item besser reproduzierbar \item weniger Störanfällig \end{itemize} \item D: Mikroelektronik - Kombination \begin{itemize} \tightlist \item Ermöglicht Operationen die analog nicht/schwer möglich sind \item Hohe Zuverlässigkeit \item Niedrige Produktionskosten \item Reprogrammierbarkeit/Freie Programmierbarkeit \item verarbeitung mehrdimensionaler Signale \item Schalung mit sehr langsamen Zeitverhalten \end{itemize} \end{itemize} \subsection{Häufig genutzte Signale}\label{huxe4ufig-genutzte-signale} \subsubsection{Trigonometrische Funktionen}\label{trigonometrische-funktionen} Charakterisiert durch: - Periode $T = t_1 - t_0 = 1/f$ - Nullphasenwinkel $\alpha = \omega t_0 = 2\pi f t_0$ - Amplitude $A$ z.B. $u(t) = A \sin(\omega (t-t_0))$ \subsubsection{Sprungfunktion s(t)}\label{sprungfunktion-st} $s(t) = \{ 0\, \mathrm{für}\,x < 0, 1\, \mathrm{für}\,t >= 0$ Ermöglicht es, Signal auszublenden Bsp: Bestimmtes Signal $f(t)$ zwischen $t_1, t_2$ betrachten, rest wegschneiden: \begin{equation} f'(t) = f(t) \cdot [ s(t- t_1) - s(t - t_2) ] \end{equation} % \begin{Shaded} % \begin{Highlighting}[] % \ImportTok{import}\NormalTok{ matplotlib.pyplot }\ImportTok{as}\NormalTok{ plt} % \ImportTok{import}\NormalTok{ numpy }\ImportTok{as}\NormalTok{ np} % \NormalTok{x }\OperatorTok{=}\NormalTok{ np.linspace(}\OperatorTok{{-}}\DecValTok{1}\NormalTok{, }\DecValTok{1}\NormalTok{, }\DecValTok{1000}\NormalTok{)} % \AttributeTok{@np.vectorize} % \KeywordTok{def}\NormalTok{ s(t):} % \ControlFlowTok{return} \DecValTok{1} \ControlFlowTok{if}\NormalTok{ t }\OperatorTok{\textgreater{}=} \DecValTok{0} \ControlFlowTok{else} \DecValTok{0} % \AttributeTok{@np.vectorize} % \KeywordTok{def}\NormalTok{ f(t):} % \ControlFlowTok{return}\NormalTok{ np.sin(np.pi }\OperatorTok{*}\NormalTok{ t) }\OperatorTok{*}\NormalTok{ (s(t }\OperatorTok{+} \FloatTok{0.5}\NormalTok{) }\OperatorTok{{-}}\NormalTok{ s(t }\OperatorTok{{-}} \FloatTok{0.5}\NormalTok{))} % \NormalTok{plt.plot(x, f(x))} % \NormalTok{plt.show()} % \end{Highlighting} % \end{Shaded} \begin{figure}[H] \centering \includegraphics[width=0.8\textwidth]{img/Figure_1.png} \caption{Figure\_1.png} \end{figure} \subsubsection{Deltaimpuls / Diracfunktion}\label{deltaimpuls-diracfunktion} Unendlich kurze Dauer Betrachtet man $\delta(t)$ auf approximierte Weise ergibt sich eine Kastenfunktion: $f(t) = 1/2T$ für $t$ in $[-T, T]$, sonst 0 mit Fläche 1 Zusammenhang Sprung - Delta: $\delta(t) = \lim_{T \rightarrow 0} 1/{2T} [s(t + T) - s(t - T)]$ $\delta(t)$ kann auch als Ableitung der Sprungfunktion aufgefasst werden $\int_{-\infty}^\infty f(x) \delta(x) dx = f(0)$ \section{Lineare Systeme}\label{lineare-systeme} \begin{itemize} \tightlist \item Eingangsgröße (auch Ursache) $x(t)$ \item System / Wirkung $W$ \item Ausgangsgröße $y(t) = W\{x(t)\}$ \end{itemize} \subsection{Wichtige Systemeigenschaften} \begin{itemize} \item \textbf{Stabilität}: Ein System ist stabil wenn für ein beliebiges aber beschränktes Eingangssignal folgt, dass das Ausgangssignal auch beschränkt ist \emph{beschränkt:}\\ $< \infty$ \item \textbf{Linearität}: Ein System ist linear, wenn $W\big\{\sum_i^N a_i x_i(t)\big\} = \sum_i^N a_i y_i(t)$ \emph{keine Gegenseitige Beeinflussung der einzelnen Eingangsgrößen beim Durchgang durch das System} \end{itemize} \lecture{3} Man kann im Fall von N Eingangsgrößen ein bel. lin System der Ausgangsgrößen von N linearen Gliedern mit jeweils einer Ausgangsgröße erhalten. Als einziges System mit mehreren Eingangsgrößen ist dann das Summenglied zu betrachten.\\ \begin{center} \includegraphics[width=0.5\textwidth]{img/0c93bdcafbbb39b714fb6472a65a88e5.png} \end{center} \subsection{Zeitinvarianz}\label{zeitinvarianz} Ein System ist zietinvarianz, wenn die Wirkungsfunktion nicht von der Zeit abhängt. Also wenn $W\{x(t)\} = y(t)$ dann gilt bei Zeitinvarianten Systemen $W\{x(t-t_0)\} = y(t-t_0)$. $w_0, t_0 \in \R$ beliebig. \subsection{Kausalität}\label{kausalituxe4t} Ein Systme ist kausal, wenn der Verlauf von $y(t)$ nur vom Verlauf von $x(t)$ abhängt. Insbesondere gilt $x(t)=0$ für $t < 0$, $y(t) = 0$ für $t < 0$ Systeme, die linear und Zeitinvariant sind werden auch als \textbf{LTI}-Systeme bezecihent \emph{(linear, time invariant)} \subsection{Zieĺsetzung bei der Behandlung linearer Systeme}\label{zieux13asetzung-bei-der-behandlung-linearer-systeme} \begin{enumerate} \def\labelenumi{\arabic{enumi}.} \tightlist \item Berechnung des Ausgangssignals $y(t)$ bei gegebenen Eingangssignal $x(t)$ und bei bekanntem Systemverhalten $W\{\}$ \item Berechnung des Systemverhaltens $W\{\}$ bei bekannten Systemparametern \end{enumerate} \emph{in dieser VL Behandlung von 1.} \paragraph{Vorgehen bei 1.}\label{vorgehen-bei-1.} \begin{enumerate} \def\labelenumi{\arabic{enumi}.} \tightlist \item (experimentelle) Bestimmung des Systemverhaltens = Reaktion des Systems auf eine Standardtestfunktion \item Erzeugung von $x(t)$ durch geeignete Kombination zeitlich verschobener und unterschiedlich starker Realisierungen der Standardtestfunktion \item Ausgangssignal ist die Überlagerung der unterschiedlichen Funktionen, die durch die Wirkung es Systems auf die Standardtestfunktion am Eingang entstanden sind \end{enumerate} \subsubsection{Beispiel: LTI-System}\label{beispiel-lti-system} \begin{figure}[H] \centering \includegraphics[width=0.8\textwidth]{img/f36f9e521e19d9ccad6673279cc1b81e.png} \caption{f36f9e521e19d9ccad6673279cc1b81e.png} \end{figure} \subsection{Systembeschreibung über Standard-Signalverläufe}\label{systembeschreibung-uxfcber-standard-signalverluxe4ufe} Darstellung des Systemverhatens über die Sprungfunktion $s(t)$: Beim Anlegen von $s(t)$ reagiert das System mit einer Sprungantwort oder Übergangsfunktion $a(t) = W\{s(t)\}$. \\ Zunächst: \textbf{Jede beliebige Eingangsfunktion $x(t)$ lässt sich über Sprungfunktionen beliebig genau annähern}\\ \begin{figure}[H] \centering \includegraphics[width=0.5\textwidth]{img/9e419d11871db4a6fd2dc33bf21db0a3.png} \end{figure} \noindent Es gilt \begin{align} x(t) &\approx x(\tau_{n-1}) s(t-\tau_n) + s(t-\tau_n) [x(\tau_n) - x(\tau_n-\tau_{n-1})] + s(t-\tau_{n+1}) [x(\tau_{n+1}) - x(\tau_n-\tau_{n})] + \dots \\ &= \sum_{n=-\infty}^\infty s(t-\tau_{n+1}) x[(\tau_{n+1}) - x(\tau_n)] + \explUnder[{x(-\infty)}]{weil nur Zuwachs betrachtet wird} \end{align} Damit: Berechnung des Ausgangssignals \begin{equation} W\{x(t)\} \approx W\{\sum_{n=-\infty}^\infty s(t-\tau_{n+1}) [x(\tau_{n+1}) - x(\tau_n)]\} \end{equation} mit der Linearitätseigenschaft: \begin{equation} y(t) = \sum_{n=-\infty}^\infty W\{s(t-\tau_{n+1})\} [x(\tau_{n+1}) - x(\tau_n)]) \end{equation} Erweiterung des $x(\tau_{n+1}) - x(\tau_n)$ mit $\Delta \tau$: \begin{equation} y(t) = \lim_{\Delta\tau \rightarrow 0}\sum_{n=-\infty}^\infty W\{s(t-\tau_{n+1})\} [\frac{x(\tau_{n+1}) - x(\tau_n)}{\Delta\tau} \Delta\tau]) \end{equation} Grenzübergang $\tau \rightarrow 0$, dann gilt $\tau_n \rightarrow \tau, \Delta\tau \rightarrow \d\tau$ und es resultiert \begin{equation} y(t) = \int_{-\infty}^{\infty}W\{s(t-\tau)\} \odv{x(\tau)}{\tau}\d\tau \end{equation} \begin{equation} = \int_{-\infty}^{\infty}\,a(t-\tau) x^{'}(\tau)\,d\tau \end{equation} Die Systemantwort ist daher bei bekanntem Eingangssignal und bei bekannter Sprungantwort $a(t)$ vollständig bekannt.\\ \Rightarrow \textbf{Sprungantwort $a(t)$ charakterisisert ein lineares System vollständig} \lecture{4} \subsection{Charakterisierung von Systemen über Impulsantwort}\label{charakterisierung-von-systemen-uxfcber-impulsantwort} Beim Anlegen von $\delta(t)$ reagiert das System der \textbf{Impulsantwort} oder \textbf{Gewichtsfunktion} \begin{equation} h(t) = W\{\delta(t)\} \end{equation} Darstellung von $x(t)$ über Rechteckimpulse:\\ \begin{center} \includegraphics[width=0.5\textwidth]{img/2be591dc6a7d867f9539da71598d89c0.png} \end{center} \begin{equation} x(t) \approx \sum_{n=-\infty}^\infty x(\tau_n) [s(t-\tau_n) -s(t-\tau_{n+1})] \end{equation} Erweiterung um $\Delta\tau$: \begin{equation} x(t) \approx \sum_{n=-\infty}^\infty x(\tau_n) [\frac{s(t-\tau_n) -s(t-\tau_{n+1})}{\Delta\tau}\Delta\tau] \end{equation} Mit der Linearitätseigenschaft: \begin{equation} y(t) \approx \sum_{n=-\infty}^\infty x(\tau_n) W\Big\{\frac{s(t-\tau_n) -s(t-\tau_{n+1})}{\Delta\tau}\Delta\tau\Big\} \end{equation} Nach Grenzübergang $\Delta\tau\rightarrow 0, \sum \rightarrow \int$, wird \begin{equation} y(t) = \int_{-\infty}^\infty x(\tau_n) W\Big\{\delta(t-\tau)\Big\}d\tau \end{equation} Schließlich erhält man das \textbf{Faltungsintegral}: \begin{equation} y(t) = \int_{-\infty}^\infty x(\tau_n) h(t-\tau) d\tau\\ = x(t) \ast h(t) \end{equation} \begin{center} \textbf{\Rightarrow Kenntnis der Impulsantwort des Systems reicht zu seiner Beschreibung völlig aus.} \end{center} \noindent Eigenschaften: Faltung ist \begin{itemize} \tightlist \item Kommutativ: $h(t) \ast g(t) = g(t) \ast h(t)$ \item Distributiv: $h(t) \ast\big (g_1(t) + g_2(t)\big) = h(t) \ast g_1(t) + h(t) \ast g_2(t)$ \item Assoziativ: $h(t) \ast \big(g_1(t) \ast g_2(t)\big) = \big(h(t) \ast g_1(t)\big) \ast g_2(t)$ \end{itemize} Das Faltungsintegral ist oft schwierig zu berechnen. Im Zeit diskreten Fall geht es über die Faltungssumme. \section{Beschreibung linearer Systeme im Frequenzbereich}\label{beschreibung-linearer-systeme-im-frequenzbereich} Ohne Verlust von Informationen ist auch eine Darstellung im Frequenzbereich möglich. Damit ist oft eine einfachere mathematische Behandlung sowie die Gewinnung zuästzlicher Einsicht möglich. Vorgehen (zunächst mit periodischen Signalen): Ein Signal wird als das Ergebnis der Überlagerung von periodischen Elementarsignalen unterschiedlicher Amplitude, Frequenz und Phase betrachtet. Es wird so dann beschrieben, welche Amplituden und welche Phase welcher Frequenz zugewiesen werden muss, um nach Überlagerung dieser Funktionen wieder das betrachtete Signal zu erhalten. Die Verteilung der Amplituden über die Frequenz bezeichnet man auch als \textbf{Spektrum}. \subsection{Fourieranalyse}\label{fourieranalyse} \textbf{Definitionen} \begin{itemize} \item Funktion ist periodisch mit Periode $T$, wenn $f(t) = f(t+T)$ \item Frequenz: $\frac{1}{T}$ \item Kreisfrequenz: $\omega = 2\pi f = \frac{2\pi}{T}$ \end{itemize} Häufig: $\omega_0:= \frac{2\pi}{T}$ Beobachtung: die trig Funktionen $\sin(\omega_0 t), \cos(\omega_0 t)$ sind immer auch periodisch in $T$. Deshalb naheliegend: Entwicklung einer periodischen Funktion $f(t)$ in einer Reihe der Form \begin{equation} f(t) = \sum_{n=0}^{\infty}[a_n\cos(n\omega_o t) +b_n\sin(n\omega_0 t)] \end{equation} (Fourier-Reihe mit Fourierkoeffizienzen $a_n, b_n$, Grundschwinung $\omega_0$ und Oberschwingungen (oder Harmonische) $n\omega_0, n \gt 1$ Zur Berechnung der Koeffizienten $a_n$ und $b_n$ erfolgt eine Multiplikation der F-Reihe mit $\cos(m\omega_0 t)$ bzw $\sin(m\omega_0 t)$ und Integration von $-\frac{T}{2}$ bis $\frac{T}{2}$. \begin{align} a_n &= \frac{2}{T} \int_{-T/2}^{T/2} f(t)\cos(n\omega_0 t) \d t \\ b_n &= \frac{2}{T} \int_{-T/2}^{T/2} f(t)\sin(n\omega_0 t) \d t \end{align} Einfaches Beispiel: Periodisches Rechtecksignal\\ \begin{center} \includegraphics[width=0.5\textwidth]{img/f518751e303c817b71baf302f993c8a3.png} \end{center} \begin{align} a_n &= \frac{2}{T} \int_{-T/2}^{0} (-1))\cos(n\omega_0 t) \d t + \frac{2}{T} \int_{0}^{T/2} \cos(n\omega_0 t) \d t = 0 \\ b_n &= \frac{2}{T} \int_{-T/2}^{0} -\sin(n\omega_0 t) \d t + \int_{0}^{T/2} \sin(n\omega_0 t) dt = \frac{2}{n\pi}[1-\cos(n\pi)] \end{align} also $b_n = \frac{4}{\pi n}$ für $n$ ungerade, $0$ für $n$ gerade.\\ \begin{center} \includegraphics[width=0.5\textwidth]{img/8204e0ed75faf3c88307216170425ec4.png} \end{center} \lecture{5} \emph{einige rechenschritte übersprungen} Kompelxe Darstellung der Fourierreihe: \begin{align} f(t) = \sum_{n=0}^\infty\Big[c_n(\e^{j\, n\,\omega_0 t} + c^*_n (\e^{-j\,n\, \omega_0 t}\Big] \\ \shortintertext{mit} c = \frac{1}{2} (a_n - j b_n) \\ c^*_n = \frac{1}{2}(a_n + j b_n) \end{align} Aus \begin{align} c_n &= \frac{1}{T} \int_\frac{-T}{2}^\frac{+T}{2} f(t) \e^{-j n\omega_0 t} \d t \\ c_n^* &= \frac{1}{T} \int_\frac{-T}{2}^\frac{+T}{2} f(t) \e^{+j n\omega_0 t} \d t \end{align} folgt $c_n = c^*_{-n}$. Damit kann die Fourierreihe sher kompakt geschrieben werden als \begin{equation} f(t) = \sum_{n=-\infty}^\infty c_n \e^{j\, n\,\omega_0 t} \end{equation} $c_n = |c_n|\e^{j\phi_n}$ wobei inter Benutzung von $c_n = 1/2 (a_n-j b_n)$: $|c_n| = \frac{1}{2}\sqrt{a_n^2+b_n^2}$ Folgerungen: Komplexe $c_n$ enthalten die gleiche Information wie die $a_n$ und $b_n$ zusammen. Statt jeweils eines Spektrums für die $\sin$ und $\cos$ Anteile erhält man ein \textbf{Komplexes Spektrum}, das sich in ein \textbf{Betrags} und \textbf{Phasenspektrum} zerlegen lässt. Außerdem sehr wichtig: das Spektrum ist nun auch für negative $n$ (d.h. ``negative Frequenzen'') erklärt. \subsection{Fouriertransformation}\label{fouriertransformation} Zweck: Analyse nichtperiodischer kontinuierlicher Signale, d.h. von Signalen mit der Periodendauer $T\rightarrow \infty$ -\textgreater{} $\omega_0 \rightarrow 0$ Eine Unterscheidung in diskrete Spektrallinien, die jeweils eine diskrete Elementarfunktion repräsentieren, ist nicht mehr möglich. Stattdessen Definition einer Amplitudendichte $F(\omega)$. Die Dichte ist kontinuierlich definiert für $-\infty < \omega < \infty$. Sie bezeichnet ``Amplitude pro Frequenz'': $F(\omega) = \frac{c_n}{\Delta\omega}$ Also: das Signal wird jetzt aufgefasst als zusammengesetzt aus nicht abzählbar unendlich vielen Elementarfunktionen. Jetzt Ausführung des Grenzübergangs $T\rightarrow\infty$ d.h. der Abstand zwischen Spektrallinien $\Delta\omega \rightarrow d\omega$, $c_n \rightarrow c$ und die Amplitudendichte $\frac{c_n}{\Delta\omega} = F(\omega) \rightarrow c=F(\omega) \,d\omega$ Nach Ausführung dieses Grenzübergangs wird die Komplexe Fourier-Reihe zum Fourier-Integral: \emph{wichtig:} Amplitudendichtespektrum nach Zeitfunktion: \begin{equation} f(t) = \frac{1}{2\pi}\int_{-\infty}^{\infty}F(\omega)\e^{j\omega t} d\omega \end{equation} Zeitsignalunktion nach Amplitudendichtespektrum: \begin{equation} F(\omega) = \frac{1}{2\pi}\int_{-\infty}^{\infty} g(t)\e^{-j\omega t} d\omega \end{equation} Schreibweisen: - Fourier-Trafo: $\mathcal{F}\{f(t)\}=F(\omega)$ - Rück-Trafo: $\mathcal{F}^{-1}\{F(\omega)\}=f(t)$ - $f(t) \text{ist korrespondierende}\,\, o- F(\omega)$ \begin{enumerate} \def\labelenumi{\alph{enumi}.} \tightlist \item $\delta$ Impuls: $\mathcal{F}\{\delta(t)\} = 1$ (enthält alle Frequenzen) \item Rechteckimpuls: $\mathcal{F} = \frac{2}{\omega}\sin(\omega\frac{T}{2})$\\ \includegraphics[width=0.5\textwidth]{img/d1d77a60e5748fbb6075be9e7ce3c379.png} \item Komplexe Zeitfunktion $f(t) = \Big\{ \e^{i\omega_0 t}$ für $-T \lt t \lt T$ $\mathcal{F}(\omega) = ... = 2\frac{\sin[(\omega_0 - \omega)T]}{\omega_0 - \omega}$ rein reelles Spektrum\\ \includegraphics[width=0.5\textwidth]{img/b461995caf296304f338fa58179292e0.png} \end{enumerate} Sonderfall: undendlich lang andauernde Schwingung, d.h. $T\to\infty$ Grenzübergang: \begin{align} \lim_{T\to\infty} F(\omega)= \lim_{T\to\infty}\Big[ 2\pi\frac{sin[(\omega_0-\omega)T]}{\pi(\omega_0-\omega)}\Big] = 2\pi\delta(\omega_0 - \omega) = 2\pi\delta(\omega-\omega_0) \\ \intertext{d.h. es ist:} \mathcal{F}\{\e^{\pm j \omega_0 t}\} = 2\pi \delta(\omega \mp \omega_0) \end{align} Damit Analyse für verschiedene andere Funktionen möglich: \begin{enumerate} \item $\omega_0 = 0 \Rightarrow \mathcal{F}\{1\} = 2 \pi\delta(\omega)$ \item $\mathcal{F}\{\cos(\omega_0 t)\} = \pi\Big(\delta(\omega - \omega_0) + \delta(\omega+\omega_0)\Big)$\\ \includegraphics[width=0.5\textwidth]{img/87c76eb06054283058dc7446bfa6b016.png} \item $\mathcal{F}\{\sin(\omega_0 t)\} = j\pi\Big(\delta(\omega + \omega_0) - \delta(\omega-\omega_0)\Big)$ \end{enumerate} \lecture{6} \subsubsection{Eigenschaften der Fouriertransformation} \begin{enumerate} \item Linearität: $\mathcal{F}\left\{a f_1(t) + b f_2(t)\right\}= a F_1(\omega) + b F_2(\omega)$ \item Zeitliche Spiegelung: $\mathcal{F}\left\{f(-t)\right\}= F(-\omega)$ \item Vertauschungssatz: $\mathcal{F}\left\{F(t)\right\}= 2\pi f(\omega)$ \item Ähnlichkeitssatz: $\mathcal{F}\left\{f(a t)\right\}= \frac{1}{|a|} F(\frac{\omega}{a})$ \item Zeitverschiebung: $\mathcal{F}\left\{f(t-t_0)\right\}= F(\omega) \, \e^{-j\omega t_0}$ \item Frequenzverschiebung: $\mathcal{F}\left\{f(t)\, \e^{\pm j\omega_0 t}\right\}= F(\omega \mp \omega_0)$ \\ Anwendung: AM-Radio: Niederfrequenzsignal auf $\cos$ Träger: \\ $\mathcal{F}\left\{f_\text{NF}(t)\frac{1}{2}\left(\e^{j\omega_0 t}+\e^{-j\omega_0 t}\right)\right\}= \frac{1}{2}\left[F_\text{NF}(\omega - \omega_0) + F_\text{NF}(\omega+\omega_0)\right]$ \\ Damit kann das ursprüngliche Signal über Kanäle übertragen werden, die eine Übertragung im ``Basisband'' nicht zulassen, also z.B. über das Funkstrecken \item \textbf{Faltungssatz}: \begin{align} \mathcal{F}\left\{f_1(t) * f_2(t)\right\} &= F_1(\omega) F_2(\omega) \\ \mathcal{F}\left\{f_1(t) f_2(t)\right\} &= \frac{1}{2\pi} F_1(\omega) * F_2(\omega) \end{align} \end{enumerate} \subsection{Systemfunktion}\label{systemfunktion} Sei $x(t)$ ein Eingangssignal, $y(t)$ ein Ausgangssignal und $h(t)$ die Impulsantwort eines Systems, dann gilt: \begin{align} y(t) &= h(t) * x(t) \\ Y(\omega) &= h(\omega) \, X(\omega) \end{align} $H(\omega)$ wird als \textbf{Systemfunktion} oder \textbf{Übertragungsfunktion} bezeichnet. Beispiele für Systemfunktionen: \begin{itemize} \item Tiefpass, löscht hohe Frequenzanteile\\ \includegraphics[width=0.5\textwidth]{img/d2139093bf75907709b5b4931f9e79f3.png} \item Hochpass, löscht tiefe Frequenzanteile:\\ \includegraphics[width=0.5\textwidth]{img/3e7159914163c2bd518b3d958356e1b3.png} \item Bandpass:\\ \includegraphics[width=0.5\textwidth]{img/479f34ce10c157575e467ab190f00e3b.png} \end{itemize} Bei Betrachtung dieser Systemfunktionen zeigen sich die Vorteile der Darstellung im Frequenzbereich: Einfache mathematische Behandlung, anschauliche Deutung. Außerdem: die wesentlichen Korrespondenzen sind aufgelistet \subsubsection{Beispiel: Tiefpass}\label{beispiel-tiefpass} $H(\omega) = r_\Omega(\omega)$ 1 für $-\Omega\le\omega\le\Omega$, 0 sonst $y(t) = \mathcal{F}^{-1}\{1\cdot H(\omega)\} = 1/2\pi \int_{-\Omega}^\Omega 1\cdot \e^{+j\omega t}d\omega = \frac{1}{\pi}\frac{\sin{\Omega t}}{t}$ \\ \begin{center} \includegraphics[width=0.8\textwidth]{img/a7da8e0493a32dad6d808155e40296d2.png}\\ \includegraphics[width=0.8\textwidth]{img/21c9dfc6806c3164051d39b049436e06.png}\\ \end{center} Der ideale Tiefpass ist ein nicht-kausales System. Die Reaktion auf ein Ereignis zum Zeitpunkt t=0 erfolgt bereits vorher. Der Ideale Tiefpass ist also nicht realisierbar. \subsection{Fourierspektren von Singularitätsfunktionen}\label{fourierspektren-von-singularituxe4tsfunktionen} \begin{itemize} \tightlist \item $\sgn(x)$: $F(\omega) = \frac{2}{j \omega}$ \item $s(t)$: $F(\omega) = \pi\delta(\omega) + \frac{1}{j \omega}$ \item Eingeschalteter Sinus $Im\left(s(t) \, \e^{j\omega_0 t}\right)$: $F(\omega) = j \frac{\pi}{2}[\delta(\omega+\omega_0) - \delta(\omega-\omega_0) + \frac{\omega_0}{\omega_0^2 - \omega^2}]$ \item Kammfunktion (Folge von Delta-Impulsen im Abstand $T_A$):\\ \begin{align} f(t) &= \sum_{n=-\infty}^\infty \delta(t-n T_A) \\ F(\omega) &= \frac{2\pi}{T_A} \sum_{n=-\infty}^\infty \delta(\omega-n \frac{2\pi}{T_A}) \end{align} wieder Kammfunktion mit Höhe und Periode $\omega_A = 2\pi/T_A$ \end{itemize} \lecture{7} \section{Abtastung und Abtasttheorem} Betrachtet werde die Abtastung eines kontinuierlichen beliebigen Zeitsignals $f(t)$. Aus diesem Signal werden äquidistantem Zeitpunkten $n\cdot T_A$ Amplitudenproben entnommen. Annahme: der \textbf{ideale} Abtaste liefert eine Folge unendlich schmaler und unendlich hoher $\delta$-Impulse, deren Fläche proportional zum Wert der Funktion $f(t)$ sein. Nur in diesem Fall haben wir eine verfälschungsfreie Abtastung. \begin{figure}[H] \centering \includegraphics[width=0.8\textwidth]{img/vl07-id-abtast.png} % \caption{img/vl07-id-abtast.png} % \label{fig:img-vl07-id-abtast-png} \end{figure} Frage: Kann das Ursprungssignal $f(t)$ aus dem abgetasteten Signal $f_A(t)$ wiedergewonnen werden? Welcher Wert für $T_A$ muss gewählt werden, mit welcher Frequenz? \\ Für die Zeitfunktion $f_A(t)$ gilt nach idealer Abtastung: \begin{align} f_A(t) &= \dots + f(-T_A) \delta(t + T_A) + f(0) \delta(t) + f(T_A) \delta(t - T_A) + \dots \\ f_A(t) &= f(t) [\dots + \delta(t + T_A) + \delta(t) + \delta(t - T_A) + \dots ] \\ &= f(t) \sum_{n=-\infty}^{\infty} \delta(t - n T_A) \end{align} Berechnung des Spektrums der abgetasteten Funktion: \begin{align} F_A(\omega) &= \Fourier{f_A(t)} = \Fourier{f(t) \cdot \sum_{n=-\infty}^{\infty} \delta(t-n T_A)} \\ &= \frac{1}{2\pi} \Fourier{f(t)} * \Fourier{\sum_{n=-\infty}^{\infty} \delta(t-n T_A)} \intertext{mit $\Fourier{\sum_{n=-\infty}^{\infty} \delta(t-n T_A)} = \frac{2\pi}{T_A} \sum_{n=-\infty}^{\infty} \delta(\omega-n \frac{2\pi}{T_A})$ folgt} F_A(\omega) &= F(\omega) * \frac{1}{T_A} \sum_{n=-\infty}^{\infty} \delta(\omega - n \frac{2\pi}{T_A}) = \frac{1}{T_A} \sum_{n=-\infty}^{\infty} F(\omega -n\omega_A) \end{align} \Rightarrow Durch die Abtastung wird das Spektrum von $f(t)$ unendlich oft um die Frequenzen in $n\,\omega_A$ mit reproduziert. \subsection{Bandbegrenzte Signale} Sei $F(\omega)$ nun \textbf{bandbegrenzt}, d.h. $F(\omega) \equiv 0$ für $\omega > \omega_g$ bzw. $\omega < -\omega_g$ \begin{figure}[H] \centering \includegraphics[width=0.8\textwidth]{img/vl07-bandbegrenzt.png} % \caption{img/vl07-bandbegrenzt.png} % \label{fig:img-vl07-bandbegrenzt-png} \end{figure} \begin{enumerate} \item Das Originalspektrum um $\omega = 0$ repräsentiert das Originalsignal im Frequenzbereich, also die Zeitfunktion $f(t)$. Nach Entnahme dieses Teils des Spektrums mit Hilfe eines Tiefpasses ist die Rekonstruktion des Originalsignals erfolgt. \item Bedingung dafür, dass die Teilspektren nicht ``ineinander laufen'' ist \begin{equation} \omega_g \le \omega_A - \omega_g \Rightarrow \omega_A \ge 2\omega_g \end{equation} \Rightarrow Wenn das Spektrum der Originalfunktion bandbegrenzt ist und die Abtastfrequenz hoch genug, dann kann das Originalsignal exakt reproduziert werden\\ \Rightarrow Die Abtastfrequenz muss mindestens doppelt so hoch sein wie die die höchste (nach Bandbegrenzung) im Originalsignal vorhandene Frequenz\\ \Rightarrow Außerdem ist wichtig: das Spektrum des abgetasteten Signals ist mit $\omega_A$ periodisch: $F_A(\omega) = F_A(\omega + \omega_A)$ \end{enumerate} \paragraph{Beispiele} \begin{itemize} \item Telefon: $\omega_g = \SI{3.4}{\kilo\Hz}$ \quad\Rightarrow\quad $\omega_A = \SI{8}{\kilo\Hz}$ \item CD-Spieler: $\omega_g = \SI{20}{\kilo\Hz}$ \quad\Rightarrow\quad $\omega_A = \SI{44.1}{\kilo\Hz}$ \end{itemize} Wenn $\omega_A \gg 2\omega_g$, dann werden an die ``Flankensteilheit'' des Tiefpasses geringere Anforderungen gestellt. \\ Außerdem: wenn die Abtastfrequenz zu niedrig ist, dann überlappen sich die Einzelspektren. Man nennt diesen Effekt \textbf{Aliasing}, weil andere als das Originalsignal vorgetäuscht werden. \paragraph{Digitale Frequenz} Einführung des Begriffs der \textbf{digitalen Frequenz}: \begin{figure}[H] \centering \includegraphics[width=0.5\textwidth]{img/vl07-digitale_frequenz.png} \end{figure} \noindent Ersetzung von $\omega$ durch ein auf $\omega_A$ bezogenes $\omega_d$ mit $\omega_d = \omega \cdot T_A$ \begin{figure}[H] \centering \includegraphics[width=0.5\textwidth]{img/vl07-digitale_frequenz2.png} \end{figure} $\omega_d$ ist im Gegensatz zu $\omega$ ohne Einheit. Im \textit{digitalen Bereich} wird der Index ``d'' typischerweise weggelassen und man hat: \begin{equation} -\pi \le \omega \le \pi \end{equation} \section{Zeitdiskrete Signale} Ein zeitdiskretes Signal ist eine Folge von Zahlen, deren einzelne Elemente mithilfe einer diskreten Variable geordnet sind. Notation: \begin{align} x&=\{x(t_n)\} \\ &= \{\dots, x(t_{-2}),\,x(t_{-1}),\,x(t_0),\,x(t_1),\,x(t_2), \dots\} \end{align} Normalerweise Abtastung zu äquidistanten Zeitpunkten, also $t_n = n T_A$. Deshalb die kürzere Schreibweisen: \begin{equation} x = \{x(n)\} = \{\dots, x({-2}),\,x({-1}),\,x(0),\,x(1),\,x(2), \dots\} \end{equation} \textbf{Definitionen}: \begin{enumerate}[a)] \item kausale Zeitreihe: $x \equiv 0$ für $n < 0$ \item akausale Zeitreihe: $x \ge 0$ für $n \ge 0$ \item zweiseitige Zeitreihe: Ist immer über die Kombination von kausaler und akausaler Zeitreihe möglich \item deterministische Signale: $x(n)$ ist spezifiziert bevor das Signal erzeugt wird.\\ Oft sind diese Signale mit Hilfe analytischer Funktionen beschreibbar ($\sin(\omega t),\,s(t)\,\,\dots$) \item nichtdeterministische Signale: das Signal ist erst bekannt, nachdem das Zufallsexperiment ausgeführt wurde. Analyse dann mit Hilfe von Methoden der Statistik und Wahrscheinlichkeitsrechnung \end{enumerate} \lecture{8} \subsection{Wichtige Signale für die Analyse zeitdiskreter, linearer Systeme} \begin{enumerate}[a)] \item Einheitsimpuls (entspricht dem $\delta$-Impuls im kontinuierlichen Fall):\\ \begin{align} \delta(n) = \left\{ \begin{array}{cl} 1 & \text{für $n=0$} \\ 0 & \text{sonst} \end{array} \right \end{align} \item Einheitsschrittfunktion (entspricht $s(t)$ im kontinuierlichen Fall)\\ \begin{minipage}{0.4\textwidth} \begin{center} \includegraphics[width=\textwidth]{img/vl08-schrittfunktion.png} \end{center} \end{minipage} \hfill \begin{minipage}{0.5\textwidth} \begin{align} u(n) &= \left\{ \begin{array}{cl} 1 & \text{für $n\ge0$} \\ 0 & \text{sonst} \end{array} \right \\ \intertext{Es gilt:} \delta(n) &= u(n) - u(n-1) \\ u(n) &= \sum_{m=0}^{\infty} \delta(n-m) \end{align} \end{minipage} \item Exponentialfunktion:\\ \begin{minipage}{0.4\textwidth} \begin{figure}[H] \centering \includegraphics[width=\textwidth]{img/vl08-exponential.png} \caption*{Einseitige Exponentialfunktion für $a<1$} \end{figure} \end{minipage} \begin{minipage}{0.5\textwidth} \begin{align} x(n) = b \cdot (a)^n \end{align} mit $a,b \in \mathbb{C}$, außerdem ``zweiseitig'', d.h. definiert für $n \lesseqgtr 0$\\ \end{minipage} \item Kreisfunktion:\\ \begin{minipage}{0.4\textwidth} \begin{figure}[H] \centering \includegraphics[width=\textwidth]{img/vl08-kreis.png} % \caption*{Einseitige Exponentialfunktion für $a<1$} \end{figure} \end{minipage} \begin{minipage}{0.5\textwidth} \begin{align} x(n) &= b\cdot \e^{j(\omega_n + \phi)} \\&= b\,\big\{\cos(\omega_n + \phi) + j \sin(\omega_n + \phi)\big\} \end{align} mit $b\in \R$ Amplitude, $\omega \in \R$ digitale Kreisfrequenz, $\phi \in \R$ Nullphasenwinkel \end{minipage} \end{enumerate} \subsection{Operationen auf Zeitreihen} \subsubsection{Elementare Operationen} \begin{itemize} \item Multiplikation: Multiplikation der einzelnen Elemente \begin{align} a\left\{x(n)\right\} &= \left\{a\,x(n)\right\} \\ \left\{x(n)\right\}\left\{y(n)\right\} &= \left\{ x(n)\,y(n)\right\} \end{align} \item Addition: Zeitreihen werden elementweise addiert \begin{align} \left\{x(n)\right\}+\left\{y(n)\right\} = \left\{x(n) + y(n)\right\} \end{align} \end{itemize} \subsubsection{Allgemeine Operationen} \begin{itemize} \item \textbf{Operator} transformiert eine Eingangszeitreihe $x(n)$ in eine Ausgangszeitreihe $y(n)$ \item \textbf{LTI-Operatoren} \end{itemize} Im folgenden ausschließlich Betrachtung von lineare, zeitinvarianten (LTI) Operatoren. Bei einem LTI-Operator ist der Zusammenhang zwischen Eingangszeitreihe $x(n)$ und Ausgangszeitreihe $y(n)$ in der Form eine \textbf{linearen Faltung} darstellbar: \begin{align} y(n) &= \sum_{k=-\infty}^{\infty} h(k) \cdot x(n-k) \\ &= \sum_{m=-\infty}^{\infty} h(n-m) \cdot x(m) \\ &= h(n) * x(n) \end{align} Die Reihe $h(n)$ ($\hateq$ Impulsantwort) bestimmt den Operator vollständig.\\ \Rightarrow Setze $x(n) = \delta(n)$, dann ist $y(n) = h(n)$\\ Offensichtlich: $\delta(n)$ lässt sich erzeugen durch $u(n) - u(n-1)$. Entsprechend ist auch im Zeit diskreten Fall die Impulsantwort die Differenz der Sprungantworten. \subsubsection{Kausale Operatoren} Ein \textbf{Kausaler} LTI-Operator ($h(n) \equiv 0$ für $n<0$) lässt sich durch die \textbf{einseitige Faltungssumme} \begin{align} y(n) &= \sum_{k=0}^{\infty} h(k) \cdot x(n-k) \\ &= \sum_{k=-\infty}^{n} h(n-k) x(k) \end{align} und ein nicht-Kausaler LTI-Operator damit \begin{align} y(n) &= \sum_{k=-\infty}^{-1} h(k) \cdot x(n-k) \\ &= \sum_{k=n+1}^{\infty} h(n-k) x(k) \end{align} ausdrücken. \paragraph{Beispiel für einen Kausalen Operator} \begin{minipage}{0.4\textwidth} \begin{figure}[H] \centering \includegraphics[width=\textwidth]{img/vl08-kausal1.png} \end{figure} \end{minipage} \hfill \begin{minipage}{0.5\textwidth} $h(n) = \{1,\,2,\,2,\,0,\,0,\,\dots\}$ \end{minipage}\\ angewendet auf eine Zeitreihe wie folgt:\\ \begin{minipage}{0.4\textwidth} \begin{figure}[H] \centering \includegraphics[width=\textwidth]{img/vl08-kausal2.png} \end{figure} \end{minipage} \hfill \begin{minipage}{0.5\textwidth} $x(n) = \{1,\,1,\,0,\,0,\,0,\,\dots\}$ \end{minipage}\\ \begin{figure}[H] \centering \includegraphics[width=\textwidth]{img/vl08-kausal3.png} \caption*{$x(t)$ (grün) gefaltet mit $h(t)$ (rot)} % \label{fig:img-vl08-kausal3-png} \end{figure} \begin{figure}[H] \centering \includegraphics[width=0.5\textwidth]{img/vl08-kausal4.png} % \caption*{$x(t)$ (grün) gefaltet mit $h(t)$ (rot)} % \label{fig:img-vl08-kausal3-png} \end{figure} Realisierung in Hardware: \begin{figure}[H] \centering \includegraphics[width=0.6\textwidth]{img/vl08-hardware.png} \caption*{ Für jeden Zeitschritt wird ein neuer Wert $x(n)$ ins Register geschoben. Die Werte werden mit denen des Festwertregisters $h$ multipliziert und aufsummiert. } \end{figure} \paragraph{Weitere Eigenschaften von LTI-Operatoren} \begin{enumerate}[a)] \item Linearität \begin{equation} L\left[a_1 \left\{x_1(n)\right\} + a_2\left\{x_2(n)\right\}\right] = a_1 L\left[ \left\{ x_1(n) \right\} \right] + a_2 L \left[ \left\{ x_2(n) \right\} \right ] \end{equation} mit $a_1, a_2 \in \R$, $n\in\mathbb{Z}$ \item $\left\{ g(n-m) \right\} = L [\left\{ x(n-m) \right\}$, d.h. System reagiert zu allen zeitpunkten gleich, $m$ beliebig \end{enumerate} \subsubsection{Beschränktheit von Zeitreihen und ein Stabilitätskriterium} Eine Zeitreihe wird \textbf{beschränkt} genannt, wenn für alle $n,\,M\in\R$ gilt: \begin{equation} \abs*{x(n)} < M \end{equation} Also: der Betrag einer Zeitreihe bleibt immer kleiner als eine bestimmte obere Schranke $M$. \noindent\underline{Frage}: Wie muss die Impulsantwort $h(n)$ beschaffen sein, damit das System stabil ist, d.h. auf ein beschränktes Eingangssignal mit einem beschränkten Ausgangssignal antwortet? \\ \underline{Antwort}: Für das Ausgangssignal gilt: \begin{align} \abs*{y(t)} &= \abs*{\sum_{k=-\infty}^{\infty} h(k) x(n-k)} \\ &= \abs*{\dots + h(k-1)x(n-k+1) + h(k) x(n-k) + h(k+1) x(h-k-1) +\dots} \end{align} mit $\abs*{a+b} \le \abs*{a} + \abs*{b}$ hat man \begin{align} \abs*{y(t)} &\le \sum_{k=-\infty}^{\infty} \abs*{h(k) x(n-l)} \\ &= \sum_{k=-\infty}^{\infty} \abs*{h(k)}\,\abs*{x(n-k)} \\ &\le M \sum \abs*{h(k)} \end{align} Also ist eine Bedingung für Stabilität: \begin{align} \boxed{ \sum_{k=-\infty}^{\infty} \abs*{h(k)} < \infty } \end{align} \lecture{9} \subsection{Rekursive und nicht-rekursive Systeme} Definitionen: \begin{itemize} \item Ein lineares, nicht-rekursives System ist beschreibbar durch eine \textbf{Faltungssumme} mit einer endlichen Anzahl von Elementen (\textit{finite impulse response system}) \item Ein universelles, rekusrives System hat in der Regel eine unendlich lang andauernde Impulsantwort, die durch sogenannte ``Rückkopplungszweige'' erzeugt wird (\textit{infinite impulse response system}) \end{itemize} \subsubsection{Nicht rekursives Systeme:} \begin{equation} y(n) = \sum_{k=s}^{q} h(k) x(n-k) \end{equation} Kausales nicht rekursives System: \begin{equation} y(n) = h(0) x(n) + h(1) x(n-1) + \dots + h(q) x(n-q) \end{equation} \begin{figure}[H] \centering \includegraphics[width=0.8\textwidth]{img/vl09-faltungssumme.png} \caption{Transversalfilter} \end{figure} Dieser Filter wird auch als Transversalfilter, FIR (Finite-Impulse-Response) filter oder MA (Moving Average) Operator bezeichnet. \subsubsection{Rekursives Systeme} Der Zusammenhang zwischen $x(n)$ und $y(n)$ bei einem linearen, rekursiven System ist darstellbar: \begin{equation} \sum_{k=1}^{p_2} a_k y(n-k) = \sum_{k=q_1}^{q_2} b_k x(n-k) \end{equation} Im Kausalen Fall ($y(n) \equiv 0$ für $n<0$, wenn $x(n) \equiv 0$ für $n>0$) gilt: \begin{equation} \sum_{k=0}^{p} a_k y(n-k) = \sum_{k=0}^{q} b_k x(n-k) \end{equation} bzw: \begin{equation} \boxed{ y(n) = \sum_{k=0}^{q} b_k x(n-k) - \sum_{k=1}^{p} a_k y(n-k) } \end{equation} Hier wird das ``aktuelle'' Element $y(n)$ aus dem gegenwärtigen und den letzten $q$ Eingangswerten gebildet (nicht rekursiver Anteil) sowie den letzten $p$ Ausgangswerten (rekusriver Anteil). \begin{figure}[h] \centering \includegraphics[width=0.8\textwidth]{img/vl09-rekursives_system.png} \caption{Rekursives System} % \label{fig:img-vl09-rekursives_system-png} \end{figure} $y(n)$ ist berechenbar, wenn zumindest $y(n-1)$ berechnet wurde. Im weiteren Beschränkung auf diese Klasse von Systemen. \paragraph{Wesentliche Unterschiede} \begin{itemize} \item Rekusrive Operatoren sind zumeist mit geringerer Anzahl von Elementen realisiserbar als nicht-rekursive mit gleicher/ähnlicher Übertragugnsfunktion \item Nicht rekursiver Operator ist immer stabil \end{itemize} \Rightarrow System von nicht-rekursiven Operatoren einfacher, keine Stabilitätsbetrachtung erfolrderlich \subsubsection{Die z-Transformation} Zunächst Betrachtung der Fourer-Transformation \begin{equation} F(\omega) = \int_{-\infty}^\infty f(t) \e^{-j\omega t} \d t \end{equation} Frage: Was ändert sich hier, wenn $f(t)$ ein zeitdiskretes (abgetastetes) Signal ist, das nur zu den Zeitpunkten $t=nT$ definiert ist? \\DTFT (\neq DFT!) \textit{discrete-time Fourier transform}: \begin{equation} \boxed{ X(\e^{j\omega}) = \sum_{n=-\infty}^{\infty} x(n) \e^{-jn\omega} } \end{equation} wobei $w$ die digitale Frequenz $-\pi \le \omega \le +\pi$ darstellt, mit $\omega \in \R$. \\ IDTFT (inverse): \begin{equation} \boxed{ x(n) = \frac{1}{2\pi} \int_{-\pi}^{+\pi}X(\e^{j\omega}) \e^{-jn\omega} \d \omega } \end{equation} \begin{itemize} \item Integration wird Summation, da nur Beiträge zu den Abtastzeitpunkten (dazwischen nicht definiert) \item Statt kontinuierlicher Frequenz $\omega$ nun digitale Frequenz, da Spektrum periodisch, d-h- für $\omega \lessgtr \pi$ Wiederholung \\Um die Periodizität anzudeuten wird im Argument von $X$ $\omega$ durch $\e^{j\omega}$ ersetzt, $\e^{j\omega}$ ist ja mit $2\pi$ periodisch \end{itemize} \textbf{Problem}: Für viele nichtperiodische Funktionen konvergiert das Integral $\int_{-\infty}^{\infty} f(t) e^{-j\omega t} \d t$ nicht \\ Deshalb (im kausalen Fall) Dämpfung der Zeitfunktion mit $\e^{-\sigma t}$. Dann ist in Abhängigkeit von $f(t)$ für bestimmte Werte von $\sigma \ge 0$ Konvergenz herstellbar. D.h. neues Integral: \begin{equation} F_\sigma(\omega) = \int_0^\infty f(t) \e^-{j\omega t} \d t \end{equation} Nun Einführung der Komplexen Variablen $s=\sigma + j \omega$. $F_\sigma(\omega)$ stellt eine ganze Schar von Spektraldichten dar, von denen einige nicht existieren können. Betrachtung in der $s$-Ebene: \begin{figure}[H] \centering \includegraphics[width=0.8\textwidth]{img/vl09-s-ebene.png} \caption{$s$-Ebene} \end{figure} Schreibt man \begin{equation} F(s) = \sigma_0^\infty f(t) \e^{(-\sigma + j\omega)t} \d t \end{equation} dann stellt $F(s)$ bei festem $\sigma$ die Spketraldichte der mit $\e^{-\sigma t}$ gedämpften Zeitfunktion $f(t)$ dar. Man bezeichnet $F(s)$ als einseitige \textbf{Laplace-Transformation} der Zeitfunktion $f(t)$. \\ Die L-Transformation verfügt im wesenetlichen über die gleichen Eigenschaften wie die F-Transformation, deckt aber die meisten in der Praxis vorkommenden Fälle nichtperiodischer Funktionen ab. Schreibt man die L-Transformierte \begin{equation} F(s) = \int_{0/-\infty}^{+\infty} f(t) \e^{-s t} \end{equation} (wobei die die Integrationsgrenze $0$ die einseitige und $-\infty$ die zweiseitige bezeichnet) für zeitdiskrete Signale auf, so hat man (im zweiseitigen Fall): \begin{equation} F(s) = \sum_{n=-\infty}^{\infty} f(n) \e^{-s n T} \end{equation} und mit der Abkürzung $z=\e^{sT}$ wird daraus die \textbf{z-Transformation}: \def\Z{\mathcal{Z}} \begin{equation} \boxed{ X(z) = \sum_{n=-\infty}^{\infty} x(n) z^{-n} = \Z\left\{x(n)\right\} } \end{equation} \lecture{10} \begin{figure}[H] \centering \includegraphics[width=0.8\textwidth]{img/vl10-z.png} \end{figure} Die z-Transformation bildet eine diskrete Zahlenfolge in den z-Bereich ab. Die Vorteile der Laplace-Transformation im kontinuierlichen Fall bleiben erhalten. Insbesondere: Ersetzung der Berechnung von Faltungssummen durch die Multiplikation von Spektren im z-Bereich. \paragraph{Rücktransformation} \begin{equation} x(n) = \Z^{-1}\left\{X(z)\right\} = \frac{1}{2\pi j} \oint_c X(z) z^{n-1} \d z \end{equation} Komplexes Integral: Integration über geschlossenen Weg in der Komplexen Ebene (\rightarrow Funktionentheorie, Residuensatz). z-Transformation ist die Entwicklung von $x(n)$ in eine \textbf{Laurent-Reihe} zum $z=0$ (keine Potenzreihe, nur negative Exponenten für $z$). \begin{equation} \Z\left\{x(n)\right\} = x(0) + \frac{x(1)}{z} + \frac{x(2)}{z^2} + \dots \end{equation} \paragraph{Beispiel}: z-Transformation der Zeitreihen \begin{align} &\left\begin{array}{l} h(n) = \{1,2,2,0,0,0,\dots\}\\ x(n) = \{1,1,0,1,0,0,\dots\} \end{array}\right\} \text{siehe obiges zur Faltung} \\ &H(z) = 1 + 2z^{-1} + 2z^{-2} \\ &X(z) = 1+ z^{-1} + z^{-3} \end{align} Jetzt Multiplikation der Spektren: Polynommultiplikation \begin{equation} H(z)\cdot X(z) = 1 + 3z^{-1} + 4z^{-2} + 3z^{-3} + 2z^{-4} + 2z^{-5} = Y(z) \end{equation} Das entspricht Offensichtlich: der z-Transformation der Zeitreihe $y(n) = \{1,3,4,3,2,2,0,0,\dots\}$ \Rightarrow siehe Bsp. zur Faltung Beobachtung: \begin{enumerate}[a)] \item Der Wert vor dem Ausdruck $z^{-n}$ ist offensichtlich der Wert der Reihe zum Zeitpunkt $n$ \item Die Spektren $H(z)$ und $X(z)$ sind $<\infty$ für alle Werte von $\neq0$ \Rightarrow Konvergenz der z-Transformation \end{enumerate} \subsubsection{Konvergenz der z-Transformation} Die z-Transformation ist nur sinnvoll, wenn sie beschränkt ist. Daher ist die Konvergenzuntersuchung der Reihe notwendig. Definition eines Konvergenzgebietes: \begin{equation} R = \left\{z: \left\lvert \sum_{n=-\infty}^{\infty} x(n) z^{-n}\right\rvert < \infty\right\} \end{equation} Konvergenzregion $R$ umfasst alle Werte von $z$, für die der Betragswert der Summe endlich ist. Um die Analyse zu strukturieren, kann man die Reihe in eine kausale Reihe und eine akausale Reihe aufteilen: \begin{equation} X(z) = \sum_{n=0}^{\infty} x(n) z^{-n} + \sum_{n=-\infty}^{-1} x(n)z^{-n} = X_\text{c}(z) + X_\text{a}(z) \end{equation} Es gilt: \begin{itemize} \item $\abs*{X_\text{c}(z)} < \infty$ für $\abs*{z} > r_\text{c}$, d.h für alle $z$ außerhalb eines Konvergenzradius $r_\text{c}$ \item $\abs*{X_\text{a}(z)} < \infty$ für $\abs*{z} < r_\text{<}$, d.h für alle $z$ innerhalb eines Konvergenzradius $r_\text{a}$ \end{itemize} Wobei $r_\text{c},\,r_\text{a}\in \R^+$. In der z-Ebene: \begin{figure}[H] \centering \includegraphics[width=0.48\textwidth]{img/vl10-z-konvergenz-kausal.png} \includegraphics[width=0.48\textwidth]{img/vl10-z-konvergenz-akausal.png}\\ \includegraphics[width=0.96\textwidth]{img/vl10-z-konvergenz-beide.png}\\ \end{figure} \paragraph{Beispiel für Konvergenzregion} \begin{enumerate}[a)] \item $x(n) = a^n$ wo $n\gt0$ sei (kausaler Fall) \\ \begin{align} X(z) &= \sum_{n=0}^{\infty} a^nz^{-n} = \sum_{n=0}^{\infty} (az^{-1})^n = \\ \shortintertext{geometrische Reihe für $\abs*{\frac{a}{z}} <1$ \Rightarrow $\abs*{a} < \abs*{z}$} &= \frac{1}{1-\frac{a}{z}} \end{align} \begin{center} \includegraphics[width=0.5\textwidth]{img/vl10-beispiel-kausal.png} \end{center} \item $x(n) = b^n$ für $n<0$ \begin{align} X(z) &= \sum_{n=-\infty}^{-1} b^nz^{-n} = -1 + \sum_{n=0}^{\infty} \left( \frac{z}{b}\right)^n = \shortintertext{geometrische Reihe für $\abs*{\frac{z}{b}} <1$ \Rightarrow $\abs*{z} < \abs*{b}$} &= -1 + \frac{1}{1-\frac{z}{b}} \end{align} \begin{center} \includegraphics[width=0.5\textwidth]{img/vl10-beispiel-akausal.png} \end{center} \item $x(n) = \cos(n\omega) ) \frac{1}{2}(\e^{jn\omega}+\e^{-jn\omega})$ \begin{align} X(z) &= \frac{1}{2} \sum_{n=0}^{\infty} (\e^{jn\omega}+\e^{-jn\omega})z^{-n} = \frac{1}{2}\left[\sum_{n=0}^{\infty} \left(\frac{\e^{j\omega}}{z}\right)^n + \sum_{n=0}^{\infty} \left(\frac{\e^{-j\omega}}{z}\right)^{-n}\right] =\\ \shortintertext{$\abs*{z}>1$} &= \frac{1}{2}\left[\frac{1}{1-\frac{\e^{j\omega}}{z}} + \frac{1}{1-\frac{\e^{-j\omega}}{z}}\right] = \frac{z(z-\cos\omega)}{z^2-2z\cos\omega + 1} \end{align} \begin{center} \includegraphics[width=0.5\textwidth]{img/vl10-beispiel-cos.png} \end{center} Sonderfall $\omega=0$ \Rightarrow $x(n)=1$ für $n\gt1,\,x(n)=u(n)$ \begin{equation} X(Z) = \frac{z(z-1)}{z^2-2z+1}=\frac{z}{z-1} \end{equation} \end{enumerate} \noindent\Rightarrow Lage von Polen und Nullstellen in der z-Ebene charakterisisert die Eigenschaften von Systemen hinsichtlich Stabilität! \subsubsection{Stabilitätskriterium im Frequenzbereich} Bei einem stabilen System war im Zeitbereich ein Kriterium: \begin{equation} \sum_{n=-\infty}^{\infty} \abs*{h(n)} < \infty \end{equation} Für die Übertragungsfunktion eines Kausalen Systems gilt: \begin{align} \abs*{H(z)} &= \abs*{\sum_{n=0}^{\infty} h(n)z^{-n}} \,\explUnder[\le]{Dreicksungleichung}\,\sum_{n=0}^{\infty} \abs*{h(n)}\cdot\abs*{z^{-n}} \\ \shortintertext{also ist für $\abs*{z} \gt 1$} \abs*{H(z)} &\le \abs*{\sum_{n=0}^{\infty} h(n)} \end{align} \Rightarrow bei stabilem System ist $H(z)$ sicher beschränkt für $\abs{z}\gt1$. Ein Kausales System, das stabil ist, hat keine Pole auf oder außerhalb des Einheitskreises. Für unsere Beispiele gilt entsprechend: \begin{enumerate}[a)] \item stabil für $a<1$, offensichtlich klar auch im Zeitbereich \item stabil für $b>1$ \item Pole für $z^2-2z \cos\omega+1=0$ \Rightarrow $z_{1/2} = \cos\omega\pm j\sin\omega$ \begin{center} \includegraphics[width=0.4\textwidth]{img/vl10-beispiel-pole.png} \end{center} \end{enumerate} Wenn man bei c) die Transformierte als Systemantwort interpretiert, dass ist dies die Reaktion des Systems auf einen Einheitsimpuls. Reaktion ist eine $\cos$-Schwingung undendlicher Dauer (ungedämpft).\\ Für eine gedämpften $\cos$: \begin{equation} \Z \left\{a^n\cos n\omega\right\} = \frac{z(z-a\cos\omega)}{z^-2az\cos\omega + a^2} \end{equation} \Rightarrow Pol bei $z_{1/2} = a\cos\omega \pm j a\sin\omega$ \Rightarrow stabil für $a<1$ \subsubsection{Einige Korrespondenzen der z-Transformation} \newcolumntype{C}{>{$\displaystyle}c<{$}} \begin{center} \begingroup \renewcommand{\arraystretch}{3} \begin{tabular}{C|C} f(n) & F(z) \\\hline\hline \delta(n) & 1 \\\hline u(n) & \frac{z}{z-1} \\\hline u(n)\,a^n & \frac{z}{z-a} \\\hline u(n)\,\cos n\omega & \frac{z(z-\cos\omega)}{z^2-2z-\cos\omega+1} \\\hline u(n)\,\sin n\omega & \frac{z\sin\omega}{z^2-2z\cos\omega + 1} \\\hline u(n)\,n & \frac{z}{(z-1)^2} \\\hline u(n)\,\cosh n\beta & \frac{z(z-\cosh\beta)}{z^2-2z\cosh\beta+1} \\\hline u(n)\, \frac{1}{n!} & \e^\frac{1}{z} \end{tabular} \endgroup \end{center} \lecture{11} \subsubsection{Eigenschaften der einseitigen z-Tranformation} \begin{enumerate}[a)] \item \textbf{Linearität}: Linearkombination von k Zeitreihen \begin{equation} \Zvon{\sum_{k=-1}^{i} c_k x_k(n)} = \sum_{k=1}^{i}c_k \Zvon{x_k(n)} \end{equation} \item \textbf{Verschiebung im Zeitbereich} Sei y(n) die um $m$ Zeitpunkte nach rechts (später) verschobene kausale Zeitreihe $x(n)$, also $y(n) = x(n-m)$. Dann ist \begin{align} Y(z) &= \sum_{n=0}^{\infty}[x(n-m)]z^{-n} \explUnder[=]{subst $k=n-m$} \sum_{k=-m}^{\infty}x(k) z^{-m+k} \\ &= z^{-m} \explUnder[\sum_{k=0}^{\infty}]{da Kausalität vorausgesetzt kein Beitrag für $k=-m\dots-1$} x(k) z^{-k} = z^{-m} X(z) \end{align} Bei Linksverschiebung (früher) $y(n) = x(n+m)$: \begin{align} Y(z) &= \sum_{n=0}^{\infty} x(n+m) z^{-n} \explUnder{k=n+m} \sum_{k=m}^{\infty}x(k) z^{+(m-k)} \\ &= z^{+m} \Big[\underbrace{\sum_{k=0}^{\infty} x(k)z^{-k}}_{X(z)} - \sum_{k=0}^{m-1} x(k) z^{-k} \Big] \\ \Rightarrow Y(z) &= z^{+m} \left(X(z)-\sum_{n=0}^{m-1}x(n)z^{-n}\right) \end{align} \includegraphics[width=0.8\textwidth]{img/vl11-z-verschoben.png} \item Ähnlichkeit: \begin{align} \Zvon{a^n x(n)} &= \sum_{n=0}^{\infty}a^n x(n) z^{-n} = \sum_{n=0}^{\infty}x(n)z(z\,a^{-1})^{-n} \\ &= X(z\, a^{-1}) \end{align} \item \textbf{Faltungssatz}: \begin{equation} \Zvon{f(n) * g(n)} = F(z) \cdot G(z) \end{equation} Bei linearen Systemen ist \begin{align} y(n) &= h(n) * x(n) \\ Y(z) &= H(z) \cdot X(z) \end{align} wobei $H(z)$ die Überlappungsfunktion des Systems ist \item Differentation der Bildfunktion: \begin{align} -z \odv{F(z)}{z} = \Zvon{n\cdot f(n)} \\ \shortintertext{allgemein} \left(-z \odv{}{z} \right)^k F(z) = \Zvon{n^k f(n)} \end{align} \end{enumerate} \subsubsection{Die z-Transformation bei linearen rekursiven Systemen} Die Klasse der kausalen linearen rekusriven Systeme ist beschreibbar durch: \begin{equation} \sum_{k=0}^{p}a_k y(n-k) = \sum_{k=0}^{q} b_k x(n-k) \end{equation} Nunmehr z-Transformation auf beiden Seiten: \begin{align} \Zvon{\sum_{k=0}^{p}a_k y(n-k)} &= \Zvon{\sum_{k=0}^{q} b_k x(n-k)} \\ \shortintertext{mit Linearitätssatz} \sum_{k=0}^{p}a_k \Zvon{y(n-k)} &= \sum_{k=0}^{q} b_k \Zvon{x(n-k)} \\ \shortintertext{mit Vertauschungssatz} \sum_{k=0}^{p}Y(z) z^{-k} &= \sum_{k=0}^{q} b_k X(z) z^{-k} \end{align} Daraus: \begin{align} H(z) &= \frac{Y(z)}{X(z)} = \frac{\sum_{k=0}^{q}b_k z^{k})}{\sum_{k=0}^{p} a_k z^{-k}} \\ \Aboxed{ H(z) &= \frac{b_0 + b_1z^{-1} b_2z^{-2} + \dots + b_qz^{-q}}{a_0 + a_1z^{-1} a_2z^{-2} + \dots + a_pz^{-p}} } \end{align} \end{document}