©2002-2017 Ulm University, Othmar Marti, pict
[Nächste Seite] [Vorherige Seite] [vorheriges Seitenende] [Seitenende] [Ebene nach oben] [PDF-Datei][Epub-Datei][Andere Skripte]

2.4  Kontinuierliche und diskrete Signale

Signale und Signalformen sind wesentlich zum Verständnis physikalischer Messsysteme. Generell werden Signale in zwei Kategorien aufgeteilt:

  1. Kontinuierliche Signale
  2. Zeitbegrenzte Signale

Die erste Kategorie von Signalen kann sowohl in der Zeitdomäne wie auch in der Frequenzdomäne behandelt werden. Die zweite Kategorie wird bevorzugt in der Zeitdomäne diskutiert. Genau genommen gibt es keine periodischen Signale, da nie eine unendliche Messzeit möglich ist. In der Frequenzdomäne wird vorwiegend mit der Fourier-Transformation gearbeitet. Die Fourier-Transformation setzt unendlich dauernde Signale voraus. Diese Signale verletzen aber die Kausalität. Um dieses Problem zu lösen verwendet man in der Regel in der Elektronik die Laplace-Transformation.

2.4.1  Signale

2.4.1.1. Periodische Signale

Eine erste Gruppe von Signalen sind die periodischen Signale. Diese können auf Summen von Sinus- oder Cosinus-Funktionen zurückgeführt werden. Typische, in der Elektronik vorkommende periodische Signale sind:

2.4.1.2. Einmalige Signale, Einschalt- und Ausschaltvorgänge

Einmalige Funktionsverläufe treten auf, wenn ein Gerät eingeschaltet oder ausgeschaltet wird. Als Beispiel kann man die Ladekurve eines Kondensators C betrachten, wenn er über einen Widerstand R an eine Spannungsquelle U angeschlossen wird. Zur Zeit t = 0 soll die Verbindung eingeschaltet werden. Wir haben dann die folgenden Situation für UC, die Spannung am Kondensator.

UC (t) =        0          f¨ur   t < 0
U  (t) =  U (1 − e− tRC)    f¨ur   t ≥ 0    (2.1)
  C

Die resultierende Funktion ist klar nicht periodisch. Genau genommen gibt es nur nichtperiodische Signale, da alle periodischen eine unendlich lange Dauer haben müssten.

2.4.1.3. Diskrete Signale

Ein typisches Beispiel für diskrete Signale ist die Treppenfunktion. Sie ist wie folgt definiert:

f(t) = f(nT ) =  fn   f¨ur  bT ≤  t < (n +  1)T
                           (n = 0,1, 2,...;T > 0,T  = co(n2s.2t)

Die Treppenfunktion generiert aus der Folge {fn } kann in realen Schaltungen gut implementiert werden. Mathematisch einfacher zu handhaben ist jedoch der Dirac-Kamm:

f(t) =  δn(nT );    f ¨ur  bT ≤  t < (n + 1)T
                          (n = 0,1,2,...;T  > 0,T =  co(2n.s3t)

Der Dirac-Kamm erlaubt ein einfaches rechnen, da eine Integration mit Hilfe der δ-Funktion sofort gelöst werden kann.

2.4.1.4. Digitale Signale

Eine Sonderklasse der diskreten Signale sind die digitalen Signale, wie sie in der Computertechnik vorkommen. Die digitalen Signale haben zwei Werte, 0 oder 1. Diese Werte sind in Logikpegel kodiert. So ist bei der TTL-Logik der Nullwert 0V < x < 0.8V und der 1-Pegel 2V < x < 5V . Digitale Signale werden mit logischen Schaltungen verknüpft. Ihre Schaltpegel sind definiert, eine Schaltung für digitale Signale darf nur mit den entsprechenden Pegelwerten betrieben werden, so dass keine undefinierten Zustände auftreten.

Heute werden in ausgewählten Anwendungsbereichen Logiken mit weichen Übergängen zwischen den einzelnen Zuständen verwendet. Diese Fuzzy-Logiken ermöglichen Aussagen wie: Es ist ein bisschen kalt, oder, es ist ein wenig zu warm. Gleitend definierte Übergänge zwischen Schaltzuständen sind vor allem bei schlecht in Zahlen fassbaren Problemen von Vorteil.

2.4.2  Fourier-Transformationen

Periodische Signale f(t) = f(t+T) können als Reihenentwicklung

              ∞
f (t) = a0-+ ∑  (a  cosn ω t + b sin nω  t)
        2    n=1   n      0     n      0
(2.4)

geschrieben werden. Die Koeffizienten der Reihenentwicklung können wie folgt berechnet werden:

        t0∫+T
      2-
an =  T     f (t) cos(nω0t)dt
         t0
         t0∫+T
 bn = 2-    f (t)sin (nω0t)dt           (2.5)
      T  t
          0

Alternativ kann eine komplexe Darstellung gewählt werden. Die Funktion heisst dann:

          +∞
f (t) = 1-∑   c  ejnω0t
        2n=−∞  n
(2.6)

Auch hier können die cn mit einer Integralformel berechnet werden:

     2  t0∫+T                 {   1(a  − jb )   f¨urn  > 0
cn = --     f (t)e− jnω0tdt =  1 2  n     n
     T  t0                    2 (a−n + jb−n)   f¨urn < 0
(2.7)

Die Fourierkoeffizienten einer Funktion heissen das Amplitudenspektrum. Da die Sinus- und Cosinusfunktionen der Frequenz ω0 zusammen ein orthogonales Funktionensystem bilden, kann jede periodische Funktion dieser Frequenz eindeutig dargestellt werden. Die Amplitudenspektren haben die folgenden Eigenschaften:

Mit Hilfe der oben gezeigten Symmetrien kann sehr schnell der Oberwellengehalt einer Funktion abgeschätzt werden.

Für nichtperiodische Signale oder für Ausschnitte aus periodischen Signalen verwendet man die Fouriertransformation anstelle der Fourierreihe. Die Fouriertransformation und ihre Rücktransformation sind wie folgt definiert:

           +∫∞
                     jωt
    f (t) =   F-(ω )e   dω            (2.8)
           −∞
         1  +∫∞
F-(ω) = ---    f (t)e− jωtdt            (2.9)
        2 π−∞

F(ω) ist die spektrale VerteilungsfunktionKreisfrequenz eines Signals. Damit sie existiert, muss das Integral

 +∫∞

    |f (t)|dt
−∞
(2.10)

endlich sein. Als Beispiel berechnen wir das Spektrum eines Rechteckimpulses. Der Impuls ist gegeben durch

       (                 tp-
       |{  0  fu¨r   t < −tp 2     tp
f (t) = | A   f¨ur   −  2-≤ t ≤ -2
       (  0  fu¨r   t > t2p
(2.11)

Das Spektrum wird dann

             tp
            ∫2-
F-(ω )  =      Ae− jωtdt               (2.12)
            t
           −-p2
             A ( −jω tp-   jωtp)
        =  j -- e    2 − e  2         (2.13)
             ω    (  t)
               sin  ω p2-
        =  tpA ----tp---              (2.14)
                  ω 2

Das Spektrum F ist reell. Dies ist eine Konsequenz der Tatsache, dass f(t) eine gerade Funktion ist. Wäre f(t) eine ungerade Funktion, dann wäre das Spektrum rein imaginär. Die grössten Amplituden in F sind auf den Bereich 0 f = ω-
2π -1
tp beschränkt. B = 1-
tp heisst die Bandbreite des Impulses. Allgemein gilt für Pulse

Btp =  1
(2.15)

Je kürzer also ein Puls ist,desto grösser ist seine Bandbreite. Für einen unendlich scharfen Puls, einen Dirac-δ-Puls bedeutet dies, dass seine Spektralfunktion konstant ist. Dieses Gesetz hat eine Ähnlichkeit mit den Unschärferelationen der Quantenmechanik.

Wiener-Khintchine-Relationen Die Wiener-Khintchine-Relationen verknüpfen die Autokorrelationsfunktion mit dem Leistungsspektrum eines Signals. Wir definieren die Korrelationsfunktion K(s) der Funktion y(t) als das Ensemblemittel

K (s) = ⟨y(t)y (t + s)⟩
(2.16)

Die Grösse

        ⟨      ⟩
K  (0 ) =  y2(t)
(2.17)

ist offensichtlich die Varianz von y(t), wenn s = 0 ist. Wie jede Funktion kann auch K(s) als Fourierintegral geschrieben werden

         ∫∞
                  jωs
K  (s) =    J (ω)e   dω
        −∞
(2.18)

J(ω) ist das Leistungsspektrum oder die Spektrale Dichte der Funktion y(t). Die Fouriertransformation in Gleichung (2.18) kann umgekehrt werden.

            ∫∞
J (ω) =  1--   K (s)e −jωsds
         2π
           −∞
(2.19)

Die Gleichungen (2.18) und (2.18) Sind die Wiener-Khintchine-Relationen. Die Relation kann bewiesen werden, indem man in Gleichung (2.18) von rechts mit es multipliziert und über s integriert.

 ∞∫              ′      ∫∞    ∞∫               ′
    dsK (s) e−jωs  =      ds    dωJ (ω) ej(ω−ω )s
−∞                    −∞    −∞
                          ∞∫
                                             ′
                   =   2π    dωJ (ω) δ(ω − ω )
                         −∞
                   =   J (ω ′)                 (2.20)

Die Korrelationsfunktion K(s) ist reell und gerade, also eine Symmetrie erster Art. Deshalb würden bei einer Fourierreihe nur cos-Terme auftreten. Hier bedeutet dies, dass J(ω) auch reell und gerade ist, also

 K ∗(s)  =  K  (s)

K (− s)  =  K  (s)
 J∗ (ω)  =  J (ω )
J (− ω)  =  J (ω )             (2.21)

Die beiden Relationen können bewiesen werden, indem man Gleichung (2.19 anwendet und dann die Integrationsvariable von s nach s ändert. Gleichung (2.18) kann umgeschrieben werden

⟨  ⟩               ∞∫             ∞∫
 y2  = K  (0)  =      J (ω )dω =   J  (ω)dω
                                    +
                  −∞             0
       J+ (ω )  ≡  2J (ω )                   (2.22)

Die Fourierintegrale können wegen den Symmetrieeigenschaften auch als cos-Transformationen geschrieben werden. Man setzt e±jωs = cos ωs ±j sin ωs und erhält (da sin ungerade ist)

                                   ∫∞
            ∞∫
K  (s)   =  −∞ J (ω) cosωsd ω =    2  J (ω )cosωsd ω
                                   0
             ∞∫                    1 ∞∫
J (ω)  =  12π    K (s)cos ωsds =   --  K (s) cosωs(d2s.23)
            −∞                    π 0

K(s) und J(ω) können direkt aus den Fourierkoeffizienten von y(t) berechnet werden. Wenn y(t) stationär und ergodisch ist, ist K(s) zeitunabhängig und das Ensemblemittel ⟨y⟩ kann durch das Zeitmittel {y } ersetzt werden (Die Definitionen finden Sie in Reif [Rei65] Kapitel 15.14 oder im Anhang K). Dies gilt für periodische Funktionen, muss aber für statistisch schwankende Funktionen wie das Rauschen gefordert werden. Gleichung (2.18) kann nun geschrieben werden als

            ∫Θ
K  (s ) = 1--   y (t)y (s + t)dt
         2Θ
            −Θ
(2.24)

Wir setzen

        {
           y(t)    f¨ur − Θ < t < Θ
yΘ (t) ≡    0       sonst
(2.25)

und erhalten für K(s)

            ∫∞
K (s) = -1-    y  (t) y (s + t)dt
        2Θ      Θ     Θ
           −∞
(2.26)

Durch die Ersetzung von y(t) mit y Θ(t) führt man einen Fehler der Grössenordnung s-
Θ ein, der für Θ →∞ verschwindet. Mit

       ∫∞
y(t) =    C (ω )ejωtd ω
      − ∞
(2.27)

(C(ω ) ist die Fouriertransformation von y(t)) erhält man

            1  ∞∫    ∫∞              ∫∞             ′
K (s)  =   ---    dt   dωC  (ω) ejωt    dω′C (ω′)ejω (s+t)
           2Θ −∞    −∞             −∞
               ∞∫     ∫∞                     ∫∞
       =   -1-    dω    dω ′C (ω )C (ω′)ejω′s    dtej(ω+ ω′)t
           2Θ
              −∞    −∞                     − ∞
            1  ∞∫     ∫∞    ′         ′  jω′s            ′
       =   ---    dω    dω C (ω )C (ω )e    [2π δ(ω + ω )]
           2Θ −∞    −∞
              ∞∫
       =   π-    dωC (ω )C (− ω) ejωs
           Θ
             −∞∞
           π- ∫           2 jωs
       =   Θ     dω |C (ω )|e                       (2.28)
             −∞

Setzt man

        π-       2
J (ω) = Θ |C (ω )|
(2.29)

so erhält man Gleichung (2.18). Durch diese Rechnung wird klar, dass J(ω) das Leistungsspektrum ist. Die Wiener-Khintchine-Relationen lassen sich wie folgt zusammenfassen:

Die Autokorrelation und das Leistungssprektrum sind Fouriertransformierte

Zum Schluss sei angemerkt, dass

⟨   ⟩              ∫ ∞
 y2  =  K (0) = π-     |C (ω)|2dω
                Θ   −∞
(2.30)

ist.

2.4.3  Laplace-Transformationen

Die Fouriertransformation im vorangegangenen Kapitel kann nur gelöst werden, wenn das Integral über den Betrag der Zeitfunktion endlich ist. Weiter müssen die Funktionswerte zu allen früheren, aber auch zu allen späteren Zeiten bekannt sein. Damit ist die Fouriertransformation akausal. Die Kausalität verlangt nun, dass ein Signal nur von seiner Vorgeschichte, nicht aber von seiner Zukunft abhängen kann. Eine Konsequenz der Kausalität ist, dass es keine beliebig scharfen Filter geben kann.

Mit der Laplace-Transformation kann insbesondere sehr elegant das Problem der Berechnung von Faltungsintegralen gelöst werden. Dieses Problem taucht immer dann auf, wenn Ein Ausgangssignal bei bekannter Impulsantwort aus dem Eingangssignal berechnet werden muss.

Die Laplace-Transformation ist nun definiert durch

        ∞
        ∫       −pt
F (p) =   f (t) e  dt
        0
(2.31)

Hier ist p = x + eine komplexe Funktion. Wenn f(t) = 0 ist für t < 0 dann ist in vielen Fällen die Fouriertransformation und die Laplace-Transformation äquivalent. Vielfach schreibt man für die Laplace-Transformation auch

F(p) = L (f(t))
(2.32)

Die Umkehrfunktion der Laplace-Transformation ist nicht so einfach wie die der Fouriertransformation. Während bei dieser ein Vorzeichen gewechselt werden muss, benötigt die Laplace-Transformation eine Integration in der komplexen Ebene.

                s+∫jr
f (t) = --1- lim      eptF-(p)dp
       2πj r→ ∞         p
               s−jr
(2.33)

dabei muss der Integrationsweg s so gewählt werden, dass alle singulären Punkte des Integranden links von der Geraden p = s liegen. Die wichtigsten Eigenschaften der Laplace-transformierten Funktion sind:

Die Laplace-Transformation wird eingesetzt, um Differentialgleichungssysteme zu lösen. In der Elektronik wird Sie zur Berechnung von Frequenzgängen verwendet.

Einige Funktionen und ihre Laplacetransformierten sind in der Tabelle C.1 im Anhang angegeben.

Beispiel (Maple-Datei): Laplace-Transformation (Maple)

2.4.4  z-Transformationen

Die obigen Transformationen, die Fouriertransformation (Abschnitt 2.4.2) und die Laplace-Transformation (Abschnitt 2.4.3), können nur auf kontinuierliche Signale angewandt werden. Digitale Signalverarbeitung funktioniert aber nur mit zeit- und amplitudendiskreten Messwerten. Die hier besprochene z-Transformation ist die für dieses Problem angepasste Transformation. Die z-Transformation und die im Abschnitt 2.6.2 besprochenen Digitalfilter und -techniken können auch auf die Datenanalyse im Computer angewandt werden. Während die Laplace-Transformation und die Fourier-Transformation zur Lösung von Differentialgleichungen und -gleichungssystemen verwendet werden können, wird die z-Transformation zur Berechnung von Systemen von Differenzengleichungen verwendet.

Wir betrachten nun eine Übertragungskette für diskrete Signale (Abbildung 2.20 und 2.21).


pict

Abbildung 2.20.: Digitale Übertragungskette im Zeitbereich


pict

Abbildung 2.21.: Digitale Übertragungskette im Frequenzbereich

Hier ist die Funktion f(t) für die Zeiten 0 < t < nur für diskrete Argumente tn = nTa (n = 0,1,2, ...;T  > 0,T const)
                 a      a definiert. Die Amplitudenwerte an den diskreten Zeitwerten sind ebenfalls diskret. Die Folge {fn} und die an diskreten Zeitwerten definierte Funktion f(nTa) sind äquivalent.

Die z-Transformation F(z) der Folge {f }
  n ist definiert durch

         ∞∑     −n
F  (z ) =    fnz
        n=0
(2.34)

Die Folge {fn} heisst z-transformierbar, wenn die Summe in Gleichung (2.34) konvergiert. Als Kürzel kann man auch schreiben

F (z) = Z {fn}
(2.35)

{f }
  n ist die Originalfolge, F(z) die Bildfolge.

Ein Beispiel Sei fn = 1,(n = 0, 1, 2, 3,). Die z-Transformation ist

         ∞∑   −n
F  (z ) =    z
         n=0
(2.36)

Die Summe in Gleichung (2.36 ist bezüglich 1
z eine geometrische Reihe. Sie konvergiert gegen -z-
z−1, wenn 1
z < 1 ist. Das heisst aber, dass die Folge {fn} z-transformierbar ist für alle z-Werte ausserhalb des Einheitskreises |z|> 1.

Eigenschaften

2.4.4.1. Rechenregeln für die z-Transformation

Wir gehen von der Folge {f  }
   n und ihrer z-Transformierten Z{fn} = F(z) aus

1. Verschiebungssatz
             −k
Z {fn−k} =  z  F (z)    f¨urk  = 0,1,2,...
(2.42)

2. Verschiebungssatz
              [                 ]
             k         k∑−1   − ν
Z {fn+k } = z  F (z) −    fνz         f¨urk =  1,2,3,...
                       ν=0
(2.43)

Summation
Für |z|> max(  -1)
 1,R gilt:
  {      }
   n∑−1         1
Z      fν  = ------F(z)
   ν=0       z − 1
(2.44)

Differenzenbildung
Für die Differenzen
                       m        (  m− 1 )     (               0       )
Δfn  =  fn+1− fn,    Δ   fn = Δ  Δ     f       m  = 1,2,...;Δ  fn = fn
gilt:
Z {Δf  }   =   (z − 1)F (z) − f
     2n               2        0
Z {Δ  fn}  =   (z − 1) F (z) − z(z − 1)f0 − zΔf0
...          =                 ...
  {     }                       k−∑1
Z  Δkfn    =   (z − 1)k F (z) − z   (z − 1 )k− ν− 1Δ νf0
                                ν=0
(2.45)

Dämpfung
für λ 0 beliebig komplex und |z| > |λR| gilt
              ( z)
Z {λnfn } = F   --
                λ
(2.46)

Faltung
Als Faltung der Folgen {f }
  n und {g }
  n bezeichnet man
          n
f  ∗ g =  ∑  f g
 n   n   ν=0  ν n−ν
(2.47)

Existieren Z{f }
  n = F(z) für |λ |> 1--
R1 und Z{g }
  n = G(z) für |λ |> 1--
R2 dann ist

Z {fn ∗ gn } = F(z)G (z)
(2.48)

Die in Gleichung (2.48 definierte Faltung konvergiert für |z|> max (      )
 -1,-1-
 R1 R2. Dieser Faltungssatz ist analog zu den Faltungssätzen für die Fouriertransformation und die Laplace-Transformation.

Differentiation der Bildfunktion
             dF-(z)
Z{nfn } = − z  dz
(2.49)

Höhere Ableitungen lassen sich analog bilden.

Integration der Bildfunktion
Falls f0 = 0 gilt
  {   }    ∞
    fn-    ∫ F-(ξ)
Z   n   =      ξ   dξ
           z
(2.50)

2.4.4.2. z-Transformation und Laplace-Transformation

Die diskrete Funktion f(t) kann auch als Treppenfunktion geschrieben werden:

f(t) =  f(nTA ) = fn     für  nTA  ≤ t < (n + 1)TA
                             (n =  0,1,2,...;TA >  0,TA = c(o2n.5s1t)
Hier ist TA die Abtastzeit.

Die Laplace-Transformierte dieser Funktion ist (Siehe auch Gleichungen (2.31) und (2.32)).

L {f(t)}  =  F (p)
                 (n+1)TA
              ∞∑    ∫       −pt
          =             fne   dt
             n=0  nTA
              ∞∑    e− nTAp − e− (n+1)TAp
          =      fn-------------------
             n=0            p
              1 − e−pTA ∞∑
          =   ----------   fne−nTAp      (2.52)
                  p    n=0

Die unendliche Folge wird auch als diskrete Laplace-Transformation bezeichnet.

                     ∞
D {f(t)} = D {f } =  ∑  f e−nTAp
               n    n=0  n
(2.53)

Ersetzt man in der Gleichung (2.53) eTAp durch z (dies ist der Ursprung der Bezeichnung z-Transformation) erhält man für Treppenfunktionen die Beziehung

               (    1 )
   pF (p)  =    1 − -- F (z)          (2.54)
               (    z )
pL {f (t)}  =    1 − 1- Z {f (t)}       (2.55)
                    z

Mit Hilfe der Beziehungen in Gleichungen (2.54) und (2.55) kann man aus den Laplace-Transformationen in Tabelle C.1 die entsprechenden z-Transformationen ausrechnen.

2.4.4.3. Rücktransformation

Die Rücktransformation

 −1
Z   {F (z)} = {fn}
(2.56)

der z-Transformation kann mit vier verschiedenen Methoden berechnet werden.

  1. Benutzung von Tabellen
  2. Berechnung der Laurent-Reihe von F(z)
  3. Berechnung der Taylor-Reihe von F(  )
  1
  z. Es ist
          1 dn   ( 1) ||
fn =  ----nF   -- ||       (n = 0,1,2, ...)
      ndz      z  |z=0
    (2.57)

  4. Anwendung eines Grenzwertsatzes

Beispiel Es soll die zu F(z) =     2z
(z−-2)(z−1)2- gehörige Folge berechnet werden.

  1. Aus der Partialbruchzerlegung von F(z)
 z erhält man
    F (z) = --2z--−  --2z----− --2z--
        z − 2    (z − 1)2   z − 1
    (2.58)

    und somit

    {fn} = 2(2n − n − 1 )  f¨urn ≥ 0
    (2.59)

  2. Entwicklung in Potenzen von 1
z
              −2     −3      − 4      −5
F (z) = 2z   + 8z   + 22z   + 52z   +  ...
    (2.60)

    Daraus kann man direkt die Folge {fn} ablesen. Einen geschlossenen Ausdruck erhält man jedoch nicht.

  3. Man berechne die Ableitungen von F(1)
 z
       (  )                                           (  )|
 F   1-     = --2- − --2z2 − -2-         also   F   1-||  = 0
    (z)       1−2z   (1−z)   1−z                   (z |)0
 dF  1                                          dF   1 ||
 ----z--  = ---4-2 − --4z3 − --4--2      also   -----z-|| =  0
   dz       (1−2z)   (1−z)   (1−z)                dz   ||
    ( )                                             (  )0|
d2F  1z        16      12z      12               d2F   1z ||
--dz2---  = (1−2z)3 − (1−z)4 − (1−z)3      also   --dz2---|| =  4
    ( )                                             (  )|0
d3F  1                                          d3F   1 ||
-----z--  = --96-4 − -48z5 − --48-4      also   ------z-|| =  48
  dz3       (1−2z)   (1−z)   (1−z)                dz3   ||
                                                         0
                                                         (2.61)

    Berücksichtigt man, dass die Koeffizienten der Taylor-Entwicklung noch mit n! normiert sind, erhält man ein konsistentes Resultat für {fn}.

  4. Aus den Grenzwertsätzen erhält man
    f0  =   lim  F (z)
        z→ ∞
    =   lim  --------2z------- = 0
        z→ ∞ z3 − 4z2 + 5z − 2
f1  =   lim  z (F (z) − f0)
        z→ ∞
            -------2z2-------
    =   lz→im∞ z3 − 4z2 + 5z − 2 = 0
              (                )
f2  =   lim  z2  F (z) − f0 − f1
        z→ ∞                  z
                   2z3
    =   lz→im∞ -3-----2--------- = 2
            z (− 4z  + 5z − 2       )
             3              f1-   f2-
f3  =   lz→im∞ z   F (z) − f0 − z −  z2
             (                        )
    =   lim z3  -------2z-------- − -2-  = 8
        z→ ∞   z3 − 4z2 + 5z − 2   z2
                                            (2.62)

2.4.5  Anwendung der Transformationen auf Einschaltvorgänge

Um Einschaltvorgänge zu untersuchen werden entweder die Stoss- oder Sprungantwort untersucht. Die Sprungantwort ist die Antwort des Systems auf die Sprungfunktion

               {
Usp(t;t0;U0) =   0   f¨ur  t < t0
                 U0   f¨ur  t ≥ t0
(2.63)

am Eingang. Als erstes Beispiel berechnen wir die Ausgangsspannung an einem RC-Glied, wenn am Eingang eine Sprungfunktion angelegt wird (Abbildung 2.22).


pict

Abbildung 2.22.: Einschalten einer Spannung an einem RC-Glied

Unter der Voraussetzung, dass zur Zeit t = 0 der Kondensator entladen ist, erhält man mit Uein = IR + Ua und der Beziehung I = dQ-
 dt = CdUa
dt die Differentialgleichung

dU      1
---a+  ----(Ua − Uein) = 0
 dt    RC
(2.64)

Die Lösung dieser elementaren Differentialgleichung unter Berücksichtigung der Anfangsbedingungen ist

           (          )
Ua (t) = U0  1 − e−t∕RC
(2.65)

Die Lösung, und damit die zeitliche Übertragungsfunktion oder Einheitsschrittantwort UUa0 ist die bekannte Exponentialfunktion.


pict

Abbildung 2.23.: Kombinierte Stoss- und Sprungfunktion Ust(t, Δt,Ust,0,U), bestehend aus Usp(t,0,Ust,0) (blau) und Usp(t,Δt, U∞  − Ust,0) (rot)

Im Allgemeinen besteht das Einschaltsignal aus einer Kombination einer Stossfunktion und einer Sprungfunktion, wie sie Abbildung 2.23 zeigt. Wenn wir annehmen, dass für t < 0 Ue = 0 gilt, dann für 0 t < Δt der Wert Ue = Ust und für t Δt Ue = U ist, kann die Eingangsfunktion mit Gleichung (2.63 als

Ust(t, Δt,Ust,0,U ∞ ) = Usp(t,0,Ust,0)+Usp (t,Δt, U∞ −  Ust,0)
(2.66)

geschrieben werden. Unter der Voraussetzung, dass

lässt sich die Stossantwort mit U = 0 berechnen.

Ua (t)  =   U(a (Usp(t,0,Ust,0),t) + Ua (Usp(t,Δt,− Ust,0) ,t)
           ||                (   0      )             f¨ur    t < 0
           {            U    1 − e−t∕RC              f¨ur  0 ≤ t < Δt
       =   ||     [(       sp  )   (               )]
           ( Usp   1 − e−t∕RC  −  1 − e− (t−Δt)∕RC     f¨ur    Δt ≤ t
           (
           ||{         (   0       )     f¨ur    t < 0
       =         Ust,0 1 − e− t∕RC       f¨ur  0 ≤ t < Δt
           ||( U    e−t∕RC (e Δt∕RC −  1)  f¨ur   Δt  ≤ t
           (   st,0
           ||         0          f¨ur       t < 0
           {      (     −t∕RC)
       =   || Ust,0 1 − e        f¨ur     0 ≤ t < Δt              (2.67 )
           (   Ust,0 ΔRtCe− t∕RC   f¨ur  Δt  ≤ t,Δt →  0

Die obige Gleichung zeigt, dass bei einer stossförmigen Anregung immer eine sofortige Antwort sowie eine langzeitliche Antwort vorhanden ist.

Wenn die Eingangsfunktion mathematisch nicht trivial ist, kann man sie in eine Folge von Stossfunktionen geschrieben werden.

         ∞∑
Ue (t) =    Ust(t − nΔt, Δt,U  (n Δt) ,0)
         n=0
(2.68)

Wir modifizieren die obige Gleichung

        ∑∞
Ue (t) =     Ust(t −-nΔt,-Δt,U-(n-Δt),0-)·Δt
        n=0             Δt

Durch den Grenzübergang Δt 0 wird die obige Gleichung zu einem Integral, wobei U
Δstt die Diracsche Deltafunktion δ(t) approximiert

        ∫∞
Ue(t) =   Ust (τ )δ(t − τ )dτ = Ust (t)
        0
(2.69)

einem Faltungsintegral, das gelöst werden kann. Aus der Stossantwort Ua(t,n ) einer einzelnen Stossfunktion erhält man die Antwort des gesamten Systems

             m∑
Ua (m Δt ) =    Ua (t,n )
            n=0
(2.70)

Wenn A(t) = lim Δt0Ua(t)
Ust,0- die zeitliche Übertragungsfunktion eines Einheitsschrittes ist, muss man, um zur Stossantwort (der Reaktion des Systems auf einen Dirac’schen Deltapuls δ(t) zu kommen, die folgende Umrechnung machen.

Wenn Θ(t) die Heaviside-Funktion ist, also ein Einheitssprung, gilt, dass

       dΘ(t)-
δ(t) =   dt

wenn also A(t) die Systemantwort auf eine Sprungfunktion ist, dann ist dA(t)
 dt bei einem linearen System die Systemantwort auf einen Deltapuls. Also wird die Sytemantwort auf einen beliebigen Eingang das Faltungsintegral

                        t
                       ∫        dA (t − τ)
Ua (t) = Ue (0)A0 (0) +   Ue (τ) ----------dτ
                       0           dt
(2.71)

Legt man beispielsweise an die Schaltung aus Abbildung 2.22 eine exponentiell ansteigende Spannung Ue(t) = U0(          )
 1 − e− t∕τ0 an und berücksichtigt, dass aus Gleichung (2.65)

    A  (0)  =   0
      0              −t∕RC
      A (t)  =   1 − e
  A (t − τ) =   1 − e− tR−Cτ

dA-(t-−-τ)  =   -1--e− tR−Cτ         (2.72)
    dt          RC

Die Antwortfunktion ist

         U   ∫t(       τ-)   t−τ-
Ua (t) = --0-   1 − e− τ0  e− RC d τ
         RC  0
(2.73)

Wenn die Eingangsspannung die gleiche Zeitkonstante wie die RC-Schaltung hat, also RC = τ0, dann ergibt sich

         U0 − t-∫t(  τ-   )         [    (     t )  − t-]
Ua (t) = --e  τ0   e τ0 − 1  dτ = U0  1 −   1 + -- e  τ0
         τ0     0                              τ0
(2.74)

Es gibt die einfache Beziehung zwischen der Fouriertransformation und einem Faltungsintegral:

         ∞
Ua (t) = ∫ Ue(τ) h(t − τ)dτ
         0
         ⇕   Fouriertransformation
    Ua (ω) = h (ω )Ue (ω)
(2.75)


pict

Abbildung 2.24.: Anlegen einer Wechselspannung an eine Spule

Ein weiteres illustratives Beispiel ist das Anlegen einer Wechselspannung U0 sin ωt an eine Spule (Siehe Abbildung 2.17). Für t > 0 gilt die Differentialgleichung

 dI
L--- + RI − Ue,0 = 0
  dt
(2.76)

Die Lösung dieser Gleichung, sowie die zeitliche Übertragungsfunktion sind

               (        )
 I (t) =  Ue,0  1 − e− RL-t
           R
          -1 (     − R-t)
A (t)  =  R   1 − e L              (2.77)

Mit

    A0 (0)  =  0
                1 (     − R-t)
     A (t)  =   R- 1 − e  L
                1 (      R     )
 A (t − τ)  =   -- 1 − e−-L(t−τ)
                R
dA-(t −-τ-)     1-− RL(t− τ)
    dt      =   Le                    (2.78)

bekommt man für den Strom

         ∫t         1   R-
I (t) =     U0sin ωt--e−L (t−τ)dτ
         0          L
                 ∫t
      =   U0e− RLt  sinωte RLτdτ
          L
                 0
      =   ---U0-----(R  sin ωt − ωL cos ωt + ωLe −( RL2t.)79)
          R2 + ω2L2

pict

Abbildung 2.25.: Resultierende Ströme beim Anlegen einer Wechselspannung an eine Spule. Links: Einschalten im Nulldurchgang, Rechts: Einschalten bei Maximalspannung.

Schaltet man bei der Maximalspannung ein, ergibt sich

          ----U0-----(                         − RLt)
I (t) =   R2 +  ω2L2  ωL sin ωt + R cosωt − Re  (2.80)

Wie aus Abbildung 2.25 (Excel-Tabelle) ersichtlich, wird der Dauerzustand sehr viel schneller erreicht, wenn man bei der Maximalspannung eine Spule an eine Wechselspannung als wenn man im Nulldurchgang schaltet. Der Grund ist der Folgende: Die Anfangsbedingung der allgemeinen Lösung hängt von der Grösse der speziellen Lösung zum Anfangszeitpunkt ab. Da bei einer Spule der Strom im Dauerzustand 900 ausser Phase ist, muss bei einem Einschalten im Nulldurchgang die Anfangsbedingung der allgemeinen Lösung den maximalen Strom kompensieren. Wenn bei der maximalen Spannung eingeschaltet wird, ist der Strom null, die Anfangsbedingung der allgemeinen Lösung ist also auch null. Je weniger die Spule durch den Quellwiderstand gedämpft wird, desto ausgeprägter ist der Effekt, dass die Zeit zum Erreichen des Gleichgewichtszustandes im ersten Fall grösser ist.

Beispiel (HTML-Datei): Anwendung der z-Transformation

Beispiel (PDF-Datei): Anwendung der z-Transformation

Beispiel (Maple-Datei): Berechnung der z-Transformation

2.4.6  Digitale Signale

Digitale Signale, also 0 oder 1, werden mit logischen Schaltungen verknüpft. Digitale Signale werden mit Hilfe von Zahlensystemen auf unsere Werteskale der natürlichen Zahlen abgebildet. Gebräuchlich sind:






Dual (binär) Dezimal Oktal Hexadezimal




000 000 = 0000 0 0 0
000 001 = 0001 1 1 1
000 010 = 0010 2 2 2
000 011 = 0011 3 3 3
000 100 = 0100 4 4 4
000 101 = 0101 5 5 5
000 110 = 0110 6 6 6
000 111 = 0111 7 7 7
001 000 = 1000 8 10 8
001 001 = 1001 9 11 9
001 010 = 1010 10 12 A
001 011 = 1011 11 13 B
001 100 = 1100 12 14 C
001 101 = 1101 13 15 D
001 110 = 1110 14 16 E
001 111 = 1111 15 17 F





Tabelle 2.4.: Vergleich der Zahlensysteme

In Tabelle 2.4 haben wir, wie üblich für die Ziffern "10" bis "15" die Buchstaben AF verwendet. Eine schöne Übersicht über die Grundlagen der Digitaltechnik findet man im Buch von Häßler und Straub[HS93].

2.4.6.1. Logische Verknüpfungen


(1) (2) (3) (4)
AB


0 0
1 0
AB


0 1
1 1
AB


0 0
1 1
AB


0 1
1 0

Tabelle 2.5.: Logische Verknüpfungen mit einer Eingangsvariablen

Nicht-Gatter Die Grundverknüpfungen mit einer Variable sind in Tabelle 2.5 angegeben. Die Verknüpfungen (1) und (2) haben keinen praktischen Nutzen. (3) ist die Funktion eines Buffers während (4) eine Negation darstellt. Die Logiktafel der Negation sowie die Schaltbilder und die Signalformen sind in Abbildung 2.26 dargestellt. Man schreibt die Negation üblicherweise

Z = ¬A  =  ¯A
(2.81)


pict

Abbildung 2.26.: Negation, Nicht-Gatter, Inverter und NOT

Und-Gatter Die erste der zweiwertigen Funktionen ist das Und-Gatter. Sein Ausgang ist eins, genau wenn beide Eingänge auf eins sind. Die Logiktafel des Und-Gatters sowie die Schaltbilder und die Signalformen sind in Abbildung 2.27 dargestellt. In Formeln stellt man die Konjunktion (Und) wie folgt dar:

Z   =   A ∧ B     genormt

Z   =   A ∗ B     veraltet
Z   =   A&B      selten(Schreibmaschine! ) (2.82)

pict

Abbildung 2.27.: Und, Und-Gatter, Konjunktion und AND

Oder-Gatter Die zweite der zweiwertigen Grundfunktionen ist das Oder-Gatter. Sein Ausgang ist eins, wenn mindestens einer der beiden Eingänge auf eins ist. Die Logiktafel des Oder-Gatters sowie die Schaltbilder und die Signalformen sind in Abbildung 2.28 dargestellt. In Formeln stellt man die Disjunktion (Oder) wie folgt dar:

Z   =  A ∨  B     genormt

Z   =  A +  B     veraltet         (2.83)

pict

Abbildung 2.28.: Oder, Oder-Gatter, Disjunktion, OR

Mit den Verknüpfungen UND, ODER und NICHT können alle logischen Verknüpfungen erzeugt werden. Es hat sich aber herausgestellt, dass einige andere abgeleitete Verknüpfungen einfacher in Silizium zu bauen sind. Mit einer Auswahl abgeleiteter Funktionen lassen sich ebenso alle Verknüpfungen herstellen.

NAND-Gatter Eine häufig verwendete abgeleitete Verknüpfung ist das NAND-Gatter. Sein Name ist Abgeleitet aus NOT und AND. Sein Ausgang ist eins, wenn einer der beiden Eingänge nicht auf eins ist. Die Logiktafel des NAND-Gatters sowie die Schaltbilder und die Signalformen sind in Abbildung 2.29 dargestellt. In Formeln stellt man die NAND-Funktion wie folgt dar:

       -------
Z   =  A ∧  B     genormt
       ------
Z   =  A ∗ B     veraltet          (2.84)

pict

Abbildung 2.29.: NAND, NAND-Gatter

NOR-Gatter Eine weitere häufig verwendete abgeleitete Verknüpfung ist das NOR-Gatter. Sein Name ist abgeleitet aus NOT und OR. Sein Ausgang ist eins, wenn beide Eingänge nicht auf eins sind. Die Logiktafel des NOR-Gatters sowie die Schaltbilder und die Signalformen sind in Abbildung 2.30 dargestellt. In Formeln stellt man die NAND-Funktion wie folgt dar:

Z   =  A-∨--B-    genormt
       -------
Z   =  A +  B     veraltet         (2.85)

pict

Abbildung 2.30.: NOR, NOR-Gatter

Äquivalenzgatter Eine weitere abgeleitete Verknüpfung ist das Äquivalenz-Gatter. Sein Ausgang ist eins, wenn beide Eingänge auf gleichem Pegel sind. Die interne Funktion kann wie in Tabelle 2.6 gezeigt, abgeleitet werden. Die Logiktafel des Äquivalenz-Gatters sowie die Schaltbilder und die Signalformen sind in Abbildung 2.31 dargestellt. In Formeln stellt man die Äquivalenz-Funktion wie folgt dar:

                 (      )
Z  =   (A ∧ B ) ∨ A-∧ B-      genormt
                 (--  --)
Z  =   (A ∗ B) +  A ∗ B       veraltet    (2.86)


A B A B Q = A B S = A B Z = Q S







0 0 1 1 0 1 1
0 1 1 0 0 0 0
1 0 0 1 0 0 0
1 1 0 0 1 0 1

Tabelle 2.6.: Wahrheitstabelle des Äquivalenzgatters


pict

Abbildung 2.31.: Äquivalenz, Exklusiv-NOR, XNOR

Antivalenzgatter oder XOR Eine weitere abgeleitete Verknüpfung ist das Antivalenz-Gatter, auch XOR-Gatter genannt. Der Name XOR ist eine amerikanisch prägnante Abkürzung für eXclusive OR. Sein Ausgang ist eins, wenn beide Eingänge auf verschiedenem Pegel sind. Die Logiktafel des Antivalenz-Gatters sowie die Schaltbilder und die Signalformen sind in Abbildung 2.32 dargestellt. In Formeln stellt man die Antivalenz-Funktion wie folgt dar:

       ----------(------)-
Z  =   (A ∧ B ) ∨ A ∧ B       genormt
Z  =   (A ∧ B-) ∨ (A-∧ B )     umgeformt, genormt
       (    --)  ( --   )
Z  =    A ∗ B  +   A ∗ B      veraltet         (2.87)

pict

Abbildung 2.32.: Antivalenz, XOR-Gatter

2.4.6.2. Boolesche Algebra, Schaltalgebra

Die Reihenschaltung von zwei Schaltern führt auf die Verknüpfung UND. Die Parallelschaltung ergibt demnach ODER. Dabei wird angenommen, dass der Schaltzustand 1 dem geschlossenen Schalter entspricht.


UND 0 0 = 0 0 1 = 0 1 0 = 0 1 1 = 1
ODER 0 0 = 0 0 1 = 1 1 0 = 1 1 1 = 1
NICHT 0 = 1 1 = 0

Tabelle 2.7.: Postulate der Schaltalgebra

In Tabelle 2.7 sind die Grundrechenregeln für Konstanten zusammengefasst. Tabelle 2.8 zeigt die Theoreme der Schaltalgebra. Dabei wird nun eine Variable, A, eingeführt, deren Wert beliebig ist.


UND A 0 = 0 A 1 = A A A = A A A = 0
ODER A 0 = A A 1 = 1 A A = A A A = 1
NICHT 0 = 0 1 = 1

Tabelle 2.8.: Theoreme der Schaltalgebra

Wie bei den natürlichen oder ganzen Zahlen macht das Kommutativgesetz eine Aussage über die Vertauschbarkeit von Variablen bei der UND- oder ODER-Verknüpfung.

Z  =  A  ∧ B ∧ C =   C ∧ B  ∧ A
Z  =  A  ∨ B ∨ C =   C ∨ B  ∨ A       (2.88)

Analog gibt es auch ein Assoziativgesetz, das aussagt, dass die Reihenfolge der Verknüpfung beliebig ist.

Z =   A ∧ (B ∧ C ) =  (A ∧ B ) ∧ C

Z =   A ∨ (B ∨ C ) =  (A ∨ B ) ∨ C     (2.89)

Auch für die Schaltalgebra gibt es Distributivgesetze. Man unterscheidet das konjunktive Distributivgesetz

Z =  A ∧ (B ∨ C ) = (A ∧ B ) ∨ (A ∧ C )
(2.90)

und das disjunktive Distributivgesetz

Z =  A ∨ (B ∧ C ) = (A ∨ B ) ∧ (A ∨ C )
(2.91)

Zusätzlich zu den oben ausgeführten Gesetzen, die auch von den üblichen Zahlensystemen her bekannt sind, gibt es die deMorganschen Gesetze. Das erste DeMorgansche Gesetz lautet

     -------  --  --
Z =  A ∧ B =  A ∨ B
(2.92)

Die Gültigkeit dieses Gesetzes kann mit der Tabelle 2.9 gezeigt werden.


A B A B A B A B A B







0 0 0 1 1 1 1
0 1 0 1 1 0 1
1 0 0 1 0 1 1
1 1 1 0 0 0 0

Tabelle 2.9.: Wahrheitstabelle des ersten DeMorganschen Gesetzes

Das zweite DeMorgansche Gesetz lautet:

     -------  --  --
Z =  A ∨ B =  A ∧ B
(2.93)

Die Gültigkeit dieses Gesetzes kann mit der Tabelle 2.10 gezeigt werden.


A B A B A B A B A B







0 0 0 1 1 1 1
0 1 1 0 1 0 0
1 0 1 0 0 1 0
1 1 1 0 0 0 0

Tabelle 2.10.: Wahrheitstabelle des zweiten DeMorganschen Gesetzes

Analog zum Rechnen mit ganzen Zahlen (als Beispiel) wird definiert, dass UND stärker bindet als ODER (Punkt vor Strich). damit erreicht man, dass nicht immer Klammern gesetzt werden müssen, um die Reihenfolge der Ausführung von Operationen festzulegen. Aus den DeMorganschen Gesetzen folgt, dass jede UND-Verknüpfung mit ODER- und NICHT-Verknüpfungen realisiert werden kann. Da man immer eine NICHT-Verknüpfung aus einer NOR-Verknüpfung erzeugen kann (entweder man legt einen Eingang auf null, oder man verbindet beide Eingänge) benötigt man, im Prinzip, nur NOR-Gatter, um eine gesamte Logik aufzubauen. Diese Aussage mag, wenn man an integrierte Schaltungen wie die 70LSxx-Reihe denkt, übertrieben klingen. Wenn man eine grössere logische Schaltung jedoch mit programmierbaren Logik-Array (PAL) aufbaut, dann hilft einem die obige Aussage, um mit einem Typ Schaltungen alles aufzubauen. Analog kann man auch zeigen, dass alle logischen Schaltungen aus NAND-Verknüpfungen aufgebaut werden können. Welche Verknüpfung man bevorzugt, hängt unter anderem auch vom inneren Aufbau der Logikfamilien ab.

Normalformen Eine digitale Schaltung ist eindeutig durch ihre Wahrheitstabelle gegeben. Aus der Wahrheitstabelle können zwei Normalformen abgelesen werden.

ODER-(disjunktive) Normalform (DNF)
Eine DNF ist eine Oderverknüpfung von Vollkonjunktionen (nur UND, jede Variable kommt nur einmal vor). Ziel sind die Zustände 1. Die einzelnen Terme heissen Minterm.
UND-(konjunktive) Normalform (KNF)
Eine KNF ist eine Undverknüpfung von Volldisjunktionen (nur ODER, jede Variable kommt nur einmal vor). Ziel sind die Zustände 0. Die einzelnen Terme heissen Maxterm.

Eine DNF sieht dann so aus

    (     --    )   (--  --    )
Z =   A ∧ B ∧ C  ∨   A ∧ B ∧ C   ∨ (...) ∨ ...
(2.94)

Entsprechend sieht eine KNF aus.

    (     --    )   (--  --    )
Z =   A ∨ B ∨ C  ∧   A ∨ B ∨ C   ∧ (...) ∧ ...
(2.95)

Tabelle 2.11 zeigt, wie man aus der Wahrheitstabelle die DNF erzeugt. Man muss nur diejenigen Terme aufschreiben, bei denen als Resultat in der Wahrheitstabelle eine 1 steht. Je weniger Einsen eine Wahrheitstabelle hat, desto effizienter ist die DNF. Die KNF andererseits ist dann anzuwenden, wenn im Ausgangsfeld nur wenige Nullen sind. Tabelle 2.12 zeigt das entsprechende Vorgehen. In der Tabelle wird gezeigt, dass man die DNF auf die negierte Ausgangsvariable z anwendet. Die resultierende Form wird negiert. Schliesslich werden die DeMorganschen Gesetze angewendet. Die KNF wird also erhalten, indem man die Zeilen heraus sucht, die z = 0 haben. Für jede dieser Zeilen wird eine Disjunktion (¨M  axterm¨)  hingeschrieben, wobei jede Variable mit ¨
1  äls A, jede mit ¨
0  äls A geschrieben wird.


A B C Z






0 0 0 1 =⇒ A B C
0 0 1 0
0 1 0 1 =⇒ A B C
0 1 1 0
1 0 0 0
1 0 1 1 =⇒ A B C
1 1 0 0
1 1 1 1 =⇒ A B C

     (--  --  --)  (--      --)  (    --    )
Z =   A ∧ B ∧ C  ∨  A ∧ B ∧ C  ∨  A ∧ B  ∧ C ∨ (A ∧ B ∧ C )

Tabelle 2.11.: Erzeugung einer DNF aus der Wahrheitstabelle


A B Z Z






0 0 0 1 =⇒ A B
0 1 1 0
1 0 0 1 =⇒ A B
1 1 1 0

--   (--  --)   (    --)
Z  =  A ∧ B   ∨  A ∧ B       ausTabelle

     --------------------
     (--  --)   (    --)
Z  =  A ∧ B   ∨  A ∧ B       Negation

               (      )
Z = (A ∨  B) ∧  A-∨ B       DeMorgan

Tabelle 2.12.: Erzeugung einer KNF aus der Wahrheitstabelle

Eine weitergehende Übersicht über das Arbeiten mit logischen Schaltungen kann in der Referenz [HS93] gefunden werden.

2.4.6.3. Karnaugh-Diagramme

x1 x2 y



0 0 0
0 1 0
1 0 0
1 1 1
x2x1 0 1



0 0 0



1 0 1




Abbildung 2.33.: Vergleich einer Wahrheitstabelle mit einem Karnaugh-Diagramm

Karnaugh-Diagramme bieten eine weitere Vereinfachungsmöglichkeit für logische Schaltnetzwerke. Wie Abbildung 2.33 zeigt, kann aus einer Wahrheitstabelle das Karnaugh-Diagramm abgeleitet werden. Dabei sind die folgenden Regeln zu beachten:


x1 x2 x3 x4 y





0 0 0 0 1
0 0 0 1 1
0 0 1 0 1
0 0 1 1 1
0 1 0 0 1
0 1 0 1 0
0 1 1 0 0
0 1 1 1 0
1 0 0 0 1
1 0 0 1 0
1 0 1 0 1
1 0 1 1 1
1 1 0 0 0
1 1 0 1 0
1 1 1 0 1
1 1 1 1 1
x3x4x1x2 00 01 11 10





00 1 1 0 1





01 1 0 0 0





11 1 0 1 1





10 1 0 1 1






Abbildung 2.34.: Erweitertes Beispiel zum Vergleich einer Wahrheitstabelle mit einem Karnaugh-Diagramm

Wir betrachten in Abbildung 2.34 die beiden Ausgangszellen oben links. Hier steht, dass für die Eingangsvektoren 0000 und 0100 das Ausgangssignal jeweils eins ist. Bei der Berechnung der disjunktiven Normalform ergibt sich für die beiden Zeilen die Konjunktionen

K  =  ¯x ∧  ¯x ∧ ¯x  ∧ ¯x              (2.96)
  1    1    2   3    4
K2 =  ¯x1 ∧ x2 ∧ ¯x3 ∧ ¯x4            (2.97)

Die dann zu bildende Disjunktion liefert unter anderem den Term

K1  ∨ K1  =  (¯x1 ∧ x¯2 ∧ ¯x3 ∧ ¯x4) ∨ (¯x1 ∧ x2 ∧ ¯x3 ∧ x¯4 )
          =  (¯x1 ∧ x¯3 ∧ ¯x4) ∧ (¯x2 ∨ x2)
          =  ¯x  ∧ ¯x ∧ ¯x
              1    3    4
(2.98)

Das Beispiel zeigt, dass jedesmal, wenn 2, 4, 8, 16, Zellen in einer kompakten Gruppe mit eins belegt sind, dass dann in der disjunktiven Normalform nur diejenigen Variablen auftauchen, die sich in der den Zeilen oder Spalten, über welche die Gruppe geht, nicht verändern.

Aus einem Karnaugh-Diagramm konstruiert man die Verknüpfungen, indem man alle Felder mit einsen in möglichst grossen Gruppen zu 2, 4, 8, 16, Feldern zusammenfasst und für jede Gruppe die Konjunktion der unveränderlichen Variablen bildet. Dabei muss das Diagramm in jeder Richtung als periodisch Fortgesetzt betrachtet werden. Zum Schluss wird die entsprechende Disjunktion gebildet. In Abbildung 2.34 ergeben sich also die Terme

KA   =   ¯x2 ∧ ¯x4                (2.99)

KB   =   ¯x1 ∧ ¯x3 ∧ ¯x4          (2.100)
KC   =   x1 ∧ x3               (2.101)

KD   =   ¯x1 ∧ ¯x2               (2.102)

Das Schlussresultat ist dann

K   =  KA  ∨ KB  ∨ KC  ∨ KD                     (2.103)
    =  (¯x2 ∧ ¯x4) ∨ (x¯1 ∧ ¯x3 ∧ ¯x4) ∨ (x1 ∧ x3) ∨ (x¯1(∧2.¯x120)4)



[Nächste Seite] [Vorherige Seite] [vorheriges Seitenende] [Seitenanfang] [Ebene nach oben]
©2002-2017 Ulm University, Othmar Marti, pict  Lizenzinformationen