• Shuffle
    Toggle On
    Toggle Off
  • Alphabetize
    Toggle On
    Toggle Off
  • Front First
    Toggle On
    Toggle Off
  • Both Sides
    Toggle On
    Toggle Off
  • Read
    Toggle On
    Toggle Off
Reading...
Front

Card Range To Study

through

image

Play button

image

Play button

image

Progress

1/101

Click to flip

Use LEFT and RIGHT arrow keys to navigate between flashcards;

Use UP and DOWN arrow keys to flip the card;

H to show hint;

A reads text to speech;

101 Cards in this Set

  • Front
  • Back
Was ist ein Desktop-PC?
- Einem Benutzer steht die gesamte Rechenleistung exklusiv zur Verfügung
- Steht am Arbeitsplatz des Benutzers
- enthält alle Hard- und Softwarekomponenten, die zhur interaktiven Arbeit mit lokalen Anwendungen notwendig sind
- verfügen über Netzwerkschnittstellen, um mit anderen Rechnern Daten auszutauschen
Was sind Workstations?
Leistungsfähige PCs, die über eine Netzwerkschnittstelle und besonders schnelle Grafiksysteme verfügen
Was ist ein Server?
Rechner, der Betriebsmittel für andere Rechner zur Verfügung stellt.
Was sind die grundlegenden Komponenten innerhalb der Systemeinheit eines PCs?
- Hauptplatine (Motherboard, Mainboard ) mit integrierten Schnittstellen,
- Graphikkarte(n),
- Schnittstellenkarten für PCI–Express oder andere Bussysteme,
- Festplattenlaufwerk(e) (Hard–Disk Drive – HDD),
- Diskettenlaufwerk(e), die jedoch kaum noch zu finden sind,
- CD–ROM– bzw. DVD–Laufwerke,
- Monitor, Tastatur und Maus
Was ist der Chipsatz?
- Der wichtigste der Hilfsbausteine, der auf der Hauptplatine untergebracht ist
- besteht aus ein bis drei Chips
- wird verwendet, um den Prozessor mit dem Speichersystem und Ein–/Ausgabebussen zu koppeln
- Da diese drei Haupteinheiten mit unterschiedlichen Geschwindigkeiten arbeiten, benötigt man Brückenbausteine (Bridges)
- hat großen Einfluss auf die Leistungsfähigkeit eines Computersystems und muss daher optimal auf den eingesetzten Prozessor und die verwendeten Speicher–/Bustypen zugeschnitten sein
- Bausteine des Chipsatzes übernehmen im eigentlichen Sinne die Steuerung des Systems.
- Obwohl ein Chipsatz für eine bestimmte Prozessorfamilie entwickelt wird, kann er meist
auch eine Vielzahl kompatibler Prozessoren unterstützen.
Was sind Brückenbausteine?
- gleichen Geschwindigkeitsunterschiede aus und sorgen für einen optimalen Datenaustausch zwischen den Komponenten
- müssen auf die Zeitsignale (Timing) des Prozessors abgestimmt werden
- sorgt für die elektrisch/physikalische Anpassung
der verschiedenen Bussignale sowie die Berücksichtigung der unterschiedlichen Übertragungsleistungen.
Was ist das BIOS?
- Basic Input/Output System
- Verbirgt die Unterschiede zwischen den zum Teil sehr unterschiedlichen Komponenten der Chipsätze vor dem Betriebssystem
- Das Betriebssystem muss immerhin für viele verschiedene Prozessortypen und Familien einsetzbar sein
- BIOS ermöglicht dem Betriebssystem und den darunter laufenden Anwendungsprogrammen den Zugriff auf die Hardware–Komponenten
- Es benötigt dazu genaue Kenntnisse über den Aufbau der Hauptplatine, die Anzahl der Steckplätze sowie die verwendeten Bausteine und Komponenten
Was sind die wesentlichen Aufgaben des BIOS?
- Ausführung des PC-Selbsttests, der automatisch nach dem Starten des Systems aufgerufen wird (Power-On Selftest) und der die Größe des Hauptspeichers ermittelt und einen Test der Speicherzellen durchführt
- Konfiguration der auf der Hauptplatine oder in den Steckplätzen eingesetzten Komponenten, insbesondere der am PCI– bzw. PCIe–Bus angeschlossenen Geräte
- Ausführung eines Setup-Programms, durch das der Anwender BIOS-Daten ändern und Einfluss auf den Systembetrieb nehmen kann. (z.B. manuelle Zuweisung von Interrupt–Kanäen zu bestimmten Komponenten)
Was sind North- und South-Bridge?
Zwei Brückenbausteine, auf welche die wesentlichen Funktionen eines Chipsatzes aufgeteilt sind
Was ist die North-Bridge?
- verbindet den Prozessor mit allen Komponenten,
die einen möglichst schnellen Datentransfer benötigen (z.B. RAM und Grafikkarte)
- Sie kümmert sich besonders um die Steuerung der Zugriffe auf den angeschlossenen Hauptspeicher
- wird deswegen auch als Speicher-Controller-Hub (Memory Controller Hub - MCH) bezeichnet
- Einige MCHs enthalten außerdem einen eigenen Graphikcontroller (Graphics Memory Controller Hub GMCH)
Was ist die South-Bridge?
- verbindet den Prozessor oder Hauptspeicher mit einer Reihe von integrierten oder extern hinzugefügten Controllern, die insbesondere zur Steuerung von Massenspeicher- oder Ein–/Ausgabegeäten dienen
- Ein– /Ausgabecontroller–Hub (I/O Controller Hub – ICH)
- Enthält USB-Schnittstellen
- sichert Kompatibilität zu älteren Systemkomponenten
- Dazu enthält sie noch ältere Komponenten wie z.B. die batteriegepufferte Echtzeituhr
Was ist der Super-I/O-Baustein?
- enthält häufig einfache Komponenten
- wird über LPC-Schnittstelle an die South Bridge angeschlossen
- wird vermutlich bald überflüssig, da immer mehr Komponenten in die South Bridge integriert werden können und einige Schnittstellen durch USB überflüssig werden
Was ist der Firmware Hub?
- Enthält den Festwertspeicher, auf dem das BIOS untergebracht ist und der eine Speicherkapazität von 4 bis 8 Mbit hat.
- enthält Hardwarekomponente zur Erzeugung von Pseudozufallszahlen (Random Number Generator), die z.B. für Verschlüsselungen verwendet werden
- wird gewöhnlich im Multiplexbetrieb gemeinsam mit dem Super–I/O–Bausteinüber die unten beschriebene LPC-Schnittstelle angesprochen
Was ist Shadowing?
Wegen der geringen Zugriffszeiten des BIOS wird der Inhalt des BIOS nach dem Einschalten des PCs aus dem Einschalten des PCs aus
dem Festwertspeicher ausgelesen und in einem besonderen Bereich des Hauptspeichers abgelegt, von dem aus er schneller bearbeitet werden
kann
Was ist das Hub Interface?
- schnelle dedizierte Verbindung zwischen North- und South-Bridge
- ersetzt den langsamen PCI-Bus, der eine maximale Übertragungsrate von 133 MB/s erreichte
Warum wird die North Bridge auc als System Controller Hub bezeichnet?
- steuert den Datenfluss zwischen den verschiedenen Komponenten
- setzt dazu Schreib– und Leseanforderungen des
Prozessors, des Graphikcontrollers oder einer Komponente an der South Bridge in Speicher–Buszyklen um
- sie muss dazu die Protokollanpassungen zwischen dem Prozessorbus, dem Speicherbus und der Graphikcontroller–Schnittestelle vornehmen
- speichert alle transportierten Daten zum Geschwindigkeitsausgleich zwischen
- Zwischenspeicherung erfolgt in Registersätzen, die als FIFOs organisiert sind
- Die FIFOs sind für jede Übertragungsrichtung und Quelle/Ziel-Kombination getrennt vorhanden
- Die Puffer besitzen unterschiedliche Größen und erlauben mit ihren dediziert ausgelegten Verbindungen den simultanen Transport von Daten.
Was ist der Front Side Bus (FSB)?
Verbindung des Prozessorbausteins mit der North Bridge
Was ist Hyper Transport?
- Technik, die für Einsatz an verschiedenen Stellen einer Hauptplatine vorgesehen ist
- Punkt-zu-Punkt-Verbindung, die über zwei getrennte unidirektionale Pfade eine Vielzahl von Halbleiterbausteinen im Vollduplex–Betrieb miteinander koppelt
- Verbindungspfade sind parallele Busse
- Breite kann in Abhängigkeit von den angeschlossenen Komponenten 2, 4, 8, 16 oder 32 Bit betragen
- Taktfrequenzen bis 800 Mhz möglich
- Dabei wird Zweiflanken-Übertragung eingesetzt
- Übertragungsrate pro Richtung liegt bei 400 bis 1600 Megatransfers pro Sekunde
- Entspricht einer Datenrate von 100 bis 6400 MB/s für jede der beiden Richtungen
- Übertragung in Form von kurzen Paketen mit einer maximalen Länge von 64 Bytes
- Unterscheidung zwischen Anforderungs-, Antwort- und Rundspruchpakete, die jeweils Befehle, Adressen und Daten enthalten können
Was ist QuickPath Interconnect?
- Punkt-zu-Punkt-Schnittstelle zur North Bridge
- besteht aus zwei einzelnen Verbindungen (Links ) für jede Richtung des Datentransfers
- Jeder Link überträgt 20 unidirektionale Signale
in differenzieller Form, d.h. jeweils auf einem Leitungspaar in unterschiedlichen logischen Pegeln
- Dazu kommt für jede Richtung noch ein Leitungspaar für die Übermittlung eines Taktsignals,
- QPI besteht insgesamt aus 84 Leitungen
- Von den 20 Datenleitungen werden 16 für die parallele Übertragung von Zwei–Byte–Daten benutzt, die restlichen vier werden zur Fehlerkorrektur und zur Kontrolle der Übertragungen eingesetzt
- Übertragungsraten von 12,8 GB/s für jede Übertragungsrichtung sind möglich
Was ist der Speicher-Controller?
- Wesentlicher Bestandteil von North Bridges
- erlaubt über ein oder zwei unabhängige Schnittstellen (Kanäle) den Zugriff auf die Speichermodule des Hauptspeichers
- Über jede Schnittstelle können Daten mit einer Übertragungsrate von max. 12,8 GB/s geschrieben oder gelesen werden
- erzeugt alle benötigten Steuersignale
- übernimmt das Auffrischen der dynamischen Speicherbausteine (Refresh)
- Diese speichern die Information in winzigen Kondensatoren und würden ohne diese Maßnahme im Sekundenbereich ihre Information verlieren.
- enthält Puffer zur Bearbeitung mehrerer Schreib–/Lesezugriffe und sorgt für deren geordnete Abarbeitung
- Ladezugriffe auf den schnellen Zwischenspeicher, Cache, werden unterstützt
Was geschieht bei einem ECC-geschützten Speicher?
- ECC = Error Correcting Code
- bei diesem Speicher übernimmt der Speicher-Controller die Überprüfung und Reaktion auf
Speicherfehler durch spezielle zusätzliche ECC–Bits
Was ist PCI-Express?
- als zweite wichtige Komponente wird die Grafikeinheit von der North Bridge angesteuert
- PCI-Express verbindet Grafikcontroller mit North Bridge
- skalierbare Variante des älteren PCI-Busses
- kein paralleler Bus mehr
- besteht stattdessen aus einer oder mehreren bidirektionalen seriellen Verbindungen (Lanes)
- Jede Lane stellt eine Nutz–Transferrate von 500 MB/s je Richtung bereit
- Um auch dem Leistungsbedarf künftiger Graphikanwendungen gerecht zu werden, wurden für den Anschluss von Graphikkarten von Anfang an gleich 16 Lanes verwendet, die Übertragungen mit 16–facher Geschwindigkeit erlauben
- Schnittstelle erlaubt maximale Übertragungsrate von 8 GB/s in beide Richtungen
Was sind die Hauptaufgaben der South Bridge?
- Regelung der Kommunikationsverbindungen und –vorgänge zwischen den unterschiedlichen Ein–/Ausgabeeinheiten
- Diese Verbindungen brauchen keine sehr hohen Übertragungsgeschwindigkeiten
- stellt Standard-Ein- und Ausgabeschnittstellen zur Verfügung
- stellt eine Reihe von internen Controllern zur Verfügung (z.B. Zeitgeber / Zähler, batteriegepufferte Echtzeituhr, CMOS-RAM zur Speicherung wichtiger Systemdaten)
- bieten häufig allgemein verwendbare digitale Ein- und Ausgabeleitungen
Was ist USB 2.0?
- Schnittstelle zwischen Computer und Peripheriegeräten
- Ziel: einfache Erweiterbarkeit des PCs um unterschiedliche Peripheriegeräte ohne das früher übliche Kabelgewirr
- Anschluss über eine kostengünstige Schnittstelle mit einheitlichen billigen Steckern
- Übertragung läuft seriell über ein abgeschirmtes 4–Draht–Kabel, über das auch die Spannungsversorgung für Geräte mit niedrigem Leistungsbedarf (< 500 mA) geführt wird
- An Wurzelknoten können bis zu 127 Geräte angeschlossen werden
- Diese sind in Form eines Baums angeordnet
- Blätter: Endgeräte, Knoten: Hubs
- Zwischen dem Wurzelknoten und einem Endgerät dürfen maximal sieben Kabelsegmente mit einer Gesamtlänge von 35 m, also maximal sechs Hubs, liegen
Was sind USB-Hubs?
spezielle externe Geräte oder integrierte Einheiten mit einer Schnittstelle in Richtung des Wurzelknotens (Upstream Port ) und bis zu acht Schnittstellen in
Richtung der Endgeräte (Downstream Ports )
Was ist ein Hauptvorteil von USB?
neue Geräte können bei laufendem Rechner und ohne Installation hinzugefügt werden
Wie funktioniert Hot Plug and Play?
- Hub überwacht alle an ihn angeschlossenen Geräte
- informiert Host Controller über alle Änderungen
- Er kann jeden Downstream Port individuell aktivieren, deaktivieren oder zurücksetzen
In welchem Geschwindigkeiten kann eine USB-2.0-Schnittstelle Daten übertragen?
- 1,5 MBit / s (Low Speed)
- 12 MBit / s (Full Speed)
- 480 MBit / s (High Speed)
Was tut der Host Controller bei USB?
- steuert die gesamte Übertragung
- Dazu fragt er in einer festgelegten Reihenfolge, aber mit unterschiedlicher Wiederholrate, alle angeschlossenen Geräte nach Übertragungswünschen ab (Polling)
- Polling geschieht in Zeitrahmen von 1 ms, die für die High–Speed–Übertragung noch einmal in acht 125–ms–Rahmen unterteilt werden
Welche reservierten Zeitschlitze gibt es in jedem Rahmen für die unterschiedlichen Datentypen und Übertragungen?
- isochrone Übertragung
- Interruptdaten
- Steuerdaten
- Bulk-Übertragung
Was ist isochrone Übertragung?
- Übertragungsform für Daten, die kontinuierlich und in Echtzeit anfallen und die keine Unterbrechung und Verzögerung erlauben
- keine Fehlerüberwachung oder erneute Übertragung eines fehlerhaften Datenpakets
Beispiele: Sprach-, Audio- und Videodaten
Was sind Interruptdaten?
- nicht periodisch, spontan auftretende Datenmengen
- Fehlererkennung mit eventueller Wiederholung des Pakets möglich
- Beispiele: Eingaben von Maus oder Tastatur
Was sind Steuerdaten?
alle Daten zur Identifikation, Konfiguration und Überwachung der Geräte und der Hubs
Was ist Bulk-Übertragung?
- Übertragungsart für Massendaten, d.h. größere Datenmengen ohne Echtzeitanforderungen
- Fehlererkennung mit eventuellen Wiederholungsversuchen möglich
- Beispiele: Drucker, Scanner und Modems.
Wie funktioniert die Quittierung bei USB?
- Der Erhalt jedes Pakets wird vom Empfänger quittiert
- Drei Möglichkeiten:
* fehlerfreien Erhalt durch ein ACK–Quittungspaket bestätigen
* durch NAK– Quittungspaket Paket (Non Acknowledge ) kann er mitteilen, dass momentan kein Senden oder Empfangen eines Pakets möglich ist
* Durch ein STALL–Paket wird angezeigt, dass das angesprochene Gerät außer Betrieb oder ein Eingriff
des Host Controllers nötig ist.
Welche Änderungen gab es bei USB 3.0?
- max. Geschwindigkeit von 5 Gbit/s im Vollduplex-Betrieb
- kein reines Polling durch Host-Controller mehr
- Erhöhung der möglichen Stromentnahme von bisher 100 mA auf 150 mA
- Über USB-Leitung können 900 statt 500 mA entnommen werden
- abwärtskompatibel
Welche Gemeinsamkeiten haben USB und Firewire?
- unterstützt isoynchrone und assynchrone Übertragung
- kostengünstige Stecker und Verbindungskabel
- einfache Erweiterbarkeit des Bussystems
- Spannungsversorgung über Anschlusskabel
- Hinzufügen bzw. Entfernen von Geräten wäh-
rend des Betriebs
Wie sieht der Aufbau eines Firewire-Netzes aus?
- keine Baumstruktur
- beliebige Netzstrukturen möglich, solange keine Schleifen auftreten
- Alle Verbindungen sind Punkt–zu–Punkt–Verbindungen, wobei in den Endgeräten Verzweigungen realisiert werden können
- Jeder Knoten kann 27 Anschlüsse besitzen
- Kopplung von Firewire-Bussen auch mittels externen Einheiten möglich (Repeater, Bridges)
- max. 1023 Teilbusse mit jeweils max. 63 Knoten
- Auf den Verbindungsleitungen können
unterschiedliche Übertragungsgeschwindigkeiten verwendet werden
- Datenübertragung kann auch direkt zwischen Endgeräten
- Das Bussystem ist selbstkonfigurierend, d.h. nach dem Einschalten oder Rücksetzen ermitteln die Knoten selbst, wer von ihnen die Funktion
des Wurzelknotens (Root Node) wahrnehmen darf.
- max. Entfernung zwischen zwei Knoten: 72 Meter
- Durch Einsatz von Glasfasern: 1600 m
Was ist die PCI-Bus-Schnittstelle?
- lange Zeit der am weitesten verbreitete Busstandard für Ein–/Ausgabekarten
- überträgt Daten entweder auf einem 32–Bit–Datenbus mit 33 MHz oder einem 64–Bit–
Datenbus, der mit 66 oder 133 MHz getaktet wird
Was sind Lanes bei PCIe?
- skalierbare, d.h. den Anforderungen des Einsatzbereichs anpassbare serielle Punkt–zu–Punkt–Verbindungen
- Durch Bündelung von mehreren parallelen PCIe–Lanes können leicht verschiedene, den jeweiligen Erfordernissen angepasste Übertragungsbandbreiten realisiert werden
- Anzahl der Lanes einer Verbindung wird mit einem kleinemvorangestellten x angegeben
- Durch die Anpassung der Anzahl der Lanes an die Erfordernisse einer Verbindung spart man u.U.
sehr viele Verbindungsleitungen, denn für eine Lane werden nur vier Leitungen benötigt, je zwei für eine Richtung.
- Steckverbindungen sind so realisiert, dass eine Erweiterungskarte mit n Lanes auch in einen Slot für m Lanes eingesetzt werden kann, solange m > n ist
Was hat sich bei der Datenübertragung von PCI zu PCIe verändert?
- Daten werden in Paketen übertragen
Was sind Pakete bei PCIe?
- Datenblöcke, die durch einen Paketkopf mit Quelladressen und Paketnummer sowie eine Prüfsumme am Ende (Cyclic Redundancy Check – CRC) ergänzt werden.
- Werden durch die Prüfsumme Übertragungsfehler angezeigt, so fordert der PCIe–Controller automatisch eine erneute Aussendung desselben Pakets an.
- Durch die Paketnummer wird sichergestellt, dass das erneut ausgesendete Paket vom Empfänger in die richtige Reihenfolge gesetzt werden kann,
auch wenn bereits Folgepakete eingetroffen sind
Welchen Unterschied gibt es bzgl. Steckplätze gegenüber PCI?
- es gibt keine Steckplätze an einem gemeinsamen Bus
- statt dessen geschaltete Ports
- den einzelnen PCI–Express–Karten stets die
volle Bandbreite zur Verfügung steht, da hier keine Zugriffskonflikte wie beim PCI–Bus auftreten können
Welchen Unterschied gibt es für die Southbridge bei der Datenübertragung?
- sie ist dabei in der Lage, simultan über mehrere PCIe–Verbindungen Daten in beiden
Richtungen – vom bzw. zum Gerät – zu übertragen.
- Verwendung eines sog. Kreuzschienenschalter (Crossbar Switch), der mehrere Quellen von Datenübertragungen mit ihren jeweiligen Zielen
gleichzeitig verbinden kann.
Was ist Hot Plugging bei PCIe?
- Einsteckkarten können im laufenden Betrieb gewechselt werden
- Besonders nützlich für Notebooks
Was ist die IDE-Schnittstelle?
- eine standardisierte Schnittstelle zum Anschluss von nichtflüchtigen Speichermedien, wie Festplattenlaufwerken, CD–ROMs und DVD–
Laufwerken.
- auch bekannt als ATA (Advanced Technology Attachment )
- Zwei getrennte Kanäle für Anschluss von Massenspeichermedien (Master, Slave)
- verlangt Geräte mit mit integrierten Controllern und stellt selbst keine Ansteuerlogik zur Verfügung
Was ist EIDE?
- Erweiterung von IDE
- Hebt die Beschränkung auf Plattengrößen von 528 MB auf
- max. Datenrate: 133 MB/s
- wird nur dann erreicht, wenn die Laufwerkselektronik die Daten bereits in ihrem internen (Cache–)Speicher hat.
- Die permanente Datenrate zwischen Festplatte und Laufwerkselektronik liegt deutlich unter diesem Wert
Was ist ATA?
Die von der ANSI standardisierte Version von IDE
Was sind ATAPI-Geräte?
Die an ATA anschließbaren Geräte.
Was ist die Tristate-Modus
- hochohmiger Modus für deaktivierte Geräte
- die maximal vier IDE-Geräte können unabhängig voneinander deaktiviert werden
- In diesem Modus kann das Gerät während des Betriebs des PCs aus dem Rechner entfernt bzw. (wieder) eingesetzt werden (Hot Swap)
Welche Standards der ATA-Schnittstelle sind heute üblich?
- Ultra-ATA/66
- Ultra-ATA/100
Welche Beschränkungen gibt es bei Ultra-ATA bzgl. der hohen Übertragungsraten?
- nur im DMA–Modus, bei dem der Gerätecontroller
als Bus Master selbst die Datenübertragung durchführt
-
In welchen Modi können IDE-Schnittstellen arbeiten?
- Legacy-Mode
- Native Mode
Was ist der Legacy-Mode?
- Geräten der IDE–Kanäle müssen bestimmte Eingänge des Interrupt–Controllers fest zugewiesen werden.
- dies sind IRQ14 und IRQ15.
- Außerdem werden die Steuer– und Statusregister ihrer Controller und festgelegten Adressen im Ein–/Ausgabe–Adressbereich (I/O Address Space) des Prozessors angesprochen.
Was ist der Native-Mode?
Geräte werden über spezielle Register in ihrem Konfigurationsbereich definiert und benötigen daher keine festgelegten Interrupt–Eingänge und I/O–Adressen.
Was ist SATA?
- wurde aus IDE/ATA entwickelt
- dient dem Datenaustausch mit nichtflüchtigen Speichermedien
- Um die Zahl der benötigten Adern zu verringern und damit die Kabelführung zu vereinfachen, wurde ein serielles Übertragungsprotokoll eingeführt
- Kompatibilität wird durch SATA/ATA–Adapter erreicht, über die SATA–Geräte auch an der IDE–Schnittstelle eingesetzt werden können (Standard–ATA Emulation)
Was ist LVDS?
- Low Voltage Differential Signalling
- wird verwendet, um die hohen Datenraten sicher zu erreichen
- überträgt zur Unterdrückung von Fehlern, die durch elektrische Störungen hervorgerufen werden, die Signale über Leitungspaare mit entgegengesetztem Signalpegel und niedrigen Spannungsdifferenzen
Wie viele unabhängige Schnittstellen gibt es bei SATA?
- zwei wie bei IDE
- Jede kann für sich aktiviert und deaktiviert werden
- Schnittstellen werden durch zwei unabhängige Controller im Bus-Master-Modus betrieben
- sie können selbständig auf den Hauptspeicher zugreifen
- jedoch nur Punkt–zu–Punkt–Verbindungen, keine Master/Slave–Konfigurationen möglich
Was ist Hot Plugging bei SATA?
- Wechsel des Speichermediums im laufenden Betrieb
- unerwartetes Entfernen bzw. Hinzufügen eines SATA–
Gerätes ist nicht zulässig
- es muss erst durch Software vorbereitet werden, indem z.B. das Betriebssystem die gewünschte Schnittstelle in den Power–Down–Modus schaltet.
Was ist eSATA?
- SATA unterstützt nicht den Anschluss von externen Geräten, weil die Kabel nicht gegen elektromagnetische Störungen abgeschirmt sind
- dies wird durch eSATA ermöglicht
Welche zwei Standards gibt es bei Audio-Schnittstellen?
- AC'97
- HD-Audio
Was ist die AC'97-Schnittstelle?
- bietet die Möglichkeit, sehr kostengünstig Audio– und Modemfunktionen schon auf der Hauptplatine
(Onboard Sound) zu realisieren und auf den Einsatz einer teuren Audio–Steckkarte (Soundcard) zu verzichten.
- lediglich ein Codec (Converter/Deconverter) ist erforderlich, der in einem einzigen Baustein einen Analog/Digital– sowie einen Digital/Analog–Wandler
für mehrere (Stereo–)Kanäle zur Verfügung stellt
- Bei dieser einfachen Lösung muss jedoch der Prozessor die Rechenaufgaben zur Erzeugung von Audio–/Modem–Signalen übernehmen, die auf
einer Soundkarte von Spezialchips geleistet werden
Was ist HD-Audio?
- soll AC'97 ablösen
- übertragen Stereo–Signale mit einer Abtastrate von 192 kHz und einer Datenbreite von 32 Bits in bis zu
acht getrennten Zeitkanälen
- Mit diesen Kanälen ist 7.1 Surround möglich
- oder verschiedene Ausgaben in verschiedenen Räumen
- erweitert die Möglichkeiten zur gleichzeitigen
Aufzeichnung von Tönen, Geräuschen, Sprache und Musik durch eine Vielzahl von unabhängigen Mikrophonen (Array Microphone).
- unterstützt dadurch die Spracherkennung und die
verständliche Übermittlung von Sprache über das Internet (Voice over IP)
In welche Schichten wird die Netzwerkschnittstelle eingeteilt?
- Physical Layer
- Media Access Control Layer
Warum wird die Netzwerkschnittstelle in Schichten eingeteilt?
Zur Strukturierung der verwendeten Hard– und Software–Technologien und Protokolle
Was tut die MAC-Schicht?
regelt hauptsächlich den kollisionsfreien Zugrff auf das gemeinsam genutzte Medium
Was tut die PHY-Schicht?
beschäftigt sich mit den mechanischen und physikalischen Eigenschaften des Verbindungsmediums und um die bitweise
Datenübertragung über diese Verbindung
Welche Möglichkeiten gibt es, wie die beiden Schichten in Netzwerkcontrollern realisiert sind?
- Beide Controller sind extern in getrennten Bausteinen realisiert
* Die Ankopplung des MAC–Controllers an die South Bridge geschieht z.B. über PCIe.
* Die Verbindung zwischen den Controllern geschieht über eine dedizierte schnelle Schnittstelle,
die z.T. mehrfach füur unterschiedliche Übertragungsgeschwindigkeiten vorhanden sein muss.
- Beide Controller sind zusammen in einem externen Ethernet–Controller, also außerhalb der South Bridge, realisiert
* Auch in diesem Fall bietet die South Bridge eine spezielle schnelle Schnittstelle zum Ethernet–Controller oder verwendet dazu den PCIe
- Der MAC–Controller ist in der South Bridge integriert, der PHY–Controller muss extern als eigenständiger Baustein ergänzt werden
* In diesem Fall werden beide Bausteine durch die im ersten Fall beschriebenen dedizierten Schnittstellen verbunden, die nun von der
South Bridge zur Verfügung gestellt werden.
Was ist der SMB-Bus?
- verbindet wichtige Komponenten der Hauptplatine miteinander
- Eine seiner Aufgaben ist es, Steuer– und Überwachungsinformationen zwischen den Brückenbausteinen und den Speichermodulen zu übertragen.
- unterstützt Überwachungsfunktionen (Monitoring) von Batterie, Lüfter, Temperaturen, Betriebsspannungen für alle Komponenten, PCI–Takt, unterschiedliche Betriebszustände
(Power–Down–Modi, Prozessor–Stop–Modus) usw.
- Die Ergebnisse seiner Überwachungsfunktion kann er durch Meldung an den Prozessor weiterreichen.
- erlaubt häufig auch einem externem Mikrocontroller den Zugriff auf bestimmte Systemkomponenten.
Was sind SDRAMs?
- Synchrone, dynamische RAM-Bausteine
- Hauptspeicher eines PCs besteht vollständig aus ihnen
Wie funktionieren SDRAMs?
Speicherzellen speichern Informationen als Ladungsträger in Kondensatoren
Warum muss der Speicher-Controller die gesamten gespeicherten Informationen in regelmäßigen Abständen auffrischen?
- Kondensatoren werden durch unvermeidliche Leckströme im Laufe der Zeit entladen
- Auch Lesezugriffe zerstören Daten
Wie geschieht der Zugriff auf den Speicher?
- Unter Verwendung eines Taktes, durch den die auszulesende Information in ein Pufferregister geladen bzw. aus dem die eingeschriebenen Informationen in die Speicherzelle geschrieben werden
- Controller kann Pufferregister viel schneller lesen (bis zu 800 Mhz)
- Speicherzellen können nur mit bis zu 20 Mhz gelesen werden
- Wegen Taktsteuerung spricht man von synchronem Speichern
Was ist der Vorteil von DDR-RAMs?
- Zwei nebeneinander liegende Speicherwörter können vorausschauend in das Pufferregister geladen und dann in einer einzigen Taktperiode durch zwei Datentransfers gelesen werden
- Dies geschieht je mit einer positiven und einer negativen Taktflanke
- Gleiches Vorgehen beim Schreiben
- 64-Bit-Wort wird mit der ersten Taktflanke zwischengespeichert und mit der zweiten Taktflanke wird ein zweites 64-Bit-Wort übertragenn, die beide gleichzeitig in den Speicher geschrieben werden
- So können zusammen mit einer zweikanaligen Ankopplung pro Taktzklus je vier Datenwörter zwischen Prozessor und Speicher übertragen werden
- Gleiches Vorgehen beim Schreiben
- 64-Bit-Wort wird mit der ersten Taktflanke zwischengespeichert und mit der zweiten Taktflanke wird ein zweites 64-Bit-Wort übertragen, die beide gleichzeitig in den Speicher geschrieben werden
- So können zusammen mit einer zweikanaligen Ankopplung pro Taktzyklus je vier Datenwörter zwischen Prozessor und Speicher übertragen werden
Welche Verbesserung erfuhr DDR2?
Die Anzahl der vorausschauend geladenen Speicherwörter wurde auf vier erhöht
Welche Verbesserung erfuhr DDR3?
Acht Speicherwörter werden simultan gelesen und in vier Taktperioden übertragen
Was sind DIMMs?&
- Platine, die in Steckplatz auf Hauptplatine untergebracht wird
- Besitzt auf jeder Seite an eine Unterkante 120 Steckkontakte, die in Platinenoberfläche geätzt werden
Welche Arten von DIMMs gibt es?&Einseitig und zweiseitig bestückte DIMMs, je nachdem ob sich auf einer oder auf beiden Seiten DRAM-Bausteine befinden
Warum erreichen DIMMs nicht die Übertragungsraten von direkt auf die Systemplatine gelöteten Bausteinen?
Durch Aufbau des DIMMs und seine Verbindung mit der Hauptplatine über eine Steckverbindung sorgen für eine Verzögerung der Signale zwischen Speicher und Speicher-Controller in der North-Bridge
Worin können sich DIMMs unterscheiden?
- Datenbreite der Speicherbausteine kann variieren
- Kapazität der Bausteine
Wie berechnet die Kapazität von DIMMs?
-m * n
- m = Anzahl der Datenwörter
- n = Anzahl der Bit
Was wird bei der Angabe der Speicherkapazität normalerweise nicht berücksichtigt?&Speichervolumen zur Aufnahme von Prüfinformationen
Was ist der Seitenmodus (Paged Modus)?
- Dabei wird durch einen Lesezugriff auf ein bestimmtes Speicherwort ein ganzer Block von Speicherzellen, eine Seite, in ein internes Pufferregister übertragen
- Controller kann aus diesem Puffer sehr viel schneller lesen als aus dem Speicher selbst
- effektive Zugriffszeiten auf weitere Speicherwörter aus diesem Block werden wesentlich verkleinert
- Dies ist besonders vorteilhaft für Übertragung ganzer Datenblöcke (Bursts)
- Typische Seitengrößen: 1 oder 2 kB
- Pro Baustein können mehrere Seiten in Pufferregister des Bausteins abgelegt werden, auf die dann wahlfrei zugegriffen werden kann
- aktuell gespeicherte Seiten = offene Seiten
- ein einkanaliger Controller kann bis zu 32 offene Seiten verwalten
Was ist EEC?& Error Correcting Code, Einsatz eher im Serverbereich
Welchen Nachteil haben Bausteine mit EEC?
- höhere Kosten
- Verlangsamen Schreibzugriffe auf den Speicher durch Prüfsummenberechnung
Wie erhöhen die meisten Chipsätze die Transferrate zwischen Hauptspeicher und Prozessor?
unterstützen den parallelen Zugriff auf zwei Module
Wofür werden die Anschlüsse eines DIMMs verwendet?&
- 64 Anschlüsse für Datenbits
- 8 Anschlüsse für EEC, unabhängig davon, ob es implementiert ist oder nicht
- 28 Anschlüsse für Adresse eines Speicherwortes
- Restliche Anschlüsse hauptsächlich für differentielle Übertragung von Takt- und Steuersignalen
Aus welchen Teilen bestehen die Adressen eines Speicherwortes
- Drei Bits (Bank Adress) legen Bank fest
- 14 Bit selektieren eine Zeile von Speicherzellen
- 11 Bit selektieren ein bestimmtes Speicherwort
Wie funktioniert die Übertragung der 14 Bit für eine Zeile von Speicherzellen?
- werden zunächst über Adressleitungen A13 bis A0 übertragen
- Übertragung wird durch Steuersignale RAS (Row Address Strobe) aktiviert
- Nach einer Verzögerung werfen die restlichen 11 Adresssignale über dieselben Leitungen übertragen, angezeigt durch CAS-Signal (Column Adress Strobe)
Was sind registered oder buffered DIMMs?
- enthalten noch ein Register als Treiberbaustein für die Adress- und Steuerleitungen, die zu allen Speicherbausteinen geführt werden müssen
- Es entlastet die Ausgangstreiberschaltungen in der North Bridge
Welchen Nachteil haben buffered DIMMs?
Bei Durchlauf durch Register erleiden die Signale eine Verzögerung von einer Taktperiode
Was ist SPD-ROM?
- Serial Presence Detect
- kleiner Festwertspeicher zur Aufnahme von Steuerinformationen in einer 128-Byte-Speichertabelle
- hat eine Kapazität von 128 oder 256 Byte
- nur die Bedeutung der unteren 128 Byte sind vorgegeben, die anderen können vom Hersteller frei belegt werden
- Hersteller programmiert die wichtigsten Parameter des Speichermoduls ins SPD-ROM, damit das BIOS diese nach dem Einschalten des PCs über SMBus einlesen und dem Speicher-Controller in der Host-Brücke mitteilen kann
- Dieser kann das Speichermodul somit zeitgerecht ansprechen
Was ist die JEDEC-Spezifikation?&Ein von dem Gremium Joint Electron Devices Engineering Council herausgegeben Spezifikation zur Standardisierung von Speichermodulen
Was ist die nominale Datenrate?
- gibt die maximale Übertragungsrate eines DDR-RAM-Bausteins an.
- diese wird bezogen auf die Frequenz des Speichertaktes FREQ in Mhz, mit dem der Baustein als synchrones DRAM intern angesprochen werden kann, und die Anzahl PI der bei jedem Takt vorausschauend geladenen Speicherwörter
Was ist die Ein-/Ausgabetaktfrequenz?
- mit diesem wird die Übertragung zwischen Speichercontroller und Speicherbausteinen durchgeführt
- Bei DDR2 doppelt und bei DDR3 viel mal so hoch wie die Rate des Speichertaktes
Was gibt die Einheit Megatransfers / s (MT) an?
- Angabe für die nominale Datenrate
- Berechnung PI * FREQ
Welche Bezeichnung verwendet JEDEC für die Speicher?&
- DDR2-(4 * freq)
- DDR3-(8 * freq)
Wofür steht in JEDEC z.B. die Bezeichnung DDR2-800?
- DDR2, der intern mit 200 Mhz getaktet ist
- Pufferregister wird mit doppelter Ein-/ Ausgabefrequenz angesprochen = 400 Mhz
- max. Übertragungsrate = 800 MT/s
- Pufferregister wird mit doppelter Ein-/ Ausgabefrequenz angesprochen = 400 Mhz
- max. Übertragungsrate = 800 MT/s
Wie wird in JEDEC die Übertragungrate angegeben?
- PC2-(4 * freq * 8)
- PC3-(8 * freq * 8)
- Formel: PI * FREQ * 8
Welche wichtigen Parameter eines Speichermoduls legen die JEDEC-Spezifikationen fest?&
- Anzahl, Lage und Form der Anschlusskontakte
- Größe des Moduls
- Kapazität und Organisation der verwendeten Speicherbausteine (Anzahl der Datenanschlüsse, Anzahl der Speicherbänke und deren Aufbau in Speicherwörtern * Bitlänge
- Zeit- und Spannungswerte der Daten-, Adress- und Steuersignale
- zulässige Verzögerungszeiten zwischen den Steuersignalen
Welche Signale bestimmen die wichtigsten Zeitparameter für den Zugriff auf den Speicher?
CAS und RAS
Was sind die wichtigsten Zeitparameter für den Zugriff auf den Speicher?
- RAS-To-CAS Delay
- CAS Latency
- RAS Precharge Time
- RAS Pulse Width Time, Bank Active Time
Was ist RAS-To-CAS Delay?
Die Zeit, die zwischen der Übernahme der Zeilenadressen im Speicherbaustein mindestens vergeht, bevor durch das Anlegen einer Spaltenadresse das gewünschte Speicherwort selektiert werden kann
Was ist CAS Latency?
gibt an, wie lange es dauert, bis das selektierte Speicherwort an den Ausgängen des Bausteins zur Verfügung steht
Was ist RAS Precharge Time?
gibt an, wie lange der Speicherbaustein für das Vorladen benötigt, bevor eine Speicherseite aktiviert werden kann
Was ist RAS Pulse Width Time, Bank Active Time?
die minimale Zeit in Taktzyklen, die nach der EIngabe einer Zeilenadresse mit Hilfe des RAS-Signals vergeben werden muss, bevor die selektierte Zeile wieder geschlossen werden darf
Wie sieht in allgemeiner Form die Bezeichnung für ein DDR-Speichermodul aus?
- PC2(4 * FREQ * 8) R/U-(tcl, trcd, trp)
- PC3(8 * FREQ * 8) R/U-(tcl, trcd, trp)
Was sagt die Bezeichnung PC2-6400R-555 aus?&
- interner Speichertakt: 200 Mhz
- gepuffert
- CAS-Latenz, RAS/CAS-Verzögerungzeit und eine RAS-Vorladezeit von fünf Ein-/Ausgabetaktperioden, als tcl = trcd = trp = 12,5 ns
Was sagt die Bezeichnung PC3-8500U-777 aus?
- interner Speichertakt: 133 Mhz
- nicht gepuffert
- CAS-Latenz, RAS/CAS-Verzögerungzeit und eine RAS-Vorladezeit von sieben Ein-/Ausgabetaktperioden, als tcl = trcd = trp = 13,3 ns