• Shuffle
    Toggle On
    Toggle Off
  • Alphabetize
    Toggle On
    Toggle Off
  • Front First
    Toggle On
    Toggle Off
  • Both Sides
    Toggle On
    Toggle Off
  • Read
    Toggle On
    Toggle Off
Reading...
Front

Card Range To Study

through

image

Play button

image

Play button

image

Progress

1/38

Click to flip

Use LEFT and RIGHT arrow keys to navigate between flashcards;

Use UP and DOWN arrow keys to flip the card;

H to show hint;

A reads text to speech;

38 Cards in this Set

  • Front
  • Back
Wiarygodność(dependability) Systemów Komputerowych
przejawia się ciągłością pracy sprzętu i zainstalowanych programów (cecha systemu odnosząca się do zaufania użytkownika do systemu).
Dostępność Systemów Komputerowych
rawdopodobieństwo że w ustalonej chwili system będzie działał i będzie zdolny do realizacja żadania
Niezawodność Systemów Komputerowych
prawdopodobieństwo bezawaryjnego działania w ciągu ustalonego czasu
Bezpieczeństwo Systemów Komputerowych
gwarancja systemu,że nie ulegnie awarii, która powoduje szkody
Zabezpieczenie Systemów Komputerowych
odporność na zagrożenia, jakie moga pojawić się w systemie
Przerzutnik Schmitta
Przerzutnik Schmitta jest rodzajem przerzutnika bistabilnego zmieniającego swój stan, gdy napięcie wejściowe przekracza określone wartości U1 i U2, przy czym U1 > U2. Jeżeli wzrastające napięcie wejściowe przekracza wartość U1 to przerzutnik zmienia stan na przeciwny. Natomiast powraca do stanu wyjściowego, gdy napięcie wejściowe spada poniżej wartości U2.



Jest to układ służący do formowania impulsów prostokątnych o stromych zboczach. Stosowany na wejsciu układów cyfrowych jeśli sygnał sterujący jest o charakterze sinusoidalnym lub innym o małym narastaniu. Zapobiega przedostawaniu sie zakłóceń z linii sterującej.

Jaki jest typ adresowania wystepujący w następujących zapisach (w C)a. px = &x;b. y = x;c. y = 6;d. y = *px;
a) adresowanie pośrednie px =&x y = *px

mov px, [x]


mov y, px


b) adresowanie bezpośrednie y = x


mov y, x


c) adresowanie natychmiastowe y = 6


mov y, 6

Prawo Gustafsona
Prawo Gustafsona (znane także jako prawo Gustafsona-Barsisa) jest prawem w inżynierii komputerowej, które stanowi, że każdy wystarczająco duży problem może być efektywnie zrównoleglony. Prawo Gustafsona jest ściśle związane z prawem Amdahla, które określa limit przyspieszenia spowodowanego zrównolegleniem. Zostało po raz pierwszy sformułowane przez J. Gustafsona w 1988 roku.

S(P) = P - \alpha\*(P-1).


gdzie P jest liczbą procesorów, S jest przyspieszeniem a \alpha częścią procesu której nie da się zrównoleglić.


Prawo Gustafsona odnosi się do wad prawa Amdahla, które nie jest skalowalne do tego stopnia, aby brać pod uwage dostępność mocy obliczeniowej przy rozrastaniu się maszyny. Usuwa problem ustalonego rozmiaru problemu lub ustalonego ładowania obliczeń na równoległych procesorach: zamiast tego, proponuje koncepcje ustalonego czasu, która prowadzi do skalowanego przyspieszenia.

Podać klasyfikację Schwartza, według jakiego kryterium jest przeprowadzana.
Istnieje także podział ze względu na aspekt komunikacyjny. Schwartz dokonał następującej klasyfikacji:

a) parakomputery - procesory mają dostęp do wspólnej pamięci operacyjnej (komunikacja w “stałym” czasie)


b) ultrakomputery - procesory wyposażone są w lokalną pamięć i w interfejs sieciowy - komunikują się ze sobą za pośrednictwem sieci połączeń (komunikują się “przejściowo”).


Ultrakomputery dzielą się na rozproszone i silnie powiązanew pary. Systemy rozproszone to sieci komputerowe o topologii ogólnie heterogenicznej - lokalne, miejskie i rozległe (LAN, MAN, WAN)

Zdefiniować punkt Pareto
Punkt Pareta – w przestrzeni projektowej to taki punkt, jeżeli nie ma innego punktu lepiej spełniającego przynajmniej jedno z kryteriów optymalizacji i spełniającego pozostałe kryteria optymalizacji w tym samym stopniu lub lepiej.
Przykład punktu Pareto i dla niego wykres przestrzeni Pareto
Efektywna alokacja w sensie Pareta oznacza taki podział dóbr pomiędzy podmioty, którego nie można już poprawić nie pogarszając jednocześnie sytuacji któregokolwiek z nich.
Efektywna alokacja w sensie Pareta oznacza taki podział dóbr pomiędzy podmioty, którego nie można już poprawić nie pogarszając jednocześnie sytuacji któregokolwiek z nich.
Wykres Gajskiego, Kuhna


Schemat połączeń procesorów typu mesch
Schemat połączeń procesorów typu hypercube
Schemat połączeń procesorów typu cycle hypercube
Odczyt z pamięci adresowej/asocjacyjnej
W większości zastosowań w pamięci asocjacyjnej przechowuje się tablicę, w której nie ma identycznych elementów dla danego klucza. W tym przypadku tylko jedno słowo może pokrywać się z nie przysłoniętym polem argumentu - zawartość szukanego słowa pojawisię na liniach wyjściowych. Pojawienie się na wyjściu samych zer oznaczać będzie, że nie ma zgodności i w pamięci nie ma szukanego elementu.
Zapis do pamięci adresowej/asocjacyjnej
Gdy mają być usunięte niepotrzebne słowa i kolejno wystawiane nowe to wykorzystuje się wówczas specjalny rejestr rozróżniający sowa aktywne od nieaktywnych - tzw. rejestr etykiety. Rejestr ten ma tyle słów i je jest słów w pamięci. Dla każdego aktywnego słowa przechowywanego w pamięci odpowiedni bit rejestru etykiety jest ustawiony na 1. Słowo usuwa się z pamięci zerując odpowiedni bit etykiety- wówczas jest miejsce do zapisania nowego słowa. Po zapisaniu nowego słowa do pamięci uaktywnia się e ustawiając przysłanianie słowem argumentu tak, aby porównywanie było tylko słowo aktywne. Procesor z pamięcią asocjacyjną to procesor asocjacyjny - w nim każda komórka jest "związana" z sąsiednimi komórkami, co umożliwia równoległe wykonywanie rozkazów.
Prawo Amdahla
znane również jako Wywód Amdahla[1], zostało nazwane od nazwiska twórcy architektur komputerowych Gene Amdahla, i jest używany do znajdowania maksymalnego spodziewanego zwiększenia wydajności całkowitej systemu jeżeli tylko część systemu została ulepszona. Jest ono często używane w przypadku prowadzenia obliczeń równoległych do przewidzenia teoretycznego maksymalnego wzrostu szybkości obliczeń przy użyciu wielu procesorów.Zwiększenie szybkości wykonywania się programu przy użyciu wielu procesorów w obliczeniach równoległych jest ograniczane przez czas potrzebny do sekwencyjnego dzielenia programu. Na przykład jeżeli program potrzebuje 20 godzin w przypadku obliczeń prowadzonych na procesorze jednordzeniowym i 1 godzina obliczeń nie może zostać przetworzona poprzez obliczenia równoległe, ale pozostałe 19 godzin (95%) obliczeń mogą, wówczas bez względu na to ile procesorów zostanie użytych do przeprowadzenia obliczeń równoległych minimalny czas wykonania programu nie będzie nigdy mniejszy niż ta krytyczna 1 godzina. Tak więc zwiększenie szybkości obliczeń jest ograniczone do 20x, jak przedstawiono na diagramie.
Maszyny potokowe
Maszyny potokowe (pipeline) charakteryzujące się istnieniem ciągu procesorów, przy czym wyniki obliczeń jednego procesora stanowią dane wejściowe dla następnego procesora w ciągu. - Klasyfikacja Schwartza (aspekt komunikacyjny)
Parakomputery
Parakomputery (multiprocessor) procesory mają równoległy dostęp do wspólnej pamięci operacyjnej (komunikacja w „stałym” czasie (shared - memory architecture).
Ultrakomputery
Ultrakomputery (multicomputer) procesory wyposażone w lokalną pamięć i w interfejs sieciowy – komunikują się ze sobą za pośrednictwem sieci połączeń (komunikują się „przejściowo” message – passing architecture). Ultrakomputery dzielą się dalej na rozproszone (distributed) i silnie powiązane w pary (tightly – coupled)
Podać klasyfikację Flynna, według jakiego kryterium jest przeprowadzana.
Zaprojektować układ cyfrowy, który wskazuje obecność w rejestrze 3-bitowym dowolnej z dwu liczb binarnychL 001, 110.
Przedstawić transmisję "Three way handshake"
Prawo Moore'a
możliwości podstawowych elementów systemów komputerowych są podwajane zgodnie z krzywą wykładniczą w cyklu osiemnastomiesięcznym i dotyczą:szybkość procesora - liczba instrukcji wykonywanych w ciągu sekundy oraz stosunek szybkości do kosztu procesorakosztu 1 bitu PAO oraz liczby bitów upakowanych w jednej koscekoszt dysku na bit oraz pojemność dyskuale szybkość dostępu do danych w PAO(pamięć operacyjna) oraz prędkość obrotowa dysku wzrastają bardzo powoli, co daje w efekcie różnicy między nimi i innymi parametrami - więc czas wymiany danych pomiędzy poziomami hierarchii pamięci wzrasta względem czasu obliczeń! (PAO jest coraz bardziej odległa od pamięci podręcznej, a dane na dysku jeszcze bardziej odległe od procesorów)
Algorytmy zastęptowania stron LRU:
Algorytm LRU (angielskie Least Recently Used algorithm), często używany algorytm zastępowania stron, będący odwróceniem algorytmu OPT: do usunięcia z pamięci głównej (na dysk) wybiera się stronę używaną najdawniej; w realizacji algorytmu LRU przydaje się układ bitów odwołań do strony ustawianych przy każdym kontakcie ze stroną i przesuwanych o 1 pozycję w prawo (co powoduje zmniejszenie tworzonej przez nie liczby) w odstępach czasu regulowanych okresowymi przerwaniami. Małe wartości rejestru bitów odwołań wskazują na nikłe zainteresowanie stroną przez procesy w niedawnej przeszłości.
Algorytmy zastęptowania stron FIFO:
Najprostszy tego typu algorytm zastępowania stron zostanie poniżej omówiony. Jest to metoda przypominająca prostą swego rodzaju kolejkę – FIFO. Do zastąpienia strony wybieramy stronę, która ma najdłuższy swój żywot w pamięci operacyjnej. Czyli można powiedzieć, że została wprowadzona najwcześniej do PAO. Nowo wprowadzana strona do pamięci operacyjnej jest umieszczana na końcu kolejki. (bo została ona wprowadzona ostatnia i będzie stroną przez chwilę „bezpieczną”).W całej tej strukturze wszystkie strony przechowywane są jak widzimy w kolejce. Nie jest to jednak dobre rozwiązanie. Nastąpić może sytuacja w której to, zostanie zastąpiona strona, aktualnie aktywna i wtedy z automatu zostanie pobrana ponownie. A jak wiemy sprowadzenie stron z dysku wymaga zastąpienia innej to zwiększa się w tym wypadku częstotliwość braków stron.
Algorytmy zastęptowania stron OPT:
Algorytm OPT, OPT, MIN (z angielskiego optimal page replacement algorithm), optymalny algorytm zastępowania stron, o najniższym współczynniku braków stron, wyrażający się słowami: “zastąp tę stronę, która najdłużej nie będzie używana”. Mimo prostoty sformułowania, a także zalety, że nie zagraża mu anomalia Belady'ego, algorytm OPT ma jedną podstawową wadę: jest niemożliwy do urzeczywistnienia, gdyż komputery nie pobierają informacji z przyszłości. Niemniej algorytm OPT znajduje zastosowanie jako odniesienie do oceny innych algorytmów zastępowania stron.
Algorytmy zastęptowania stron RAND:
Polega na usuwaniu losowo wybranej strony
Algorytmy zastęptowania stron APRO:
Aproksymowany LRU
Anomalia Belady'ego
Prawo Amdahla
Zwiększenie szybkości wykonywania się programu przy użyciu wielu procesorów w obliczeniach równoległych jest ograniczane przez czas potrzebny do sekwencyjnego dzielenia programu. Na przykład jeżeli program potrzebuje 20 godzin w przypadku obliczeń prowadzonych na procesorze jednordzeniowym i 1 godzina obliczeń nie może zostać przetworzona poprzez obliczenia równoległe, ale pozostałe 19 godzin (95%) obliczeń mogą, wówczas bez względu na to ile procesorów zostanie użytych do przeprowadzenia obliczeń równoległych minimalny czas wykonania programu nie będzie nigdy mniejszy niż ta krytyczna 1 godzina. Tak więc zwiększenie szybkości obliczeń jest ograniczone do 20x, jak przedstawiono na diagramie.
Algorytmy przybliżajace metodę LRU
Magistrala systemu komputerowego. Problemy konstrukcji.
Magistrala systemowa jest jednym z najważniejszych podzespołów w systemie komputerowym jest to bowiem magistrala łącząca bezpośrednio najważniejsze układy komputera takie jak: procesor, pamięć operacyjną komputera oraz wszelkiego rodzaju urządzenia I/O. Magistrala ta jest podstawowym kanałem przesyłania danych. Urządzenia które komunikują się poprzez tą magistrale wykorzystują kilka lini komunikacyjnych. Urządzenie komunikujące się poprzez magistrale systemową przesyła dane w sposób sekwencyjny abe nie zakłócać sygnałów innych urządzeń. Magistrala systemowa składa się z linii adresów, linia danych, linii sterowania i opcjonalnie także z lini zasilania.Linie danych (data bus), przesyłaja dane pomiędzy poszczególnymi podzespołami komputera. Linie adresowe określają adresy komponentów komunikujących się poprzez magistrale. Adresy te przechowywane są w lini adresowej przez procesor który po wykonaniu zadania odwołuje się do tej lini by odczytać z niej adres fizyczny urządzenia które wydało polecenie wykonania jakiegoś zadania do procesora. Linie sterowania zajmują się regulacją dostępu do pozostałych linii.

Np.


PCI


PCI Express


AGP


USB


COM


FSB


głównym problemem magistrali jest jej ogrniczona przepustowość, producenci części komputerowych wciąż nad tym pracują aby zwiększyć ją nawet 10 razy bardziej niż w PCI.

Zdefiniować synergizm. Modele używania przy syntezie zależnej od rozpatrywalnych własnosci oraz poziomu abstrakcji.
Synergia – współdziałanie, kooperacja czynników skuteczniejsza niż suma ich oddzielnych działań. Synergizm elektromechaniczno-elektroniczny. Synergizm analogowo-cyfrowy. Synergizm programowy – nisko- i wysokopoziomowy oraz bibliotek i komponentów.
Układ DMA
Działanie:1) program otrzymuje sterownie od systemu o 2) program wywołuje call CIO(control i/o) z konkretnym urządzeniem docelowym (np. sieć) 3) kontroler sieciowy urządzenia docelowego odpowiada o położeniu pożądanych informacji w pamięci 4) informacje przekazywane są do DMA 5) weryfikuje informacje i handshake z urządzeniem zewnętrznym (synchronizacja urządzeń) 6) jeśli coś się nie zgadza (np. brak uprawnień), to na wyjście DMA (pomiędzy dma i procesorem) ustawiony jest bit statusu błędu 7) jeśli jest ok (dma i kontroler sieciowy są prawidłowo zaprogramowane), to DMA wysyła hold na procesor, procesor wystawia HLDA(holdack) i idzie spać 8) dma czeka na urządzenie docelowe 9) przesyłanie danych, kontrola statusu urządzenia docelowego, jeśli coś jest nie tak to status zewnętrznego jest przesyłany do dma 10) zeruje (wraca do stanu porządkowego) porty procesora i go wybudza 11) procesor kontynuuje działanie programuDMA (Direct Memory Access) jest techniką, która umożliwia korzystanie z zasobów pamięci urządzeniom systemu komputerowego, nie angażując zasobów procesora (bez programu). Sterownik DMA jest inicjalizowany programowo, pracuje nieżależnie od pocesora oraz generuje przerwanie po zakończeniu transmisji bloku.Proces odczytu/zapisu odbywa się nadtępująco:1. Urządzenie We/Wy zgłasza żądanie transferu danych kontrolerowi DMA sygnałem DREQ 2. Kontroler DMA żąda zwolnienia magistral przez mikroprocesor sygnałem HRQ 3. Mikroprocesor zwalnia magistrale i informuje o tym kontroler sygnałem HLDA (według Draba HOLD?) 4. Kontroler DMA potwierdza otwarcie kanału DMA sygnałem DACK 5. Kontroler DMA steruje przesłaniem bloku danych pomiędzy pamięcią i urządzeniem I/O 6. Kontroler zamyka kanał przez zwolnienie sygnałów HLDAi DACK po przesłaniu założonego bloku danych lub zwolnieniu DREQ
Cycle Stealing Mode
Cycle Stealing Mode - jest to sposób uzyskiwania dostępu do pamięci bez zakłocenia przy tym CPU
Scatter-Gather
Jest to metoda zapisu i odczytu, która wykonuje sekwencyjny zapis do wielu buforów pamięci lub odczyt z wielu buforów pamięci przy pomocy jednego wywołania funkcji. Ten sposób zapisu i odczytu jest też zwany wektorowemym wejściem-wyjściem (vectored I/O), gdyż do funkcji zamiast standardowego pojedynczego bufora przekazywany jest wektor danych.