Egzamin 2017, odpowiedzi pojęcia teoria PDF

Title Egzamin 2017, odpowiedzi pojęcia teoria
Course Podstawy informatyki
Institution Politechnika Czestochowska
Pages 10
File Size 265.9 KB
File Type PDF
Total Downloads 30
Total Views 133

Summary

Egzamin 2017, odpowiedzi i zagadnienia ...


Description

Jednostka arytmetyczno-logiczna (z ang. Arithmetic and Logical Unit lub Arithmetic Logic Unit, ALU) to jedna z głównych części procesora, prowadząca proste operacje na liczbach całkowitych. ALU jest układem cyfrowym, służącym do wykonywania operacji arytmetycznych (takich jak dodawanie, odejmowanie itp.) oraz operacji logicznych (np. Ex-Or) pomiędzy dwiema liczbami. ALU jest podstawowym blokiem centralnej jednostki obliczeniowej komputera. Typowe ALU ma dwa wejścia odpowiadające parze argumentów i jedno wyjście na wynik. Operacje jakie prowadzi to: operacje logiczne AND, OR, NOT, XOR dodawanie często też, odejmowanie, negacja liczby, dodawanie z przeniesieniem, zwiększanie/zmniejszanie o 1 przesunięcia bitowe o stałą liczbę bitów, czasem też o zmienną liczbę dość często mnożenie i czasem dzielenie/modulo. CISC (ang. Complex Instruction Set Computers) – nazwa architektury mikroprocesorów o następujących cechach:  duża liczba rozkazów (instrukcji)  mała optymalizacja – niektóre rozkazy potrzebują dużej liczby cykli procesora do wykonania  występowanie złożonych, specjalistycznych rozkazów  duża liczba trybów adresowania  do pamięci może się odwoływać bezpośrednio duża liczba rozkazów  mniejsza od RISC-ów częstotliwość taktowania procesora  powolne działanie dekodera rozkazów Jest architektura zestawu instrukcji dla mikroprocesora, w którym każda instrukcja może wykonać kilka operacji niskiego poziomu, jak na przykład pobranie z pamięci, operację arytmetyczną, albo zapisanie do pamięci a to wszystko w jednej instrukcji. Przed powstaniem procesorów RISC, wielu komputerowych architektów próbowało zmostkować lukę semantyczną – aby zaprojektować zestawy instrukcji, które wspierałyby języki programowania wysokiego poziomu przez dostarczenie instrukcji wysokiego poziomu np. call i return, instrukcje pętli i kompleksowe tryby adresowania aby pozwolić strukturom danych i szeregom dostępu być połączonym w jedną instrukcję. Rezultatem tego były programy o mniejszym rozmiarze i z mniejszą ilością odwołań do pamięci, co w tamtym czasie bardzo ograniczyło koszty pojedynczego komputera. RISC (Reduced Instruction Set Computers) - nazwa architektury mikroprocesorów która została przedstawiona pod koniec lat 70. w teoretycznych pracach na uniwersytecie Berkeley oraz w wynikach badań Johna Cocke z Thomas J. Watson Research Center. Ówczesne procesory (budowane w architekturze CISC) charakteryzowały się bardzo rozbudowaną listą rozkazów, ale jak wykazały badania tylko nieliczna ich część była wykorzystywane w statystycznym programie. Okazało się np. że ponad 50% rozkazów w kodzie to zwykłe przypisania (zapis zawartości rejestru do pamięci i odwrotnie). W związku z powyższym zaprezentowano architekturę mikroprocesorów, w której uwzględniono wyniki badań. Jej podstawowe cechy to: 1. Zredukowana liczba rozkazów do niezbędnego minimum. Ich liczba wynosi kilkadziesiąt, podczas gdy w procesorach CISC sięga setek. Upraszcza to znacznie dekoder rozkazów. 2. Redukcja trybów adresowania, dzięki czemu kody rozkazów są prostsze, bardziej zunifikowane, co dodatkowo upraszcza wspomniany wcześniej dekoder rozkazów. Ponadto wprowadzono tryb adresowania, który ogranicza ilość przesłań - większość operacji wykonuje się wg schematu: . 3. Ograniczenie komunikacji pomiędzy pamięcią, a procesorem. Przede wszystkim do przesyłania danych pomiędzy pamięcią, a rejestrami służą dedykowane instrukcje, które zwykle nazywają się load (załaduj z pamięci), oraz store (zapisz do pamięci); pozostałe instrukcje mogą operować wyłącznie na rejestrach. Schemat działania na liczbach znajdujących się w pamięci jest następujący: załaduj daną z pamięci do rejestru, na zawartości rejestru wykonaj działanie, przepisz wynik z rejestru do pamięci. 4. Zwiększenie liczby rejestrów (np. 32, 192, 256, podczas gdy np. w architekturze x86 jest zaledwie 8 rejestrów), co również ma wpływ na zmniejszenie liczby odwołań do pamięci. 5. Dzięki przetwarzaniu potokowemu (ang. pipelining) wszystkie rozkazy wykonują się w jednym cyklu maszynowym, co pozwala na znaczne uproszczenie bloku wykonawczego, a zastosowanie superskalarności także na umożliwienie równoległego wykonywania rozkazów. Dodatkowo czas reakcji na przerwania jest krótszy. [2]

SISD - jest to architektura klasycznego komputera sekwencyjnego, zawierającego jeden procesor i jeden blok pamięci operacyjnej. Ciąg instrukcji wykonywany jest sekwencyjnie. Architektura taka może zawierać również pewne elementy równoległości, jak np. przetwarzanie potokowe (ang. pipelining). Procesor może się składać z kilku jednostek przetwarzających, jednak wszystkie te jednostki podlegają jednej jednostce sterującej procesora. Również jeżeli komputer składa się z kilku procesorów, ale wykonują one niezależne od siebie programy, to możemy traktować go jako zestaw maszyn SISD. SIMD (Single Instruction, Multiple Data) - jedna z rodzajów architektur komputera według taksonomii Flynna, dotycząca systemów, w których przetwarzanych jest wiele strumieni danych w oparciu o pojedynczy strumień rozkazów - są to tzw. komputery wektorowe. Komputery SIMD stosowane są głównie do obliczeń naukowo-technicznych, jednak jednostki realizujące zadania zgodnie z metodologią SIMD obecne są także w stosowanych w domowych komputerach procesorach opartych o architekturę x86. Procesory te oferują listę rozkazów poszerzoną o zestawy instrukcji, takie jak: MMX, SSE, SSE2, SSE3, 3DNow!, AltiVec. Architektura von Neumanna - rodzaj architektury komputera, przedstawionej po raz pierwszy w 1945 roku przez Johna von Neumanna stworzonej wspólnie z Johnem W. Mauchly'ym i Johnem Presper Eckertem. Polega na ścisłym podziale komputera na trzy podstawowe części:  procesor (w ramach którego wydzielona bywa część sterująca oraz część arytmetyczno-logiczna)  pamięć komputera (zawierająca dane i sam program)  urządzenia wejścia/wyjścia System komputerowy zbudowany w oparciu o architekturę von Neumanna powinien:  mieć skończoną i funkcjonalnie pełną listę rozkazów  mieć możliwość wprowadzenia programu do systemu komputerowego poprzez urządzenia zewnętrzne i jego przechowywanie w pamięci w sposób identyczny jak danych  dane i instrukcje w takim systemie powinny być jednakowo dostępne dla procesora  informacja jest tam przetwarzana dzięki sekwencyjnemu odczytywaniu instrukcji z pamięci komputera i wykonywaniu tych instrukcji w procesorze. Podane warunki pozwalają przełączać system komputerowy z wykonania jednego zadania (programu) na inne bez fizycznej ingerencji w strukturę systemu, a tym samym gwarantują jego uniwersalność. System komputerowy von Neumanna nie posiada oddzielnych pamięci do przechowywania danych i instrukcji. Instrukcje jak i dane są zakodowane w postaci liczb. Bez analizy programu trudno jest określić czy dany obszar pamięci zawiera dane czy instrukcje. Wykonywany program może się sam modyfikować traktując obszar instrukcji jako dane, a po przetworzeniu tych instrukcji - danych - zacząć je wykonywać. Model komputera wykorzystującego architekturę von Neumanna jest często nazywany przykładową maszyną cyfrową (PMC). Archiwizacja (ang. backup) to proces wykonywania kopii danych w celu zabezpieczenia ich przed utratą wskutek wystąpienia takich zdarzeń losowych jak powódź, pożar, włamanie, awaria sprzętu lub oprogramowania, czy skasowanie ich przez użytkownika. Pod pojęciem archiwizacji rozumie się również proces przenoszenia danych z systemów komputerowych na inne nośniki w celu zredukowania ilości danych np. już niepotrzebnych w głównym systemie komputerowym (bazie danych). Baza danych to zbiór danych zapisanych w ściśle określony sposób w strukturach odpowiadających założonemu modelowi danych. W potocznym ujęciu obejmuje dane oraz program komputerowy wyspecjalizowany do gromadzenia i przetwarzania tych danych. Program taki (często zestaw programów) nazywany jest "Systemem zarządzania bazą danych" (ang. DataBase Management System, DBMS). W ścisłej nomenklaturze baza danych oznacza zbiór danych, który zarządzany jest przez system DBMS. Bazy danych operują głównie na danych tekstowych i liczbowych, lecz większość współczesnych baz umożliwia przechowywanie danych binarnych typu: grafika, muzyka itp.

BIOS (akronim ang. Basic Input/Output System - podstawowy system wejścia-wyjścia) to zapisany w pamięci stałej, inny dla każdego typu płyty głównej komputera, zestaw podstawowych procedur pośredniczących pomiędzy systemem operacyjnym a sprzętem. Program konfiguracyjny BIOS-a to BIOS setup. Program zapisany w pamięci ROM (Read Only Memory - pamięć tylko do odczytu) płyty głównej oraz innych urządzeń takich jak karta graficzna. W wypadku płyty głównej BIOS testuje sprzęt po włączeniu komputera, przeprowadza tzw. POST (akronim ang. "Power On Self Test"), zajmuje się wstępną obsługą urządzeń wejścia/wyjścia, kontroluje transfer danych pomiędzy komponentami takimi jak dysk twardy, procesor czy napęd CD-ROM. Inicjuje program rozruchowy. BIOS potrzebny jest w komputerach osobistych ze względu na architekturę płyt głównych, gdzie dzięki ACPI kontroluje zasilanie, a poza tym monitoruje temperaturę itp. Za pomocą wbudowanego w BIOS programu setup można zmieniać standardowe ustawienia BIOS-u, np. parametry podłączonych dysków twardych lub zachowanie się komputera po jego włączeniu (np. szybkość testowania pamięci RAM), a także włączać/wyłączać niektóre elementy płyty głównej, np. porty komunikacyjne. Za pomocą BIOS-u można też przetaktowywać procesor (zmiana częstotliwości i mnożnika), jednak nie jest to zalecane, ponieważ może doprowadzić do przeciążenia urządzenia, a nawet jego uszkodzenia. Obecnie większość BIOS-ów zapisywana jest w pamięciach typu Flash, co umożliwia ich późniejszą modyfikację. Bufor to obszar pamięci służący do przechowywania danych do komunikacji pomiędzy dwoma systemami, np. bufor karty sieciowej przechowuje pakiety, które mają zostać wysłane, a bufor karty graficznej – to co ma zostać wyświetlone na ekranie. Bufory umożliwiają asynchroniczną komunikację między systemami. W niektórych językach programowania, np. w PHP, są funkcje, które działają jedynie przed wysłaniem czegokolwiek do odbiorcy. Jeśli potrzebne jest wywołanie funkcji po wysłaniu informacji do odbioru z pomocą przychodzi bufor. Podczas kompilacji zbiera wszystkie informacje wysyłane do odbiorcy i zapamiętuje je, a następnie pod sam koniec skryptu wyświetla zebrane informacje. Źle zaimplementowany bufor może posłużyć do ataku zwanego buffer overflow, który może doprowadzić do zawieszenia systemu, przejęcia nad nim kontroli, utraty informacji. Bufory występują również w przenośnych odtwarzaczach CD. Płyta CD w takim urządzeniu nie jest stabilna, co skutkuje przerwami w odczycie danych z płyty. Przerwom w odtwarzaniu dźwięku zapobiega bufor, który przechowuje odczytane z wyprzedzeniem fragmenty nagrania. W momencie zerwania kontaktu pomiędzy głowicą odczytującą a płytą CD do odtworzenia przesyłane są dane z bufora. Cache (pamięć podręczna) to mechanizm, w którym ostatnio pobierane dane dostępne ze źródła o wysokiej latencji i niższej przepustowości są przechowywane w pamięci o lepszych parametrach. Cache jest elementem właściwie wszystkich systemów - współczesny procesor ma 2 albo 3 poziomy pamięci cache oddzielającej go od pamięci RAM. Dostęp do dysku jest buforowany w pamięci RAM, a dokumenty HTTP są buforowane przez pośredniki HTTP oraz przez przeglądarkę. Systemy te są tak wydajne dzięki lokalności odwołań - jeśli nastąpiło odwołanie do pewnych danych, jest duża szansa, że w najbliższej przyszłości będą one potrzebne ponownie. Niektóre systemy cache próbują przewidywać, które dane będą potrzebne i pobierają je wyprzedzając żądania. Np. cache procesora pobiera dane w pakietach po kilkadziesiąt czy też więcej bajtów, cache dysku zaś nawet do kolejnych kilkuset kilobajtów czytanego właśnie pliku. Niektóre systemy pamięci cache umożliwiają informowanie systemu na temat charakteru danych by umożliwiać bardziej efektywne buforowanie. Służy temu np. wywołanie systemowe madvise. Esprit CAD/CAM – system programowania CAD/CAM amerykańskiej firmy DP Technology. Przeznaczony jest do obsługi m.in.:  frezarek (3-, 4- i 5-osiowych)  tokarek (jedno- i wielogłowicowych)  obrabiarek elektroerozyjnych drutowych EDM.

Chipset to element elektroniczny występujący w wielu częściach składowych komputera. Wydajność i niezawodność komputera w znaczącej mierze zależy od tego układu. Układ ten organizuje przepływ informacji pomiędzy poszczególnymi podzespołami jednostki centralnej. W skład chipsetu wchodzą zazwyczaj dwa układy zwane mostkami. Mostek północny odpowiada za wymianę danych między pamięcią a procesorem oraz steruje magistralą AGP (teraz już także PCI-E 1-16x). Mostek południowy natomiast odpowiada za współpracę z urządzeniami wejścia/wyjścia, takimi jak np. dysk twardy czy karty rozszerzeń. Podstawowe układy występujące w chipsetach to: sterownik (kontroler) pamięci dynamicznych sterownik CPU sterownik pamięci cache sterownik klawiatury sterowniki magistral, przerwań i DMA chipsety mogą również zawierać zegar czasu rzeczywistego, układy zarządzania energią, sterowniki dysków twardych IDE, dysków elastycznych, sterownik SCSI, sterownik portów szeregowych i równoległych. CMOS (ang. Complementary MOS) – technologia wytwarzania układów scalonych, głównie cyfrowych, składających się z tranzystorów MOS o przeciwnym typie przewodnictwa i połączonych w taki sposób, że w ustalonym stanie logicznym przewodzi tylko jeden z nich. Dzięki temu układ statystycznie nie pobiera żadnej mocy (pomijając niewielki prąd wyłączenia tranzystora), a prąd ze źródła zasilania płynie tylko w momencie przełączania – gdy przez bardzo krótką chwilę przewodzą jednocześnie oba tranzystory. Tracona w układach CMOS moc wzrasta wraz z częstotliwością przełączania, co wiąże się z przeładowywaniem wszystkich pojemności, szczególnie pojemności obciążających wyjścia. Układy CMOS są relatywnie proste i tanie w produkcji umożliwiając uzyskanie bardzo dużych gęstości upakowania tranzystorów na jednostce powierzchni płytki krzemu. W nowoczesnych układach powierzchnia zajmowana przez jeden tranzystor jest mniejsza od 1 µm². Procesor (ang. processor) nazywany często CPU (ang. Central Processing Unit) - urządzenie cyfrowe sekwencyjne potrafiące pobierać dane z pamięci, interpretować je i wykonywać jako rozkazy. Wykonuje on bardzo szybko ciąg prostych operacji (rozkazów) wybranych ze zbioru operacji podstawowych określonych zazwyczaj przez producenta procesora jako lista rozkazów procesora. Współczesne procesory (zwane mikroprocesorami) wykonywane są zwykle jako układy scalone zamknięte w hermetycznej obudowie, często posiadającej złocone wyprowadzenia (stosowane ze względu na własności stykowe tego metalu). Ich sercem jest monokryształ krzemu, na który naniesiono techniką fotolitografii szereg warstw półprzewodnikowych, tworzących, w zależności od zastosowania, sieć od kilku tysięcy do kilkuset milionów tranzystorów. Połączenia wykonane są z metalu (aluminium, miedź). Ważnym parametrem procesora jest rozmiar elementów budujących jego strukturę. Im są one mniejsze tym niższe jest zużycie energii, napięcie pracy oraz wyższa częstotliwość pracy. Współczesne procesory używane w komputerach osobistych wykonywane są w technologii pozwalającej na uzyskanie elementów o rozmiarach mniejszych niż 65 nm, pracujących z częstotliwością kilku GHz. Według planów największych producentów procesorów, pod koniec roku 2007 powinny pojawić się procesory wykonane w technologii 45 nm, a w 2010 - 32 nm. Fabryki procesorów muszą posiadać pomieszczenia o niezwykłej czystości, co jest bardzo kosztowne. W funkcjonalnej strukturze procesora można wyróżnić takie elementy, jak:  zespół rejestrów do przechowywania danych i wyników, rejestry mogą być ogólnego przeznaczenia, lub mają specjalne przeznaczenie,  jednostkę arytmetyczną (arytmometr) do wykonywania operacji obliczeniowych na danych,  układ sterujący przebiegiem wykonywania programu. Jedną z podstawowych cech procesora jest długość (liczba bitów) słowa, na którym wykonywane są podstawowe operacje obliczeniowe. Jeśli słowo ma np. 32 bity, mówimy że procesor jest 32-bitowy. Innym ważnym parametrem określającym procesor jest szybkość z jaką wykonuje on program. Przy danej architekturze procesora, szybkość ta w znacznym stopniu zależy od czasu trwania pojedynczego taktu.

Do typowych rozkazów wykonywanych przez procesor należą:  kopiowanie danych  z pamięci do rejestru  z rejestru do pamięci  z pamięci do pamięci (niektóre procesory)  (podział ze względu na sposób adresowania danych)  działania arytmetyczne  dodawanie  odejmowanie  porównywanie dwóch liczb  dodawanie i odejmowanie jedności  zmiana znaku liczby  działania na bitach  iloczyn logiczny - AND  suma logiczna - OR  suma modulo 2 (różnica symetryczna) - XOR  negacja - NOT  przesunięcie bitów w lewo lub prawo  skoki  bezwarunkowe  warunkowe Debuger (ang. debugger – odpluskwiacz) – program komputerowy służący do analizy dynamicznej programów w celu znalezienia w nich błędów (zwanych również z ang. bugami). Proces nadzorowania wykonania programu za pomocą debugera określa się mianem debugowania. Podstawowym zadaniem debugera jest sprawowanie kontroli nad wykonaniem kodu, co umożliwia zlokalizowanie instrukcji odpowiedzialnych za wadliwe działanie programu. Oczywiście, współczesne debugery pozwalają na efektywne śledzenie wartości poszczególnych zmiennych, wykonywanie instrukcji krok po kroku czy wstrzymywanie działania programu w określonych miejscach. Debuger jest standardowym wyposażeniem większości współczesnych środowisk programistycznych. Debugery posiadają również wady – symulacja działania kodu nie jest idealnym odtworzeniem wykonania tego kodu w warunkach normalnych. Wobec tego debugery mogą nie wykrywać bugów niezależnych bezpośrednio od treści badanego programu. DLL (z ang. Dynamic Link Library lub Dynamic Linked Library - biblioteka łączona dynamicznie) - w środowisku Windows biblioteka współdzielona (z ang. shared library), która przechowuje implementacje różnych funkcji (podprogramów) programu i/lub zasoby programu. Biblioteka DLL sama nie może wywoływać swoich funkcji (wykorzystywać zasobów w niej zawartych), może to zrobić jedynie program EXE. Ponieważ funkcje biblioteki dynamicznej (DLL) mogą być jednocześnie importowane przez wiele programów, biblioteki DLL mogą obsłużyć kilka plików wykonywalnych, które w tym samym czasie korzystają z tego samego zbioru funkcji programu (stąd określenie: biblioteka dzielona). W przeciwieństwie do bibliotek statycznych, które są łączone z programem w czasie jego kompilacji, biblioteki DLL są wczytywane do pamięci operacyjnej dynamicznie, to jest wtedy, gdy faktycznie są potrzebne (stąd określenie: biblioteka dynamiczna). Dzięki temu pamięć operacyjna jest mniej obciążona, a biblioteka jest bardziej elastyczna (gotowość do pracy bez dodatkowej kompilacji). W systemie Windows biblioteki DLL mają rozszerzenia *.dll lub *.ocx (gdy biblioteka korzysta z ActiveX) i mogą być wykorzystane w programach napisanych w różnych językach przeznaczonych na platformę Windows, m.in. w Visual Basicu, C/C++/C#, Object Pascalu (Delphi) czy asemblerze. Ethernet to technologia, w której zawarte są standardy wykorzystywane w budowie głównie lokalnych sieci komputerowych. Obejmuje one specyfikację kabli oraz przesyłanych nimi sygnałów. Ethernet opisuje również format ramek i protokoły z dwóch najniższych warstw Modelu OSI. Jego specyfikacja została podana w standardzie 802.3 IEEE. Ethernet jest najpopularniejszym standardem w sieciach lokalnych. Inne wykorzystywane specyfikacje to Token Ring, FDDI czy Arcnet. Ethernet został opracowany przez Roberta Metcalfa w Xerox PARC czyli ośrodku badawczym firmy Xerox i opublikowany w roku 1976. Ethernet bazuje na idei węzłów podłączonych do wspólnego medium i wysyłających i odbierających za jego pomocą specjalne komunikaty (ramki). Ta metoda komunikacji nosi nazwę CSMA/CD (ang. Carrier Sense Multiple Access with Collision Detection). Wszystkie węzły posiadają unikalny adres MAC.

Klasyczne sieci Ethernet mają cztery cechy wspólne. Są to: parametry czasowe, format ramki, proces transmisji oraz podstawowe reguły obowiązujące przy ich projektowaniu. Firmware to oprogramowanie wbudowane w urządzenie, zapewniające podstawowe procedury obsługi tego urządzenia. Nowsze urządzenia posiadają możliwość aktuali...


Similar Free PDFs