Urządzenia PC

 

Urządzenia wewnętrzne

dysk twardy

FDD

Nośniki CD

Karty Graficzne

Karty Dźwiękowe

Karty Sieciowe

Karty Telewizyjne

 

Urządzenia wewnętrzne

Monitory

Klawiatury

Myszki

Multimedia

Drukarki

Skanery

Urządzenia sieciowe

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

go góry

 

Powrót do strony głównej                                                                                                                                                                     

     Budowa dysków

     Stosowana w dyskach sztywnych technika zapisu nie odbiega od tej, z jaką mamy do czynienia w magnetofonie czy w     kartach telefonicznych, a także w dyskietkach. Wytwarzane przez elektromagnetyczną głowicę pole magnetyczne  powoduje  uporządkowanie domen magnetycznych w nośniku ferromagnetycznym o szerokiej pętli histerezy, a ruch tak  zapisanego nośnika w pobliżu głowicy odczytującej powoduje w niej indukcję sygnału elektrycznego, odpowiadającego  zapisanym danym. Współczesna technologia do odczytu danych używa, zamiast głowic indukcyjnych,  półprzewodnikowych elementów magnetorezystywnych, umożliwiających zwiększenie zarówno odczytywalnej gęstości  zapisu, jak i zwiększenie szybkości odczytu.

   Dysk stały naszego PC to wirujący talerz lub zespół talerzy o powierzchni pokrytej nośnikiem magnetycznym, a odpowiednio ustawiane na tych powierzchniach głowice zapisują i odczytują dane. Głowice umieszczone są na przypominającym ramię gramofonu ramieniu pozycjonującym i dociskane do powierzchni dysku sprężynami, ale podczas obrotów dysku nie stykają się z nią – powstająca w wyniku szybkich obrotów talerzy „poduszka powietrzna” utrzymuje głowice nad powierzchnią. Rozwiązanie takie nazywane jest „pływającymi głowicami” i jak na razie jest bezkonkurencyjne i stosowane powszechnie, chociaż są już w toku prace nad innymi sposobami prowadzenia głowic.
Jak już wspomniałem, głowice dysku są zamontowane na konstrukcji obrotowej, budzącej skojarzenie z ramieniem gramofonu. Słuszne optycznie skojarzenie nie jest jednak prawdziwe. Podczas gdy ramię gramofonu było prowadzone przez ścieżkę zapisu na płycie, to z ramieniem głowic dysku jest zupełnie inaczej – musi ono być ustawione tak, by głowice znalazły się nad odczytywaną właśnie ścieżką (czy raczej – na odczytywanym „cylindrze”). W pierwszych konstrukcjach dysków sztywnych pozycjonowanie głowic było realizowane przez mechanizm napędzany silnikiem krokowym (rozwiązanie takie jest do dziś stosowane w napędach dyskietek). W miarę wzrostu wymagań szybkościowych stosowano inne rozwiązania, spośród których optymalnym jak na razie okazało się voice coil, czyli układ magnetodynamiczny, wzorowany na stosowanym w głośnikach (stąd nazwa) – umieszczona w polu silnego magnesu stałego cewka porusza się zgodnie z przepływającym przez nią prądem, ustawiając w odpowiedniej pozycji związane z nią mechanicznie ramię głowic dysku. Technika ta pozwoliła na zmniejszenie czasu pozycjonowania głowic na zadanej ścieżce z kilkudziesięciu do kilku milisekund, a przy przejściach pomiędzy kolejnymi ścieżkami nawet poniżej jednej milisekundy.

  Tradycyjnie w komputerze PC AT adresowanie dysku przez przerwanie 13 BIOS-u (INT 13) odbywało się za pomocą trzech parametrów: cylindra, głowicy i sektora (tzw. adresowanie CHS od słów Cylinder, Head, Sector). Konwencjonalne funkcje INT 13 używały 24 bitów do reprezentacji adresów, zatem możliwe było jedynie zaadresowanie obszaru o pojemności 8,4 GB (224×512 bajtów/sektor = 8,4 GB). W celu przekroczenia tej granicznej wartości producenci wprowadzili dwa nowsze sposoby (stosowane właśnie w dzisiejszych dyskach) adresowania.
Pierwszy polegał na rozszerzeniu reprezentacji adresu w konwencji CHS do 32 bitów, drugi – częściej stosowany – używał zupełnie odmiennej metody noszącej nazwę LBA. W metodzie LBA (Logical Block Addressing) stosowane jest adresowanie 28-bitowe, co pozwala na zaadresowanie obszaru do granicznej (znowu!) pojemności wynoszącej: 228×512 bajtów/sektor = 137,4 GB. Jest to wartość jak na razie nieosiągalna dla przeciętnego posiadacza komputera (dla producentów – owszem; nie tak dawno Quantum poinformowało o wyprodukowaniu dysku o pojemności ponad 200 GB!). Ten właśnie tryb adresowania jest zalecany i zaimplementowany w BIOS-ach większości dzisiejszych PC-tów.

   Zapis na dysku dokonywany jest w formie koncentrycznych ścieżek, podzielonych na sektory. Dość tajemnicze pojęcie „cylinder”, występujące w opisie parametrów dysku i nie znajdujące bezpośredniego odbicia w jego konstrukcji, to grupa ścieżek o tym samym numerze na wszystkich powierzchniach roboczych. Liczba głowic odpowiada liczbie roboczych powierzchni talerzy dysku.
Taki opis parametrów fizycznych dysku oraz wynikający z niego tryb adresowania stanowiły pierwotnie podstawę rozumienia zapisu na dysku przez wszystkie systemy operacyjne. Opis CHS (cylinder/head/sector) sprawdzał się bardzo dobrze w czasach, gdy całością procesu zapisu i odczytu danych zarządzała jednostka centralna przy współudziale dość prymitywnego sterownika. Nietrudno jednak zauważyć, że całkowita długość pierwszej, najbardziej zewnętrznej ścieżki jest znacznie większa od długości ostatniej, najbliższej osi talerza. Liniowa gęstość zapisu jest stała dla wszystkich ścieżek (po prostu – maksymalna), a przy stałej liczbie sektorów na każdej kolejnej ścieżce (licząc od ostatniej do pierwszej) marnowałaby się coraz większa ilość miejsca. Dlatego już od dość dawna stosuje się technikę MZR (Multiple Zone Recording), maksymalnie wykorzystującą dostępną powierzchnię talerzy – liczba sektorów w ostatnim cylindrze dysku, wynikająca z liniowej gęstości zapisu, pozostaje stała w kolejnych cylindrach do chwili, gdy ilość wolnego miejsca pozwoli na dodanie jednego sektora więcej. Na dysku powstają w ten sposób kolejne strefy, charakteryzujące się rosnącą liczbą sektorów w miarę zbliżania się do krawędzi talerza.
W początkowym okresie stosowania MZR praktykowano technikę przeliczania geometrycznej lokalizacji danych na logiczne parametry systemu CHS. Wymagało to dość kłopotliwego, ręcznego wprowadzania parametrów przeliczeniowych konkretnych modeli dysków do pamięci konfiguracji systemu (tzw. Setup). Od problemu indywidualnych parametrów dysków uwolniły nas dopiero: z jednej strony rozwój interfejsu ATA, dzięki któremu system był w stanie samodzielnie odczytać z dysku i przyjąć do wiadomości przeliczeniowe parametry, z drugiej zaś – wprowadzenie BIOS-u funkcji obsługi trybu LBA (Logical Block Addressing), uniezależniającego adresowanie danych na dysku od ich fizycznej lokalizacji na nim.

     Kodowanie

Zapis danych binarnych w formie magnetycznej nie jest dokonywany bezpośrednio „bit w bit” – dane przeznaczone do zapisu są kodowane według pewnych algorytmów, których zadaniem jest usprawnienie odczytu, a także zapewnienie większej jednoznaczności zapisu. Kodowanie danych przeznaczonych do zapisu składa się z dwu faz – najpierw do zapisywanych danych dodawane są dane nadmiarowe umożliwiające detekcję i korektę ewentualnych błędów odczytu (CRC – Cyclic Redundancy Code – najprostszy, a zarazem jeden z najefektywniejszych algorytmów wprowadzania danych nadmiarowych dla celów korekcji błędów), następnie zaś wynikowe wartości są przekształcane tak, by uniknąć powtarzania dłuższych ciągów powtarzających się zer czy jedynek.

 

Historycznie pierwszym systemem kodowania danych był MFM, dziś już zupełnie nie stosowany, wyparty następnie przez kodowanie RLL (Run Lenght Limited) stosowane w dyskach sztywnych do niedawna, a wciąż jeszcze używane przy zapisie na dyskietkach. Obecnie powszechnie stosowaną techniką kodowania danych na dysku jest PRML (Partial Response Maximum Likelihood), która zapewnia największą efektywną gęstość zapisu, a także najniższą stopę błędu odczytu danych. Technika PRML wymaga stosowania w układach sterujących dysku specjalizowanych procesorów o dużej mocy, jednak technologie krzemowe są obecnie na tyle tanie, że uzyskiwane dzięki nim zwiększenie gęstości zapisu z nawiązką wyrównuje nieco wyższy koszt wbudowanej   w dysk elektroniki.

 

   Głowice magnetorezystywne

Twardy dysk ze swoimi maleńkimi elementami wykonanymi z dokładnością przy której, zegarmistrzowska precyzja przypomina raczej kowalską robotę to w istocie arcydzieło technologii. Prawdziwym cudem jest jednak głowica. W nowoczesnych konstrukcjach stosuje się tak zwane głowice magnetorezystywne.

Gwoli ścisłości powinno się raczej używać określenia „hybrydowe” – do zapisu danych służy elektromagnetyczna głowica cienkowarstwowa (jej mikroskopijna ceweczka ma około 10 zwojów), głowica magnetorezystywna służy do odczytu. Wykorzystuje ona efekt zmiany oporności elektrycznej specjalnego materiału (stop żelaza i niklu) przy zmianie pola magnetycznego i jest o wiele czulsza od głowicy elektromagnetycznej. Pozwala to znacznie zmniejszyć powierzchnię zajmowaną przez każdy bit informacji, a więc – zwiększyć gęstość zapisu.   Współczesne dyski charakteryzują się gęstością rzędu 1 gigabita na cal kwadratowy, zaś w laboratoriach IBM (to właśnie w nich stworzono pierwsze głowice magnetorezystywne) osiągnięto w grudniu 1996 roku gęstość 5 gigabitów na cal kwadratowy.
Przy tej gęstości na jednym calu długości ścieżki mieści się 240 tysięcy bitów, na jeden cal promienia dysku przypada 21 tysięcy ścieżek, a jeden bit zajmuje powierzchnię 1,2 na 0,1 mikrometra (przekrój ludzkiego włosa zmieściłby około 1000 bitów). Dzięki doskonaleniu technologii GMR (Giant Magnetoresistive Effect) naukowcy przewidują osiągnięcie przed końcem wieku gęstości 10 Gb na cal kwadratowy

     Pozycjonowanie głowicy

Kiedyś na potrzeby „nawigacji” zarezerwowana była cała jedna powierzchnia dysku, na której zapisane były znaczniki ścieżek i sektorów dla pozostałych głowic – system taki nazywał się „dedicated servo”. Dzisiejsze napędy wykorzystują technologię „embedded servo” – znaczniki umieszczone są na powierzchniach roboczych i przemieszane z obszarami danych. Wiąże się to co prawda z przydzieleniem elektronice dysku dodatkowych zajęć, pozwala jednak zwiększyć efektywną pojemność urządzenia. W celu uniknięcia błędów odczytu głowica musi znajdować się dokładnie nad środkiem danej ścieżki. Nie jest to wcale łatwe zadanie, gdyż pod wpływem ciepła materiał, z którego wykonane są płyty dysku, może ulec odkształceniom.

W odróżnieniu od tradycyjnej techniki Servo, przy której głowica musiała regularnie korzystać ze ścieżki sterującej, aby zoptymalizować swoją pozycję, mechanizm Embedded Servo wykorzystuje informacje sterujące zapisane na każdej ścieżce. Głowice zapisująco – odczytujące mogą więc korzystać z nich przez cały czas, co umożliwia dokładniejsze pozycjonowanie. Technika Embedded Servo działa na podobnej zasadzie, jak automatyczny pilot, który nieprzerwanie dba o utrzymanie właściwego toru lotu. Stosowana dawniej okresowa kalibracja głowicy dysku powodowała natomiast dodatkowe przerwy w transmisji danych.Inteligentne układy sterujące pozwoliły także zmienić sposób przesuwania głowicy nad szukaną ścieżkę – niegdyś służyły do tego stosunkowo powolne i zawodne silniczki krokowe (do dziś używane w stacjach dyskietek zdradzają swą obecność charakterystycznym burczeniem), teraz delikatne jak piórko kolibra ramię głowicy wychylane jest na podobieństwo wskazówki miernika elektrycznego za pomocą cewki, przez którą przepływa prąd o odpowiednio dobranym natężeniu  (tzw. voice coil) – dzięki temu średni czas dostępu do danych to dziś 10 lub mniej milisekund. Niektóre firmy stosują technologię „Read on Arrival”, wykorzystującą mechanizm korekcji błędów – pierwsza próba odczytu podejmowana jest jeszcze zanim głowica ustabilizuje się nad żądaną ścieżką; albo próba się powiedzie, albo skutecznie zadziała mechanizm korekcji błędu odczytu, w najgorszym przypadku trzeba będzie ponowić odczyt – nic do stracenia, a można zyskać cenne milisekundy

 

Na pierwszy rzut oka wydawać by się mogło, że w konstrukcji PC używane są obecnie dwa typy interfejsów dyskowych: Ultra ATA i SCSI. Ale po przejrzeniu kilku katalogów sprzętowych opinia ulega zmianie, a w gąszczu nazw takich jak EIDE, ATAPI, Fast Wide SCSI i temu podobnych może się poczuć zagubiony nawet całkiem obyty fachowiec. Tyle jest standardów – czy nie ma żadnego standardu?

Spróbuję trochę wyprostować kręte ścieżki w dżungli interfejsów dyskowych. Zacznijmy od początku, a na początku, wbrew temu co mówi Pismo, nie było chaosu. W PC był tylko jeden interfejs dyskowy, stworzony przez Seagate i określany jako ST-506/ST-412, od symboli pierwszych dwóch modeli dysków wyprodukowanych przez tę firmę.

Ze względu na niewygodę w posługiwaniu się tak abstrakcyjnym symbolem, żargonowo określano ten interfejs jako MFM lub RLL, od stosowanych w tych dyskach technik kodowania (nb. technika RLL jest stosowana przez niektórych producentów do dziś). Interfejs ten dawno odszedł do lamusa wraz z dyskami o pojemnościach kilkunastu megabajtów, wymagającymi złożonej logiki zewnętrznego sterownika. Jego los podzielił również ESDI (Enhanced Small Device Interface) – pomimo niewątpliwych zalet okazał się zbyt kosztowny w stosunku do swojego konkurenta znanego jako IDE, który stał się pierwszym prawdziwym standardem

Konstrukcja komputera PC AT stworzyła możliwość zastosowania 16-bitowego interfejsu pomiędzy systemem a dyskiem oraz przeniesienia funkcji sterownika dysku do jego konstrukcji (dyski MFM-RLL były całkowicie „głupie” – całość ich obsługi obciążała wchodzący w skład jednostki centralnej komputera sterownik). Powstał interfejs znany pod nazwami IDE i ATA, który dał początek rodzinie powszechnie stosowanych obecnie interfejsów dyskowych.

Integrated Drive Electronic (IDE) to określenie techniki realizacji nowego interfejsu, w którym całość logiki sterownika dyskowego przeniesiono do konstrukcji dysku, ATA zaś to AT Attachment – relacja nowego interfejsu do konstrukcji AT. Specyfikacja ATA została skodyfikowana przez ANSI jako oficjalny standard, definiując następujący zakres funkcji interfejsu:

·         pojedynczy kanał, dzielony przez dwa dyski, skonfigurowane jako master i slave;

·         komunikacja w trybach PIO 0, 1 i 2;

·         komunikacja przez DMA w trybach 0, 1, 2 dla transmisji pojedynczych słów i w trybie 0 dla transmisji multiword.

Standard ATA sprawdził się bardzo dobrze podbijając rynek, ale rosnące wymagania systemów spowodowały jego rozszerzenie do ATA-2, zaakceptowanego również oficjalnie przez ANSI. Nowe funkcje interfejsu ATA-2 to przede wszystkim:

·         szybsze tryby PIO – ATA-2 wspomaga obsługę w trybach PIO 3 i 4;

·         obsługa multiword DMA w trybach 1 i 2;

·         rozkazy transmisji blokowych;

        tryb LBA (Logical Block Addressing), umożliwiający, przy odpowiednim wsparciu przez BIOS komputera, przekroczenie systemowych barier pojemności dysku;

·         rozszerzenie zakresu identyfikacji dysku przez system.

Wprowadzone przez ATA-2 rozszerzenia podniosły sprawność interfejsu, ale w wyniku ciągłego wzrostu mocy PC i wzrostu objętości użytkowanych danych, konieczne stały się kolejne usprawnienia interfejsu tak, by możliwie niewielkim kosztem dało się uzyskać kolejne zwiększenie sprawności. Zanim to jednak nastąpiło, powstało ATA-3, nie wnoszące żadnych nowych trybów transmisji i przyspieszenia obsługi, a jedynie takie, skądinąd bardzo użyteczne zmiany, jak:

poprawę pewności transmisji danych po kablu, którego możliwości transmisyjne zostały przy uzyskiwanych szybkościach transmisji wyraźnie przekroczone;

wprowadzenie obsługi SMART (Self-Monitoring Analysis and Reporting Technology) – techniki zapewniającej znaczne zwiększenie poziomu bezpieczeństwa danych dzięki automatycznej diagnostyce dysku.  

 

Następnym znaczącym krokiem w rozwoju interfejsów z rodziny ATA stał się, stosowany obecnie, nieformalny standard Ultra ATA, umożliwiający transmisję danych multiword w trybie 3 DMA, tzw. DMA-33. Oczywiście taki tryb pracy musi być wspierany od strony jednostki centralnej przez BIOS  i logikę płyty głównej. Ze strony logiki dysku konieczna jest dodatkowa kontrola poprawności danych i korekcja błędów transmisji z powodu wspomnianego już przekroczenia przepustowości typowego kabla.

Wszystkie interfejsy ATA charakteryzują się pełną kompatybilnością zstępującą, tzn. każda wyższa wersja obsługuje również pełny zestaw funkcji wersji niższej, dzięki czemu możemy np. dołączyć dysk Ultra ATA do systemu przystosowanego do ATA-2, oczywiście tracąc możliwość wykorzystania zwiększających efektywność funkcji wyższego standardu.

Dopełnieniem rodziny interfejsów IDE/ATA jest ATAPI (ATA Packet Interface), protokół komunikacyjny, umożliwiający komunikowanie się przez interfejs ATA z urządzeniami, nie będącymi dyskami stałymi – przede wszystkim z czytnikami CD-ROM. Początkowo protokół ten był obsługiwany przez ładowany do pamięci sterownik, później wbudowany w system operacyjny. Obecnie ATAPI jest wspierany również przez większość implementacji BIOS-u, dzięki czemu możliwe jest np. ładowanie systemu operacyjnego z CD-ROM-u. 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

COPYRIGHT  ©  2004 BY MIESZAŁA MAŁGORZATA I PIĄTEK PIOTR

ALL RIGHTS RESERVED