26 listopada 2006

Komputery osobiste

Pierwsze komputery byty wielkimi, powolnymi maszynami, odczytującymi dane z kart perforowanych lub taśm magnetycznych i zajmującymi specjalnie wydzielone klimatyzowane pomieszczenia pokaźnych rozmiarów.

Moc obliczeniowa superkomputerów lat 60. i początku lat 70. była niższa niż moc obliczeniowa współczesnego komputera osobistego. Z komputerem takim łączono się poprzez terminal w formie klawiatury, który długimi kablami transmitował instrukcje. Z kolei na monitorze wyświetlane były komendy i rezultaty działania maszyny. Dane wprowadzano zwykle za pomocą kart perforowanych.
Takie ogromne maszyny są używane do dziś, oczywiście w znacznie udoskonalonych wersjach, szczególnie tam, gdzie wielu użytkowników zajmuje się podobnymi problemami, na przykład w księgowości lub w dziale marketingu. Częściowo ich rolę przejmują jednak zwykłe komputery osobiste, często nawet laptopy, połączone ze sobą w lokalną sieć, bądź po prostu przyłączone do sieci ogólnoświatowej - Internetu. Tym samym dzięki komputerom miejsce pracy przenosi się z biura do domu.
Istnieje wiele sposobów określania mocy obliczeniowej komputera. Najczęściej największą wagę przywiązuje się do prędkości procesora. Procesor
- niewielki rozmiarami układ scalony - jest mózgiem całego komputera. To on wykonuje operacje umożliwiające pracę całości.

Intel inside

Pierwszym procesorem ogólnego przeznaczenia, zaprojektowanym z myślą o komputerach osobistych był Intel 8080 z 1974 roku. Zawierał on w jednym układzie scalonym około 6000 elementów. Jak każdy procesor pracował w systemie dwójkowym, w którym każdą liczbę reprezentuje się za
pomocą dwóch zaledwie cyfr - 0 i 1. Intel 8080 pracował bezpośrednio z liczbami 8-bitowymi, tzn. takimi, które można było zapisać za pomocą 8 cyfr - są to liczby całkowite z przedziału 0-255 w systemie dziesiętnym. Dwie takie liczby dodawał w mniej niż jedną trzymilionową część sekundy i był na ówczesne czasy naprawdę szybki.
W 1982 roku inżynierowie z firmy HewlettPackard stworzyli Superchipa - procesor pracujący z liczbami 32-bitowymi (co odpowiada liczbom całkowitym z przedziału od 0 do 2949672295). Superchip, w którym na powierzchni 6 mm2 mieściło się 450000 elementów, mnożył przez siebie dowolne 32 bitowe liczby w czasie mniejszym niż dwumilionowa część sekundy.
Wydajność procesora można określać również poprzez częstotliwość taktowania, czyli częstość zegara. Określa ona ile operacji procesor może wykonać w ciągu sekundy. Intel 8080 był taktowany z częstotliwością 2 MHz, czyli w ciągu sekundy wykonywał 2 miliony operacji. Częstość zegara procesorów rosła z roku na rok. Inte1386 z 1985 roku, procesor 32-bitowy, zawierał 250000 elementów i mógł być taktowany z częstością 33 MHz. Procesory Pentium Pro sprzed 21at zawierają ponad 5,5 miliona elementów i są taktowane zegarem o częstości 200 MHz, Pentium MMX osiągają 233 MHz, a Pentium II prawdopodobnie już niedługo osiągnie 500 MHz.
Innym czynnikiem mającym znaczny wpływ na prędkość pracy komputera jest pamięć. Dane potrzebne maszynie są przechowywane głównie na nośnikach magnetycznych - kiedyś były to taśmy, dziś są to twarde dyski. Jednak przed wykorzystaniem dane z pamięci magnetycznej muszą zostać zamienione na szereg impulsów elektrycznych. Potem część tych informacji zapisywana jest w pa¬mięci RAM (pamięć operacyjna). Z pamięci RAM procesor czerpie wszelkie instrukcje, tam też przesyła wyniki swej pracy. Pojemność pamięci RAM określa prędkość pracy komputera, dlatego że czas dostępu do tej pamięci jest znacznie krótszy niż do twardego dysku. Komputer znacznie mniej czasu traci na pobieranie informacji z RAMu, więc gdy wszystkie niezbędne informacje się tam mieszczą, to komputer działa szybciej, bo rzadziej musi odwoływać się do danych zapisanych na twardym dysku. Im mniejsza pojemność RAMu, tym częściej trzeba się odwoływać do dysku, przez co działanie maszyny ulega spowolnieniu.

Pierwsze komputery osobiste

Dziś większość komputerów osobistych należy do jednej z dwóch wielkich rodzin: PC (pierwotnie IBM PC: PC od angielskiego Personal Computer - komputer osobisty) oraz Apple Macintosh, czyli Mac. Jednak przed ostatecznym ustaleniem się tych standardów na rynku były obecne najróżniejsze inne konstrukcje.
Używanie komputera w domu i biurze stało się popularne w pierwszej połowie lat osiemdziesiątych. Wraz z wzrostem szybkości procesorów i co najważniejsze spadkiem ich ceny, firmy jak Commodore, Amstrad oraz pionierski Sinclair sprzedawały swe produkty jako komputery domowe.
Jednym z bardziej popularnych komputerów tamtych czasów był Commodore 8032, wyposażony w 32 kB pamięci RAM (kB - kilobajt w przybliżeniu odpowiada 1000 8-bitowych słów). Programy pisane na taką maszynę musiały być siłą rzeczy stosunkowo nieskomplikowane, gdyż 32 kB to
mało, a należało jeszcze pamiętać o konieczności zmieszczenia gdzieś danych potrzebnych do wykonywania obliczeń. W rzeczywistości programy mogły zajmować tylko 16 kB, co powodowało, że użytkownicy tej maszyny dobrze zaznajomili się z komunikatem „out of memory" (brak pamięci).
Dla wymiany i obróbki informacji opracowany został system kodowania ASCII, który umożliwia zapisanie każdej litery (ale tylko w alfabecie angielskim!), cyfry itd., jako jedno 8-bitowe słowo
(1 bajt), czyli liczbę z przedziału 0-255, oczywi¬cie w systemie dwójkowym. Jeśli na komputerze typu Commodore 8032 uruchomiliśmy program do obróbki tekstu, to po napisaniu paru stron dokument musiał być zapisywany do pamięci stałej, a resztę pracy trzeba było kontynuować w innym dokumencie. Programy ówczesne potrafiły w odp¬wiednich miejscach zamykać i tworzyć pliki, jednak system ciągłego odwoływania się do powolnej pamięci magnetycznej prowadził do tego, że praca posuwała się w ślimaczym (według dzisiejszej miary) tempie.

Ustanowienie standardów

Współczesne komputery osobiste są zaledwie dalekimi krewnymi owych pionierskich maszyn. Bazują one na zasadach konstrukcyjnych opracowanych w początku lat 80. (lecz nieustannie modyfikowanych) przez dwie czołowe korporacje: IBM oraz Apple Corp. Komputery PC opanowały domy i biura, podczas gdy Macintoshe są popularne głównie wśród projektantów, grafików oraz przy zaawansowanych pracach edytorskich.
Każdy komputer można rozłożyć na podzespoły: procesor, twardy dysk, napędy dysków elastycznych, kartę graficzną oraz karty wejścia/wyjścia. Wszystkie one są podłączone do wiązki przewodów (szyny zbiorczej), po której przesyłane są między nimi informacje. Procesor jest połączony także z pamięcią RAM oraz ROM. Ten drugi rodzaj pamięci jest pamięcią wyłącznie do odczytu i przechowywane są w niej dane niezbędne do uruchomienia i pracy maszyny, które zostały tam wpisane fabrycznie i nie mogą zostać zmienione. Najważniejsze komendy znajdują się w BIOSie - będącym pamięcią typu ROM. Po każdorazowym włączeniu komputera pobiera on z układu scalonego BIOS odpowiednie instrukcje procedury startowej, które zawierają testy różnych elementów, przygotowują współpracę z ekranem oraz klawiaturą oraz rozpoczynają ładowanie systemu operacyjnego z twardego dysku (lub dyskietki). ,
Jak już wspomniano, pamięć RAM jest używana do przechowywania danych niezbędnych do wykonania programu oraz wyświetlania wyników. Pamięć RAM ma postać układów scalonych, czyli kości. Współcześnie układy typu SIMM są powoli zastępowane przez szybsze układy DIMM. Pojedyncze kości pamięci operacyjnej mają dziś pojemność od 4 do 32 MB (milionów bajtów). Jeżeli kości nie wystarczają, współczesne komputery potrafią (dzięki oprogramowaniu) wydzielać pewną część twardego dysku i traktować ją jak kość RAM. Oczywiście taka wirtualna, dyskowa pamięć RAM jest znacznie wolniejsza od rzeczywistego układu scalonego, jednak często jest używana, by dzisiejsze, skomplikowane programy mogły pracować.

Na ekranie

Karta graficzna ma za zadanie przełożenie języka procesora na sygnały elektroniczne zrozumiałe dla
monitora. Początkowo komputery potrafiły wyłącznie wyświetlać na monitorze tekst i grafikę blokową, tzn. linie proste i krzywe bazujące na równaniach z zestawu instrukcji procesora. Niektóre znaki ASCII opisywały elementy prostej grafiki, tak że tworzenie nieskomplikowanych obrazów możliwe było przez wciskanie odpowiednich sekwencji klawiszy. PC wyewoluował z maszyn, pomyślanych do wykonywania obliczeń, więc grafika nigdy nie była w nim priorytetem. Z kolei Macintosh był budowany od podstaw z myślą o pracach graficznych i zawiera odpowiednie rozwiązania sprzętowe wspomagające obróbkę grafiki. Jest to chyba najważniejsza różnica pomiędzy tymi dwoma konkurującymi standardami.
Gdy Macintosh podbijał rynek, był pierwszym komputerem „przyjaznym użytkownikowi". Wyposażono go w praktyczny interfejs graficzny WIMP, będący pierwowzorem dla powszechnie znanej serii programów Windows Microsoftu. Programy i dokumenty, nad którymi pracowano, pojawiały się na ekranie w odrębnych oknach. Każdy z dokumentów był reprezentowany przez obrazek-ikonę, zwykle odpowiadającą typowi jego pliku. Największą rewolucją wprowadzoną przez Maca była jednak mysz - urządzenie wskaźnikowe. Przesuwając po podkładce pudełeczkiem połączonym z komputerem kablem-ogonkiem, poruszamy na ekranie strzałką wskaźnika. Naciskanie umieszczonych na pudełeczku przycisków - „klikanie" - powoduje
wykonanie operacji przyporządkowanych aktualnej pozycji wskaźnika na ekranie. Na przykład, kilkając, gdy strzałka wskaźnika znajduje się na pasku „Zachowaj", każemy komputerowi zapisać dokument na twardy dysk. Pomysł Macintosha został szybko podchwycony przez firmę Microsoft, która stworzyła popularny Windows, interfejs graficzny dla komputerów PC, w wielu szczegółach podobny do pierwowzoru. Jednak fakt, że PC nie był projektowany do prac z grafiką, powodował że należało wyposażyć maszynę w odpowiednie karty graficzne, które mogłyby sobie poradzić z grafiką o wysokiej rozdzielczości. Taka karta jest wyposażona we własny, wyspecjalizowany procesor oraz układ pamięci.
Obie rodziny komputerów były tak projektowane, by można je było łatwo rozbudowywać. Na płytach głównych są miejsca - tzw. sloty - do podłączania najróżniejszych kart rozszerzeń. Wraz z rozwojem procesorów i wzrostem wymagań względem komputera, komplikacji ulegają także karty urządzeń peryferyjnych oraz same te urządzenia. Współczesne karty graficzne do PC biorą na siebie znaczną część przygotowywania obrazu do wyświetlania, odciążając tym samym procesor. Zysk prędkości jest wyraźnie widoczny szczególnie przy szybkozmiennej animacji, na przykład w grach komputerowych z rozbudowaną grafiką.
Jednym z najważniejszych urządzeń peryferyjnych podłączanych do komputera jest drukarka. W ciągu ostatnich dwóch dziesięcioleci drukarki przeszły podobną ewolucję jak same komputery. Najpierw używano drukarek rozetkowych, będących w istocie zmodyfikowanymi elektronicznyi mi maszynami do pisania. Na obrotowej głowicy były zamontowane odpowiednie czcionki drukarskie, odpowiadające znakom kodu ASCII. Komputer wybierał właściwą czcionkę, obracając głowicę, a następnie czcionka była odbijana na papierze poprzez taśmę barwiącą. Po nich pojawiły się drukarki igłowe, które drukowały litery i grafikę za pomocą głowicy z igłami odciskającymi przez taśmę punkty w odpowiednich miejscach. Większość współczesnych drukarek to urządzenia atramentowe albo laserowe. Drukarka atramentowa natryskuje na papier mikroskopijne plamki atramentu, natomiast drukarka laserowa działa na zasadzie zbliżonej do kserokopiarki.

Multimedia

Dzisiejsze komputery osobiste poza obudową niewiele przypominają maszyny z początku lat 80. Większość obecnie sprzedawanych komputerów osobistych to tzw. komputery multimedialne. Zamiast prymitywnych głośniczków znanych z pierwszych PC, które potrafiły wydawać ostrzegawcze piski i niewiele więcej, wyposaża się je w zaawansowane karty dźwiękowe, które są w stanie syntezować dźwięk o jakości hi-fi. Szybkość przyrostu prędkości procesorów i pojemności pamięci operacyjnych jest również ogromna. Sześć, siedem lat temu twardy dysk o pojemności 150 MB był uważany za duży - dziś komputery wyposażane są w dyski przeszło 100 razy pojemniejsze, standardem są 2 GB (gigabajty - miliardy bajtów).
Większość nowoczesnych komputerów jest wyposażona w napędy CD-ROM. CD-ROMy są technicznie identyczne z płytami kompaktowymi audio, lecz zamiast muzyki zawierają zapisaną cyfrowo informację - programy bądź dane. Mikrowgłębienia w powierzchni dysku reprezentują 0 i 1 w kodzie dwójkowym - odczytywane są z czytnika za pośrednictwem odbitego od nich promienia laserowego. Na typowym krążku CD-ROM mieszczą się 640 MB informacji. Tak znaczna pojemność uczyniła dysk kompaktowy idealnym nośnikiem do przechowywania dużych baz danych, takich jak na przykład multimedialne encyklopedie, gdzie poszczególne hasła wzbogacane są nierzadko przez ścieżki dźwiękowe oraz krótkie filmy video. CD-ROM jest także doskonałym nośnikiem dla gier komputerowych. Ostatnio na rynku pojawiły się czytniki DVD, gdzie pojemność dysku została kilkukrotnie zwiększona, co uczyniło dysk doskonałym miejscem do zapisywania filmów o perfekcyjnej jakości obrazu.
Innym coraz popularniejszym rozszerzeniem komputera jest karta modemowa lub sieciowa, dzięki którym możemy łączyć się z międzynarodową siecią komputerową - Internetem. Modem (modulator-demodulator) umożliwia wysyłanie oraz odbiór danych binarnych poprzez linię telefoniczną do i z komputerów na całym świecie. Umożliwia to komunikowanie się za pomocą poczty elektronicznej i dostęp do stron WWW za cenę lokalnego połączenia telefonicznego.

19 listopada 2006

Komputery

Komputer oznaczał pierwotnie maszynę liczącą. Dzisiejsze komputery, choć działają na podobnej zasadzie co ich pierwo­wzory, maję znacznie więcej zastosowań. Mogą służyć edukacji, rozrywce a także wspomagać wiele codziennych czynności.

Współczesne komputery są być może ostatnim stadium wielowiekowego rozwoju technik liczenia. Kiedyś do reprezentowania liczb używano kamyków. W ten sposób kontrolowano na przykład liczebność stada owiec. Pasterz wkładał do kieszeni jeden kamyk na każdą posiadaną owcę. Gdy ktoś chciał się dowidzieć, ile owiec pasterz posiada, ten pokazywał mu kamyki, które służyły do przechowywania informacji. Obecnie komputery wykorzystują do przechowania informacji najnowsze zdobycze technologii produkcji układów scalonych.

System dwójkowy
Komputer składuje dane pod postacią impulsów elektrycznych. Lecz nie stosuje systemu dziesiętnego, w którym używamy różnych znaków, czyli cyfr, dla reprezentacji liczb do 9, a następnie tych samych na różnych pozycjach dla reprezentacji dziesiątek, setek, tysięcy i tak dalej. Maszyny używają systemu dwójkowego, w którym wysterczają do tego dwie cyfry, 0 i 1. Układ elektroniczny łatwo rozróżnia brak sygnału, reprezentujący 0, od sygnału, reprezentującego 1. Zera i jedynki można także łatwo przedstawić jako otwór lub jego brak na karcie perforowanej, bądź jako zmianę namagnesowania nośnika na dyskietce lub taśmie amagnetycznej. Te sygnały tworzą kod, który komputer potrafi odczytywać i zapisywać.
Komputer jest systemem wejść i wyjść z procesorem w charakterze „mózgu". Litery, cyfry, słowa, obrazy i dźwięki są zrozumiałe dla człowieka, lecz nie dla maszyny i dlatego muszą być przetransponowane z formy czytelnej dla człowieka na formę czytelną dla komputera, czyli na binarny system sygnałów elektrycznych. Służą do tego klawiatura, pióra świetlne, mikrofony. Informacja tak odczytana przez procesor jest przechowywana i obrabiana, a następnie z powrotem zamieniana na formę zrozumiałą dla człowieka.
To elektroniczne wyrafinowanie jest skutkiem długiego procesu rozwoju. Kart perforowanych użyto po raz pierwszy do przechowywania informacji już w 1787 roku, gdy francuski tkacz Robert Falcon użył ich do sterowania pracą krosna mechanicznego. System ten został później udoskonalony przez Josepha Jacquarda. Rzędy otworów na karcie perforowanej oznaczały miejsca gdzie we wzorze pojawiała się nić danego koloru. Innymi słowy karty służyły do przechowywania informacji o szczegółach wzoru. Zmiana karty powodowała, że krosno tkało inny wzór.
Automatyczne maszyny liczące
W roku 1832 angielski matematyk Charles Babbage zaczął konstruować maszynę, którą nazwał „silnikiem analitycznym". Urządzenie to było pomyślane jako pierwszy kalkulator ogólnego użytku. Jego pamięć miała przechowywać dane i wyniki obliczeń, człon arytmetyczny miał obliczenia wykonywać, a człon kontrolny sprawdzać. Niestety silnik analityczny był tak złożoną konstrukcją, że nie sposób było go wtedy zbudować.
Pierwszą osobą, która użyła kart perforowanych do obliczeń był Amerykanin Hermann Hollerith, pracujący dla Urzędu Statystycznego. Hollerith znacznie przyspieszył niektóre prace przy sortowaniu danych i dokonywaniu obliczeń podczas spisu ludności w roku 1890, używając kart w charakterze kwestionariuszy. Otwory w odpowiednich miejscach symbolizowały odpowiedzi na pytania. Karty bardzo szybko przechodziły przez maszynę wyposażoną w druciane pędzelki tam, gdzie na karcie mógł się znajdować otwór. Gdy otwór był, drucik stykał się z metalową rolką zamykając obwód elektryczny, który uruchamiał maszyny zliczające i zapisujące informacje. Maszyny Holleritha pracowały tak szybko, że wkrótce stały się szeroko stosowane tam, gdzie analizowano duże ilości informacji. W 1896 r. Hollerith założył przedsiębiorstwo Tabulating Machine Company, które później stało się częścią „błękitnego giganta" IBM - jednej z największych na świecie międzynarodowych korporacji produkującej sprzęt komputerowy.
Elektroniczne maszyny cyfrowe
Do lat 40. zasilane elektrycznie maszyny arytmetyczne były w powszechnym użyciu. Następny skok w rozwoju urządzeń liczących związany był z pojawieniem się elektronicznych maszyn cyfrowych - komputerów. Z początku były one budowane na, bazie lamp elektronowych i służyły do wykonywania najbardziej skomplikowanych obliczeń, przykładowo trajektorii lotu pocisków czy bomb. Dane byty zwykle wprowadzane do tych komputerów w postaci kart lub taśmy perforowanej. Nad poprawnością działania urządzenia czuwał zespól techników, zmieniających w razie potrzeby jego program, czyli zestaw instrukcji, poprzez przełączanie kabli wewnątrz maszyny. Potem narodził się pomysł przechowywania programu wewnątrz pamięci komputera również pod postacią elektronicznych sygnałów. Zmiana programu polegała odtąd na wprowadzeniu nowego ich zestawu. Późniejszą, przypadającą na lata sześćdziesiąte zmianą byto zastąpienie lamp tranzystorami, które mogły wykonywać te same zadania, były jednak znacznie bardziej niezawodne, a przy tym dużo mniejsze i zużywały znacznie mniej energii.
W latach siedemdziesiątych nastąpił odwrót od dużych scentralizowanych systemów komputerowych ku mniejszym i tańszym urządzeniom. Miniaturyzacja stała się kluczem, odkąd narodziła się technologia mikroprocesorów. Zmieniało się też oprogramowanie. Postęp w technologii mikroprocesorowej pozwalał na ciągły rozwój stosunkowo tanich procesorów i układów pamięci. Istniały już różne rodzaje komputerów do różnych zastosowań: od wielkich maszyn typu „mainframe", służących do wykonywania dużych zadań obliczeniowych, do mikrokomputerów zapewniających dostęp do jednostek centralnych w biurach; lub łączących się z innymi biurami, nierzadko znacznie oddalonymi, poprzez sieć. W połowie lat osiemdziesiątych, wraz z wprowadzeniem komputerów osobistych (PC) oraz stacji roboczych wzrosło znacznie zainteresowanie wykorzystaniem komputerów. Zajęły one miejsca w biurach, ośrodkach projektowych, bankach i wielu innych instytucjach. Dużą rolę w upowszechnianiu się komputerów osobistych i stacji roboczych grały ich możliwości graficzne. W latach 90. komputery wyposażone w modemy i włączone do ogólnoświatowej sieci informatycznej Internet uznano powszechnie za ważne źródło zdobywania oraz obróbki informacji, zarówno w miejscach pracy jak i w domu. Niebagatelne znaczenie mają dziś możliwości rozrywki, które oferuje nowoczesny komputer multimedialny.
Współczesne komputery
Głównymi częściami składowymi współczesnego komputera osobistego są: monitor, klawiatura, płyta główna z procesorem i układami pamięci, twardy dysk, napęd dysków elastycznych, czyli dyskietek, czytnik płyt CD oraz mysz. Do tego można dołączać jeszcze drukarkę, skaner, głośniki, mikrofon, ploter i wiele innych specjalistycznych urządzeń.
Monitor, drukarka oraz ploter są urządzeniami wyjścia. Sygnały z komputera wędrują do nich, by można było zobaczyć co komputer zrobił. Urządzeniami wyjścia mogą być również napędy dysków, jednak tu zamiast bezpośrednio oglądać efekty pracy komputera, zapisujemy je.
Klawiatura jest urządzeniem wejścia, które pozwala nam komunikować się z komputerem poprzez wydawanie mu komend bądź wpisywanie danych. Podobną rolę pełni mysz. Funkcje urządzenia wejścia pełnią także napędy dysków, gdyż poprzez nie można wgrywać do maszyny dane i programy przechowywane na dyskietkach. Informacje te są przechowywane w komputerze w pamięci swobodnego dostępu RAM. Jest to czasowa pamięć bez podtrzymywania służąca do tymczasowego składowania danych, które są z niej tracone po każdorazowym wyłączeniu komputera. Komputery posiadają także stałą, zwykle podtrzymywaną przez baterię, pamięć tylko do odczytu (ROM), gdzie są przechowywane informacje niezbędne do ich uruchamiania. Zarówno pamięci RAM jak i ROM mają zwykle postać jednego lub kilku obwodów scalonych zamontowanych na płycie głównej.
Niewątpliwie sercem komputera jest mikroprocesor, układ scalony bardzo wysokiej skali integracji zawiadujący całą pracą urządzenia. Obecnie większość sprzedawanych komputerów osobistych jest wyposażona w procesory Pentium firmy Intel, bądź wzorowane na nich. Prędkość pracy procesora, a właściwie częstość taktowania jego zegara, która ową prędkość określa, jest wyrażana w megahercach (MHz). Oczywiście im większa jest częstość taktowania zegara procesora tym komputer, szybciej pracuje. Częstości taktowania obecnych procesorów z rodziny Pentium sięgają od 90 do 200 MHz. Większa prędkość procesora to nie tylko szybsza obróbka danych, ale też lepsza jakość obrazu i dźwięku.
Wciąż wzrasta też pojemność komputerowych pamięci. Powszechne stały się już dyski CD-ROM, charakteryzujące się olbrzymimi pojemnościami. Dyski te są stosunkowo tanie w produkcji i wciąż koncentrują się nad nimi prace badawcze mające uwszechstronnić tę formę składowania danych. Na rynek weszły dyski CD wielokrotnego zapisu, na których można zachowywać efekty swej pracy. Dalszym krokiem naprzód będzie wprowadzenie DVD-ROMu, czyli tak zwanego wszechstronnego dysku cyfrowego. Wszechstronność ma polegać na prawie nieograniczonych możliwościach bazujących na ogromnej pojemności, ok. 25-krotnie większej od pojemności dzisiejszego CD-ROMu. Dyski DV będą wymagały wysoko zaawansowanych odtwarzaczy, lecz prawdopodobnie już niedługo filmy z płyty DVD zastąpią te odtwarzane ś za pomocą magnetowidów.
Na początku lat 90. dużą popularność zdobyły komputery przenośne, tzw. notebooki. Dziś są to urządzenia powszechnie używane w biznesie. Posiadają własne źródło zasilania, są lekkie, a mocą obliczeniową dorównują maszynom stacjonarnym. Kosztują więcej niż tradycyjny PC, trudno je rozbudowywać, lecz można z nich korzystać naprawdę C~ wszędzie, a za pomocą podłączonego poprzez specjalne gniazdo telefonu (zwykle komórkowego) można komunikować się bezpośrednio z biurem, celem pobrania bądź przekazania danych. Dla wielu osób pojawiła się szansa pracy bez wychodzenia z domu.
Komputer to także oprogramowanie. Składają się na nie system operacyjny oraz programy służące do wykonywania poszczególnych zadań. Ilość programów opracowanych dla komputerów klasy PC jest przeogromna, wymieńmy choćby edytory tekstów, programy graficzne, programy do wspomagania projektowania, do obróbki obrazów, programy edukacyjne oraz rozrywkowe, od gier interaktywnych po książki kucharskie.
Dziś wielką rolę w wymianie wszelkiego typu informacji odgrywa „infostrada" pod postacią sieci Internet, łącząca biura i domy na całym świecie. W niektórych krajach istnieją nawet cyberkawiarnie, gdzie można przy kawie połączyć się za pomocą komputera i sieci z przyjaciółmi lub poczytać gazetę w wydaniu elektronicznym.
Spojrzenie w przyszłość
Nikt nie jest w stanie przewidzieć dokąd zawiedzie nas powszechna komputeryzacja, lecz na horyzoncie rysują się pewne interesujące perspektywy. Trwają intensywne prace nad maszynami rozpoznającymi głos i nad komunikacją z komputerem nie za pomocą klawiatury, lecz w ten najbardziej naturalny dla człowieka sposób. Oprócz tego inżynierowie pracują nad cienkimi ekranami o bardzo wysokiej rozdzielczości i postępuje dalsza miniaturyzacja procesora i innych podzespołów. Może to w sumie doprowadzić do powstania w pełni przenośnego komputera ciągłego użytku. W dalszej perspektywie mamy wykorzystanie innych supertechnologii. Techniki holograficzne, na przykład, mają być wykorzystane do zapisu i odczytu informacji w kryształach. Procesory mogą działać w technice jednoelektronowej, gdzie jednemu impulsowi elektrycznemu odpowiadałby przepływ zaledwie jednego elektronu, a to oznacza wielką miniaturyzację.

07 listopada 2006

O mnie i o blogu

Na początku miałem ATARI. Pseudo-komputer do którego gry i programy wgrywało się z kaset magnetofonowych.

Pierwszy komputer PC dostałem od rodziców gdy zdałem egzamin do liceum. Było to ponad 9 lat. Komputery stały się moją pasją. W 1999 roku kupiłem modem i moją kolejną pasją stał się Internet.

Nie wiem jeszcze za bardzo o czym będę pisał na tym blogu. Na pewno tematem przewodnim będą Internet i komputery, i wszystko co z tym związany. Blogowanie jest modne, więc warto blogować :)