02 grudnia 2006

Internet

Internet jest siecią komputerową, która łączy między sobą mniejsze sieci komputerowe na całym świecie. Szybki rozwój Internetu w ostatnich latach stanowi przełom w technologii komunikacji.

Na początku lat dziewięćdziesiątych Internet zaczął się gwałtownie rozrastać. Było to spowodowane tym, że coraz więcej firm i osób prywatnych zaczęło zdawać sobie sprawę z udogodnień. jakie niesie ze sobą ogólnoświatowa komunikacja elektroniczna.
Prace nad Internetem zaczęty się w 1969 roku, jako projekt o nazwie ARPAnet, finansowany przez amerykański Departament Obrony. Celem przedsięwzięcia było stworzenie sieci komputerowej, która mogłaby przetrwać atak nuklearny - w przypadku zniszczenia części sieci, łączność pomiędzy pozostałymi jej elementami miała zostać zachowana. Taka filozofia przyświecała konstruktorom Internetu od samego początku. Dane przesyłane są w pakietach przy użyciu standardowych technik komunikacyjnych, znanych jako protokoły (TCP/IP) - każde dwa komputery używające tych protokołów mogą być połączone. Jeżeli tylko pakiety są właściwie zaadresowane, można je przesłać z dowolnego komputera podłączoneso do Internetu do dowolnego komputera również do niego podłączonego - za pośrednictwem dowolnej trasy komunikacyjnej. Oznacza to, że jeżeli w części sieci wystąpi usterka, informacja ominie ten fragment i inną drogą trafi do celu. Ze względu na tą niezwykłą drożność Internetu, niektórzy sądzą, że niemożliwe jest nałożenie na tę sieć jakiejkolwiek cenzury, co wzbudza niepokój niektórych polityków.

Pomoc naukowa

Jeden z najważniejszych fragmentów Internetu powstał w połowie lat osiemdziesiątych, kiedy to amerykańska fundacja National Science Fundation (NSF) umożliwiła naukowcom dzielenie się wynikami swoich badań za pośrednictwem pięciu nowoczesnych centrów komputerowych. W tym czasie użytkownikami Internetu były jedynie instytucje akademickie i rządowe. Jednak na początku lat dziewięćdziesiątych połączenie stało się rzeczą, na którą mogły sobie pozwolić nie tylko małe firmy, ale także osoby prywatne. Rozbudowa infrastruktury informatycznej była popierana przez rząd Stanów Zjednoczonych, co zaowocowało gwałtownie wzrastającą liczbą użytkowników sieci. W 1995 roku szacowanaliczba ludzi korzystających z połączeń Internetu wyniosła ponad 35 milionów ze 135 krajów.
Internet jest największą siecią komputerową na świecie, ale nie jedyną. Istnieje wiele różnych systemów, które wykorzystują łącza telefoniczne do przesyłania informacji. Za pośrednictwem modemu (modulatora/demodulatora) dane komputerowe zostają przetransponowane na dźwięki, które są następnie transmitowane i dekodowane po drugiej stronie. Systemy te oferują podobne usługi jak Internet, w tym pocztę elektroniczną, kartoteki, elektroniczne konferencje, dostęp do baz danych oraz możliwość dotarcia do artykułów z różnych periodyków.
Niektóre z tych systemów świadczą swoje usługi za darmo (Bulletin Board Systems), inne - jak na przykład najstarszy system udostępniania danych, CompuServe - udostępniają swoje linie za opłatą, zależną od czasu i rodzaju połączenia. Jako że Internet został wybudowany za publiczne pieniądze, a jego pierwszymi użytkownikami byli pracownicy naukowi, informacje pozyskane za pośrednictwem tej sieci tradycyjnie były darmowe. Jednak ta sytuacja zmienia się - Internet jest w coraz większym stopniu finansowany przez prywatne instytucje, wprowadzane są również coraz lepsze systemy zabezpieczające. Niektóre działy Internetu są w tej chwili finansowane z pieniędzy pochodzących z usług reklamowych świadczonych na łączach sieci.
Oprócz poczty elektronicznej (e-mail), Usenetu i Word-Wide Web, najbardziej popularnymi usługami świadczonymi przez Internet są Telnet i FTP. Każda z tych usług spełnia odmienne funkcje i wymaga od użytkownika różnego oprogramowania. Większe systemy komercyjne dostarczają swoim klientom kompletne oprogramowanie i inne niezbędne do użytkowania sieci rzeczy. Dzięki Telnetowi można wejść do odległego komputera tak, jakbyśmy siedzieli przed terminalem bezpośrednio do niego podłączonym. FTP (File Transfer Protocol) umożliwia swoim użytkownikom wymianę plików pomiędzy oddalonymi od siebie komputerami.

Zastosowania Internetu

Ogólnie rzecz ujmując, to co zwykle określa się mianem Internetu jest jedynie jednym z jego wielu zastosowań, takich na przykład jak Word-Wide Web, Usenet czy e-mail. Są one swoistymi aplikacjami, którymi można się posługiwać przy pomocy Internetu, tak jak edytor tekstu jest aplikacją, którą posługujemy się przy pomocy naszego komputera. Większość z tych aplikacji dostępna jest również w systemach komputerowych innych niż Internet. tak jak standardowy edytor tekstu dostępny jest w wersjach na PC i Apple Mac. Odnosi się to szczególnie do poczty elektronicznej - większość systemów e-mail może być podłączona do Internetu. Jednak dostęp do niektórych z nich bywa zablokowany - czy to w celach bezpieczeństwa, czy też dla zachowania prywatności - podobnie jak w przypadku wewnętrznych sieci telefonicznych spotykanych w przedsiębiorstwach.

Usenet

Usenet służy do wymiany wiadomości z innymi ludźmi na całym świecie. W przeciwieństwie do poczty elektronicznej. która ma charakter prywatny, przez Usenet posyłane są informacje otwarte, dostępne dla wszystkich użytkowników. Stanowi on coś w rodzaju tablicy ogłoszeń, z tą jednak różnicą, że informacje tam zamieszczane dotyczyć mogą wszelkich tematów, a odpowiedź na nie ma także formę powszechnie dostępnej wiadomości. Niemal wszystkie sieci dostarczają możliwości tego typu publicznej konwersacji, która określana jest powszechnie mianem elektronicznej konferencji.
Informacje zamieszczane w Usenecie są podzielone tematycznie. Istnieje ponad dziesięć tysięcy tak zwanych „grup dyskusyjnych". Każda z nich ma swój adres, skonstruowany w ten sposób, by komputer mógł ją łatwo odnaleźć. Na przykład w adresie „alt.fan.letterman" pierwszy człon określa się mianem hierarchii. Wyróżnia się osiem podstawowych hierarchii, wśród nich alt,
bio, biz, comp, rec i sci, jednak istnieje wiele innych, o charakterze lokalnym lub charakterystycznych dla danej usługi - na przykład uk.politics (dotycząca jedynie Wielkiej Brytanii) lub demon.announce (grupa założona przez świadczącą specyficzne usługi Demon Internet).
Kolejne człony adresu nie są w tak ścisły sposób zdeterminowane. Na przykład grupa dysku¬syjna „alt.fan.letterman" odsyła do dyskusji na temat amerykańskiego programu telewizyjnego prowadzonego przez Davida Lettermana. Istnieje wiele grup, których adres zaczyna się od alt.fan, stąd grupę dyskusyjną D. Lettermana znaleźć można gdzieś pomiędzy @@ a alt.fan.jay-leno.
Wielu ludzi sądzi. że Usenet i Internet to to samo, co nie jest prawdą. Internet jest jedynie jedną z dróg, którymi może być rozprzestrzeniany Usenet. Innym sposobem może być bezpośredni transfer między dwoma komputerami za pośrednictwem łączy telefonicznych.
Grupy dyskusyjne

Każdy, kto jest podłączony do Internetu, może odbierać i wysyłać informacje za pośrednictwem Usenetu. Jednak zdarza się, że do danej grupy trafiają niewłaściwe informacje lub powtarzane są wiadomości. na które regularny odbiorca wielokrotnie już się natknął. Żeby tego uniknąć, najlepiej jest czytać informacje zawarte w pliku nazywającym się .,FAQ" - od „Frequently Asked Questions" („Najczęściej Zadawane Pytania"). Zawiera on informacje na temat problemów poruszanych w obrębie interesującej nas grupy.
Istnieją trzy sposoby pozyskania tych plików. Pierwszym z nich jest cierpliwe czytanie danej grupy: FAQ wysyłane są regularnie, stąd pod koniec drugiego tygodnia czytania, taki plik powinien wyskoczyć na twoim ekranie jako jedna z wielu informacji. Jeżeli brakuje ci cierpliwości i posiadasz połączenia umożliwiające korzystanie z FTP, szybko przekonasz się, że pliki FAQ większości grup znajdują się pod adresemrtfm.mit.edu. Istnieje też wiele miejsc w systemie World-Wide Web (patrz poniżej), gdzie mogą być one dostępne.
W latach 1994 i 1995 najszybciej rozwijającym się obszarem Internetu był World-Wide Web. Wynalazł go pracujący dla szwajcarskiego laboratorium CERN Tim Berners-Lee, który
następnie przenióst się do Massachusetts Institute of Technology (MIT). Jego pomysł opierał się na idei, która od jakiegoś już czasu krążyła wśród zainteresowanych, znanej jako „hipertekst". Każdy użytkownik środowiska Windows zetknął się z mini-wersją hipertekstu: kolorowe wyrazy - hasła, po kliknięciu których przenosimy się do kolejnego tematu z pliku Pomocy Windowsa. World-Wide Web działa w podobny sposób: kliknij podświetlone hasło i zostaniesz przeniesiony do strony lub dokumentu, zawierających dalsze informacje na interesujący cię temat. Różnica polega na tym, że dany dokument może znajdować się na dysku jakiegoś zupełnie innego komputera. Pojedyncze kliknięcie może przenieść cię do odległego komputera w Australii (lub jakiegokolwiek miejsca na Ziemi), który akurat zawiera interesujące cię informacje.

Nowe możliwości

Na początku World-Wide Web był w całości tekstowy. Zamiast operowania myszą, naciskało się strzałki i szukało odpowiedniego hasła. Niektóre usługi dalej świadczone są w takiej formie, przy użyciu interfejsu opartego w całości na tekście.
Jednak na początku lat 90. zespół pracujący na Uniwersytecie Illinois w Champagne-Urbana pod przewodnictwem studenta Marca Andreesena opracował oprogramowanie, które znacznie uła¬
twifio korzystanie z World-Wide Web. Program ten, nazwany Mosaic, był dla World-Wide Web tym, czym dla DOS-u był Windows - przełożył tekst na grafikę, co sprawiło, że system stal się łatwiejszy w użytku. Mosaic został wypuszczony na rynek, a wkrótce pojawiły się również produk¬ty konkurencyjne, takie jak Cello, WinWeb i Net¬scape. Nad Netscape pracowała większość ze¬społu, który wymyślił Mosaic, z Andreesenem włącznie. Graficzny sposób przeglądu całkowicie zmienił możliwości pracy z World-Wide Web. Użytkowanie systemu nie wymagało już specjalistycznego szkolenia i World-Wide Web mógł przenosić wszystkie rodzaje danych, od tekstu i grafiki do przekazów audio-wideo - z transmisjami telewizyjnymi i radiowymi włącznie. Jako że techniczna jakość tych ostatnich nie może się równać z tą dostępną w konwencjonalny sposób (przez radio lub telewizor), rzeczywiste znaczenie World-Wide Web w tej sferze polega na tym, że - przykładowo - słuchacz w Europie lub Azji może odebrać audycję niewielkiej studenckiej stacji radiowej nadającej w North Karolina, która w inny sposób nie byłaby dla niego osiągalna. W ten sam sposób Word-Wide Web sprawia, że niewielkie firmy mogą reklamować się na całej kuli ziemskiej.

Szyfrowanie

Technologią, która spowodowałaby, że Internet stałby się w pełni użytecznym środkiem do przekazywania poufnych informacji, jest szyfrowanie danych. Istnieją techniki skutecznego szyfrowania, jednak powszechny strach przed tym, że mogłyby one zostać wykorzystane przez kryminalistów, powoduje, że nie wchodzą one do powszechnego użytku.

26 listopada 2006

Komputery osobiste

Pierwsze komputery byty wielkimi, powolnymi maszynami, odczytującymi dane z kart perforowanych lub taśm magnetycznych i zajmującymi specjalnie wydzielone klimatyzowane pomieszczenia pokaźnych rozmiarów.

Moc obliczeniowa superkomputerów lat 60. i początku lat 70. była niższa niż moc obliczeniowa współczesnego komputera osobistego. Z komputerem takim łączono się poprzez terminal w formie klawiatury, który długimi kablami transmitował instrukcje. Z kolei na monitorze wyświetlane były komendy i rezultaty działania maszyny. Dane wprowadzano zwykle za pomocą kart perforowanych.
Takie ogromne maszyny są używane do dziś, oczywiście w znacznie udoskonalonych wersjach, szczególnie tam, gdzie wielu użytkowników zajmuje się podobnymi problemami, na przykład w księgowości lub w dziale marketingu. Częściowo ich rolę przejmują jednak zwykłe komputery osobiste, często nawet laptopy, połączone ze sobą w lokalną sieć, bądź po prostu przyłączone do sieci ogólnoświatowej - Internetu. Tym samym dzięki komputerom miejsce pracy przenosi się z biura do domu.
Istnieje wiele sposobów określania mocy obliczeniowej komputera. Najczęściej największą wagę przywiązuje się do prędkości procesora. Procesor
- niewielki rozmiarami układ scalony - jest mózgiem całego komputera. To on wykonuje operacje umożliwiające pracę całości.

Intel inside

Pierwszym procesorem ogólnego przeznaczenia, zaprojektowanym z myślą o komputerach osobistych był Intel 8080 z 1974 roku. Zawierał on w jednym układzie scalonym około 6000 elementów. Jak każdy procesor pracował w systemie dwójkowym, w którym każdą liczbę reprezentuje się za
pomocą dwóch zaledwie cyfr - 0 i 1. Intel 8080 pracował bezpośrednio z liczbami 8-bitowymi, tzn. takimi, które można było zapisać za pomocą 8 cyfr - są to liczby całkowite z przedziału 0-255 w systemie dziesiętnym. Dwie takie liczby dodawał w mniej niż jedną trzymilionową część sekundy i był na ówczesne czasy naprawdę szybki.
W 1982 roku inżynierowie z firmy HewlettPackard stworzyli Superchipa - procesor pracujący z liczbami 32-bitowymi (co odpowiada liczbom całkowitym z przedziału od 0 do 2949672295). Superchip, w którym na powierzchni 6 mm2 mieściło się 450000 elementów, mnożył przez siebie dowolne 32 bitowe liczby w czasie mniejszym niż dwumilionowa część sekundy.
Wydajność procesora można określać również poprzez częstotliwość taktowania, czyli częstość zegara. Określa ona ile operacji procesor może wykonać w ciągu sekundy. Intel 8080 był taktowany z częstotliwością 2 MHz, czyli w ciągu sekundy wykonywał 2 miliony operacji. Częstość zegara procesorów rosła z roku na rok. Inte1386 z 1985 roku, procesor 32-bitowy, zawierał 250000 elementów i mógł być taktowany z częstością 33 MHz. Procesory Pentium Pro sprzed 21at zawierają ponad 5,5 miliona elementów i są taktowane zegarem o częstości 200 MHz, Pentium MMX osiągają 233 MHz, a Pentium II prawdopodobnie już niedługo osiągnie 500 MHz.
Innym czynnikiem mającym znaczny wpływ na prędkość pracy komputera jest pamięć. Dane potrzebne maszynie są przechowywane głównie na nośnikach magnetycznych - kiedyś były to taśmy, dziś są to twarde dyski. Jednak przed wykorzystaniem dane z pamięci magnetycznej muszą zostać zamienione na szereg impulsów elektrycznych. Potem część tych informacji zapisywana jest w pa¬mięci RAM (pamięć operacyjna). Z pamięci RAM procesor czerpie wszelkie instrukcje, tam też przesyła wyniki swej pracy. Pojemność pamięci RAM określa prędkość pracy komputera, dlatego że czas dostępu do tej pamięci jest znacznie krótszy niż do twardego dysku. Komputer znacznie mniej czasu traci na pobieranie informacji z RAMu, więc gdy wszystkie niezbędne informacje się tam mieszczą, to komputer działa szybciej, bo rzadziej musi odwoływać się do danych zapisanych na twardym dysku. Im mniejsza pojemność RAMu, tym częściej trzeba się odwoływać do dysku, przez co działanie maszyny ulega spowolnieniu.

Pierwsze komputery osobiste

Dziś większość komputerów osobistych należy do jednej z dwóch wielkich rodzin: PC (pierwotnie IBM PC: PC od angielskiego Personal Computer - komputer osobisty) oraz Apple Macintosh, czyli Mac. Jednak przed ostatecznym ustaleniem się tych standardów na rynku były obecne najróżniejsze inne konstrukcje.
Używanie komputera w domu i biurze stało się popularne w pierwszej połowie lat osiemdziesiątych. Wraz z wzrostem szybkości procesorów i co najważniejsze spadkiem ich ceny, firmy jak Commodore, Amstrad oraz pionierski Sinclair sprzedawały swe produkty jako komputery domowe.
Jednym z bardziej popularnych komputerów tamtych czasów był Commodore 8032, wyposażony w 32 kB pamięci RAM (kB - kilobajt w przybliżeniu odpowiada 1000 8-bitowych słów). Programy pisane na taką maszynę musiały być siłą rzeczy stosunkowo nieskomplikowane, gdyż 32 kB to
mało, a należało jeszcze pamiętać o konieczności zmieszczenia gdzieś danych potrzebnych do wykonywania obliczeń. W rzeczywistości programy mogły zajmować tylko 16 kB, co powodowało, że użytkownicy tej maszyny dobrze zaznajomili się z komunikatem „out of memory" (brak pamięci).
Dla wymiany i obróbki informacji opracowany został system kodowania ASCII, który umożliwia zapisanie każdej litery (ale tylko w alfabecie angielskim!), cyfry itd., jako jedno 8-bitowe słowo
(1 bajt), czyli liczbę z przedziału 0-255, oczywi¬cie w systemie dwójkowym. Jeśli na komputerze typu Commodore 8032 uruchomiliśmy program do obróbki tekstu, to po napisaniu paru stron dokument musiał być zapisywany do pamięci stałej, a resztę pracy trzeba było kontynuować w innym dokumencie. Programy ówczesne potrafiły w odp¬wiednich miejscach zamykać i tworzyć pliki, jednak system ciągłego odwoływania się do powolnej pamięci magnetycznej prowadził do tego, że praca posuwała się w ślimaczym (według dzisiejszej miary) tempie.

Ustanowienie standardów

Współczesne komputery osobiste są zaledwie dalekimi krewnymi owych pionierskich maszyn. Bazują one na zasadach konstrukcyjnych opracowanych w początku lat 80. (lecz nieustannie modyfikowanych) przez dwie czołowe korporacje: IBM oraz Apple Corp. Komputery PC opanowały domy i biura, podczas gdy Macintoshe są popularne głównie wśród projektantów, grafików oraz przy zaawansowanych pracach edytorskich.
Każdy komputer można rozłożyć na podzespoły: procesor, twardy dysk, napędy dysków elastycznych, kartę graficzną oraz karty wejścia/wyjścia. Wszystkie one są podłączone do wiązki przewodów (szyny zbiorczej), po której przesyłane są między nimi informacje. Procesor jest połączony także z pamięcią RAM oraz ROM. Ten drugi rodzaj pamięci jest pamięcią wyłącznie do odczytu i przechowywane są w niej dane niezbędne do uruchomienia i pracy maszyny, które zostały tam wpisane fabrycznie i nie mogą zostać zmienione. Najważniejsze komendy znajdują się w BIOSie - będącym pamięcią typu ROM. Po każdorazowym włączeniu komputera pobiera on z układu scalonego BIOS odpowiednie instrukcje procedury startowej, które zawierają testy różnych elementów, przygotowują współpracę z ekranem oraz klawiaturą oraz rozpoczynają ładowanie systemu operacyjnego z twardego dysku (lub dyskietki). ,
Jak już wspomniano, pamięć RAM jest używana do przechowywania danych niezbędnych do wykonania programu oraz wyświetlania wyników. Pamięć RAM ma postać układów scalonych, czyli kości. Współcześnie układy typu SIMM są powoli zastępowane przez szybsze układy DIMM. Pojedyncze kości pamięci operacyjnej mają dziś pojemność od 4 do 32 MB (milionów bajtów). Jeżeli kości nie wystarczają, współczesne komputery potrafią (dzięki oprogramowaniu) wydzielać pewną część twardego dysku i traktować ją jak kość RAM. Oczywiście taka wirtualna, dyskowa pamięć RAM jest znacznie wolniejsza od rzeczywistego układu scalonego, jednak często jest używana, by dzisiejsze, skomplikowane programy mogły pracować.

Na ekranie

Karta graficzna ma za zadanie przełożenie języka procesora na sygnały elektroniczne zrozumiałe dla
monitora. Początkowo komputery potrafiły wyłącznie wyświetlać na monitorze tekst i grafikę blokową, tzn. linie proste i krzywe bazujące na równaniach z zestawu instrukcji procesora. Niektóre znaki ASCII opisywały elementy prostej grafiki, tak że tworzenie nieskomplikowanych obrazów możliwe było przez wciskanie odpowiednich sekwencji klawiszy. PC wyewoluował z maszyn, pomyślanych do wykonywania obliczeń, więc grafika nigdy nie była w nim priorytetem. Z kolei Macintosh był budowany od podstaw z myślą o pracach graficznych i zawiera odpowiednie rozwiązania sprzętowe wspomagające obróbkę grafiki. Jest to chyba najważniejsza różnica pomiędzy tymi dwoma konkurującymi standardami.
Gdy Macintosh podbijał rynek, był pierwszym komputerem „przyjaznym użytkownikowi". Wyposażono go w praktyczny interfejs graficzny WIMP, będący pierwowzorem dla powszechnie znanej serii programów Windows Microsoftu. Programy i dokumenty, nad którymi pracowano, pojawiały się na ekranie w odrębnych oknach. Każdy z dokumentów był reprezentowany przez obrazek-ikonę, zwykle odpowiadającą typowi jego pliku. Największą rewolucją wprowadzoną przez Maca była jednak mysz - urządzenie wskaźnikowe. Przesuwając po podkładce pudełeczkiem połączonym z komputerem kablem-ogonkiem, poruszamy na ekranie strzałką wskaźnika. Naciskanie umieszczonych na pudełeczku przycisków - „klikanie" - powoduje
wykonanie operacji przyporządkowanych aktualnej pozycji wskaźnika na ekranie. Na przykład, kilkając, gdy strzałka wskaźnika znajduje się na pasku „Zachowaj", każemy komputerowi zapisać dokument na twardy dysk. Pomysł Macintosha został szybko podchwycony przez firmę Microsoft, która stworzyła popularny Windows, interfejs graficzny dla komputerów PC, w wielu szczegółach podobny do pierwowzoru. Jednak fakt, że PC nie był projektowany do prac z grafiką, powodował że należało wyposażyć maszynę w odpowiednie karty graficzne, które mogłyby sobie poradzić z grafiką o wysokiej rozdzielczości. Taka karta jest wyposażona we własny, wyspecjalizowany procesor oraz układ pamięci.
Obie rodziny komputerów były tak projektowane, by można je było łatwo rozbudowywać. Na płytach głównych są miejsca - tzw. sloty - do podłączania najróżniejszych kart rozszerzeń. Wraz z rozwojem procesorów i wzrostem wymagań względem komputera, komplikacji ulegają także karty urządzeń peryferyjnych oraz same te urządzenia. Współczesne karty graficzne do PC biorą na siebie znaczną część przygotowywania obrazu do wyświetlania, odciążając tym samym procesor. Zysk prędkości jest wyraźnie widoczny szczególnie przy szybkozmiennej animacji, na przykład w grach komputerowych z rozbudowaną grafiką.
Jednym z najważniejszych urządzeń peryferyjnych podłączanych do komputera jest drukarka. W ciągu ostatnich dwóch dziesięcioleci drukarki przeszły podobną ewolucję jak same komputery. Najpierw używano drukarek rozetkowych, będących w istocie zmodyfikowanymi elektronicznyi mi maszynami do pisania. Na obrotowej głowicy były zamontowane odpowiednie czcionki drukarskie, odpowiadające znakom kodu ASCII. Komputer wybierał właściwą czcionkę, obracając głowicę, a następnie czcionka była odbijana na papierze poprzez taśmę barwiącą. Po nich pojawiły się drukarki igłowe, które drukowały litery i grafikę za pomocą głowicy z igłami odciskającymi przez taśmę punkty w odpowiednich miejscach. Większość współczesnych drukarek to urządzenia atramentowe albo laserowe. Drukarka atramentowa natryskuje na papier mikroskopijne plamki atramentu, natomiast drukarka laserowa działa na zasadzie zbliżonej do kserokopiarki.

Multimedia

Dzisiejsze komputery osobiste poza obudową niewiele przypominają maszyny z początku lat 80. Większość obecnie sprzedawanych komputerów osobistych to tzw. komputery multimedialne. Zamiast prymitywnych głośniczków znanych z pierwszych PC, które potrafiły wydawać ostrzegawcze piski i niewiele więcej, wyposaża się je w zaawansowane karty dźwiękowe, które są w stanie syntezować dźwięk o jakości hi-fi. Szybkość przyrostu prędkości procesorów i pojemności pamięci operacyjnych jest również ogromna. Sześć, siedem lat temu twardy dysk o pojemności 150 MB był uważany za duży - dziś komputery wyposażane są w dyski przeszło 100 razy pojemniejsze, standardem są 2 GB (gigabajty - miliardy bajtów).
Większość nowoczesnych komputerów jest wyposażona w napędy CD-ROM. CD-ROMy są technicznie identyczne z płytami kompaktowymi audio, lecz zamiast muzyki zawierają zapisaną cyfrowo informację - programy bądź dane. Mikrowgłębienia w powierzchni dysku reprezentują 0 i 1 w kodzie dwójkowym - odczytywane są z czytnika za pośrednictwem odbitego od nich promienia laserowego. Na typowym krążku CD-ROM mieszczą się 640 MB informacji. Tak znaczna pojemność uczyniła dysk kompaktowy idealnym nośnikiem do przechowywania dużych baz danych, takich jak na przykład multimedialne encyklopedie, gdzie poszczególne hasła wzbogacane są nierzadko przez ścieżki dźwiękowe oraz krótkie filmy video. CD-ROM jest także doskonałym nośnikiem dla gier komputerowych. Ostatnio na rynku pojawiły się czytniki DVD, gdzie pojemność dysku została kilkukrotnie zwiększona, co uczyniło dysk doskonałym miejscem do zapisywania filmów o perfekcyjnej jakości obrazu.
Innym coraz popularniejszym rozszerzeniem komputera jest karta modemowa lub sieciowa, dzięki którym możemy łączyć się z międzynarodową siecią komputerową - Internetem. Modem (modulator-demodulator) umożliwia wysyłanie oraz odbiór danych binarnych poprzez linię telefoniczną do i z komputerów na całym świecie. Umożliwia to komunikowanie się za pomocą poczty elektronicznej i dostęp do stron WWW za cenę lokalnego połączenia telefonicznego.

19 listopada 2006

Komputery

Komputer oznaczał pierwotnie maszynę liczącą. Dzisiejsze komputery, choć działają na podobnej zasadzie co ich pierwo­wzory, maję znacznie więcej zastosowań. Mogą służyć edukacji, rozrywce a także wspomagać wiele codziennych czynności.

Współczesne komputery są być może ostatnim stadium wielowiekowego rozwoju technik liczenia. Kiedyś do reprezentowania liczb używano kamyków. W ten sposób kontrolowano na przykład liczebność stada owiec. Pasterz wkładał do kieszeni jeden kamyk na każdą posiadaną owcę. Gdy ktoś chciał się dowidzieć, ile owiec pasterz posiada, ten pokazywał mu kamyki, które służyły do przechowywania informacji. Obecnie komputery wykorzystują do przechowania informacji najnowsze zdobycze technologii produkcji układów scalonych.

System dwójkowy
Komputer składuje dane pod postacią impulsów elektrycznych. Lecz nie stosuje systemu dziesiętnego, w którym używamy różnych znaków, czyli cyfr, dla reprezentacji liczb do 9, a następnie tych samych na różnych pozycjach dla reprezentacji dziesiątek, setek, tysięcy i tak dalej. Maszyny używają systemu dwójkowego, w którym wysterczają do tego dwie cyfry, 0 i 1. Układ elektroniczny łatwo rozróżnia brak sygnału, reprezentujący 0, od sygnału, reprezentującego 1. Zera i jedynki można także łatwo przedstawić jako otwór lub jego brak na karcie perforowanej, bądź jako zmianę namagnesowania nośnika na dyskietce lub taśmie amagnetycznej. Te sygnały tworzą kod, który komputer potrafi odczytywać i zapisywać.
Komputer jest systemem wejść i wyjść z procesorem w charakterze „mózgu". Litery, cyfry, słowa, obrazy i dźwięki są zrozumiałe dla człowieka, lecz nie dla maszyny i dlatego muszą być przetransponowane z formy czytelnej dla człowieka na formę czytelną dla komputera, czyli na binarny system sygnałów elektrycznych. Służą do tego klawiatura, pióra świetlne, mikrofony. Informacja tak odczytana przez procesor jest przechowywana i obrabiana, a następnie z powrotem zamieniana na formę zrozumiałą dla człowieka.
To elektroniczne wyrafinowanie jest skutkiem długiego procesu rozwoju. Kart perforowanych użyto po raz pierwszy do przechowywania informacji już w 1787 roku, gdy francuski tkacz Robert Falcon użył ich do sterowania pracą krosna mechanicznego. System ten został później udoskonalony przez Josepha Jacquarda. Rzędy otworów na karcie perforowanej oznaczały miejsca gdzie we wzorze pojawiała się nić danego koloru. Innymi słowy karty służyły do przechowywania informacji o szczegółach wzoru. Zmiana karty powodowała, że krosno tkało inny wzór.
Automatyczne maszyny liczące
W roku 1832 angielski matematyk Charles Babbage zaczął konstruować maszynę, którą nazwał „silnikiem analitycznym". Urządzenie to było pomyślane jako pierwszy kalkulator ogólnego użytku. Jego pamięć miała przechowywać dane i wyniki obliczeń, człon arytmetyczny miał obliczenia wykonywać, a człon kontrolny sprawdzać. Niestety silnik analityczny był tak złożoną konstrukcją, że nie sposób było go wtedy zbudować.
Pierwszą osobą, która użyła kart perforowanych do obliczeń był Amerykanin Hermann Hollerith, pracujący dla Urzędu Statystycznego. Hollerith znacznie przyspieszył niektóre prace przy sortowaniu danych i dokonywaniu obliczeń podczas spisu ludności w roku 1890, używając kart w charakterze kwestionariuszy. Otwory w odpowiednich miejscach symbolizowały odpowiedzi na pytania. Karty bardzo szybko przechodziły przez maszynę wyposażoną w druciane pędzelki tam, gdzie na karcie mógł się znajdować otwór. Gdy otwór był, drucik stykał się z metalową rolką zamykając obwód elektryczny, który uruchamiał maszyny zliczające i zapisujące informacje. Maszyny Holleritha pracowały tak szybko, że wkrótce stały się szeroko stosowane tam, gdzie analizowano duże ilości informacji. W 1896 r. Hollerith założył przedsiębiorstwo Tabulating Machine Company, które później stało się częścią „błękitnego giganta" IBM - jednej z największych na świecie międzynarodowych korporacji produkującej sprzęt komputerowy.
Elektroniczne maszyny cyfrowe
Do lat 40. zasilane elektrycznie maszyny arytmetyczne były w powszechnym użyciu. Następny skok w rozwoju urządzeń liczących związany był z pojawieniem się elektronicznych maszyn cyfrowych - komputerów. Z początku były one budowane na, bazie lamp elektronowych i służyły do wykonywania najbardziej skomplikowanych obliczeń, przykładowo trajektorii lotu pocisków czy bomb. Dane byty zwykle wprowadzane do tych komputerów w postaci kart lub taśmy perforowanej. Nad poprawnością działania urządzenia czuwał zespól techników, zmieniających w razie potrzeby jego program, czyli zestaw instrukcji, poprzez przełączanie kabli wewnątrz maszyny. Potem narodził się pomysł przechowywania programu wewnątrz pamięci komputera również pod postacią elektronicznych sygnałów. Zmiana programu polegała odtąd na wprowadzeniu nowego ich zestawu. Późniejszą, przypadającą na lata sześćdziesiąte zmianą byto zastąpienie lamp tranzystorami, które mogły wykonywać te same zadania, były jednak znacznie bardziej niezawodne, a przy tym dużo mniejsze i zużywały znacznie mniej energii.
W latach siedemdziesiątych nastąpił odwrót od dużych scentralizowanych systemów komputerowych ku mniejszym i tańszym urządzeniom. Miniaturyzacja stała się kluczem, odkąd narodziła się technologia mikroprocesorów. Zmieniało się też oprogramowanie. Postęp w technologii mikroprocesorowej pozwalał na ciągły rozwój stosunkowo tanich procesorów i układów pamięci. Istniały już różne rodzaje komputerów do różnych zastosowań: od wielkich maszyn typu „mainframe", służących do wykonywania dużych zadań obliczeniowych, do mikrokomputerów zapewniających dostęp do jednostek centralnych w biurach; lub łączących się z innymi biurami, nierzadko znacznie oddalonymi, poprzez sieć. W połowie lat osiemdziesiątych, wraz z wprowadzeniem komputerów osobistych (PC) oraz stacji roboczych wzrosło znacznie zainteresowanie wykorzystaniem komputerów. Zajęły one miejsca w biurach, ośrodkach projektowych, bankach i wielu innych instytucjach. Dużą rolę w upowszechnianiu się komputerów osobistych i stacji roboczych grały ich możliwości graficzne. W latach 90. komputery wyposażone w modemy i włączone do ogólnoświatowej sieci informatycznej Internet uznano powszechnie za ważne źródło zdobywania oraz obróbki informacji, zarówno w miejscach pracy jak i w domu. Niebagatelne znaczenie mają dziś możliwości rozrywki, które oferuje nowoczesny komputer multimedialny.
Współczesne komputery
Głównymi częściami składowymi współczesnego komputera osobistego są: monitor, klawiatura, płyta główna z procesorem i układami pamięci, twardy dysk, napęd dysków elastycznych, czyli dyskietek, czytnik płyt CD oraz mysz. Do tego można dołączać jeszcze drukarkę, skaner, głośniki, mikrofon, ploter i wiele innych specjalistycznych urządzeń.
Monitor, drukarka oraz ploter są urządzeniami wyjścia. Sygnały z komputera wędrują do nich, by można było zobaczyć co komputer zrobił. Urządzeniami wyjścia mogą być również napędy dysków, jednak tu zamiast bezpośrednio oglądać efekty pracy komputera, zapisujemy je.
Klawiatura jest urządzeniem wejścia, które pozwala nam komunikować się z komputerem poprzez wydawanie mu komend bądź wpisywanie danych. Podobną rolę pełni mysz. Funkcje urządzenia wejścia pełnią także napędy dysków, gdyż poprzez nie można wgrywać do maszyny dane i programy przechowywane na dyskietkach. Informacje te są przechowywane w komputerze w pamięci swobodnego dostępu RAM. Jest to czasowa pamięć bez podtrzymywania służąca do tymczasowego składowania danych, które są z niej tracone po każdorazowym wyłączeniu komputera. Komputery posiadają także stałą, zwykle podtrzymywaną przez baterię, pamięć tylko do odczytu (ROM), gdzie są przechowywane informacje niezbędne do ich uruchamiania. Zarówno pamięci RAM jak i ROM mają zwykle postać jednego lub kilku obwodów scalonych zamontowanych na płycie głównej.
Niewątpliwie sercem komputera jest mikroprocesor, układ scalony bardzo wysokiej skali integracji zawiadujący całą pracą urządzenia. Obecnie większość sprzedawanych komputerów osobistych jest wyposażona w procesory Pentium firmy Intel, bądź wzorowane na nich. Prędkość pracy procesora, a właściwie częstość taktowania jego zegara, która ową prędkość określa, jest wyrażana w megahercach (MHz). Oczywiście im większa jest częstość taktowania zegara procesora tym komputer, szybciej pracuje. Częstości taktowania obecnych procesorów z rodziny Pentium sięgają od 90 do 200 MHz. Większa prędkość procesora to nie tylko szybsza obróbka danych, ale też lepsza jakość obrazu i dźwięku.
Wciąż wzrasta też pojemność komputerowych pamięci. Powszechne stały się już dyski CD-ROM, charakteryzujące się olbrzymimi pojemnościami. Dyski te są stosunkowo tanie w produkcji i wciąż koncentrują się nad nimi prace badawcze mające uwszechstronnić tę formę składowania danych. Na rynek weszły dyski CD wielokrotnego zapisu, na których można zachowywać efekty swej pracy. Dalszym krokiem naprzód będzie wprowadzenie DVD-ROMu, czyli tak zwanego wszechstronnego dysku cyfrowego. Wszechstronność ma polegać na prawie nieograniczonych możliwościach bazujących na ogromnej pojemności, ok. 25-krotnie większej od pojemności dzisiejszego CD-ROMu. Dyski DV będą wymagały wysoko zaawansowanych odtwarzaczy, lecz prawdopodobnie już niedługo filmy z płyty DVD zastąpią te odtwarzane ś za pomocą magnetowidów.
Na początku lat 90. dużą popularność zdobyły komputery przenośne, tzw. notebooki. Dziś są to urządzenia powszechnie używane w biznesie. Posiadają własne źródło zasilania, są lekkie, a mocą obliczeniową dorównują maszynom stacjonarnym. Kosztują więcej niż tradycyjny PC, trudno je rozbudowywać, lecz można z nich korzystać naprawdę C~ wszędzie, a za pomocą podłączonego poprzez specjalne gniazdo telefonu (zwykle komórkowego) można komunikować się bezpośrednio z biurem, celem pobrania bądź przekazania danych. Dla wielu osób pojawiła się szansa pracy bez wychodzenia z domu.
Komputer to także oprogramowanie. Składają się na nie system operacyjny oraz programy służące do wykonywania poszczególnych zadań. Ilość programów opracowanych dla komputerów klasy PC jest przeogromna, wymieńmy choćby edytory tekstów, programy graficzne, programy do wspomagania projektowania, do obróbki obrazów, programy edukacyjne oraz rozrywkowe, od gier interaktywnych po książki kucharskie.
Dziś wielką rolę w wymianie wszelkiego typu informacji odgrywa „infostrada" pod postacią sieci Internet, łącząca biura i domy na całym świecie. W niektórych krajach istnieją nawet cyberkawiarnie, gdzie można przy kawie połączyć się za pomocą komputera i sieci z przyjaciółmi lub poczytać gazetę w wydaniu elektronicznym.
Spojrzenie w przyszłość
Nikt nie jest w stanie przewidzieć dokąd zawiedzie nas powszechna komputeryzacja, lecz na horyzoncie rysują się pewne interesujące perspektywy. Trwają intensywne prace nad maszynami rozpoznającymi głos i nad komunikacją z komputerem nie za pomocą klawiatury, lecz w ten najbardziej naturalny dla człowieka sposób. Oprócz tego inżynierowie pracują nad cienkimi ekranami o bardzo wysokiej rozdzielczości i postępuje dalsza miniaturyzacja procesora i innych podzespołów. Może to w sumie doprowadzić do powstania w pełni przenośnego komputera ciągłego użytku. W dalszej perspektywie mamy wykorzystanie innych supertechnologii. Techniki holograficzne, na przykład, mają być wykorzystane do zapisu i odczytu informacji w kryształach. Procesory mogą działać w technice jednoelektronowej, gdzie jednemu impulsowi elektrycznemu odpowiadałby przepływ zaledwie jednego elektronu, a to oznacza wielką miniaturyzację.

07 listopada 2006

O mnie i o blogu

Na początku miałem ATARI. Pseudo-komputer do którego gry i programy wgrywało się z kaset magnetofonowych.

Pierwszy komputer PC dostałem od rodziców gdy zdałem egzamin do liceum. Było to ponad 9 lat. Komputery stały się moją pasją. W 1999 roku kupiłem modem i moją kolejną pasją stał się Internet.

Nie wiem jeszcze za bardzo o czym będę pisał na tym blogu. Na pewno tematem przewodnim będą Internet i komputery, i wszystko co z tym związany. Blogowanie jest modne, więc warto blogować :)