27 sierpnia 2016

Internet stacjonarny, czy mobilny?

Internet stacjonarny, czy mobilny?


Autor: Tomasz Galicki


Dostęp do Internetu posiada dzisiaj praktycznie każdy. Sieć stwarza nam wachlarz właściwie niczym nie ograniczonych funkcji, takich jak wysłanie e-maili, komunikowanie się na odległość w czasie rzeczywistym, tworzenie i dzielenie się własną treścią, jak również jej czytanie. Jednym słowem – bez internetu ciężko jest się obejść.


Powstają specjalne programy, które obejmują instalację sieci w szkołach, bibliotekach zarówno w mniejszych, jak i w większych miastach, słyszy się też o pomyśle stworzenia darmowego internetu, który byłby dostępny wszędzie. Prawda jest jednak taka, że zbyt szybko to nie nastąpi. Jak w takim razie ma poradzić sobie ktoś, kto jeszcze dostępu do globalnej sieci nie posiada, a jest mu ona niezbędna do nauki czy komunikowania się? Możliwości jest kilka. Na obszarach miejskich, gdzie infrastruktura i okablowanie są dobrze rozwinięte najlepszym rozwiązaniem będzie szybki internet z nieograniczonym transferem. Koszty instalacji jak i późniejszej eksploatacji zależą właściwie od naszego usługodawcy. Możemy się zdecydować na jakąś popularną ofertę albo też skorzystać z propozycji internetu osiedlowego. W obu przypadkach tego typu usługa będzie nam stwarzała możliwości nieograniczonego ściągania plików i szybkiego przeglądania stron. Zwykle też, dzięki zamontowaniu dodatkowego routera, internet może być rozdzielony przewodowo lub bezprzewodowo na wiele komputerów w domu, czy w jego niedalekiej odległości.

Jednak usługodawcy poznali potrzeby również osób, które nie mogą lub nie chcą sobie pozwolić na internet przewodowy. Powody są co najmniej dwa. Pierwszy to mobilność – ludzie często się przemieszczają, czy to pociągiem, czy innym środkiem transportu i potrzebują stałego dostępu do internetu, aby w ten sposób załatwiać wszystkie ważne sprawy. Drugi to ograniczenia wynikające z miejsca zamieszkania. Często jest tak, że obszary wiejskie nie zostały jeszcze objęte programem „usieciowania” i nie posiadają odpowiedniej infrastruktury. W obu przypadkach doskonałym rozwiązaniem okaże się internet mobilny. Można z niego korzystać zarówno na komputerze stacjonarnym, jak i na laptopie – wszystko zależy od nas. Minęły już czasy, kiedy jego koszty były tak wysokie, że mogli sobie na niego pozwolić jedynie biznesmeni. Dziś w internet mobilny zaopatrują się studenci, przedsiębiorcy, ale też ludzie, którzy głównie ze względów technicznych nie mogą sobie pozwolić na lepsze rozwiązanie. Jego zaletą jest również fakt, że proponowane są coraz większe szybkości, które wcale nie są gorsze od tych, które proponuje się przy internecie stacjonarnym.


Licencjonowane artykuły dostarcza Artelis.pl.

Microsoft Silverlight

Microsoft Silverlight


Autor: Arterix


Dynamiczny rozwój internetu prowadzi do powstania wielu nowych technologii. Dwa najbardziej znane i uwielbiane języki programowania: Java i Adobe Flash pojawiły się kolejno w 1995 i 1996 roku. Po niemalże 13-latach ich istnienia, wyłonił się nowy konkurent o nazwie Silverlight.


Silverlight to framework do pisania i uruchamiania bogatych aplikacji internetowych (RIA) z naciskiem na multimedia, animacje i grafiki podobnie jak Adobe Flash .

Środowisko uruchomieniowe dla Silverlight`a dostępne jest jako plug-in dla wielu przeglądarek internetowych . W obecnej wersji (4), która została wydana w kwietniu 2010r. Framework współpracuje z większością popularnych przeglądarek internetowych oraz telefonów komórkowych pracujących pod kontrolą systemów operacyjnych Windows 7 phone oraz Symbian (seria 60).

Podobnie jak w technologii Flash, w Silverlight można przechwytywać zachowania (zdarzenia) myszy i klawiatury, wyświetlać pliki graficzne i obsługiwać dźwięki. Dodatkowo za pomocą technologii Silverlight możliwe jest wyświetlanie standardowych plików video oraz tych w wysokiej rozdzielczości (HD). Możliwe jest również odtwarzanie plików muzycznych (MP3, WMA). Silverlight obsługuje DRM (Digital Rights Management).

Silverlight to niewielkich rozmiarów wtyczka, która tak samo jako Flash doinstalowuje się do przeglądarki. Ta mała zabawka ma jednak w sobie ogromny potencjał. Silverlight oferuje bogatą paletę funkcji dostępną na różnych platformach:

>możliwość tworzenia interaktywnych, bogatych w efekty i multimedia, stron sieci WEB,

>możliwość budowy efektywniejszych i prostszych w obsłudze aplikacji sieciowych,

>bogata, wręcz olśniewająca animacja i grafika wektorowa,

>rozwiązania niezależne od platformy– strony wyglądają tak samo na komputerach z Windows i Mac OS X,

>szybka i prosta instalacja.

Silverlight jako pierwszy tak silnie docenia wagę multimediów w Internecie. Dlatego jej priorytetem jest zapewnienie niespotykanie wysokiej jakości i wydajności multimediów:

>jednolity format wideo – skalowalny od wysokiej rozdzielczości HD i do rozdzielczości urządzeń mobilnych,

>możliwość dodawania grafiki wektorowej do odtwarzanych multimediów,

>przesyłanie strumieniowe,

>możliwość różnorodnego odtwarzania, łącznie z wypełnianiem figur obrazem wideo,

>możliwość poddawania odtwarzanych filmów różnorodnym transformacją.

Nie tylko atrakcyjność ważna. Ta nowa wtyczka okazuje się również bardzo elastyczna:

>podwyższona wydajność stron sieci WEB,

>oddzielenie warstwy prezentacji od kodu,

>umożliwia jednoczesną, niezależną prace grafików i programistów,

>możliwość wyboru jednego z pięciu języków programowania: JavaScript, Ruby, Python, C# i VB.NET,

>model programowania oparty o Microsoft .NET Framework,

>spójny model prezentacji wykorzystującym język oparty na standardzie XML – czyli XAML,

>łatwa integracja z istniejącymi rozwiązaniami,

>bogaty model sterowania i reagowania na zdarzenia czasowe lub działania użytkownika.

Technologia Silverlight ma szanse przenieść strony internetowe na kolejny poziom ewolucji. Dzięki prostocie konstrukcji umożliwi każdemu tworzenie stron Internetowych. W sposób niesamowicie efektywny i efektowny – prosty i intuicyjny. Istnieje już dziś wiele narzędzi, które wspomagają tworzenie w Silverlight. Dzięki swoim walorom i wsparciu ze strony społeczności internetowych Silverlight ma szanse stać się bardzo silną konkurencją dla tradycyjnych technologii. Za jakiś czas może zdystansować Adobe i Flash, która od kilkunastu lat funkcjonują w Internecie. Warto zapoznać się z tym systemem i z nową wizją tworzenia stron WWW, które ta technologia proponuje.


Zobacz również :
Pobierz wtyczkę Microsoft Silverlight
Oficjalny Showcase Microsoft Silverlight
Serwis darmowych aplikacji internetowych ai24

Licencjonowane artykuły dostarcza Artelis.pl.

Streaming – kolejny budulec globalnej wioski

Streaming – kolejny budulec globalnej wioski


Autor: Efemeryczna Hybryda


Streaming to kolejna usługa, która pozwala wykorzystać niemal nieograniczony potencjał, jaki drzemie w Internecie. Technologia ta umożliwia przesyłanie skompresowanych nagrań multimedialnych, zarówno video jak i audio, ze specjalnego serwera do użytkownika przy wykorzystaniu łącza internetowego.


Nic zatem dziwnego, że w dobie wszechobecnej informatyzacji i globalizacji, zyskuje coraz większą popularność i rozwija się w oszałamiającym tempie.

Streaming na żądanie

Streaming pozwala odtwarzać transmitowane dane w czasie bezpośrednim, jak również istnieje możliwość wyboru przez użytkownika dowolnego utworu lub jego fragmentu. Ta pierwsza opcja wykorzystywana jest głównie przy przeprowadzaniu telekonferencji, gdy konieczne jest przesyłanie obrazu i dźwięku do wszystkich uczestników „na żywo”. Z tego samego względu streaming znajduje zastosowanie w coraz liczniejszych kamerach internetowych. Z kolei usługa VOD (video on demand) wykorzystuje streaming do udostępniania filmów w sieci. W efekcie nie ma już potrzeby pobierania całego pliku na dysk komputera, gdyż film można oglądać niemal bezpośrednio po połączeniu z serwerem. Co więcej, użytkownik może rozpocząć odbiór w dowolnym czasie i od dowolnego fragmentu.

Streaming – w pogoni za doskonałością

Streaming wciąż się rozwija i zwiększa swe możliwości, wykorzystując przy tym najnowsze technologie. Obecnie w celu poprawy jakości przekazu, stosuje się m.in. takie techniki jak Smooth Streaming czy Silverlight. Smooth Streaming pozwala na automatyczne dopasowanie w czasie rzeczywistym jakości transmisji obrazu i dźwięku do warunków sieciowych, panujących między serwerem a użytkownikiem. W ten sposób obraz wyświetlany na ekranie komputera jest optymalnie dopasowywany do przepustowości łącza internetowego. Silverlight z kolei umożliwia odtwarzanie plików audiowizualnych (także tych w jakości HD) za pomocą zwykłej przeglądarki. W ten sposób streaming, zbliżając się do perfekcji w bezpośredniej transmisji multimedialnej, coraz bardziej zaciera odległości dzielące użytkowników sieci otwierając przed nimi nowe możliwości.


Licencjonowane artykuły dostarcza Artelis.pl.

Różne techniki wirtualizacji a system linux

Różne techniki wirtualizacji a system linux


Autor: sysop


Ponieważ nowoczesne procesory doskonale radzą sobie z wirtualizacją, we wszystkich wiodących systemach operacyjnych pojawiły się aplikacje i rozszerzenia umożliwiające uruchomienie na fizycznym komputerze kilku maszyn wirtualnych. W świecie administracji serwerami taka funkcjonalność ma wiele ciekawych zastosowań.


W niniejszym artykule zostaną wymienione i omówione tylko dwa sposoby wirtualizacji, które nadają się do wykorzystania na serwerach. Obydwa sposoby reprezentują dwa zupełnie różne podejścia do zagadnienia i pozwolą administratorowi systemu linux na wybranie najbardziej odpowiedniej do jego potrzeb opcji.

OpenVZ to łatka do kernela linuxa, która rozszerza jego funkcjonalność o możliwość tworzenia i uruchamiania na serwerze maszyn wirtualnych, które nie są zupełnie niezależne i mają kilka ograniczeń takich jak na przykład współdzielenie kernela z systemem operacyjnym linux gospodarza. Tak na prawdę to tak technika wirtualizacji z punktu widzenia administratora przypomina raczej uruchomienie całego niezależnego systemu operacyjnego na swojego rodzaju więzieniu (ang. jail) i odizolowanie go pozostałych elementów systemu operacyjnego linux oraz zapewnienie mu określonych warunków funkcjonowania. Administracja linux dzięki takiemu rozwiązaniu staje się łatwiejsza a zasadniczą zaletą takiego rozwiązania jest znacznie zmniejszona ilość niezbędnych zasobów dla zapewnienie funkcjonowania samej wirtualizacji w systemie linux.

Kolejnym przykładem jest XEN, który jest również dostarczany w postaci łatki na kernel systemu operacyjnego linux jednak jego architektura zasadniczo różni wyżej opisanej techniki wirtualizacji. Uruchomienie maszyny wirtualnej wiąże się tutaj z utworzenie zupełnie niezależnego środowiska, które jest zupełnie odizolowane od systemu linux gospodarza a jedyne punkty sytemu to te które są niezbędne do funkcjonowania całego mechanizmu. System operacyjny gościa może posiadać swój własny kernel niezależny od systemu gospodarza co daje możliwość uruchomienia poza linuxem również innych systemów operacyjnych. Tak dużą elastyczność okupiono znaczną konsumpcją zasobów systemu operacyjnego linux gospodarza i jest to największa wada tego rozwiązania.

Pamiętać należy, że każdy administrator linux powinien sam sobie odpowiedzieć na pytanie, które rozwiązanie będzie dla określanej sytuacji najlepsze. Ponieważ obydwa maja określone wady i zalety, co więcej te wady i zalety są przeciwstawne, nie można jednoznacznie stwierdzić która technika wirtualizacji jest lapsza a która gorsza.


Licencjonowane artykuły dostarcza Artelis.pl.

Sieci komputerowe - omówienie ogólne - część 2

Sieci komputerowe- omówienie ogólne- część 2


Autor: RatujPC


Na serwerze, podobnie jak w głowie, znajdują się wszystkie potrzebne innym maszynom dane, o które muszą one „poprosić” komputer centralny. Po otrzymaniu „prośby” serwer wysyła poszczególnym komputerom dane, o które one „prosiły”.


W zależności od liczby „próśb” poszczególnych komputerów, dane przesyłane są wolniej lub szybciej – mówimy, że serwer jest mało obciążony lub bardzo obciążony. Należy zwrócić uwagę, że szybkość wysyłania informacji jest uzależniona nie tylko od ilości „próśb” kierowanych do serwera, ale też od sposobu połączenia komputerów z centralną maszyną. Sposób połączenia to rodzaj kabli fizycznie użytych przy konstrukcji sieci, który charakteryzuje się określoną przepustowością (dalej będę określał przepustowość jako szerokość danego połączenia, przez które przepływają informacje; wygodnie jest wyobrazić sobie łącze sieciowe jako rurę, a informacje jako wodę – im większą średnicę ma rura, tym więcej wody może nią popłynąć). Główne komputery w sieci są zazwyczaj połączone najszerszymi łączami, natomiast cała reszta nieco węższymi. Im węższe łącze, tym wolniej przepływają wspomniane listy elektroniczne oraz jakiekolwiek inne zasoby – zdjęcia, filmy,muzyka.

W tym miejscu możesz się zacząć zastanawiać, jak to jest, że zasoby i informacje mogą zmieścić się w pojedynczym kablu. Wyjaśnienie tego problemu wymagałoby sporo czasu, dlatego ograniczę się do porównania przesyłania danych kablami do nowego środka lokomocji (nie przeznaczonego niestety dla ludzi), który jest o wiele szybszy niż samochody i samoloty. Samochód podczas jazdy napotyka na swojej drodze przeszkody, przez które musi zwalniać, aby się z nimi nie zderzyć, natomiast jedynym ograniczeniem samolotu jest opór powietrza. W obydwu przypadkach występują jakieś niekorzystne warunki, które przeszkadzają w szybkości podróży bądź przelotu. Tylko i wyłącznie na potrzeby zrozumienia pewnych treści chciałbym, abyś przyjął, że informacje, które płyną kablami, poruszają się bez oporu, dlatego są w stanie tak szybko dotrzeć do adresata. Sieci komputerowe są naprawdę obszernym tematem, któremu poświęcono wiele książek. Mam nadzieję, że do tego miejsca udało Ci się, w mniejszym lub większym stopniu, zrozumieć ich działanie. Nie martw się, jeśli nadal nie czujesz się zbyt pewnie w tej tematyce, nie musisz jej wcale znać, aby móc korzystać z Internetu. Możesz jednak sobie pogratulować, ponieważ odważyłeś się na zaznajomienie z wiedzą, której przeważająca część polskich seniorów się boi lub twierdzi, że nie jest im ona do niczego przydatna. Zapoznanie się z nią miało na celu jedynie poszerzenie Twojego postrzegania nowoczesnych sposobów komunikowania się.


Serwis Komputerowy Katowice

Licencjonowane artykuły dostarcza Artelis.pl.

Sieci komputerowe - omówienie ogólne - część 1

Sieci komputerowe- omówienie ogólne- część 1


Autor: RatujPC


Internet jest siecią komputerową. Sieć komputerowa jest zespołem komputerów pracujących w grupie, połączonych
na różne sposoby (konfiguracje połączeń komputerów sieci nazywa się fachowo topologią), które mogą się ze sobą komunikować.


W najprostszym przypadku sieć można porównać do prymitywnych lampek choinkowych, które połączone są jedna z drugą, a awaria jednej lampki unieruchamia wszystkie pozostałe. Prąd w takich lampkach płynie przez każdą z osobna, zanim dotrze do ostatniej – i na odwrót. Jeśli zechcesz przesłać jakiekolwiek dane do użytkownika znajdującego się na końcu sieci lub z końca na początek, będę one musiały „przewędrować” po kolei przez każdy komputer, zanim dotrą do ostatecznego adresata. Zatem uszkodzenie jednego stanowiska będzie wiązało się z wyłączeniem z działania wszystkich pozostałych maszyn.

Poniższa ilustracja przedstawia opisywany problem:

Każde stanowisko działa wedle własnego uznania, musi być wyposażone we w pełni funkcjonalne programy i zabezpieczenia. Jest to rozwiązanie bardzo mało odporne na awarie oraz mało wydajne ekonomicznie. Co zapewne cieszy serwisy komputerowe.

Wystarczy, że niesforny gryzoń przegryzie okablowanie, żeby do czasu
rozwiązania problemu sieć musiała zostać wyłączona.

Obecnie jednak mamy do czynienia z lampkami, które mogą działać nawet z kilkoma przepalonymi lub brakującymi żarówkami. Również sieć komputerowa działająca na zasadzie nowocześniejszych lampek choinkowych jest o wiele wydajniejsza niż ta pierwsza. W takim przypadku zainfekowanie wirusem jednej maszyny nie musi wcale oznaczać awarii całej sieci, gdyż odpowiednio wcześnie odłączony komputer nie będzie zakłócał pracy pozostałych. Bardzo ważną różnicą
między opisywanymi rodzajami sieci jest sposób zarządzania ich działaniem. W pierwszym przypadku brakuje czegoś odpowiedzialnego za koordynację działania sieci – każdy komputer sobie rzepkę skrobie. To trochę tak, jakby człowiek był w stanie żyć bez głowy i nie miał kontroli nad poszczególnymi częściami ciała, które same robiłyby,
co by chciały. Drugi przypadek sieci to już człowiek z głową, której funkcję pełni centralny komputer, zwany serwerem. Spójrz na poniższe ilustracje:

Taka konstrukcja daje możliwość przechowywania głównych programów oraz
danych w jednym centralnym miejscu, dzięki czemu są one dostępne dla
wszystkich użytkowników sieci.


Pomoc Drogowa Katowice

Licencjonowane artykuły dostarcza Artelis.pl.

Tani hosting VPS: 10 porad, jak dokonać dobrego wyboru

Tani hosting VPS: 10 porad, jak dokonać dobrego wyboru


Autor: VPSimple Staff


VPS może być odpowiednim rozwiązaniem dla tych administratorów systemowych i web deweloperów, którzy nie chcą inwestować w serwer dedykowany, ale potrzebują czegoś więcej niż zwykły (współdzielony) hosting. Na serwerze wirtualnym możliwy jest hosting stron WWW i baz danych, poprzedzony testowaniem serwera.


Zacznijmy od wyjaśnienia, czym jest VPS. Serwer wirtualny (VPS, ang. Virtual Private Server) pozwala pokonać ograniczenia tradycyjnych konfiguracji usług hostingowych. VPS posiada pewne cechy serwera dedykowanego, które wykorzystywane są dla wszystkich aplikacji, które wymagają wysokiej wydajności, specyficznej konfiguracji i całkowitej izolacji od innych usług. Zadaniem serwera wirtualnego jest dostarczenie niezależnych części wydajnego serwera, który jest bezpiecznie współdzielony z innymi klientami.

Tanie rozwiązanie

VPS może być odpowiednim rozwiązaniem dla tych administratorów systemowych i web deweloperów, którzy nie chcą inwestować w serwer dedykowany, ale potrzebują czegoś więcej niż zwykły (współdzielony) hosting. Na serwerze wirtualnym możliwy jest hosting stron WWW i baz danych, poprzedzony testowaniem serwera.

Co wziąć pod uwagę? Porady

1. Czas trwania kontraktu
Dostawcy często wprowadzają ograniczenia co do możliwości nabycia VPS, które zmuszają klientów do zakupu usługi na narzucony z góry, minimalny okres czasu. Przykładem może być minimalny, miesięczny okres użytkowania VPS z koniecznością zapłaty za 3 miesiące z góry. Radzimy unikać takich ofert i poszukać dostawcy, który zaproponuje bardziej elastyczne rozwiązanie. Mamy tu na myśli możliwość testowania serwera przez krótki okres czasu, podczas którego możemy ocenić wydajność i niezawodność systemu. Dlatego też zalecamy, aby wybrać hostingodawcę, który oferuje kontrakt bez ograniczeń na długość jego trwania i pozwala korzystać z VPS przez kilka dni lub kilka tygodni.

2. Koszty aktywacji
W niektórych przypadkach do opłaty miesięcznej zostaje nam doliczony koszt aktywacji usługi. Co gorsze, nie zawsze aktywacja ta jest natychmiastowa - zazwyczaj musimy odczekać kilka dni zanim dane nam będzie rozpoczęciem korzystania z VPS. Wybór dostawcy, który nie naliczy nam tej opłaty jest niewątpliwą zaletą, szczególnie w połączeniu z możliwością natychmiastowej aktywacji VPS.


3. Zasoby RAM i CPU
Gwarancja zasobów pamięci RAM i procesora jest niezwykle ważna. Sprawdź, czy oferowane serwery są oparte o technologię Xen (oprogramowanie open source rozpowszechniane na licencji GNU / GPL, które oferuje wydajność porównywalną do rozwiązań niewirtualnych - ~ 8% przewodów napowietrznych) lub wirtualizację VMware.

4. Fizyczna jakość serwerów
Biorąc pod uwagę technologię, zwracajmy uwagę nie tylko na wizerunek firmy. Dostawcy, którzy korzystają z markowego sprzętu na pewno oferuje większą niezawodność, niż ci, którzy decyduje się na montowane serwery. Moc obliczeniowa maszyn odgrywa równie ważną rolę - 16-rdzeniowe procesory są doskonałą gwarancją niezawodności.

5. Dystrybucje
Nie jest problemem znaleźć VPS z różnymi dystrybucjami Linuksa. Tylko niewielu dostawców oferuje dystrybucję Windows, z której chętnie skorzystają webmasterzy preferujący system operacyjny Microsoft.

6. Administracyjny dostęp do serwera
Web deweloperzy i administratorzy systemowi są przyzwyczajeni do współdzielonego hostingu, który zapewnia ograniczony panel sterowania. Pełne dystrybucje VPS z nieograniczonym dostępem pozwalają użytkownikom pracować swobodnie i w pełni dostosować swoje otoczenie.

7. Zarządzanie adresem IP
Wspólny publiczny adres IP jest standardowym rozwiązaniem dostępnym na rynku. Warto wybrać hostingodawcę, który oferuje dedykowany publiczny adres IP. Zalecamy sprawdzić również, czy zamierza wprowadzić prywatny IP, a także High Availability (HA).

8. Fizyczna lokalizacja maszyn
Upewnij się, że dostawca jest właścicielem farmy serwerów lub jest obsługiwany przez zewnętrzne Data Center. Nazwy głównych firm telekomunikacyjnych są niewątpliwie gwarancją bezpieczeństwa i niezawodności. Sprawdź, czy posiadają zasilanie redundantne i czy mają certyfikat ISO27001 (SLA powinno przekraczać 99%.).

9. Usługi dodatkowe
Czy VPS posiada dodatkowe usługi, takie jak firewall? Czy będziesz mógł ustawić i dostosować swoje reguły? Te aspekty odgrywają kluczową rolę, jeśli chcesz zapewnić swojemu serwerowi maksymalne bezpieczeństwo. Czy Twój hostingodawca oferuje proaktywny monitoring usług i zasobów maszyny? Czy możesz go konfigurować w zależności od swoich potrzeb?

10. Backup
Zaplanowana kopia zapasowa serwera jest usługą, której nie możesz zaniedbać. Jeśli dostawca gwarantuje wysoką jakość w wyborze konfiguracji sprzętu i maszyn, twoje dane są bezpieczne od samego początku użytkowania serwera.
Zalecamy wybrać dostawcę, który używa wysoki poziom zabezpieczeń t.j. używa dysków RAID10, które są synonimem niezawodności i ochrony dysków przed awarią.


Aby uzyskać więcej informacji o wyborze VPS, zajrzyj na stronę http://www.vpsimple.com

Licencjonowane artykuły dostarcza Artelis.pl.

Meru: wirtualizacja sposobem na lukę w WPA2

Meru: wirtualizacja sposobem na lukę w WPA2


Autor: Jan Sowiński


Sieci bezprzewodowe, tworzone w oparciu o rozwiązania Meru Networks, są odporne na zagrożenia związane z niedawno wykrytą „Luką 196” w protokole szyfrowania WPA2. Pełne bezpieczeństwo Meru zawdzięcza autorskiej technologii Virtual Port.


Istnienie błędu w protokole WPA2 - używanym do ochrony informacji w sieciach Wi-Fi - ujawniła firma AirTight. Błędowi nadano nazwę „Luki 196”, ze względu na numer strony dokumentacji WPA2, na której znajduje się opis wykorzystywanych w tym protokole kluczy: PTK (Pairwise Transient Key) oraz GTK (Group Temporal Key). To właśnie błędne zdefiniowanie właściwości drugiego z tych kluczy umożliwia przeprowadzenie ataku w sieci bezprzewodowej.

„Klucz PTK jest unikalny dla każdego klienta sieci WLAN i służy do zabezpieczania transmisji unicastowych. Z kolei klucz GTK jest wspólny dla wszystkich urządzeń przypisanych do konkretnego BSSID i służy do zabezpieczania danych w transmisjach broadcastowych, czyli do wielu klientów w sieci. O ile klucz PTK jest w stanie wykryć fałszowanie danych i podszywanie się pod adresy MAC, to już klucz GTK tego nie potrafi. Korzystając z tej ułomności, osoba podłączona i uwierzytelniona w ramach określonej sieci bezprzewodowej może stworzyć zainfekowany pakiet rozgłoszeniowy, na który inne urządzenia będą odpowiadały wysyłając własny adres MAC z informacjami o kluczu prywatnym. Ta wiedza umożliwia przejęcie całkowitej kontroli nad urządzeniami z zaatakowanej sieci, przechwytywanie i deszyfrowywanie ruchu, a nawet całkowite zniszczenie sieci, np. za pomocą ataków denial-of-service. Problem ten nie występuje jednak w sieciach bezprzewodowych, które zostały zbudowane w oparciu o technologię Virtual Port dostępną w rozwiązaniach Meru Networks” - mówi Łukasz Naumowicz, Technical Support Unit Manager z Konsorcjum FEN.

Odporność sieci bezprzewodowych Meru na zagrożenia związane z Luką 196 wynika z faktu, że połączenia w tych sieciach są kontrolowane przez technologię Virtual Port. Dzięki niej, każde urządzenie w sieci WLAN posiada swój unikalny identyfikator BSSID, który jest indywidualnie generowany dla klienta i kontrolowany przez oprogramowanie Meru System Director. To z kolei powoduje, że każde urządzenie posiada też swój unikalny klucz broadcastowy dla WPA2. - „W związku z tym w sieci nie może pojawić się dwóch klientów korzystających z tego samego klucza broadcast'owego i wrogi klient nie może podszywać się pod adresy MAC punktów dostępowych i rozszerzać klucz broadcastowy, tak aby uruchomić potencjalny atak” - wyjaśnia Łukasz Naumowicz.

Technologia Virtual Port to nie jedyne rozwiązanie od Meru Networks, dzięki któremu sieci WLAN stają się coraz bardziej niezawodne i bezpieczne. Meru jest również twórcą m.in. opatentowanych technologii: kontroli i zarządzania ruchem w sieci - ATC (Air Traffic Control™) oraz technologii tzw. wirtualnej komórki (Virtual Cell™). Pierwsza z nich pozwala na ścisły nadzór nad ruchem generowanym w sieci bezprzewodowej. Natomiast wirtualna komórka umożliwia wszystkim punktom dostępowym pracę na tym samym kanale, tworząc w ten sposób jednolity obszar pokryty zasięgiem sieci WLAN. Innowacyjność rozwiązań Meru została doceniona m.in. przez Gartner Group. Firma ta dwa razy z rzędu - w raporcie z 2007 i 2008 roku „Magiczny kwadrant Gartnera dla WLAN” - uznała Meru Networks za twórcę najbardziej wizjonerskich rozwiązań bezprzewodowych na świecie. W Polsce przedstawicielem Meru jest Konsorcjum FEN. Dodatkowe informacje: www.merunetworks.pl.


PRS

Licencjonowane artykuły dostarcza Artelis.pl.

Internetowe drukarnie – czy warto z nich korzystać?

Internetowe drukarnie – czy warto z nich korzystać?


Autor: Mateusz Mszyca


Nierzadko musimy wykonać profesjonalny wydruk, jednak sprzęt, którym dysponujemy nie jest w stanie spełnić naszych oczekiwań. Zwykła domowa drukarka ma bardzo ograniczone możliwości. Co zrobić w takiej sytuacji?


Powszechnie wiadomo ze Internet niesie za sobą wiele możliwości, stał się on nieodzownym elementem naszego życia, i za jego pośrednictwem dokonujemy wielu codziennych czynności, płacimy rachunki, robimy zakupy, a nawet pracujemy. Upowszechniło się również drukowanie przez Internet dzięki tzw. drukarniom on-line. Pytanie tylko czy są opłacalne? Jakie niosą za sobą korzyści?

Bez wątpienia śmiało można powiedzieć, że zalet jest wiele, chociażby fakt, iż nie musimy wychodzić z domu, gdy mamy pilnie wydrukować jakiś projekt (np. plakaty, wizytówki, ulotki). Nie musimy przemierzać miasta w celu znalezienia jak najniższych stawek, wystarczy, że przejrzymy oferty kilku firm, siedząc wygodnie przed komputerem, by w przeciągu kilku minut wybrać dla nas najkorzystniejszą. Kolejnym plusem jest fakt, iż drukowanie przez Internet jest bardzo tanie. Wielu ludzi od razu pomyślałoby, że koszt przesyłki takiego zamówienia wyniesie więcej niż ono samo, jest to jednak nieprawdą. Zbalansowane koszty sprawiają, że wręcz przeciwnie, taka usługa staje się dla nas bardzo opłacalna. Ceny są bardzo zbliżone do tych w zwykłych drukarniach.

Oczywiście, aby w pełni docenić zalety drukarni on-line, należy osobiście skorzystać z ich oferty. Na pewno nikt nie będzie zawiedziony. Satysfakcja jest gwarantowana.


drukowanie

Licencjonowane artykuły dostarcza Artelis.pl.

E-booki: analiza popularności

E-booki: analiza popularności


Autor: agata


Jeszcze kilka lub kilkanaście lat temu nikt z nas nie wyobrażał sobie, że będzie można czytać książki przez internet. Dziś to jedna z popularniejszych form czytelnictwa, która regularnie zyskuje nowych zwolenników. Mało tego e-booki zaczynają sprzedawać się lepiej niż tradycyjne książki.


Skąd tak ogromna popularność elektronicznych książek?

1)Niskie koszty, to pierwsza i chyba najważniejsza kwestia, e-booki są sporo tańsze niż tradycyjne książki, za jedną papierową książkę można dostać kilka lub kilkanaście książek w wersji elektronicznej, korzystają na tym nie tylko czytelnicy, którzy zamiast jednego egzemplarza mogą przeczytać kilka w tej samej cenie, e-booki to także ogromna szansa dla wydawców, koszty wydania książki w formie elektronicznej są właściwie zerowe – odchodzą bowiem koszty związane z drukiem, składem tekstu, oraz kosztowną kampanią reklamową

2)Postęp wydawniczy, już dawno weszliśmy w fazę totalnej informatyzacji gdzie informacje przesyłane są na żywo, z prędkością światła, produkcja książki na tym tle wygląda co najmniej archaicznie, przestarzałe sposoby produkcji książki oraz czas jaki musi upłynąć od czasu powstania pomysły do jego realizacji powodują, że rynek wydawniczy stał się jedną z bardziej zacofanych dziedzin biznesu, dlatego coraz częściej autorzy sami wydają swoje dzieła, a proces publikacji książki trwa kilka godzin a nie miesięcy

3)Ekologia, dbałość o środowisko jest nadal bardzo modna, i to kolejna rzecz, która determinuje wzrost popularności e-booków, książki elektroniczne są bardziej przyjazne dla środowiska, ograniczona bowiem zużycie drewna jako materiału do produkcji papieru, którego ogromne ilości są codziennie przeznaczane na książki, czasopisma i gazety codzienne, które po przeczytaniu są od razy wyrzucane,

4)Spadek popularności rynku prasowego, tradycyjne gazety papierowe tracą powoli na znaczeniu, coraz więcej osób decyduje się na elektroniczne wydania prasy, które są nieporównywalnie tańsze lub całkowicie darmowe, proces ten będzie dalej postępował, i przetrwają tylko ci wydawcy, którzy zdecydują się elektroniczne wydanie prasy codziennej i czasopism

5)Dostępność, kolejna bardzo istotna kwestia przemawiająca na korzyść książek elektronicznych jest taka, że możesz je zabrać praktycznie wszędzie, teoretycznie dotyczy to także tradycyjnych, papierowych książek, ale w przypadku e-booków zajmują one o wiele mniej miejsca, nowoczesne oprogramowanie pozwala na wyświetlanie treści książki czy czasopisma nie tylko na ekranie komputera, ale także telefonu komórkowego czy Netbooka, i co ważne na jednym takim urządzeniu możesz zmieścić kilkanaście lub nawet kilkadziesiąt plików z tekstem

Co prawda tradycyjna książka ma nadal wielu swoich wiernych zwolenników. Ale prawie pewne jest,że wraz z upływem czasu ich liczba będzie maleć na korzyść zwolenników książek i czasopism elektronicznych. Ich przewaga nad tradycyjną formą książki rośnie w zawrotnym tempie, i w czasach mega szybkiego postępu techniki coraz mniej osób będzie zwracało uwagę na takie walory książki jak jej zapach, fakt trzymania jej w ręce i bezpośredni z nią kontakt, a coraz więcej osób wybierze tańszą, łatwiejszą i bardziej przystępną formę czytelnictwa.


agata b.

Licencjonowane artykuły dostarcza Artelis.pl.

Kamery IQeye w ofercie FEN

Kamery IQeye w ofercie FEN


Autor: Jan Sowiński


Konsorcjum FEN podpisało umowę dystrybucyjną z firmą IQinVision. Jej efektem jest rozszerzenie oferty dystrybutora o megapikselowe, sieciowe kamery IQeye.


IQinVision od 1998 roku produkuje najwyższej jakości kamery IP o wysokich rozdzielczościach pod marką IQeye. Firma jako pierwsza wprowadziła sieciowe kamery megapikselowe i HDTV, które wielokrotnie otrzymywały prestiżowe nagrody i wyróżnienia branżowe. Kamery IQeye wyróżniają się doskonałą jakością obrazu oraz stabilną i niezawodną pracą, nawet w najbardziej wymagających warunkach. Ze względu na wysokie parametry, urządzenia IQinVision są wykorzystywane w wielu lokalizacjach, zwłaszcza takich, w których niezbędne jest precyzyjne odwzorowanie monitorowanego obszaru - np. w systemach monitoringu miejskiego, szkołach, sklepach, kasynach, bankach i wielu innych.

Znakomita jakość obrazu w kamerach IQeye uzyskiwana jest dzięki przetwornikom, które gwarantują rozdzielczość nawet do 5 Mpx. Dodatkowo, w kamerach zastosowano technologię Lightgrabber, która pozwala na uzyskanie wysokiej jakości obrazu także przy słabym oświetleniu. Urządzenia wyposażone zostały w slot na kartę SDHC, co umożliwia nagrywanie obrazu bezpośrednio w kamerze. Istotną zaletą modeli IQeye jest także fakt, iż mogą współpracować z większością dostępnych na rynku urządzeń NVR (Network Video Recorder) lub oprogramowaniem do zarządzania zawartością wideo - np. QNAP, Koukam, GeoVision czy Alnet Systems.

„Rynek systemów monitoringu wizyjnego zmienia się w ostatnim okresie bardzo dynamicznie. Widać zdecydowany wzrost zainteresowania rozwiązaniami opierającymi się o protokół IP, które zapewniają więcej funkcji i możliwości w porównaniu do analogowych odpowiedników. Wyraźnie rosną wymagania odnośnie jakości obrazu. W wielu wdrożeniach zapewnienie wysokiej rozdzielczości jest czynnikiem decydującym o realizacji projektu, dlatego coraz większą popularnością cieszą się kamery megapikselowe. Klienci oczekują także coraz bardziej zaawansowanych rozwiązań - takich jak: inteligentna analiza obrazu czy efektywna archiwizacja - które umożliwiają optymalizację dużych systemów monitoringu oraz wspomagają ich funkcjonowanie. To właśnie dlatego staramy się stale poszerzać portfolio naszych produktów, dbając o kompleksowość oferty, która pozwala zbudować zróżnicowane systemy monitorujące, w zależności od potrzeb. Temu celowi służy nawiązywanie współpracy z kolejnymi producentami - umowa z IqinVision, a także niedawno podpisane z March Networks i GeoVision Inc" - podkreśla Anna Twardowska, Monitoring IP Product Manager w Konsorcjum FEN.

Konsorcjum FEN zapewni sprzedawanym kamerom IQeye szerokie i zróżnicowane wsparcie. Obejmuje ono zarówno działania marketingowe, jak i techniczne - bezpłatne szkolenia, konsultacje handlowe i doradztwo oraz pełny serwis gwarancyjny.


PRS

Licencjonowane artykuły dostarcza Artelis.pl.

Windows Server 2003

windows server 2003


Autor: Grzegorz Patynek


Jak działa serwer Windows, jakie cechy posiada. Jakie są nowe funkcje systemu Windows Server 2003. Czy warto instalować Windows Server 2003? Podstawowe funkcjonalności serwera.


Serwery windows to potężne narzędzie to użycia w wielu przedsiębiorstwach. Serwery Windows oferowane są przez gci. Standardowy serwer Windows jest dostępny w wersji 64 bitowej jak i 32 bitowej. Wersja 64 bitowa jest szybciej działającym serwerem bo działa na 64 bitowym procesorze.
Na pokładzie serwera znajduje się serwer aplikacji, który obsługuje usługi internetowe, zarządzania transakcjami oraz posiada logi zdarzeń.
Możesz wdrażać rozwiązania biurowe dla twojej firmy. Zwiększa się dostępność i dostarczanie usług dzięki technologii klastrowej.
Znajdują się tu usługi przechowywania i plikowe wraz z systemem przechowywania kopii zapasowej i szyfrowaniem. Znajduje się tu rozproszony system wejścia/wyjścia.
Znajduje się tu centrum zarządzania o rzeczach związanych z siecią, takich jak ludzie, aplikacje, pliki drukarki. Usługa active direktory udostępnia zarządzanie tymi zasobami.
Istnieje polityka zarządzania grupami i mamy konsole do zarządzania.
Mamy tutaj wsparcie dla ipv6, dnsów, sieci bezprzewodowych oraz spiec. Znajdują się tutaj usługi drukowania oraz bezpieczeństwa. Mamy też usługi terminalowe.
W całości mamy .net Framework i ASP.net oraz przydatny do tworzenia aplikacji internetowych serwer iis.
Dla chcących współpracować pracowników jest serwer SharePoint.
Gci wdraża serwery windowsowe w przedsiębiorstwach. Taki serwer można wdrożyć chociażby w szkole i używać go do nauki przez dzieci jak i do swoich obowiązków biurowych. Serwery Windows to jedne z wiodących na rynku, dlatego trzeba się liczyć z ich zakupem przy modernizacji infrastruktury przedsiębiorstwa. Cały Windows jest łatwo obsługiwalny, rzeczy konfiguruje się przyjemnie i mamy dostarczone dokumentacje i pomoc użytkownika więc nie jest trudno administrować serwerem. Możemy tworzyć grupy użytkowników i im przypisywać odpowiednie działania albo usługi, całość jest dobrze konfigurowalna co ułatwia nam pracę. Serwer jest dość stabilny.


--

Grzegorz Patynek

Gminne Centrum Informatyczne

Licencjonowane artykuły dostarcza Artelis.pl.

Domeny internetowe

Domeny internetowe


Autor: Grzegorz Patynek


Domena internetowa, jak ją wybrać, jakie są ceny, jakie są możliwości. Jak działa dns. Ile czasu potrzeba na założenie domeny. Jak działa rynek domen internetowych.


Jak wybrać domenę internetową? Co to jest domena?
Dlaczego nazwa jest taka ważna?
Aby nasza firma zaistniała w sieci, potrzebna jest dla niej wizytówka albo strona internetowa. Strona internetowa ma swoją nazwę. I tą nazwę promujemy w Internecie. Wybrać odpowiednią nazwę nie jest łatwo, musi być ona trafiająca w odbiorców i mówić o działalności firmy. Na rynku istnieją serwisy które pozwalają sprawdzić czy można zarejestrować nasza domenę. Jeśli rejestrujemy, to po dokonaniu tej czynności, domena należy do nas. Dostarczycielowi domeny podajemy adresy serwerów dns naszych serwerów. Gci robi to za klienta, wykupując mu domenę i podpinając do serwerów. Niekiedy domena może być zajęta, znaczy to tyle, że ktoś już wcześniej ją zarejestrował.
Na rynku istnieje wiele dostawców domen, ceny za domenę wahają się od 10 zł do kilkuset, jeśli domena jest już zajęta. Jeśli nie upieramy się na wypasioną nazwę i wymyślamy sobie coś mniej krzykliwego ale taniego, to pozostaje nam znaleźć odpowiedniego usługodawcę. Pamiętajmy o tym, że cena za pierwszy rok może być bardzo niska, już w granicach 10zł ale przedłużenie domeny na własność na kolejne lata, to ceny pięciokrotnie albo dziesięciokrotnie wyższe. Tak zazwyczaj jest dlatego uważnie czytajmy cały cennik przed opłaceniem transakcji.
Jeśli mamy już domenę, możemy przekazać ją gci, firma podepnie domenę do twojego serwera za Ciebie. I znowu, w panelu administracji, przypisujemy odpowiednia adresy dns. Przeniesienie domeny może trwać kilka dni, ponieważ potrzeba czasu na propagacje adresów w sieć.
Reasumując przede wszystkim trafna nazwa a resztę można zlecić innym osobom. W domenie możemy tworzyć poddomeny czyli poda dresy i wstawiamy ich dowolną ilość. Na przykład
mojapodnazwa.domena.pl. Nie wszystkie serwery to obsługują ale serwery hostingowi gci, tak.


--

Grzegorz Patynek

Gminne Centrum Informatyczne

Licencjonowane artykuły dostarcza Artelis.pl.

Telefonia internetowa w Polsce

Telefonia internetowa w Polsce


Autor: Joanna Łęcka


Badania przeprowadzone przez Ericsson Consumer Lab w 2009 r. wykazały, iż Polacy są na zaszczytnym pierwszym miejscu w Europie w korzystaniu z technologii VoIP, zaraz za nami plasują się Czesi. Telefonia internetowa jest coraz szerzej znana w naszym kraju, dzięki czemu wielu użytkowników chętnie korzysta z oferowanych przez nią możliwości.


Telefonia internetowa, czyli VoIP (Voice over Internet Protocol) jest technologią umożliwiającą transmisję głosu przy wykorzystaniu używanego w Internecie protokołu IP. Ostatnimi czasy jakość usług oferowanych przez operatorów telefonii IP znacznie się poprawiła i w związku z tym, coraz częściej staje się godna polecenia. Technologia ta nieustannie się rozwija, dzięki czemu oferuje różne możliwości oraz rozbudowaną kafeterię usług dodatkowych.


Z badań Ericsson Consumer Lab wynika, iż coraz więcej Polaków korzysta z rozmaitych usług online, takich jak bankowość elektroniczna oraz przejawia aktywność na portalach społecznościowych. Badani deklarują również prowadzenie rozmów głosowych za pomocą darmowych komunikatorów oraz korzystanie z usług VoIP nawet kilka razy w tygodniu. Okazuje się, iż także coraz szersze grono użytkowników Internetu korzysta regularnie z poczty elektronicznej. Zdaniem respondentów, duża funkcjonalność oraz praktyczna wygoda korzystania z Sieci sprawia, iż usługi online zdobywają coraz większe uznanie i zainteresowanie wśród społeczeństwa.


Odrębnym spojrzeniem na kwestię popularności korzystania z rozwiązań telefonii internetowej w Polsce i innych krajach UE, może być kwestia dostępu do szerokopasmowego Internetu. Pojęcie „łącze szerokopasmowe" określa sytuację stałego dostępu do Internetu o prędkości min. 144kbps i większej. Komisja Europejska rozpoczęła we wrześniu 2008 roku debatę, w której myślą przewodnią był postulat, iż powinna to być usługa powszechna i dostępna dla wszystkich obywateli. Rzeczywistość bowiem pokazuje, że stały dostęp do Sieci posiada obecnie jedynie 1/3 gospodarstw domowych na terenie UE. Oczywiście w krajach wysoko rozwiniętych ten ułamek jest znacznie większy. Zdaniem większości specjalistów, posiadanie szerokopasmowego Internetu to gwarancja dostępu ludzi do szeroko pojętego społeczeństwa informacyjnego oraz jeden z ważniejszych warunków rozwoju ekonomicznego. Zatem kwestia ta jest niezwykle istotna.


Licencjonowane artykuły dostarcza Artelis.pl.

Cyfrowa skarbnica twoich najcenniejszych wspomnień

Cyfrowa skarbnica twoich najcenniejszych wspomnień


Autor: smartPR


Uwielbiamy robić zdjęcia swoje, swojej rodziny i przyjaciół. Zazwyczaj uwieczniamy w ten sposób szczególne okazje. Są to momenty bardzo dla nas cenne. Nasza pamięć niestety jest ulotna, dlatego w jej rozwijaniu pomagamy sobie współczesnymi „wynalazkami" technicznymi.


Fotografie cyfrowe zamiast papierowych

Fotografie analogowe coraz szybciej zaczynają odchodzić w zapomnienie. Nic dziwnego skoro wywołanie negatywu zajmuje nawet najszybszym laboratoriom fotograficznym - do 24 godzin. Co więcej, po zrobieniu zdjęcia nie możemy go zobaczyć i skorygować, jak to ma miejsce w przypadku aparatów cyfrowych. Nie mamy więc pewności czy zdjęcie zrobione na tle wieży Eiffla się uda czy nie. To ryzyko popycha nas ku cyfrowej technologii robienia zdjęć. Aparaty cyfrowe są coraz tańsze i co ważne - coraz mniejsze. Ich funkcjonalność idzie więc w parze z estetycznym i minimalistycznym wyglądem.

Łatwość dzielenia się

Posiadając swoje wspomnienia w wersji cyfrowej bardzo łatwo możemy przesłać je swoim bliskim mailowo, czy też pokazać na przykład na wybranym portalu społecznościowym. Nie zawsze jednak mamy pod ręką laptopa albo dostęp do Internetu, również nie każdy (zwłaszcza starsze pokolenie) potrafi obsługiwać komputer.
Co zrobić w takiej sytuacji? Jak pokazać komuś swoje cyfrowe wspomnienia?
Otóż jest na to sposób: ramka cyfrowa.
Opiszmy ją na przykładzie Treecon DPF-7.
Można ją zabrać wszędzie. Jest mobilna ze względu na swoje niewielkie rozmiary. Posiada 7'' calowy wyświetlacz TFT LCD o wysokiej rozdzielczości 800x480, co daje świetną jakość odtwarzanych zdjęć.
Aby obejrzeć zdjęcia wystarczy po prostu podłączyć do ramki urządzenie wyposażone w port USB (np. czytnik kart pamięci, pendrive), albo w odpowiednie miejsce wsunąć kartę pamięci (CF/MD/MS/SD/MMC/SM).
Ramka cyfrowa to nie tylko cyfrowy album fotograficzny, to również małe centrum multimedialne.
Odtwarzając zdjęcia możemy przeglądać je pojedynczo, ale także w wersji pokazu slajdów z efektami przybliżania i oddalania kadrów, czemu towarzyszyć może muzyka. Ramki wyposażane są bowiem w głośniki oraz technologię odtwarzania plików MP3. Warto również wspomnieć o udogodnieniu jakim jest pilot. Możemy dzięki niemu kontrolować obraz ukazujący się na wyświetlaczu bez konieczności ruszania się z miejsca.


Zatem jeśli nie masz pomysłu na prezent...

... a często się tak zdarza to dlaczego nie postawić na niekonwencjonalność? Z pewnością każdy ucieszy się z niebanalnego podarunku, który dodatkowo będzie mieścił w sobie ciekawie przygotowany pokaz slajdów ze zdjęciami z własną osobą w roli głównej i ulubioną ścieżką dźwiękową. Takie pokazy slajdów w ramkach cyfrowych są rewelacyjnym prezentem na rocznicę ślubu, podsumowują bowiem dotychczasowe kilka, kilkanaście albo nawet kilkadziesiąt lat wspólnego życia.

Nietypowy gadżet

Ramka cyfrowa to również nowinka technologiczna, którą warto mieć nie tylko z powodów czysto praktycznych, gdyż sprawia, że mnogość tradycyjnych ramek znika z naszych biurek czy mebli, ale także dlatego, że jest to gadżet estetyczny i dizajnerski. Lubimy otaczać się nowościami, więc dlaczego nie zainwestować niewielkiej sumy w urządzenie, które swoją funkcjonalnością w błyskawicznym tempie zwróci nam zainwestowane w nie pieniądze? Kilka lat temu ramki cyfrowe kosztowały po kilkaset złotych. Obecnie te ceny drastycznie spadają, co widać po ramce Treecon DPF-7 (www.treecon.pl), która kosztuje 185zł. Życie jest po to, żeby je ułatwiać.

Mini spot reklamowy? Proszę bardzo

Jeśli posiadasz swój sklep, albo po prostu chcesz się w specyficzny sposób zareklamować, wystarczy, że przygotujesz swój własny spot reklamowy, wgrasz do ramki Treecon i umieścisz w miejscu, na które najczęściej padają ludzkie spojrzenia. Technologia MPEG w połączeniu z opcją odtwarzania MP3 umożliwi ci prezentacje video klipów reklamowych i informacyjnych, które przyciągną uwagę klientów. Umieść swoją ramkę w witrynie sklepowej, w biurze, na stoisku, w zagłówku w swojej taksówce, czyli wszędzie tam, gdzie tylko podpowie ci twoja fantazja, a przekonasz się, że zwolenników twoich usług przybędzie. Myśl niekonwencjonalnie, bo to się opłaca.
Teraz już wiesz, co zrobić, żeby zatrzymać swoje najcenniejsze wspomnienia i jak dzielić się nimi z innymi. Fotografuj zatem jak najwięcej, bowiem ten czas, który jest teraz już się nie powtórzy a konkretne momenty nie wrócą. Życie jest niestety tylko jedno. Warto przygotować sobie wspomnienia...


Licencjonowane artykuły dostarcza Artelis.pl.

Izolatory

Izolatory


Autor: diglet


Artykuł podejmuje tematykę izolatorów, ich budowy i zastosowania oraz techniki wykonania. Dzięki tej wiedzy będziesz mógł rozeznać się lepiej w tym rynku.


Elektroenergetyka, jest bardzo szeroką gałęzią nauki, dlatego też postaram się jak najprościej i dokładnie przekazać w tym artykule podstawowe informacje jakie żądzą się w tej dziedzinie nauki. Izolatory możemy podzielić pod wieloma kategoriami pierwszym z podziałów jest na izolatory liniowe stojące, wiszące, stacyjne wsporcze, przepustowe. Każdy z rodzajów izolatorów ma przypisany sobie symbol, tak izolator linowy oznaczony jest symbolem L, izolator stojący symbolem S, izolator kołpakowy K, izolator wsporczy W, izolator odciągowy G, izolator przeciwzabrudzeniowy Z.

Prócz tych podziałów w elektrotechnice istnieją zupełnie inne izolatory takie jak koszulki elektroizolacyjne, koszulki izolacyjne, silikony parowe, taśmy z kewlaru. Istnieje bardzo szeroki podział na specyficzne modele tych izolatorów zależny od specyfiki zastosowania oraz warunków w jakich dany izolator, będzie musiał funkcjonować. Podstawowymi parametrami na jakie trzeba zwracać uwagę przy wyborze izolatorów są: temperatura w jakiej pracują przeciętnie waha się ona w przedziale od -30 stopni Celsjusza do +130 stopni. Kolejnym aspektem jest napięcie przebicie czyli napięcie przy którym następuje przebicie materiału z którego wykonany jest izolator. Wartości te podane są zawsze na 1 cm materiału. Izolatory posiadają bardzo różna siłę przebicia i waha się ona od 0,8 do nawet 20 więc jest to duży przedział. Izolatory mają bardzo różne kolory i rzadko są ściśle uzależnione od ich zastosowania.


Licencjonowane artykuły dostarcza Artelis.pl.

Prawie jak w RPA

Prawie jak w RPA


Autor: agata


Każdy, prawdziwy fan piłki nożnej wie, że mecze najlepiej oglądać na stadionie. Tylko wtedy można poczuć tę wyjątkową, stadionową atmosferę: skandować do woli w szalejącycm tłumie, krzyczeć, skakać i robić różne inne, dziwne rzeczy.


Niestety, możliwość wyjazdu na takie wydarzenie wiąże się z dużymi kosztami, i pozwolić sobie mogą na to tylko niektórzy.

A co z resztą? Ze zwykłymi zjadaczami chleba, którzy też chcieliby mieć swój udział w tym – nie oszukujmy się – historycznym wydarzeniu? Otóż okazuje się, że wcale nie trzeba jechać do RPA by zobaczyć Mundial.

O dobrodziejstwie telewizji nie będę tu wspominać, bo to jest już zbyt oczywiste. Odbiornik telewizyjny posiada chyba każdy pospolity zjadacz chleba. TVP transmituje wszystkie mecze, i to na żywo.

Ale każdy pospolity zjadacz chleba musi też pracować – chociażby po to by własnie na ten telewizor zarobić – a oglądanie tv w pracy jest co najmniej trudne. Wtedy z pomocą przychodzi nam Internet, który nadal pozostaje najszybszym źródłem wszelkich informacji. Specjalnie z okazji odbywających się właśnie Mistrzostw Świata w Piłce Nożnej kilka najbardziej popularnych portali przygotowało dla kibiców specjalne serwisy poświęcone tej tematyce. Nie tylko na bieżąco możesz sprawdzić wszystkie wyniki meczów, przeczytać masę artykułów, obejrzeć zdjęcia , zobaczyć harmonogram rozgrywek itp. Dzięki najnowszym technologiom możesz obejrzeć mecz na żywo także za pośrednictwem sieci. Jedyne co musisz zrobić to ściągnąć na swój komputer odpowiedni program, który jest darmowy, i umożliwia odbiór materiałów na żywo poprzez kanały tworzone przez użytkowników sieci.

Jak grzyby po deszczu zaczęły wyrastać najróżniejsze strony poświęcone tematyce Aktualnych Mistrzostw Świata w Piłce Nożnej. Ale myli się ten, kto myśli, że to wszystko co Intranet ma nam do zaoferowania.

Nie możesz co prawda pojechać do Afryki, ale możesz obejrzeć wszystko w sieci. Specjlanie dla fanów piłki noznej Google przygotowało program dzięki którym poczujesz się jakbyś tam na prawdę był. Dzięki Google Maps i Google Earth możesz odbyć wirtualny spacer po stadionach w Republice Południowej Afryki oraz obejrzeć stadion w wersji 3D. Google wprowadziło także street view co umożliwi internautom tzw widok z murawę wszystkich stadionów, na których będą się dobywać mecze w ramach Mundialu, obracając się o 360 stopni możesz zobaczyć jak wygląda stadion z murawy. Oczywiście nie może się to równać z widokiem czy emocjami które się odczuwa będą na stadionie, ale tak czy siak wdzięczni jesteśmy za ciekawe możliwości naszej techniki.

Jeśli z jakiś powodów nie możesz obejrzeć Mundialu ani w telewizji ani w sieci zawsze możesz iśc do baru ze znajomymi i razem z nimi obejrzeć mecze na telebimie w towarzystwie innych kibiców.


agata b.

Licencjonowane artykuły dostarcza Artelis.pl.

Technolgia AJAX

Technolgia AJAX


Autor: JotJot


Używasz laptopa, komputera a może telefonu z dostępem do Internetu z zainstalowaną przeglądarką. Nieważne czy jest to Firefox, Opera czy Safari. Na pewno zdarzyło się, że po kliknięciu na listę wyboru się czekałeś bardzo długo - kilka sekund! No cóż, jedno już wiesz na pewno - twórca strony najwyraźniej nie wie co to jest AJAX.


Zanim wyjaśnię, czym jest wspomniana technologia, warto wiedzieć jak działa przeglądarka internetowa. Korzystanie z jej funkcjonalności polega na tym, że klikając lub wpisując tekst wysyłamy zapytanie do serwera, który w odpowiedzi przesyła do przeglądarki żądane informacje. Ujmując to inaczej, przeglądarka w naszym imieniu wysyła zapytanie do serwera i dostaje od niego odpowiedź. Jest po proste działanie oparte na schemacie bodziec - reakcja. Przeglądarka wysyła żądanie i czeka na odpowiedź by ją wyświetlić na ekranie monitora a użytkownik czeka dłużej lub krócej. Kilka lat temu, zaczęto się zastanawiać, czy nie można przyśpieszyć tego działania tego mechanizmu i znaleziono proste w swej idei rozwiązanie - technologię AJAX. Jej prostota polega na tym, że część zapytań użytkownika jest przetwarzana bez potrzeby wysyłania natychmiastowego zapytania na serwer. Dzięki temu nie musimy czekać aż przeładuje się cała strona by zobaczyć np nazwę poszukiwanej piosenki na popularnym portalu. W ten sposób nasza interakcja jest bardziej dynamiczna i nie tracimy czasu na przeładowanie całej strony. Najlepiej to zaobserwować podczas korzystania z poczty www. Kliknijmy na wiadomość i skupmy się przez chwilę na na tym co się dzieje - załadowana zostaje tylko treść wiadomości, natomiast cała reszta nie zmienia się. W starszych rozwiązaniach, odczytanie wiadomości oznaczało konieczność przeładowania całej zawartości strony w html.

Co najważniejsze, zastosowanie AJAX nie ogranicza się tylko do stron www. W wielu firmach do codziennej pracy wykorzystywane są aplikacje typu klient - serwer pracujące również w przeglądarkach. Również tutaj wspomniana technologia ma szerokie zastosowane a jej efekty są jeszcze bardziej odczuwalne. Nawigacja pomiędzy stronami czy zawężanie listy wynikowej wykorzystywanej w nagłówkach kolumn to najprostsze sposoby jej użycia. Kolejnym, bardziej zaawansowanym pomysłem jest interaktywny kalendarz, pozwalający na pracę indywidualną jak i grupową. Dodatkową zaletą, jest jego powiązanie z innymi funkcjonalnościami w systemie, co znacznie upraszcza codzienną pracę.

Codzienne życie pokazuje, że AJAX spełnił pokładane w nim nadzieje. Jego działania nie uświadamiamy na co dzień, ciesząc się z coraz szybciej działających stron, a o to chodziło twórcom tej technologii.

Po więcej informacji zapraszam na stronę crm7.pl.


Licencjonowane artykuły dostarcza Artelis.pl.

Stworzenie strony internetowej – proste?

Stworzenie strony internetowej – proste?


Autor: Poliman


Przedstawię pokrótce proces tworzenia strony internetowej, by uświadomić, że każdy jego etap jest ważny dla efektu finalnego, jakim jest dobra witryna przynosząca zyski.


Budowanie strony internetowej nie jest procesem prostym, ani szybkim. Oczywiście w przypadku współpracy zgranego zespołu, można ten czas zminimalizować. Jednakże stworzenie dobrej strony internetowej jest procesem wieloetapowym i wymaga odpowiedniego nakładu pracy kilku wyspecjalizowanych osób – projektanta, grafika, programisty, web-developera... Dlatego nie łudźmy się i nie wierzmy w okazje typu strona internetowej za 300zł! Taka „strona” będzie zrobiona byle jak, bez odpowiedniej staranności, dbałości, a na pewno bez odpowiedniej wiedzy i umiejętności. Dlatego też będzie pełna błędów, których na pierwszy rzut oka może nie widać, ale które wpływają na jej funkcjonowanie (np. pozycja w wyszukiwaniach).

Przedstawię pokrótce proces tworzenia strony internetowej, by uświadomić, że każdy jego etap jest ważny dla efektu finalnego, jakim jest dobra witryna przynosząca zyski.

Narodziny pomysłu

Można powiedzieć, że ten etap inicjuje właściciel, który decyduje się na stworzenie witryny. Ważne na tym etapie jest określenie celu, jaki chce się dzięki stronie osiągnąć.

Projekt

Wbrew pozorom pierwszym etapem prac nad stroną nie jest projekt graficzny. Zanim grafik do niego przystąpi, należy na podstawie analizy celu oraz grupy docelowej strony dokonać projektu strony – jej funkcjonalności, struktury strony, nawigacji. To zadanie leży w rękach projektanta. Dopiero na podstawie jego wytycznych grafik przystępuje do swojej części prac. Efektem finalnym ma być ładnie wyglądający, funkcjonalny, a przede wszystkim użyteczny projekt strony. Użyteczny, to znaczy taki, który pozwoli użytkownikowi w wygodny dla niego sposób korzystać ze strony i odnaleźć poszukiwane informacje. Inaczej mówiąc – taki, który sprawi, że użytkownik zechce na stronie zostać, a w przyszłości na nią powrócić. Na dobry projekt składa się wiele czynników, najważniejsze to: prosta w użyciu nawigacja, dobra czytelność i odpowiednia hierarchia informacji.

Implementacja

Kolejnym etapem prac nad stroną jest jej implementacja, czyli w skrócie programowanie. Tutaj do dzieła przystępuje programista i web-developer. Jako, że ten etap ma ściśle techniczny charakter, nie będziemy wnikać w szczegóły.

Testowanie i optymalizacja

Przed oddaniem gotowego produktu klientowi należy przeprowadzić podsumowujące testy – czy wszystko działa tak, jak powinno, czy jest zgodne ze standardami, czy nie wkradły się gdzieś błędy. Ważnym elementem tego etapu jest też sprawdzenie strony pod kątem optymalizacyjnym – czy jest łatwa do czytania – zarówno dla użytkowników, jak i robotów wyszukiwarek. Te ostatnie zapewniają stronie dobrą indeksację , czego z kolei wynikiem jest wysoka pozycja w wynikach wyszukiwania. A jak wiadomo jest to jeden z najważniejszych czynników zapewniających stronie sukces.

Jak widać każdy etap tworzenia strony internetowej jest bardzo ważny. Zaniedbania w jakiejś kwestii lub po prostu brak wiedzy uniemożliwiający odpowiednie działania mogą przyczynić się do porażki strony. A wtedy okaże się ona marną inwestycją. Dlatego jeśli planuajesz stworzyć profesjonalną stronę internetową – po prostu – udaj się do profesjonalistów.

Proste? :)


Strony internetowe Kraków

Licencjonowane artykuły dostarcza Artelis.pl.

Jak oglądać filmy w Internecie?

Jak oglądać filmy w Internecie?


Autor: Sun Pin


Nudzi Ci się, masz ochotę na dobrą komedię? A może wolałbyś obejrzeć trzymający na napięciu film akcji? Być może jesteś przedstawicielką płci pięknej i masz chętkę na romantyczną komedię? W internecie możesz znaleźć dużo serwisów, gdzie zrobisz to za darmo lub za niewielką opłatą.


Na początku polecam Iplex.pl. Możesz tam obejrzeć np. "Death Proof" Quentina Tarantino albo "Lektora". A oprócz tego ponad czterysta filmów - dokumentalnych, dramatów, komedii. Ciekawie zapowiada się też kino czeskie, latynoskie czy orientalne. Oprócz tego dostępnych jest ponad dwieście skeczy kabaretowych, ot m.in. słynna "Chińska restauracja" Kabaretu Ani Mru-Mru albo prawie pięćdziesiąt skeczy Grupy MoCarta. Oprócz tego także seriale - "Trójkąt" i "Dr Martin". Wszystkie materiały za darmo.

Serwis VoD.onet.pl jest także godny polecenia. Oprócz popularnych seriali i telenowel - "Ostrego dyżuru", "Kasi i Tomka","Detektywów" czy "Na Wspólnej", w serwisie Onetu możemy także obejrzeć filmy, np. "Brudnego Harry'ego" czy "Powrót Batmana", ale także dokument o Jeanie Lucu-Godardzie czy Marlonie Brando. Niektóre materiały są darmowe, za inne przyjdzie nam jednak zapłacić - np. 29,90 zł za pakiet trzydziestu filmów albo 19,90 zł za pakiet sześciu seriali.

Kolejnym serwisem, o którym chciałbym wspomnieć jest cineman.pl. Znajdziecie tak takie filmy jak "Slumdog - milioner z ulicy","Step Up - taniec zmysłów" czy "Tajemnica Brokeback Mountain". Wszystkie obrazy płatne, ceny w okolicach 7-9 złotych. Płacić można za pośrednictwem SMS, kartą czy przelewem.

Kolejnym płatnym serwisem oferującym VoD jest tvscreen.pl. Tu możemy obejrzeć, np. "Surogatów" czy "Rewers". Z serwisem związana jest także strona lovido.pl, oferująca filmy dla dorosłej publiczności ;-) Tvscreen.pl oferuje także ciekawy wybór filmów produkcji National Geographic Channel - m.in. "Seks dzikich zwierząt", "Megafabryki" albo "Katastrofa w przestworzach".

Warto wspomnieć o należącej do Polsatu Ipli. Aby korzystać z udostępnionych materiałów, konieczne jest zainstalowanie na swoim komputerze aplikacji ipla. Jej użytkownicy zyskują dostęp do seriali - "Ekipa", "Daleko od noszy" czy "Mamuśki", ponadto programów rozrywkowych, muzycznych czy informacyjnych. Dostęp do niektórych materiałów jest płatny.

Miłośników "Klanu", "Plebanii" czy "Mody na sukces" przyciągnie z pewnością strona Telewizji Polskiej, gdzie za darmo można obejrzeć odcinki tych seriali. Ale to nie wszystko, co oferuje TVP. Obejrzeć możemy także ostatni odcinek "Wiadomości", skecze kabaretowe czy filmy dokumentalne.


Artykuł z poradnia.blox.pl

Licencjonowane artykuły dostarcza Artelis.pl.

Sieci WiMAX

Sieci WiMAX


Autor: Anna Skiba


Sieci WiMAX (802.16-2004) umożliwiają szerokopasmowy dostęp do Internetu i telefonii. Mogą pracować w warunkach bez widoczności optycznej pomiędzy bazą i odbiornikiem. Działają w licencjonowanym (chronionym) paśmie 3,4 ÷ 3,8 GHz.


Standard WiMAX

Sieciami WIMAX popularnie nazywane są bezprzewodowe sieci pracujące w standardzie IEEE 802.16-2004. Nazwa „WiMAX" pochodzi od organizacji zrzeszającej producentów i zajmującej się certyfikacją urządzeń zgodnych ze standardem. Certyfikaty powinny gwarantować kompatybilność pomiędzy urządzeniami różnych producentów.

Przeznaczenie sieci WiMAX

WiMAX został zaprojektowany jako bezprzewodowa alternatywa dla łączy typu DSL, E1. Typowo ma umożliwiać szerokopasmowy dostęp do internetu i telefonii dla mieszkańców domów jednorodzinnych. Jest też stosowany do połączenia wielu oddziałów firmy, jednostek administracji publicznej lub instytucji w jedną sieć. W polskich warunkach ekonomicznych często bywa traktowany jako sieć szkieletowa na potrzeby sieci hotspotów.

Potencjał standardu WiMAX

Typowy sektor radiowy WiMAX osiąga przepustowości rzędu 10Mb/s download i 8 Mb/s upload dla ruchu UDP w kanale 3,5 MHz. Stacje bazowe składają się z od jednego do sześciu sektorów radiowych. Sektory radiowe najczęściej tworzone są za pomocą anten o kącie promieniowania 60, 90 lub 120 stopni. W przypadku jednosektorowych stacji bazowych można wykorzystać anteny dookólne. Zasięg stacji bazowej jest uzależniony od rodzaju anten i ukształtowania terenu. Zwykle jest to kilka, czasami kilkanaście kilometrów. System WiMAX może działać bez widoczności optycznej (NLOS). Jednak efektywne zasięgi w takim przypadku spadają do kilkuset metrów - kilku kilometrów.

Wykorzystywane częstotliwości licencjonowane

W Polsce najpopularniejsze są sieci działające w paśmie licencjonowanym 3,4 ÷ 3,8 GHz. Ze względu na to, że w Polsce sieci WiMAX stosowane są w paśmie licencjonowanym, w pierwszej kolejności należy zadbać o rezerwację częstotliwości. Przydziałem częstotliwości zajmuje się Urząd Komunikacji Elektronicznej. Informacje związane z uzyskaniem pozwoleń radiowych dostępne są na stronach UKE. Po uzyskaniu informacji jakie kanały są wolne możemy przystąpić do wyboru urządzeń. Szczególnie powinniśmy zwrócić uwagę na rodzaj dupleksu (TDD lub FDD).

Weźmy pod uwagę poniższe cechy charakteryzujące obydwa rodzaje urządzeń:

TDD

- efektywny w przypadku transmisji niesymetrycznej czyli w przypadku gdy ilość wysyłanych i odbieranych danych jest różna. Taką charakterystykę ma klasyczny dostęp do Internetu gdzie większość użytkowników więcej danych pobiera niż wysyła,

- stosunkowo tańsze urządzenia

FDD

- efektywny w przypadku transmisji symetrycznej

- nieco krótsze opóźnienia transmisji pakietów,

- droższe urządzenia


Anna Skiba

Licencjonowane artykuły dostarcza Artelis.pl.

Polski rynek atrakcyjny dla amerykańskiej internetowej platformy SMS

Polski rynek atrakcyjny dla amerykańskiej internetowej platformy SMS.


Autor: Piotr Zaniewicz


Od poniedziałku pod adresem www.cherple.com/pl można znaleźć Polską wersję językową amerykańskiego serwisu internetowego. Polska jest drugim nie anglojęzycznym krajem, w którym można korzystać z Cherple w ojczystym języku.


Cherple jest komunikatorem on-line, pozwalającym na dwustronny czat z użytkownikami komórek w Stanach Zjednoczonych. Wysyłanie bezpłatnych wiadomości SMS z Cherple na telefon komórkowy odbywa się poprzez stronę internetową usługi lub aplikację na PC. Można również wysłać wiadomość w odwrotnym kierunku - z komórki na peceta, w tym jednak przypadku trzeba liczyć się z opłatą naliczaną przez operatora sieci.

„Dlaczego w Polsce ? To właśnie tutaj mieliśmy najwięcej odwiedzin w przeciągu ostatnich dwóch miesięcy, od chwili rozpoczecią naszych działań marketingowych“, powiedział Robert Sanchez, CEO Globaltel, firmy która stworzyła Cherple.

Cherple zdobył popularność wśród amerykańskiej polonii, znacznie im ułatwiając kontakty z bliskimi w Polsce. Twórcy portalu są przekonani, że polska odsłona portalu pomoże im zdobyć nowych użytkowników oraz ułatwi korzystanie z portalu osobom, które do tej pory miały problemy z angielską wersją.

„Naszym celem jest, aby Cherple był bardziej przystępny dla użytkowników spoza USA. Polską wersję traktujemy jako test, przed działaniami na większą skalę“, kontynuuje Sanchez.

Ze względu na rosnącą w szybkim tempie ilość Polskich użytkowników na Facebooku, twórcy Cherple głównie na portalach społecznościowych chcą zaznaczyć swoją obecność w Polsce. W planach jest rowniez uruchomienie aplikacji na Facebook`a, ktora pozwoli korzystac z Cherple bez instalacji aplikacji na swoim PC.

Aplikacja Cherple jest dostępna pod adresem www.cherple.com.


Licencjonowane artykuły dostarcza Artelis.pl.

Zakłócenia w sieciach radiowych

Zakłócenia w sieciach radiowych


Autor: Anna Skiba


Działanie sieci Wi-Fi w paśmie nielicencjonowanym jest ich największa zaletą i jednocześnie wadą. Pasmo nielicencjonowane, szczególnie 2,4 GHz, jest użytkowane przez wiele urządzeń i standardów transmisji. Do najpopularniejszych należą: Bluetooth, telefony bezprzewodowe, kuchenki mikrofalowe.


Szczególnie niekorzystne jest bliskie sąsiedztwo urządzeń Bluetooth, które wykorzystują praktycznie całe pasmo 2,4 GHz. Bluetooth „skacze" 1600 razy na sekundę po 79 kanałach po 1 MHz. Znacznie bardziej prawdopodobne jest, że to Bluetooth będzie zakłócał 802.11b/g, ponieważ skoki częstotliwości w Bluetooth są dużo częstsze niż w przypadku 802.11 b/g. Na szczęście moce i co za tym idzie zasięgi Bluetooth są niewielkie, wiec interferencje pomiędzy tymi systemami zwykle nie są zbyt duże.

Także kuchenki mikrofalowe zwykle nie mają istotnego wpływu na sieci WLAN. Należy zadbać o to, żeby kuchenki nie znajdowały się bliżej niż 2 m od punktów dostępowych oraz bezwzględnie należy przestrzegać zaleceń zawartych w instrukcji obsługi do kuchenki. W szczególności należy dbać o szczelne zamykanie drzwiczek kuchenki oraz absolutnie nie używać kuchenki w przypadku uszkodzenia jej obudowy.

Zupełnie innym zagadnieniem są zakłócenia generowane przez same urządzenia Wi-Fi. W paśmie 2,4 GHz w Polsce dostępnych jest 13 kanałów, z czego tylko trzy są niezależne, tzn. ich częstotliwości nie pokrywają się. Powoduje to, że w przypadku obecności wielu urządzeń (więcej niż trzy) na niewielkim obszarze, muszą one pracować, wykorzystując pokrywające się zakresy częstotliwości. Może to powodować pogorszenie parametrów transmisji.

Twórcy standardów z rodziny 802.11 przewidzieli to, że urządzenia będą działały w paśmie nielicencjonowanym czyli w warunkach, w których w pobliżu pojawią się inne urządzenia na sąsiednich kanałach lub nawet na tym samym. Dlatego urządzenia wykorzystują modulację szerokopasmową, która znacząco zmniejsza wpływ takich zakłóceń. W dużym skrócie i uproszczeniu dla najprostszej modulacji działa to w ten sposób, że urządzenie 802.11 nie nadaje w całej szerokości kanału, a tylko na jednej podnośnej. Podnośne sa ciągle zmieniane wg klucza znanego nadajnikowi i odbiornikom. Dzięki temu prawdopodobieństwo zakłócenia transmisji jest małe nawet, jeśli na tym samym kanale pracuje wiele urządzeń.

Jeśli już dojdzie do zakłócenia, to transmisja uszkodzonej „paczki" jest ponawiana na innej podnośnej. Oczywiście, prawdopodobieństwo zakłóceń rośnie wraz ze wzrostem liczby urządzeń i ilości transmitowanych danych. W praktyce parametry sieci zależą w większym stopniu od intensywności transmisji, niż od ilości działających urządzeń.

Znacznie lepiej przedstawia się sytuacja w paśmie 5 GHz gdzie do dyspozycji jest 8 niezależnych kanałów. Ponadto w tym paśmie w zasadzie nie spotyka się innych urządzeń, niż 802.11a/n, które mogłyby wprowadzać zakłócenia, a ich liczba jest znacznie mniejsza w porównaniu do 802.11b/g. Urządzenia do transmisji w paśmie nielicencjonowanym są przystosowane do pracy w warunkach, gdzie mogą występować znaczne zakłócenia. Odpowiednio dobierając urządzenia, anteny, moc, czułość i inne parametry oraz oczywiście kanały, można jeszcze bardziej zmniejszyć wpływ zakłóceń.

Doświadczenie projektanta systemu radiowego ma tu kluczowe znaczenie. Jeśli podejdzie się do zagadnienia odpowiednio, to można tak wszystko ustawić, żeby zmieścić więcej urządzeń niż tylko tyle, ile wynikałoby z informacji o trzech niezależnych kanałach.

Zalecenia:

- nie używać urządzeń Bluetooth w odległości mniejszej niż 10 m od punktów dostępowych,

- wyłączać radiowe urządzenia klienckie, jeśli nie są w użyciu;rozplanować rozmieszczenie punktów dostepowych w taki sposób, żeby zapewniały jak najlepsze pokrycie zasięgiem terenu, przy jak najmniejszych mocach emitowanego sygnału,

- w miarę możliwości zmniejszać emitowaną moc z nadajnika do poziomu, który umożliwi pokrycie zasięgiem wymaganego obszaru z zadowalającym poziomem odbieranego sygnału (około 25 dB SNR),

- dbać o to, żeby punkty dostępowe o pokrywających się zasięgach pracowały na niezależnych kanałach. Jeśli liczba AP jest większa niż liczba niezależnych kanałów, należy tak zaplanować podział kanałów, aby sąsiadujące AP miały jak najdalej oddalone od siebie kanały,

- prowadzić monitoring transmisji radiowej i dostosowywać konfigurację urządzeń radiowych do zmieniających się warunków,

- w miarę potrzeb: dostosowywać poziom czułości AP do poziomu szumów,

- włączyć mechanizm RTS/CTS i zoptymalizować jego parametry w przypadku występowania problemów z tzw. ukrytą stacją,

- stosować fragmentację pakietów w przypadku bardzo dużych zakłóceń,

- podjąć działania mające na celu wyeliminowanie niepożądanych transmisji w warstwie radiowej,


Anna Skiba

Licencjonowane artykuły dostarcza Artelis.pl.

Punkt dostępowy 2,4 GHz - właściwy wybór...?

Punkt dostępowy 2,4 GHz - właściwy wybór...?


Autor: Anna Skiba


Stając przed wyborem punktu dostępowego powinniśmy przede wszystkim zdać sobie sprawę z zastosowania do którego będziemy chcieli go użyć. Mając określony cel możemy zdecydować, które cechy urządzenia są istotne, które nieważne, a które wręcz szkodliwe. Nad czym powinniśmy się zastanowić...


Autonomiczny czy "lekki" punkt dostępowy

Autonomiczne AP stosuje się zwykle w małych i średnich sieciach. W przypadku rozległych sieci coraz popularniejsze jest zastosowanie portów radiowych zarządzanych przez kontroler. Istotną zaletą takiego rozwiązania jest scentralizowane zarządzanie. W tym przypadku zarządza się zbiorowo całą grupą urządzeń co w przypadku dużej sieci jest dużo efektywniejsze niż indywidualna konfiguracja każdego urządzenia z osobna.

Wybór standardu

Daje się zauważyć, że sieci w standardzie „g" są bardziej podatne na zakłócenia niż te w standardzie „b". Z drugiej strony „g" jest szybszy od „b". Dlatego jeśli budujemy sieć wewnętrzną, potrzebujemy dużych przepustowości, zamierzamy wykorzystywać VoIP lub w pobliżu nie ma zakłóceń to powinniśmy wybrać „g". Jeżeli budujemy sieć bezprzewodową zewnętrzną, gdzie są duże zakłócenia, powinniśmy raczej wybrać urządzenia działające w standardzie „b".

Wydajność urządzeń

Bardzo szeroko rozumiane określenie, który ocenia zdolność Access Pointa do współpracy z określoną liczbą radiowych końcówek klienckich w warunkach rzeczywistych. Producenci często podają, że dany punkt dostępowy może obsłużyć np. 254 terminale klienckie. Liczba ta nie ma nic wspólnego z rzeczywistą wydajnością. Mówi nam jedynie, że taka liczba terminali może podłączyć się do punktu dostępowego, lecz wcale nie gwarantuje nam , że wszystkie terminale będą mogły jednocześnie, w miarę wydajnie współpracować z AP. W warunkach rzeczywistych, w przypadku sieci zewnętrznych, najwydajniejsze AP są w stanie obsłużyć około 20 radiowych końcówek klienckich.

Wydajność punktów dostępowych oceniana jest „na oko" i dosyć mocno uzależniona jest od charakterystyki samej sieci i użytkowników do niej podłączonych oraz subiektywnej oceny. Istnieją sieci, gdzie do najwydajniejszych AP jest podłączonych 50 użytkowników i wszyscy są zadowoleni, jednocześnie w innych sieciach radiowych te same modele ledwo sobie radzą z kilkunastoma użytkownikami.

Można zauważyć zbieżność pomiędzy ceną punktu dostępowego i jego wydajnością. Nie oznacza to jednak, że warte zainteresowania są jedynie najdroższe i najwydajniejsze punkty dostępowe. Nie zawsze nasz AP będzie musiał obsługiwać tak duże ilości użytkowników. W związku z tym warto zasięgnąć opinii wykwalifikowanych techników, który AP zadowoli nasze potrzeby pod względem rzeczywistej wydajności.

Stabilność

To drugi parametr, który w zasadzie jest niemierzalny. Niestety, często niedrogie punkty dostępowe mają tendencje do "zawieszania się". Niektóre zawieszają się z powodu przeciążenia, inne z powodu błędów w oprogramowaniu. Czasami problemy ze stabilnością są wynikiem błędów w eksploatacji. Generalnie, jeżeli budujemy profesjonalną sieć bezprzewodową z dużą liczbą klientów na jednego AP, nie powinniśmy oszczędzać na punktach dostępowych.

Jeżeli tworzymy niewielką sieć np. domową, gdzie jest niewielkie obciążenie AP, to nawet tanie punkty dostępowe będą działały stabilnie. W takim przypadku stabilność nie jest krytyczna. Nawet jeżeli nasz tani Access Point się zawiesi to najczęściej pomaga wyjęcie i ponowne włożenie wtyczki do gniazdka co nie stanowi wielkiego problemu.

Rodzaj obudowy

Większość punktów dostępowych nie posiada obudowy zabezpieczającej przed negatywnym wpływem warunków atmosferycznych. Nie oznacza to jednak, że nie możemy ich użyć do budowy sieci zewnętrznych. Zdecydowana większość urządzeń wewnętrznych doskonale sobie radzi po zamknięciu w szczelnej (ale nie hermetycznej) obudowie razem z zasilaczem. Obecność zasilacza w obudowie dodatkowo podgrzewa urządzenie w zimie, w lecie nie doprowadza do przegrzania.

Pamiętajmy jednak, że jest dostępnych wiele modeli urządzeń w obudowach przystosowanych do montażu zewnętrznego. W połączeniu z zasilaniem Power over Ethernet są dużo łatwiejsze i szybsze w montażu a wykonana instalacja jest bardziej profesjonalna. W przypadku zastosowań przemysłowych obudowę o klasie szczelności IP65 należy potraktować jako element niezbędny - nie tylko ze względu na temperaturę i wilgotność, ale także ze względu na zapylenie.

Zintegrowana antena

Niektóre modele punktów dostępowych maja zintegrowaną antenę radiową. Może to być antena o bardzo małym zysku, która w zasadzie pozwala na stosowanie tylko wewnątrz budynków. W takim przypadku AP zwykle posiada złącze do anteny zewnętrznej. Także dostępne są urządzenia w obudowach zewnętrznych zintegrowane z mocnymi antenami kierunkowymi lub sektorowymi. Należy liczyć się z tym, że w niektórych modelach ze zintegrowaną anteną nie ma złącza do anteny zewnętrznej.

Zasilanie PoE

Część punktów dostępowych może być zasilana w technologii Power over Ethernet, która pozwala na zasilanie urządzenia przez kabel UTP (skrętkę). Urządzenia mogą obsługiwać PoE w wersji specyficznej dla danego producenta/modelu lub PoE w standardzie 802.3af. PoE specyficzne dla modelu/producenta najczęściej jest niekompatybilne z urządzeniami innych producentów i ma ograniczoną długość kabla UTP, przy którym może być używane. Przekroczenie tej długości może powodować niestabilną pracę urządzenia. W takim przypadku zwykle trzeba użyć zasilacza o większym napięciu.

PoE 802.3af zapewnia kompatybilność pomiędzy wszystkimi urządzeniami wspierającymi ten standard oraz może być stosowane przy kablach UTP o długości do 100m. Warto też zwrócić uwagę, że coraz popularniejsze stają się przełączniki, które poprzez swoje porty mogą zasilać podłączone do nich urządzenia zgodne z 802.3af. PoE jest bardzo dobrym rozwiązaniem, jeżeli nie chcemy wyprowadzać zasilania 230VAC na dach. Stosowanie PoE także jest bardzo przydatne przy sieciach wewnętrznych. PoE pozwala uniknąć kosztownego projektowania i budowy sieci elektrycznej do zasilania punktów dostępowych.

Tryby pracy

Zwróćmy uwagę w jakich trybach może prcować interesujące nas urządzenie. Teoretycznie im większa ich liczba tym większa możliwość zastosowań. Z drugiej strony obecnie najczęściej wykorzystuje się tryby AP, WDS i ewentualnie APClient - te tryby wystarczą do zrealizowania zdecydowanej większości topologii połączeń.

Moc i czułość odbiornika

O ile kwestia mocy nadajnika dla większości jest oczywista, o tyle często zapominamy o czułości odbiornika, która także ma bardzo duży wpływ na parametry sieci. W przypadku większości punktów dostępowych moce nadajników są zbliżone i najczęściej wynoszą 20 dBm (100mW). Pomijając ekstremalne przypadki budowy łączy radiowych na wielokilometrowe odległości nie powinniśmy przeceniać tego parametru. Szczególnie, że obowiązują nas przepisy ograniczające maksymalną moc wypromieniowywaną z anteny (EIRP) do 20 dBm w paśmie 2,4GHz. Większe różnice są w czułości odbiorników i to właśnie tu powinniśmy raczej szukać lepszych parametrów.

Blokowanie komunikacji pomiędzy klientami radiowymi

Opcja bardzo przydatna ze względu na wydajność i bezpieczeństwo sieci bezprzewodowej. Włączenie tej blokady uniemożliwia bezpośrednią komunikację klientów radiowych podłączonych do punktu dostępowego. Zapobiega to przeciążeniu punktu dostępowego przez nielimitowaną, bezpośrednią transmisję pomiędzy komputerami klienckimi, ogranicza rozprzestrzenianie się robaków internetowych w WLAN oraz podnosi poziom bezpieczeństwa sieci.

Forwardowanie pakietów

Opcja uzupełniająca blokowanie komunikacji między klientami radiowymi. Blokada komunikacji między klientami radiowymi jest skuteczna jedynie w obrębie jednego punktu dostępowego. Jeżeli do jednego przełącznika podłączymy kilka punktów dostępowych to klienci z jednego AP będą mogli skomunikować się z klientami z drugiego AP. Włączenie forwardowania pakietów na konkretny adres MAC (najczęściej adres bramy dostępowej lub routera) uniemożliwi bezpośrednią komunikację między klientami radiowymi podłączonymi do różnych AP.

Mechanizmy bezpieczeństwa

W sieciach dostępowych do Internetu mechanizmy bezpieczeństwa bardziej wykorzystuje się w celu autentyfikacji i autoryzacji użytkowników niż w celu zapewnienia poufności transmisji. Ponadto bardzo istotna jest łatwość wdrożenia i użytkowania zabezpieczeń. Liczba możliwych zabezpieczeń jest bardzo duża i ich wybór uzależniony jest od wielu czynników (w tym od preferencji administratora).

Do najpopularniejszych zabezpieczeń należy autoryzacja na podstawie adresu MAC (bardzo słabe zabezpieczenie, ale też bardzo łatwe we wdrożeniu), także za pomocą serwera Radius, oraz zestawianie tuneli PPPoE. Punkt dostępowy musi funkcjonalnie wspierać wybrane mechanizmy bezpieczeństwa. Nie wszystkie AP są w stanie przenosić tunele PPPoE.

Filtrowanie pakietów

Niektóre modele punktów dostępowych mają możliwość filtrowania pakietów wg zadanych reguł. Zakres możliwości filtrowania zależy od modelu punktu dostępowego. W niektórych modelach możemy nawet mówić o prostym firewallu. Wykorzystanie tych możliwości zależy od preferencji administratora. Niektórzy chcą zarządzać ruchem pakietów już na punktach dostępowych, inni traktują AP jako modem radiowy i chcą mieć kontrolę nad wszystkim, co dzieje się w sieci.

Obsługa VLAN

Pozwala tworzyć wiele wirtualnych sieci przez jedno fizyczne urządzenie. Wirtualne sieci mogą różnić się między sobą prawami dostępu do zasobów, sposobem autoryzacji użytkowników i mechanizmami bezpieczeństwa.

Interfejs zarządzania

Prawie wszystkie punkty dostępowe są obecnie zarządzane przez przeglądarkę WWW i najczęściej to wystarcza. Jednak, szczególnie w bardziej złożonych strukturach, przydatna jest możliwość zarządzania urządzeniami w trybie tekstowym lub przez specjalizowane programy.

Podsumowanie

Przedstawione powyżej zestawienie nie wyczerpuje wszystkich różnic pomiędzy punktami dostępowymi. Niektóre urządzenia mają serwer DHCP, więcej niż jeden port LAN, funkcję routera, koncentratora PPPoE i wiele, wiele innych. Nie zawsze wybór najdroższego urządzenia jest najlepszy. W zastosowaniach domowych doskonale sprawdzą się urządzenia o niezbyt dużej wydajności ale o bardzo dużej liczbie przydatnych funkcji. W zastosowaniach profesjonalnych wszelkiego rodzaju „wodotryski" schodzą na plan dalszy w stosunku do wydajności, niezawodności i stabilności urządzenia.


Anna Skiba

Licencjonowane artykuły dostarcza Artelis.pl.

Sieci bezprzewodowe 5 GHz

Sieci bezprzewodowe 5 GHz


Autor: Anna Skiba


W nielicencjonowanym paśmie 5GHz działają sieci bezprzewodowe 802.11a. Mogą być stosowane wewnątrz i na zewnątrz budynków. Często stosowane są do połączeń punkt-punkt i szkieletu sieci.


Pasmo to dzieli się na kilka podzakresów, które różnią się dopuszczalnymi mocami EIRP. Najpopularniejszy jest zakres 5,47 ÷ 5,75 GHz, w którym można emitować moce do 30 dBm (1W). W tym zakresie dostępnych jest 11 nie zachodzących na siebie kanałów (w paśmie 2,4GHz tylko 3). Większa liczba kanałów, mniejsza ilość sprzętu działającego w tym paśmie oraz charakterystyka 802.11a sprawia, że sieci tego typu są przeważnie stosowane do budowy szybkich łączy punkt-punkt i punkt-wielopunkt.

Możliwości sieci radiowych 5 GHz

Urządzenia w tym standardzie oferują przepustowości rzędu 20Mb/s. Najczęściej w paśmie 5GHz tworzony jest szkielet sieci, który służy do połączenia kilku stacji bazowych 2,4GHz w jedną strukturę podłączoną do Internetu. Pasmo 5GHz może być także wykorzystywane do dostarczenia sygnału do użytkownika końcowego. Jednak koszt urządzeń klienckich 5GHz jest stosunkowo większy od urządzeń klienckich na 2,4 GHz. Dlatego zwykle łącza 5GHz doprowadza się do użytkowników wymagających dużych przepustowości lub np. do bloków, gdzie sygnał dystrybuowany jest już przez sieć LAN do użytkowników końcowych.

Należy jednak pamiętać, że pasmo 5GHz to pasmo nielicencjonowane. Konsekwencją tego jest duże prawdopodobieństwo zakłócania pracy urządzenia radiowego przez inne urządzenia tego typu. Stąd w przypadku łączy o krytycznym znaczeniu warto rozważyć wykorzystanie pasma licencjonowanego.

Odmiany 802.11a

Sieci w paśmie 5 GHz często stosowane są do tworzenia łączy o dużej wydajności. Dlatego standard 802.11a doczekał się modyfikacji przez różnych producentów, które ukierunkowane sa na usunięcie niektórych wad w standardzie 802.11a i polepszenie parametrów transmisji. Producenci tworzą własne wersje protokołu bazujące na 802.11a. Niestety często urządzenia działające w zmodyfikowanej wersji standardu nie są kompatybilne z urządzeniami działającymi w "czystym" 802.11a. Przykładem takich protokołów jest WORP w urządzeniach Proxim Tsunami oraz Nstreme w Mikrotik. W niektórych rozwiązaniach jest możliwość wyboru czy urządzenia maja działać zgodnie z 802.11a czy w producenckiej wersji protokołu.

Najczęstsze modyfikacje w 802.11a to:

Superpakiet - transmisja dużej liczby małych pakietów przez sieć radiową jest mało efektywna. Stąd w celu zwiększenia efektywności małe pakiety są składane w jeden duży pakiet, który jest wysyłany przez interfejs radiowy.

Pooling - w standardzie 802.11a jest stosowany protokół dostępu do medium transmisyjnego typu CSMA/CA. Jest on nieefektywny w przypadku dużego ruchu gdy do punktu dostępowego podłączonych jest wiele stacji klienckich. W takich warunkach znacznie efektywniejszy jest tzw. „pooling", który charakteryzuje się tym, że to stacja bazowa decyduje kiedy klient może przesłać do niej jakieś dane.

Używanie urządzeń działających w zmodyfikowanym standardzie ma swoje pozytywne i negatywne strony. Z jednej strony mamy możliwość uzyskania łączy o lepszych parametrach. Z drugiej strony musimy się liczyć z niekompatybilnością z innymi rozwiązaniami i koniecznością podłączania urządzeń klienckich tego samego producenta co stacja bazowa.


Anna Skiba

Licencjonowane artykuły dostarcza Artelis.pl.

26 sierpnia 2016

Rozwój komunikacji, czyli ciągła ewolucja.

Rozwój komunikacji, czyli ciągła ewolucja.


Autor: Miłosz Rożański


Obecnie możemy oglądać w jaki sposób następuje rozwój sposobów komunikowania się między ludźmi, komputery sprawiają iż tłumaczenia stają się zbędne, a my jesteśmy rozumiani przez innych nie znając żadnego innego języka, jak może to wyglądać w przyszłości?


Ewolucja komunikacji.

Warto prześledzić proces ewoluowania systemów komunikacji który co może pomóc w wysuwaniu kolejnych przypuszczeń wyraźnie daje nam do zrozumienia o tym że przyśpiesza ewolucji w tempie jednostajnie przyśpieszonym, oczywiście niedokładnie lecz bardzo łatwo można zauważyć fakt iż coraz bardziej istotne zmiany w zakresie komunikacji między ludzkiej zachodzą w coraz mniejszych odstępach czasowych co pozwala nam przypuszczać iż tendencja ta może się utrzymać, a nawet przyśpieszyć jeszcze bardziej.

Wiadomo iż pierwszym etapem komunikowania się na dalsze odległości niż krótkie był krzyk który nikomu z nas nie jest obcy, można go zasłyszeć od Krakowa po Chiny i w każdym zakątku świata ponieważ obowiązuje on również obecnie, dlatego też uważamy że omawiani go jest całkowicie zbędne i niczemu nie zaszkodzi pominięcie go w dalszej części naszego artykułu.

-Sygnały dźwiękowe.

Mowa tu o wszelkiego rodzaju rogach oraz trąbach które używane były do dawania sygnałów dźwiękowych, w zależności od regionu oraz specyfikacji ludności różne dźwięki mogły mieć różne znaczenia. Używane we wszystkich zakątkach świata, również Kraków słynie z tego iż przez bardzo długi okres czasu korzystał z tego systemu komunikacji w celu ostrzegania przez zbliżającym się wrogiem, obecnie w Krakowie co godzinę z okna wieży mariackiej rozbrzmiewa hejnał który urywa się w pewnym momencie.

-Znaki Dymne.

Ich popularyzację zawdzięczamy przede wszystkim bajkom oraz filmom w których przedstawiano sposoby życia oraz komunikowania się Indian, pozwalają na dość duże odległości (do kilkunastu kilometrów) nieść ze sobą informacje, ich negatywną stroną jest brak jakiejkolwiek dyskrecji, o ile wcześniej nie umówimy się z kimś i nie będziemy nadawać szyfrem wiadomość może być prosta do odczytania dla ludzi w zasięgu kilkunastu kilometrów. Aby rozpalić ognisko potrzeba było dużo czasu podczas gdy na przykład w czasie ataku wroga nie było możliwości oddania się tej niezwykle skomplikowanej czynności.

-Kurierzy.

Zasada ich działania była prosta jednak przez wiele wieków nie byli tak skuteczni jak obecnie, dopiero wprowadzenie systemu pocztowego kiedy to posłańcy przekazywali sobie przesyłki i odpoczywali w specjalnych bazach usprawniło działanie tego sektora kilkukrotnie przyśpieszając okres czasu jaki trzeba było przetrwać by doczekać się swojej przesyłki.

-Gołębie pocztowe.

centrum gołębia medycznego z Krakowa

Gołębie pocztowe oraz wszelkie tego typu ptactwo wykorzystywane do przenoszenia informacji (na przykład synogarlice) pozwalało na dyskretniejszą komunikację na dużo dalszych odległościach, oczywiście gołębie które nie słyną ze swej inteligencji często błądziły lub przekazywały przesyłkę pod błędny adres, prawdopodobnie gołębie mają dużo większy związek z Krakowem niż ludziom wydaje się obecnie, przemawiają za tym dość ciekawe tłumaczenia.
Kraków
jako główna aglomeracja w Polsce był również centrum pocztowym przesyłu informacji, prawdopodobnie to zaważyło nad tym iż populacja gołębi mogła na stałe osiedlić się w Krakowie, dzisiejsze gołębie z Krakowskiego rynku prawdopodobnie są jedynie potomkami powstałymi na wskutek wymieszania się gołębi pocztowych oraz dzikiego ptactwa, tłumaczyło by to również ufność Krakowskich gołębi wobec ludzi.

-Telegramy.

Wraz z odkryciem prądu po za komunikacją sygnałami świetlnymi jak w przypadku latarni morskich wprowadzono kolejny rewolucyjny wynalazek jakim był telegram, pozwalał on na przesyłanie pojedyńczych impulsów elektrycznych i zamianę ich na energie kinetyczną która sprawiała iż specjalny młoteczek stukał wydając dźwięk, wtedy też zaczęty wykorzystywać spopularyzowany dzisiaj alfabet Braille'a, następnie telegram zmodyfikowana tak iż zamiast dźwięków pozostawiał on odbicia uderzeń na kartce papieru co pozwalało na zachowanie wiadomości.

-Telefony stacjonarne.

Pierwsze telefony stacjonarne wcale dużo nie różniły się od obecnych, aparaty nie uległy specjalnej zmianie, są jednak gorsze jakościowo chociaż bardziej zaawansowane technologicznie. Różniły się jednak sposobem łączenia, w zamierzchłych czasach aby wykonać do kogoś telefon musiałeś wpierw dodzwonić się do centrum telefonicznego w którym znajdowały się zakończenia kabli od wielu różnych aparatów, następnie operatorka po zasłyszeniu naszej prośby przełączała nasze połączenie łącząc je po prostu za pomocą kabla z linią innego aparatu telefonicznego.

-Radio

Rozmowy radiowe były skomplikowane i wymagały specjalistycznej aparatury jednak to właśnie odkrycie przez Nikola Teslę fal radiowych rzutowało na zmianę w sposobach późniejszej komunikacji, obecnie fale radiowe emitowane są non stop z wielu różnych źródłem i całkowicie wypełniają przestrzeń w okół nas oraz przez nas przepływają.

-Telefony komórkowe.

Co prawda pierwszy telefon komórkowy różnił się możliwościami oraz rozmiarem od obecnych lecz działał mniej więcej na tej samej zasadzie, telefon za pomocą fal radiowych łączył się z nadajnikiem który ma dużo większą moc nadawczą od samego telefonu, nadajnik następnie przekazuje wzmocnione połączenie do nadajnika znajdującego się w pobliżu osoby do której wykonujemy połączenie, by następnie ta przekazała je do naszego rozmówcy. Obecnie dla lepszego efektu korzysta się również z pomocy satelit okołoziemskich., w pierwszym telefonach istniał również nieznany współczesnej młodzieży problem, otóż w trakcie prowadzenia rozmowy niemożna się było normalnie przemieszczać ponieważ jeśli straciliśmy zasięg z nadajnika który był używany do przekazywania sygnału traciliśmy połączenie, a nie jak w czasach dzisiejszych telefon przełącza się nad inny bliższy nadajnik.

-Internet.

Internet niesie za sobą wszystkie plusy wyżej wymienionych systemów komunikowania się ludzi toteż możemy liczyć na szybkość komunikacji z prędkością światła, dyskrecję jaką zapewniały przesyłki listowe, zasięg do najdalszych zakątków świata, niską cenę lub jej całkowity brak za wysłanie informacji oraz mobilność. Dodatkowo Internet okazał się pierwszym medium całkowicie interaktywnym które kształtowane jest bezpośrednio przez użytkowników, nie jak telewizja gdzie widzowie od początku do końca pozostają bierni. Internet stał się miejscem w którym możemy zetknąć się z większą częścią wiedzy posiadanej przez ludzkość, od informacji na tematy medyczne po techniki seksualne, równocześnie zastąpił telewizję, gazety, encyklopedię, kino, książkę telefoniczną, a nawet prawdziwe sklepy. Jeśli bylibyśmy mieszkańcami Krakowa i potrzebowali skorzystać z pomocy lekarskiej nie musimy już szukać adresów po książkach telefonicznych które nie zawsze są pod ręką lecz wygodnie siedząc przed komputerem możemy wpisać słowa centrum medyczne Kraków by zaraz przed nami ukazała się lista stron z interesującymi nas informacjami, również zakupy można prowadzić drogą Internetową. Życie towarzyskie w pewnym stopniu u wielu ludzi również zostało zastąpione tym Internetowym kiedy to nie mamy bezpośredniego kontaktu z innymi osobami, w Stanach Zjednoczonych co ósme małżeństwo zawarte w 2009 roku poznało się za pomocą Internetu.

Dziękuję.


Licencjonowane artykuły dostarcza Artelis.pl.