23 listopada 2016

Co daje odpowiednia optymalizacja witryny WWW?

Co daje odpowiednia optymalizacja witryny WWW?


Autor: Artelis - Artykuły Specjalne


Odpowiednio zoptymalizowana witryna WWW szybciej zyskuje nowych użytkowników i popularność. Optymalizacja zlecana zazwyczaj jest agencjom SEO, które przygotowują specjalne audyty i reguły, jakich trzeba przestrzegać, by strona wysoko indeksowała się w wyszukiwarkach.


Stworzenie strony internetowej, która będzie zawierała ciekawą i oryginalną zawartość nie sprawi, że automatycznie odniesie ona sukces. By dotarła do potencjalnych odbiorców, musi być odpowiednio zoptymalizowana. Do tego niezbędny może okazać się audyt firmy zajmującej się SEO.

Czym jest optymalizacja stron WWW?

Optymalizacja strony WWW polega na podjęciu działań zmierzających do zwiększenia liczby odwiedzin przez użytkowników na danej witrynie. Przyczynia się do lepszego zrozumienia zawartości strony przez roboty sieciowe, co w efekcie przekłada się na jej wyświetlanie w momencie, gdy ktoś w internecie wpisuje daną frazę lub słowo kluczowe. Bez tego nawet największe budżety przeznaczone na działania promocyjne mogą nie przynieść oczekiwanych rezultatów. Warto więc zrezygnować np. z drogiego do napisania oprogramowania witryny lub zdecydować się na tani hosting stron, po to, by zaoszczędzone pieniądze przeznaczyć na audyt oraz optymalizację. Od tego zależy czy nasza strona zdobędzie popularność i osiągnie sukces.

Jak optymalizuje się witryny WWW i co to daje?

Podczas audytu w pierwszym etapie przygotowywane są wytyczne dotyczące optymalizacji kodu strony. Prowadzi się je pod kątem szybkości wyświetlania strony, wyszukiwania jej w wyszukiwarkach i zgodności ze standardami W3C (przestrzeganie go pozwala na odpowiednie wyświetlanie witryn na różnych urządzeniach). Dzięki tej optymalizacji roboty sieciowe wyszukiwarek z łatwością mogą poruszać się po stronie i ją indeksować.

Po optymalizacji kodu, firma przeprowadzająca audyt SEO musi przygotować reguły dotyczące tworzenia treści. Zawartość strony musi być przede wszystkim wartościowa dla użytkowników i unikalna. Zastosowanie popularnych słów kluczowych i fraz tworzonych w tekstach pozwala na lepsze pozycjonowanie witryny.

Ostatnim etapem audytu jest optymalizacja grafiki oraz struktury linków wewnętrznych. Ważne jest, by obrazy, które znajdują się na stronie, ważyły jak najmniej i wyglądały jak najlepiej. Dodatkowo podczas optymalizacji nie wolno zapomnieć o wzajemnym linkowaniu się treści umieszczonej na stronie. Poprawia to indeksowanie i zwiększa wartość witryny u robotów sieciowych.

Błędy podczas optymalizacji stron

Dobrze zoptymalizowana strona może dać jej właścicielowi więcej unikalnych wejść, co niesie za sobą większe szanse na zdobycie kontraktów reklamowych i umów biznesowych. Niejednokrotnie zdarza się jednak, że witryny są źle zoptymalizowane. Spowodowane jest to:

l złą konstrukcją strony,

l źle dobraną nazwą domeny,

l złym wyborem słów kluczowych,

l brakiem odpowiedniej dostępności dla robotów sieciowych,

l stosowaniem technik spamerskich.

Może cię również zainteresować: Jak promować swoją stronę w internecie?


Artykuły na licencjach dostarcza i publikuje Artelis.pl

Licencjonowane artykuły dostarcza Artelis.pl.

5 powodów, dla których warto kupować w sieci

5 powodów, dla których warto kupować w sieci


Autor: Kasia Mercik


Zakupy odzieżowe przez Internet cieszą się w Polsce coraz większą popularnością. Za granicą, zwłaszcza w Stanach Zjednoczonych czy w państwach Europy Północno-Zachodniej, z tej niestandardowej formy zakupów korzysta aż 80% internautów. Co wpływa na rosnącą popularność takich zakupów?


Duży wybór

Jednym z najczęściej podawanych powodów, dla których kupujemy przez Internet, jest szeroka gama produktów do wyboru. Przy tradycyjnych zakupach nie mamy na tyle czasu czy motywacji, aby dokładnie przejrzeć cały asortyment sklepu. Natomiast zakupy odzieżowe przez Internet dają nam taką możliwość bez wychodzenia z domu.

Oszczędność czasu

Nie musimy też tracić czasu na dojazd do sklepu czy galerii handlowej. Tradycyjne zakupy niosą ze sobą konieczność oczekiwania w kolejce do kasy lub do parkingu – gdy kupujemy przez Internet, jedyne, czego potrzebujemy to wygodne krzesło do siedzenia przy komputerze.

…i pieniędzy

To jedna z najczęściej wymienianych zalet wirtualnych zakupów. Sklepy internetowe i outlety zakupowe oszczędzają na wielu rzeczach, za które płacą właściciele sklepów (wynajem miejsca, sprzątanie, ograniczone koszty pracownicze). Dlatego też zakupy w sieci są tańsze i często oferują bardzo atrakcyjne promocje i obniżki cen.

Wygoda

Długie wyczekiwanie w kolejkach, kilometry spacerów po galeriach handlowych i konieczność odwiedzenia kilku(nastu) sklepów – to wątpliwe uroki tradycyjnych zakupów, których nie doświadczymy podczas zakupów w sieci. Dodatkowym ich atutem jest fakt, iż kupować możemy o dowolnej porze dnia, a zamówione artykuły dostarczane są pod wskazany adres.

Opinie i komentarze

I ostatnią, ale równie ważną zaletą zakupów online jest porównywania cen i sprawdzenia opinii o produktach. Dzięki temu zyskujemy obiektywne spojrzenie na rzecz, którą chcemy kupić. Zwiększa się też szansa, że dany produkt kupimy po cenie niższej, niż zakładaliśmy na początku! A to jest chyba cel każdego konsumenta – niezależnie od tego, czy robi zakupy tradycyjnie, czy wirtualnie.


Outlet internetowy www.limango-outlet.pl
Markowe ubrania: www.limango-outlet.pl/marki

Licencjonowane artykuły dostarcza Artelis.pl.

Integracja urządzeń mobilnych w firmie? Prosta i naturalna

Integracja urządzeń mobilnych w firmie? Prosta i naturalna


Autor: ADul


W małych i średnich przedsiębiorstwach coraz bardziej istotne staje się wykorzystanie nowych technologii. To szansa nie tylko na usprawnienie komunikacji i obiegu dokumentów, ale i najlepsze świadectwo innowacyjności firmy. Zobacz, na jakie rozwiązania możesz liczyć w zakresie integracji urządzeń mobilnych i jak w pełni wykorzystać płynący z tego potencjał.


Możliwości oprogramowania

Największą zaletą urządzeń mobilnych, oprócz dostępu do sieci, jest także dostęp do firmowego oprogramowania. To gwarancja efektywniejszej komunikacji, sprawnego obiegu dokumentów i możliwość zdalnego zarządzania pracą zespołu. Warto pamiętać o tych korzyściach i wykorzystywać je w codziennym funkcjonowaniu firmy. Nawet po godzinach, kiedy nie mamy już ochoty włączać komputera, możemy sprawdzić postęp prac i odpowiadać na pytania współpracowników lub klientów za pośrednictwem telefonu lub tabletu. W tym celu niezbędne jest dobrze zintegrowane oprogramowanie, które umożliwi otwieranie, edycję i przesyłanie plików z każdego urządzenia, z którego połączymy się z siecią (zobacz wiecej: www.microsoft.com/pl-pl/male-srednie-firmy/oferty-specjalne/Office365-dla-malej-firmy/default.aspx).

Pięć urządzeń – jedna licencja

W ramach usługi Office 365 wystarczy jedna licencja, by nasz pracownik mógł w pełni legalnie korzystać ze swojego oprogramowania na pięciu różnych urządzeniach mobilnych (mogą to być np. stacjonarne komputery służbowy i domowy, laptop, tablet i smartfon). Dzięki takiej integracji nie tylko generujemy spore oszczędności w firmie, ale i dajemy pracownikom komfort działania, także poza biurem. Możliwość dostępu do dokumentów, ich modyfikacji, czy omówienie zmian z zespołem lub z klientem może zadecydować o powodzeniu przedsięwzięcia. W dobie Internetu niewiele firm może sobie pozwolić na to, by ich pracownicy bywali poza zasięgiem.

Office na iPada

Ku zadowoleniu wielu przedsiębiorców od kilku miesięcy mamy już możliwość korzystania z pakietu Office 365 także na iPadach. Aplikacje można pobrać za darmo z AppStore. Do wyboru mamy trzy najpopularniejsze biurowe rozwiązania, czyli: Word, Excel i Power Point. W aplikacji Word mamy możliwość zespołowej pracy nad dokumentem i tzw. wersjonowania pliku (czyli zapisywania kolejnych wersji dokumentu z zachowaniem możliwości powrotu do poprzednich). Posiadacze iPadów mogą również swobodnie dodawać formuły i wykresy w aplikacji Excel. Power Point pozwala na tworzenie, edytowanie i bezprzewodowe wyświetlanie prezentacji.

Pełna integracja urządzeń mobilnych pozwala pracownikom firm na swobodne i sprawne działanie. Redukuje także ryzyko, że po wielokrotnych korektach lub konwersjach pliki nie będą poprawnie odczytywane na komputerze naszych klientów. Warto więc zwrócić uwagę na dobór odpowiednich narzędzi i aktualizowanie licencji.


Licencjonowane artykuły dostarcza Artelis.pl.

Informatyczna infrastruktura dla firm

Informatyczna infrastruktura dla firm


Autor: Ewa Bart


Współczesna gospodarka jest ściśle uzależniona od możliwości telekomunikacyjnych. Internet stał się niezwykle istotnym czynnikiem stymulującym rozwój wielu sektorów.


Rozwój infrastrukturalny, postępująca informatyzacja firm oraz popyt na usługi mobilne w życiu codziennym powodują ogromny wzrost zapotrzebowania na moce obliczeniowe. Ma to swój fizyczny wymiar. Serwery, macierze dyskowe i inne urządzenie sieciowe muszą się gdzieś podziać. Do tego potrzeba coraz większej przestrzeni. Sytuacji nie zmienia nawet podwajająca się co dwa lata moc obliczeniowa mikroprocesorów.

Możliwości rozwoju są ściśle związane z powstawaniem centrów danych, które wynajmują uzbrojoną infrastrukturalnie powierzchnię. Hoteling serwerów lub szaf serwerowych jest dla większości podmiotów szansą na stworzenie telekomunikacyjnej lub internetowej oferty. Korzystają z niego całe regiony. Rozwijanie takich usług jak kolokacja w Katowicach daje podmiotom gospodarczym, instytucjom publicznym i organizacjom pozarządowym możliwość budowy sieci w oparciu o własne urządzenia techniczne. W profesjonalnych centrach danych (data center) serwery są pod stałą kontrolą, mają optymalne warunki pod względem wilgotności i temperatury, są również świetnie zabezpieczone.

Firmy oferujące takie usługi kolokacyjne w ramach zaawansowanych technologicznie data center umożliwiają dużo lepszą konkurencję w całym regionie. Poszczególne przedsiębiorstwa mają ułatwiony dostęp do infrastruktury niezbędnej do zbudowania własnego zaplecza, co zapobiega dyktatowi największych i najbardziej zamożnych korporacji. Przekłada się to na znacznie lepsze usługi, oferowane w różnych segmentach rynku, począwszy od firm proponujących usługi informatyczne i hosting, aż po rynki e-commerce.

Nowo powstające centra danych, a także te rozwijające swoje zaplecze, to znak nowych czasów, w których postępująca informatyzacja biznesu stała się faktem i nie ma już od niej odwrotu. Jest to z pewnością powód do zadowolenia dla większości firm, które chcą się rozwijać.


Kompleksowe rozwiązania teleinformatyczne - 4 Data Center

Licencjonowane artykuły dostarcza Artelis.pl.

Internet rzeczy - w czym rzecz?

Internet rzeczy - w czym rzecz?


Autor: Tomasz Galicki


Truizmem jest stwierdzenie, że Internet jest wszechobecny – nawet jednak to byłoby niedopowiedzenie. Nikogo nie dziwi już przecież fakt, że za pomocą telefonu, a w zasadzie smartfonu, możemy wykonać szereg skomplikowanych czynności. Niesamowity jest jednak fakt, że w domowej sieci WiFi współdziałać mogą już przeróżne sprzęty.


O części już słyszeliśmy – będąc na zakupach wysyłamy zapytanie do lodówki, czego brakuje. Ewentualnie dzięki kamerze zamontowanej wewnątrz możemy podejrzeć, co koniecznie trzeba włożyć do koszyka. Lodówka może też nas poinformować, że na niedzielną jajecznicę brakuje kilku produktów. O takich oczywistościach, jak podsuwanie pomysłów na danie, które można stworzyć z produktów obecnych wewnątrz, nawet nie warto już wspominać.

Podobnie kuchenka – piece z ekranem dotykowym i podłączeniem do sieci są wielkim udogodnieniem dla gospodyń domowych. W kilka chwil możemy przeszukać zasoby sieci web w poszukiwaniu przepisu, a nie przekopywać się przez setki stron różnego rodzaju książek kucharskich.

Do sieci może być podłączony również… dzbanek na mleko! Na najpopularniejszym na świecie serwisie crowdfundingowym jakiś czas temu trwała zbiórka na taki gadżet. Dzięki specjalnemu czujnikowi w denku mierzył on ‘świeżość’ mleka, wysyłając nam odpowiednie powiadomienie i sygnalizując diodami świetlnymi jego zdatność do spożycia. A co powiecie na skarpetki, które automatycznie dobierają się w parę? Tudzież na żarówki, którym zostało już niewiele ‘życia’, a które są na tyle inteligentne, by w porę wysłać nam na telefon odpowiednie powiadomienie, byśmy mogli zakupić nową?

Internet rzeczy zabija to, do czego jesteśmy przyzwyczajeni i co znamy – wydawałoby się – od zawsze. Tak dzieje się przecież z telewizją: chociaż wciąż jest to przepotężne medium, to coraz więcej młodych ludzi woli przenieść się na platformy typu Video on Demand, słusznie wychodząc z założenia, że po co śpieszyć się na kolejny odcinek ulubionego serialu, skoro możemy go obejrzeć o dowolnej porze za pośrednictwem sieci? Ponadto możemy to zrobić w domu, autobusie czy pociągu – nawet na ekranie telefonu.

W sieć przenieść możemy także cały dom. Sterowanie zasilaniem, oświetleniem czy ogrzewaniem wydaje się być normą. Prace trwają także nad przystosowaniem zamków w drzwiach tak, by można było je otworzyć smartfonem – na chwilę obecną technologia ta ma wiele minusów, na czele z nie najlepszymi bateriami tych urządzeń, niemniej idea na pewno będzie się rozwijać. Nam pozostaje czekać z cierpliwością.


Chcesz być na bieżąco informowany o ciekawostkach technologicznych? Zapraszamy na blog IT.

Licencjonowane artykuły dostarcza Artelis.pl.

Monitorowania sieci

Monitorowania sieci


Autor: Marcin Kamiński2


W dzisiejszych czasach każda firma posiada dostęp do internetu. Czym większa firma, tym więcej komputerów w jej biurach, a co za tym idzie, tym większa sieć komputerowa.


W dzisiejszych czasach każda firma posiada dostęp do internetu. Czym większa firma, tym więcej komputerów w jej biurach, a co za tym idzie, tym większa sieć komputerowa. Posiadanie dużej sieci wiąże się ze znaczną ilością urządzeń aktywnych. Do tej kategorii należą, miedzy innymi, serwery plików, poczty, stron www, ale także zwykłe switche (niektóre zarządzane). Posiadamy zazwyczaj jakieś punkty dostępu do sieci bezprzewodowej. Coraz więcej urządzeń peryferyjnych jest podłączonych do sieci, a wśród nich np. drukarki, rzutniki, skanery, a nawet nowoczesne lodówki czy piece oraz systemy zarządzania roletami itd.

Wszystko wpinamy w sieć, aby uzyskać zdalny dostęp i kontrolę. Cały ten ogrom tworzy wiele połączeń i mnoży urządzenia, które się łączą między sobą. Aby nad tym wszystkim zapanować potrzebne są coraz to lepsze narzędzia do zarządzania. Często zdarza się, że drukarka nie chce drukować. Pokazuje status OK, a na naszym komputerze pozostają niewydrukowane pliki. Może doprowadzić to do znacznej frustracji, ale powód jest prosty - zawiesił się jakiś switch. Trzeba zlokalizować, które urządzenie odmówiło posłuszeństwa i uruchomić je ponownie. Tu pojawia się pytanie: czy któryś z naszych pracowników odnotuje, że urządzenie się zawisło. A poza tym, warto wiedzieć ile raz w miesiącu wystąpiła taka sytuacja. W typowych warunkach nikt tego nie liczy. A okazać się może, że urządzenie nie ma wystarczającej mocy przerobowych, aby pracować w naszej sieci i należy wymienić je na mocniejsze, aby na przyszłość nie powtarzały się problemy. A może tylko wystarczy wymienić zasilacz na mocniejszy, bo są skoki napięcia i przy zbyt dużym skoku następuje zawieszenie?

Warto zauważyć, jak ważne jest, aby w sieci mieć oprogramowanie do jej monitorowania. Przykładowe oprogramowanie pracuje na systemie Windows, ale także można zainstalować je na systemach linuksowych. Na stronie producenta można znaleźć forum i opisy jak dokonać odpowiedniej instalacji. Program ten pozwala na dodanie wszystkich urządzeń sieciowych, które mają przyznany adres IP w sieci. Mogą być to urządzenia w sieci lokalnej, ale i także w sieci zewnętrznej. Oprogramowanie korzysta z protokołu SMNP, wspiera wszystkie wersje. Dla wygody użytkownika, można tu ustawiać raporty, powiadomienia, a także przeszukać logi. Wiadomo, że jak drukarka podłączona jest do sieci, da się z niej odczytać informacje np. ile pozostało papieru i tonera lub tuszu. Przy niskim poziomie możemy dostać maila i raport powiadamiający nas o potrzebie zakupu tonera do drukarki. Ale najważniejsza sprawa w monitorowaniu sieci to informacje jakie ilości danych są przesyłane między portami switchy. A także, które z tych urządzeń się zawiesiło i jak często. W jakich godzinach dochodzi do awarii itd. Dzięki temu oprogramowaniu uzyskamy łatwość w wyszukiwaniu problemów w naszej sieci, a co za tym idzie możliwość skutecznego usuwania i zapobiegania awariom.


Serdecznie zapraszam na moją stronę www.robmar.eu

Licencjonowane artykuły dostarcza Artelis.pl.

Sposób działania systemu WWW dla laików

Sposób działania systemu WWW dla laików


Autor: Ludwik Nolberczak


World Wide Web – właśnie tak należy rozszyfrować skrót, od którego rozpoczyna się adres właściwie każdej strony internetowej. Co właściwie kryje się pod tą nazwą i na jakiej zasadzie funkcjonuje wspomniany system?


Pod pojęciem World Wide Web znajduje się specyficzny, wirtualny świat, do którego dostęp uzyskujemy poprzez obsługę komputera podłączonego do Internetu. W obecnych czasach to dla nas naturalne, że w przeglądarce internetowej mamy możliwość odnalezienia informacji na praktycznie dowolny interesujący nas temat, jednak prawdopodobnie niewielu z nas zna i rozumie działanie mechanizmu funkcjonowania nadmienionego systemu…

W powszechnym języku niekiedy pojęcia „Internet” oraz „WWW” używane są zamiennie. Tymczasem różnica między wspomnianymi terminami jest dość istotna – Internet jest bowiem systemem połączonych sieci komputerowych z całego świata, natomiast World Wide Web to nazwa najbardziej popularnej usługi funkcjonującej w ramach wymienionego systemu. Innymi słowy, WWW to nic innego, jak specyficzna aplikacja działająca w Internecie, która w istocie jest zbiorem najróżniejszych, skontaminowanych ze sobą dokumentów elektronicznych.

Jak to jednakże możliwe, że po wpisaniu adresu danej strony internetowej, w przeglądarce ukazuje nam się harmonijna całość? Przeglądarka internetowa to specjalny program komputerowy, który komunikuje się z serwerem WWW, na którym zamieszczona jest wywołana przez nas strona, za pomocą wysyłania i odbierania tzw. „zapytań”. Następnie otrzymywane z serwera informacje są przez przeglądarkę przetwarzane na to, co widzimy na ekranie monitora. W rzeczywistości jednak wszystko, co ukazuje się naszym oczom, opisane jest za pomocą specjalnych kodów, co w swej źródłowej postaci dla przeciętnego użytkownika komputera byłoby niezrozumiałe.

Adres strony WWW, który wpisujemy w odpowiednim polu w przeglądarce, nazywa się URL (z ang. Uniform Resource Locator). Odnosi się on do adresu IP, a więc swoistego „położenia” w globalnej sieci danego serwera z interesującą nas stroną internetową. W przypadku większości stron przeglądarka najpierw „dekoduje” unikalny kod HTML danej witryny, a dopiero w następnej kolejności pobiera jej pozostałe elementy, jak na przykład fotografie, filmy, muzykę itp. Obecnie znaczna część witryn internetowych jest bardzo rozwinięta pod względem oferowanej przez nie zawartości, toteż przeglądarki pobierają poszczególne elementy oglądanych przez nas stron stopniowo. Sposób, w jaki „budowany” jest finalny efekt, określa wykorzystany do stworzenia danej strony język skryptowy, jak na przykład HTML, PHP, CSS itd. Ponadto bardzo mocną stroną systemu World Wide Web jest łatwe przełączanie się między treściami, które nas interesują. Stosuje się do tego tak zwane hiperłącza, których uporządkowana struktura tworzy zorganizowaną sieć informacji, złożoną z wszelkiego rodzaju multimedialnych treści.

Oczywiście powyższy opis funkcjonowania systemu WWW jest bardzo uproszczony i ma na celu uzmysłowić przeciętnemu użytkownikowi Internetu, jak to się dzieje, że praktycznie bez żadnego wysiłku ma ów użytkownik dostęp do wszelkich interesujących go informacji. W rzeczywistości komunikacja między komputerem użytkownika a serwerami WWW oraz proces polegający na przetwarzaniu przez przeglądarkę pozyskanych treści jest znacznie bardziej skomplikowany, jednak z perspektywy zwykłego zjadacza chleba wdawanie się w techniczne meandry jest w ocenie autora bezzasadne.


serwery dedykowane

Licencjonowane artykuły dostarcza Artelis.pl.

Sieci komputerowe - wstęp i klasyfikacja sieci

Sieci komputerowe - wstęp i klasyfikacja sieci


Autor: Andrzej K.


Wszystko, co potrzebujesz wiedzieć o sieciach komputerowych od strony teoretycznej.
Geneza, wady, zalety, rodzaje sieci komputerowych. Definicje.
Od ery dyskietki do ery Internetu.


Na początku…

Komputery były niezależne, samowystarczalne, połączone co najwyżej wspólną linią zasilającą. Aby wymienić się plikami (danymi) z innym użytkownikiem, potrzeba było fizycznie przenieść pliki na jakimś nośniku, np. dyskietce, taśmie magnetycznej. Oprogramowanie musiało być zainstalowane na każdym komputerze, na którym użytkownicy z niego korzystali. Chcąc skorzystać z drukarki podłączonej do sąsiedniego komputera, należało do niego dotrzeć z nośnikiem zawierającym dane do wydrukowania. Można było ewentualnie zastosować specjalne przełączniki pozwalające na podłączenie kilku komputerów do jednego komputera. Jednak rozwiązanie to miało swoje ograniczenia (maks. długość kabla, maks. ilość komputerów). Jeśli użytkownik potrzebował dodatkowych zasobów dyskowych, potrzeba było podłączyć do komputera kolejne dyski twarde.

Rozwiązaniem wcześniej opisanych problemów jest sieć komputerowa, czyli system komunikacyjny służący do przesyłania danych, łączący co najmniej dwa komputery i/lub urządzenia peryferyjne (np. drukarka – serwer wydruku).
Ogólnie komputery w sieci nazywamy hostami.
Komputer oferujący pewne usługi w sieci nazywamy serwerem (np. serwer plików). Komputer umożliwiający użytkownikowi pracę w sieci oraz korzystanie z jej zasobów nazywamy stacją roboczą (ang. workstation).

Podłączanie urządzeń peryferyjnych (np. drukarek, skanerów, dysków) do sieci komputerowej.

Pośrednie – urządzenie jest podłączone do komputera, który jest wpięty do sieci komputerowej, komputer pełni wtedy rolę serwera udostępniającego to urządzenie w sieci.
Bezpośrednie – urządzenie wpięte jest bezpośrednio do sieci komputerowej, posiada odpowiedni moduł sieciowy działający jako serwer.

Urządzenia posiadające moduł sieciowy są droższe, jednak nie potrzebują do ich wykorzystania w sieci stale włączonego komputera.

Zalety sieci komputerowych

Współdzielenie zasobów takich jak:
– pamięć zewnętrzna (np. dyski twarde),
– urządzenia zewnętrzne (np. drukarki, skanery),
– moc obliczeniowa procesora np.: projekt SETI, czyli badanie sygnałów z kosmosu, poszukiwanie leków na raka, AIDS World Community Grid

Wymiana, współużytkowanie plików (danych) między użytkownikami różnych komputerów:
– proste kopiowanie plików,
– systemy wymiany plików P2P (ang. Peer-To-Peer),
– dostęp do wspólnej bazy danych.

Komunikacja - przesyłanie poczty elektronicznej między użytkownikami, komunikatory (np. gadu-gadu), telefonia VoIP, telekonferencje.

Wykonywanie programu na drugiej maszynie. Zdarza się, że inny komputer może być lepiej dostosowany do wykonywania jakiegoś programu. Często bywa tak w przypadku programów wymagających specjalnych właściwości systemu np. dostęp do dużych obszarów pamięci.

Możliwość centralnego zarządzania komputerami i użytkownikami w sieci (np. domeny Active Directory)

Zdalny dostęp do odległych komputerów (np. pracownik będąc w domu może pracować na komputerze w firmie korzystając z jego zasobów).

Inne korzyści:
– transmisja dźwięku, obrazu w czasie rzeczywistym (radio i telewizja)
– gry sieciowe
– zdalna pomoc
– przenośne środowisko pracy użytkownika pomiędzy komputerami (przeważnie w sieci lokalnej)
– bankowość i handel elektroniczny

Wady sieci komputerowych

Pogorszenie bezpieczeństwa

Dopóki komputer nie jest w sieci, włamanie i np. kradzież danych jest możliwe praktycznie tylko przez fizyczny kontakt z danym systemem komputerowym.
W przypadku sieci włamania i kradzieże danych dokonywane są przede wszystkim zdalnie za pośrednictwem sieci.
Administratorzy sieci i włamywacze (hackerzy) prowadzą ciągły „wyścig zbrojeń”.

Klasyfikacja sieci

Ze względu na zasięg sieci dzielimy na:

LAN (ang. Local Area Network) - lokalna sieć komputerowa zawierająca od kilku do kilkudziesięciu stacji roboczych rozmieszczonych na niewielkim obszarze.

MAN (ang. Metropolitan Area Network) - miejska sieć komputerowa, łączy sieci LAN na większym obszarze miasta, osiedla, dzielnicy.

WAN (ang. Wide Area Network) - rozległa sieć komputerowa obejmująca swoim zasięgiem różne kraje, a nawet całe kontynenty. Przykładem jest tu sieć Internet.

Sieć globalna Internet - jest "siecią sieci": zbudowany jest na zasadzie łączenia ze sobą poszczególnych sieci lokalnych.

Ze względu na rolę hostów w sieci:

Każdy z każdym (ang. peer-to-peer) - Każdy host w sieci tego typu może być jednocześnie zarówno klientem, jak i serwerem.
Wszystkie komputery są zdolne do pobierania danych, programów i innych zasobów. Każdy komputer pracujący w takiej sieci jest równorzędny w stosunku do każdego innego, w sieciach tego typu nie ma hierarchii, stąd sieci takie nazywane są również sieciami równorzędnymi.

ZALETY:

Sieci te są w miarę łatwe do wdrożenia i proste w obsłudze. Sieci te są tanie w eksploatacji. Nie wymagają one drogich
i skomplikowanych serwerów dedykowanych oraz zatrudniania administratorów. Sieci typu każdy-z-każdym mogą być ustanawiane przy wykorzystaniu prostych systemów operacyjnych, takich jak np. Windows 98, Windows 2000/XP.

WADY:

Użytkownicy tej sieci muszą pamiętać wiele haseł, zwykle po jednym dla każdego komputera wchodzącego w sieć. Brak centralnego serwera plików zmusza użytkownika do samodzielnego wyszukiwania informacji. Nieskoordynowane i niekonsekwentne tworzenie kopii zapasowych danych oraz oprogramowania.

Klient-serwer - jeden lub więcej komputerów spełnia rolę serwera i nie wykonuje innych zadań. Serwer spełnia takie zadania jak: przechowywanie i udostępnianie plików, zarządzanie współdzieleniem drukarek oraz funkcje związane z bezpieczeństwem danych. Serwery zwykle nie mają użytkowników bezpośrednich. Typowy system tego typu – Novell Netware.

Model sieci klient-serwer występuje w dwóch wersjach:
programy wykonywane są przez serwer a wyniki wyświetlane na ekranie klienta – cienki klient (ang. thin client),
serwer dostarcza danych dla aplikacji uruchamianych na komputerze klienta – gruby klient (ang. fat client).

Programy (aplikacje) działające w takiej sieci z kolei możemy podzielić na:
frontend - uruchamiane u klienta,
back-end - uruchamiane na serwerze.

ZALETY:

W sieciach tego typu z klientów zdjęty jest ciężar funkcjonowania jako serwery wobec innych klientów. Sieci oparte na serwerach są dużo bezpieczniejsze niż sieci równorzędne (bezpieczeństwem zarządza się centralnie) Zwykle serwer cechuje się większą mocą przetwarzania, większą ilością pamięci i większym, szybszym dyskiem twardym niż komputer-klient. Dzięki temu żądania komputerów-klientów mogą być obsłużone lepiej i szybciej.

WADY:

Ponoszenie dużych kosztów związanych z zainstalowaniem i obsługą tego rodzaju sieci (większe koszty sprzętu i oprogramowania, związane z zainstalowaniem dodatkowego komputera, którego jedynym zadaniem jest obsługa klientów).
Naprawa komputerów udostępniających dane lub usługi (serwerów) jest z reguły droższa niż normalnych komputerów.

Koszty obsługi takich sieci są dużo wyższe. Wynika to z potrzeby zatrudnienia wyszkolonego pracownika (administratora sieci) specjalnie do administrowania i obsługi sieci.

Większy koszt ewentualnego czasu przestoju. W sieci każdy-z-każdym wyłączenie lub uszkodzenie jednego komputera powoduje niewielkie jedynie zmniejszenie dostępnych zasobów sieci lokalnej. Natomiast w sieci lokalnej opartej na serwerze, uszkodzenie serwera może mieć znaczny i bezpośredni wpływ na praktycznie każdego użytkownika sieci.

Trochę humoru

Precyzyjna dokumentacja wszystkich połączeń zapewnia szybki dostęp do każdego abonenta. Masywna budowa skrzynki rozdzielczej chroni przed dostępem osób postronnych do skomplikowanej i wyrafinowanej techniki.


KodIT - Serwis komputerowy Poznań

Licencjonowane artykuły dostarcza Artelis.pl.

Ruszył Google Drive

Ruszył Google Drive


Autor: Przemysław Starosta


Google robi kolejny krok ku przyciągnięciu klientów. Oto startuje usługa Google Drive, która umożliwia uzyskanie dostępu do 5GB przestrzeni dyskowej za darmo umiejscowionej oczywiście w chmurze. Czy pokona DropBox lub SkyDrive? Z pewnością będzie potrzebowała na to jeszcze trochę czasu.


Google robi kolejny krok ku przyciągnięciu klientów. Oto startuje usługa Google Drive, która umożliwia uzyskanie dostępu do 5GB przestrzeni dyskowej za darmo umiejscowionej oczywiście w chmurze.

google

Read More

Po co mi Google Drive?

Nie tak dawno nasze dane znajdowały miejsce na dyskach CD. Później sukcesywnie, krok po kroku, zostały one wyparte przez pendrive. Teraz z kolei pendrive coraz bardziej oddaje miejsce dyskom wirtualnym, do których mamy dostęp z każdego miejsca na świecie, gdzie tylko jest dostęp do internetu.

Ile to kosztuje?

W zasadzie nie kosztuje nic, jeśli wystarczy nam 5GB. Jeśli zatem chcemy skoncentrować się na przechowywaniu dokumentów a nie plików multimedialnych, zupełnie powinno nam to wystarczyć. W innym wypadku będzie konieczność dokonania właściwej opłaty według poniższej tabeli

Przestrzeń dyskowa

Miesięczna opłata

25 GB

2,49 $

100 GB

4,99 $

200 GB

9,99 $

1 TB

49,99 $

16 TB

799,99 $

Co oferuje Google Drive?

Przede wszystkim możliwość udostępniania naszych plików. Podobnie jak w Google Docs możemy w trybie rzeczywistym pracować nad jednym dokumentem z kilkoma współpracownikami, co znacząco ułatwia pracę nad wspólnym projektem. Możliwość udostępniania pozwala też uniknąć żmudnego przesyłania kolejnej wersji (np. prezentacji) co zawsze zwiększa możliwość zagubienia właściwego pliku. W tej chwili do Google Drive mamy dostęp przez przeglądarkę, dedykowaną aplikację na PC oraz MAC jak i aplikację do smartfonów opartych na systemie Android. Z tego co wyczytałem w informacjach przygotowywana jest wersja na iOS.

Ważnym atutem dla korzystających do tej pory z dobrodziejstw Google jest oczywiście jego integracja. Z poziomu dysku bez problemu możemy dołączyć pliki do naszych maili lub udoskonalić swój profil na Google+.

Bardzo ciekawie wyglądają również techniki wyszukiwania (w sumie przecież to Google). Algorytm rozpoznania tekstu i obrazu pozwoli poprzez technologię OCR przeszukać dany dokument pod kątem podanych słów kluczowych. Ta możliwość odróżnia Google od konkurencji w tym segmencie informatyki.

Kiedy mogę zacząć?

No i tu jest problem. Gdyż udając się pod ten adres musimy wpierw zgłosić chęć utworzenia usługi dla naszego konta (oczywiście trzeba mieć konto @gmail). Później pozostaje czekać. Niektórzy mówią o kilku godzinach, a inni o kilku dniach. Zatem im szybciej zadeklarujemy chęć korzystania z Google Drive tym lepiej, bo można przypuszczać iż coraz więcej chętnych będzie choćby do przetestowania tej usługi.

Podsumowanie

Google Drive próbuje stworzyć kolejną alternatywę dla Dropboxa. Czy dobrze? Zawsze jest dobrze, gdy konkurencja istnieje, bo wtedy klient się cieszy. Myślę, że Google Drive ma dużą szansę zdobyć serca i pieniądze tych, którzy już polubili takie usługi jak Gmail czy Google Docs. Integracja z kalendarzem i mailem jak i ze smartfonem Androidowym jest niezwykle kusząca. Sądzę, że rynek dysków wirtualnych tylko zyska na tym kroku naszego wujka Google.


Przemysław Starosta
www.issem.com.pl

Licencjonowane artykuły dostarcza Artelis.pl.

Proste udostępnianie plików i drukarek

Proste udostępnianie plików i drukarek


Autor: JANUSZ KOSTECKI


W tym wpisie chciałbym poruszyć nie nową kwestię udostępniania plików i drukarek w systemie operacyjnym Windows XP, na zasadzie udostępniania prostego.


Mimo, że firma Microsoft w ostatnich latach wypuściła na rynek dwa nowe systemy operacyjne Vistę i Windows 7, to jak wykazują badania system XP cieszy się popularnością, a w ostatnich miesiącach nieco zwiększył swój udział w rynku, co jest fenomenem na OS, który ma już ponad 10 lat.

Proste udostępnianie plików i drukarek jest najczęściej stosowane w gospodarstwach domowych, za pośrednictwem routera. Za wzór opisu służyć będzie udostępnianie między komputerem stacjonarnym z systemem operacyjnym Windows XP Professional i laptopem z OSem Windows XP – Home. Jeśli ktoś będzie mieć z tym problem, to przeczytawszy ten wpis, będzie mieć gotowy wzór do realizacji.

Na samym początku musimy odhaczyć dwie opcje:

W Mój komputer – narzędzia – opcje folderów – widok odhaczamy dwie opcje:

A) Użyj prostego udostępniania plików,

B) Automatycznie wyszukaj foldery sieciowe i drukarki.

Następnie w Panelu sterowania – narzędzia administracyjne – zarządzanie komputerem – użytkownicy i grupy lokalne, ustawiamy hasło na gościa. Od samego użytkownika zależy, czy można, bądź nie zmienić to hasło, ale obowiązkowo odhaczamy konto jest wyłączone. To poprzez konto gościa komputer i laptop będą się ze sobą łączyć.

Pozostajemy w Panelu sterowania – narzędzia administracyjne – zasady zabezpieczeń lokalnych – przypisywanie praw użytkownika.

A) Odmowa logowania lokalnego – gdy jest tam gość, to należy go stamtąd usunąć.

B) Odmowa logowania w trybie wsadowym – tam dajemy konto gościa, bo my w domyśle logujemy się w trybie zwykłym, czyli lokalnym.

C) Logowanie lokalne – tam dajemy gościa.

Co trzeba jeszcze zrobić w tym miejscu.

1. Odmowa dostępu do tego komputera z sieci – gdy jest tam gość to go usuwamy.

2. Logowanie w trybie wsadowym – nie może tam być komputerów przypisanych do sieci, gdyż one jak pisałem wcześniej logują się w trybie usługi lokalnej. Gdy tam są, to je usuwamy. Jest to niezwykle ważne, gdyż w przeciwnym razie komputery nie będą się łączyć, a użytkownikowi oszczędzi to dodatkowego stresu.

Kolejna rzecz. Panel sterowania – narzędzia administracyjne – zasady zabezpieczeń lokalnych – opcje zabezpieczeń –dostęp sieciowy – udostępnianie użytkowników lokalnych jako samych siebie.

Bardzo ważną sprawą jest odpowiednio ustawienie opcji w firewallu, tak aby komputery przepuszczały się wzajemnie. Nie trzeba całkiem wyłączać firewalla, tylko wystarczy jak w wyjątkach zaznaczone mamy udostępnianie plików i drukarek. Pamiętać należy też o własnych programach antywirusowych, które mają własne firewalle, zwłaszcza Norton antywirus. W jego opcjach należy wyłączyć firewall, bo inaczej nie przepuści on innego komputera, a użytkownik będzie w stanie permanentnej irytacji. Wyłączenie firewalla w programie antywirusowym nie oznacza, że dostęp do komputera jest dostępny dla każdego, gdyż mamy włączonego systemowego firewalla.

Kolejna ważna rzecz, to nadanie unikatowych nazw dla komputerów, czy laptopów, które mamy zamiar połączyć, w tym wypadku komputer i laptop. Nazwa dla sieci musi być jedna i musi widnieć taka sama w komputerze i laptopie.

Udostępniamy tylko te foldery i katalogi, które uznajemy za stosowne. Czyni się to poprzez kliknięcie prawym przyciskiem myszki (dla praworęcznych) w dany folder, a następnie udostępnianie i zabezpieczenia, później klikamy w udostępnij ten folder. Tutaj system daje dosyć duże pole manewru, jeśli chodzi o sprawę, na ile chcemy go udostępnić. To co zostało opisane do tej pory, sotyczy jedynie komputera hosta, który pracuje w systemie XP - Profesional, w wersji Home nie mamy tych opcji.

Teraz dopiero przychodzi czas na puszczenie kreatora sieci na obu nośnikach i resetujemy je. Po restarcie należy być nieco cierpliwym, bo czasami mija i dobra minuta, zanim komputer i laptop w tym wypadku zobaczą się nawzajem. Moje miejsce sieciowe – wyświetl komputery grupy roboczej.

Gdy komputery jednak nie widzą się, a zabezpieczenia z systemu antywirusowego zostały zdjęte, to należy popingować. Klikamy START – URUCHOM – Command i dajemy polecenie ping….adres IP, ot przykładowo 192.168.0.1 i ENTER. Powinny być 4 pytania i cztery odpowiedzi, zero strat i odpowiedź powinna nadejść niemal błyskawicznie. Gdy nie mamy w miarę szybko odpowiedzi, albo otrzymujemy 100 strat, znaczy że nie usunęliśmy jakiś zabezpieczeń. Czynność tą należy wykonać na obu komputerach, względnie laptopach.

Pamiętać należy o odpowiednim ustawieniu adresów IP, muszą one być różne dla obu nośników, powinny się nawet krzyżować, choć nie jest to wymóg z gatunku absolutu. Maska podsieci jest taka sama, czyli 255.255.255.0. Adres bramy domyślnej to przeważnie 192.168.1.254.Adres DNS to IP, które przydzielił nadawca internetowy. Obecnie kiedy zdecydowana większość użytkowników ustawia automatycznie uzyskanie adresu IP i adresu serwera DNS, te unikatowe adresy znajdziemy poprzez kliknięcie na połączenie lokalne w połączeniach sieciowych, będą one widoczne w dolnej części lewego paska.

Home Version

Gdyby jakiś użytkownik zechciał połączyć dwa komputery, względnie laptopy tylko w systemie XP – Home, to tutaj zadanie jest proste. Nie ma opcji użytkownicy i grupy lokalne, a także „użyj prostego udostępniania plików”. Potrzeba jedynie odpowiednio ustawić adresy IP i puścić kreatora, do logowania na takich kompach nie trzeba hasła. System XP – Home ma domyślnie ustawione udostępnianie plików i drukarek, choć w systemie prostym może uchodzić za hosta, to gdy chcemy połączyć już trzy nośniki potrzebny będzie OS XP – Profesional.

Ważne jest, aby wersja Home widziała drugiego kompa w sieci. W razie potrzeby pingujemy, czyli dajemy polecenie Command i adresy IP.


Janusz Kostecki

Dobrze brać, co się chce

Licencjonowane artykuły dostarcza Artelis.pl.

22 listopada 2016

Czy bez Internetu obecnie jeszcze istniejesz?

Czy bez Internetu obecnie jeszcze istniejesz?


Autor: Marika Kobza


Od pierwszego maila wysłanego w 1991 roku na Uniwersytecie Warszawskim do ultraszybkiego mobilnego Internetu LTE w Plusie w 2011r minęło 20 lat. Tylko Chuck Norris mógł przewidzieć taki rozwój Internetu w Polsce. I pewnie dlatego, jako jedyny ma wszystkie dane zapisane na dyskietce:)


Internet

Na początku było stypendium dla naukowców Uniwersytetu Warszawskiego od Polskiego Komitetu Badań Naukowych. Nie było oszałamiające, około 500 tysięcy starych złotych, czyli na dzisiejsze niecałe 50 tysięcy złotych. Jednym z celów naukowego projektu było uzyskanie połączenia sieciowego Uniwersytetu z różnymi uczelniami w Polsce i zagranicą.

Od kamienia łupanego do średniowiecza

W sierpniu 1991 r. Rafał Pierak z wydziału Fizyki UW uzyskał połączenie z siecią z kopenhaskiego uniwersytetu. Ten symboliczny moment uważany jest za wysłanie pierwszego maila. W 1992 r. jest już w Polsce około 2 tysięcy (!) internautów, skupionych głównie przy uczelniach. Dostępność sieci w domu lub biurze to w tamtych czasach było kompletne science- fiction, zasady działania Internetu nie były zrozumiałe nawet dla największych erudytów. W 1993 r. powstaje firma ATM, która sprzedaje przedsiębiorcom dostęp do sieci. Dwa lata później pojawiają się firmy Polbox oraz PDI (Publiczny Dostęp do Internetu), które udostępniają prywatnym uczestnikom dostęp do Internetu. W tym samym roku telewizyjna Panorama jako pierwszy program telewizyjny w Polsce zaczyna posiadać swój adres internetowy.

W tym czasie mamy w Polsce już 500 tysięcy użytkowników sieci. Rozwój Internetu przyspiesza dzięki uruchomieniu przez TP SA numeru 0-20-21-22 przez który można się było „wdzwonić” do sieci za pomocą modemu telefonicznego, właśnie wtedy powstają pierwsze duże serwisy: Wp.pl,Onet.pl. Następuje wysyp dziesiątek mniejszych i większych serwisów internetowych: Interia.pl., Arena.pl, Ahoj.pl , Gazeta.pl, Yoyo.pl, Hoga.pl. Cześć z nich stanie się liderami, a cześć upadnie jak amerykańska bańka internetowa na początku nowego Millenium. W 1999 roku pojawia się usługa SDI czyli stały dostęp do Internetu w TP SA pozwalający na stałe nielimitowane połączenie z siecią bez konieczności połączenia ze słynnym numerem. W tym czasie stałe łącze obsługuje wciąż tradycyjna linia telefoniczna z prędkością do 115 kb/s. Mimo że prędkość nie jest zawrotna, przybywa użytkowników sieci.

Oświecenie, czyli przyśpieszamy

Sytuacja zmienia się na początku stulecia, kiedy rozpoczyna się wykorzystanie do korzystania z Internetu sieci telewizji kablowych. Liczba użytkowników gwałtownie rośnie, zwiększa się też liczba i różnorodność informacji. Pojawiają się coraz to nowsze usługi w Internecie: pierwsze banki z internetowym dostępem do konta, serwis aukcyjny Allegro, itp. W 2004 udostępniony zostaje szerokopasmowy bezprzewodowego dostęp do sieci (WLAN) ,który udostępniają różni dostawcy zarówno operatorzy kablówek , TPSA jak i operatorzy sieci komórkowych: Era, Idea, Plus. W 2006 r. statystycznie z Internetu korzysta już co trzeci Polak. Większość z nich to osoby do 40 roku życia. Miedzy innymi dzięki serwisowi nasza klasa, na którym można spotkać kolegów i koleżanki z młodzieńczych lat szkoły, liczba internautów znów się zwiększa. Sam portal ma 11 milionów zarejestrowanych użytkowników. Pod koniec pierwszej dekady nowego tysiąclecia powstają popularne serwisy plotkarskie np.: Plotek.pl czy rozrywkowe Demotywatory.pl, które codziennie gromadzą miliony internautów przed komputerami. Internauci mogą korzystać ze stałych łączy zapewniających szybkość ponad 100 Mb/s. Wraz z rozwojem sieci komórkowych Internet staje się dostępny niemal w całym kraju.

Mobilny Internet to przełom, LTE kamień milowy

Mobilna sieć w Polsce pojawia się w 2005r. Jej szybkość 384 kb/s. nie od razu zachęca do użytkowania, ale zasięg już tak. Jednym z pierwszych dostawców tej usługi był Orange, jednak szybkość pozostawiała wiele do życzenia. Rok 2006 to wejście technologii HSDPA i przyspieszenie od 1,8 Mb/s. do 7,2 w 2008 r. Liczba korzystających z mobilnych urządzeń zaczyna być liczona w milionach. Polska staje się liderem dostępu do mobilnego Internetu. Niektóre sieci komórkowe zaczynają dostarczać Internet z szybkością 21mb/s. Na początku 2011r Cyfrowy Polsat a obecnie sieć komórkowa Plus wprowadza na rynek ultra szybki Internet LTE (Long Term Evolution), który umożliwia transfer danych do 100 Mb/s. Dzięki tej technologii ściągnięcie filmu o wielkości 1 GB zajmuje niecałe 2 minuty, a pobranie piosenki mp3 o wielkości 6 MB to tylko sekunda. Wkrótce dzięki LTE oglądanie TV i filmów w Internecie oraz granie on-line w czasie podróży po Polsce nie będzie czymś nadzwyczajnym.

Internet w Polsce a na świecie

Według międzynarodowego giganta Cisco i jego badań opublikowanych na stronie gigaom.com na świecie Internetu używa niemal 1,8 miliarda osób. Na pierwszym miejscu z około 360 mln użytkowników znajdują Chiny. To około 21 procent Internautów sieci na całym świecie. Drugie miejsce dzierżą Stany Zjednoczone z niemal 230 milionami internautów ( ok. 13%). Trzecie miejsce zajmuje kraj kwitnącej wiśni z ok.96 mln fanów sieci. Nasz kraj z 20 milionami Internautów ( około 1, 3%) znajduję się w pierwszej 30 państw posiadających największą liczbę internautów. Nowe technologie, interaktywny Internet przyszłości: Web 3.0, dostępny dla wszystkich Internet LTE w końcu całe pokolenia wychowane w sieci skłaniają ekspertów do tez, że wkrótce niemal każdy obywatel cywilizowanego świata będzie mieć dostęp do sieci. Z Internetu korzystamy praktycznie cały czas: sprawdzamy newsy, program TV, piszemy na Facebooku, odbieramy pocztę, robimy przelewy bankowe, zakupy, orientujemy się gdzie i na co pójść do kina…itd.

Dwadzieścia lat minęło jak jeden dzień. Internet w Polsce dostępny jest niemal dla każdego, a internauci mogą wybierać stałe lub mobilne łącza różnej proweniencji. Dostawcy sieci proponują szeroki wachlarz usług od średniej jakości do LTE. Dziś firma, która nie ma własnej strony w sieci praktycznie nie istnieje, bez adresu mailowego lub strony na Facebooku człowiek wypada z rurociągu zawodowego i towarzyskiego. Co raz więcej z nas na palcach jednej ręki może policzyć dni w roku bez używania Internetu. Czy zasadne jest pytanie: jeśli nie ma cię w sieci to czy w ogóle istniejesz?


Licencjonowane artykuły dostarcza Artelis.pl.

Klasy adresów IP

Klasy adresów IP


Autor: Maciej Lewandowski


W sieciach komputerowych tak jak i w innych rodzajach sieci występują pewne standardy. Standardy sieciowe zapewniają poprawne funkcjonowanie i możliwość komunikowania się z komputerami, które znajdują się w różnych częściach świata.


Co to jest adres IP i do czego służy?

Klasy adresów IP są jednym ze standardów umożliwiających podział sieci na mniejsze lub większe. Poniżej znajduje się typowa definicja.

IP(internet protocol) - protokół komunikacyjny warstwy sieciowej modelu OSI (warstwy internet w modelu TCP/IP). Używany powszechnie w Internecie i sieciach lokalnych – źródło www.wikipedia.pl

Tak jak podaje źródło jest to sposób komunikowania się komputerów stosowany powszechnie w Internecie i sieciach lokalnych. Adres IP zostaje przydzielony po wcześniejszym podziale sieci z wybranej klasy adresów IP.

Klasy adresów IP stosowane w dzisiejszej technologi sieciowej

Wyróżniamy pięć klas adresów IP. Każdej z klas przydzielona została jedna litera z alfabetu A, B, C, D lub E. Dzięki takiemu podziałowi można stworzyć sieć o dużych rozmiarach lub mniejszych w zależności od występujących potrzeb. Klasy adresów IP składają się z przedziałów:

Klasa A – 1-126 – maksymalna liczba sieci w klasie 126
Klasa B – 128-191 - maksymalna liczba sieci w klasie 16384
Klasa C – 192-223 - maksymalna liczba sieci w klasie 2097152
Klasa D – 224-239
Klasa E – 240-254

Dwie ostanie klasy adresów IP zarezerwowane są dla odpowiednio do adresowania puli emisyjnej, która umożliwia kontakt z innymi urządzeniami w sieci oraz do celów eksperymentalnych. Należy pamiętać, że każdy adres sieci posiada swoją maskę podsieci.

Podsumowanie

Klasy adresów IP umożliwiają podział sieci ze względu na ilość urządzeń w niej pracujących, co pozwala zachować porządek w całej sieci. Informacje zawarte w artykule są jedynie podstawą do dalszego zdobywania wiedzy o infrastrukturze sieciowej.


http://www.komputerpc.pl/artykuly/index.php?key=rozwin&id_artykulu=35

Licencjonowane artykuły dostarcza Artelis.pl.

Potęga IPv6

Potęga IPv6


Autor: J S


Wiele razy spotykamy się z artykułami w internecie na temat wyczerpania się puli adresów IP. Ile w tym prawdy? Jaka jest przyszłość tej adresacji, co mają z tym wspólnego koty i gwiazdy? postaram się na to odpowiedzieć.


Każdy komputer, drukarka obojętnie jakie urządzenie sieciowe jest identyfikowane przez tzw. adres IP. Oparty na protokole internetowym (Internet Protocol) działa on w 3 warstwie modelu OSI czyli warstwie sieciowej. Możemy bardzo łatwo sprawdzić jaki posiadamy IP - jest mnóstwo stron służących do tego. Adres taki składa się z 4 oktetów, czyli czterech bajtów. Określona ilość bitów odpowiada za identyfikację sieci oraz identyfikację hosta. Dzięki temu pakiet internetowy wie gdzie ma dotrzeć (piszę w dużym uproszczeniu) tam jak listonosz przynosi list wie, że ma go zanieść do adresata w Polsce, danym mieście i danej ulicy. Jest to dobry sposób na wyobrażenie sobie hierarchicznej adresacji z jaką mamy do czynienia w sieci.

Jeśli adres składa się z 4 oktetów więc mamy możliwość zaadresowania 2 do potęgi 32-1 urządzeń. Dużo prawda? Dokładnie jest to tyle 4294967296. Aby było łatwiej adresować takie urządzenia pulę adresów podzielono na tzw. klasy. Wyróżniamy klasę A, B, C, D, E. Dzięki temu adresy klasy A są przypisywane do odpowiednich instytucji, klasy B do innych itd. W tych klasach wyróżniamy również adresy prywatne tzn. takie które możemy używać my zwykli użytkownicy internetu, ale także nasi providerzy. Podział na klasy stał się powodem wyczerpania praktycznie możliwości IP. Wiele adresów jest i tak marnowanych. Dlatego zbliża się nieuchronny koniec tej epoki.

Jednak pamiętajmy, że przecież nie nastąpi to z dnia na dzień, jak piszą niektórzy. Proces ten jest powolny. Przecież mamy do czynienia z tunelowaniem tzn. przepływem IPv6 przez IPv4 i odwrotnie. Serwisy czy instytucje testują i powoli przestawiają się na IPv6 ale nie od razu.

Co to takiego ten Ipv6? Jest to nowa wersja adresowania w sieci. Posiada trzy specjalne rodzaje adresów: adresy unicast (adres pojedynczej emisji) używany głównie przez providerów, adres anycast (adres grona) - przypisany głównie do więcej niż jednego interfejsu. Dzięki temu obaj różni użytkownicy nadający na ten sam adres zostają obsłużeni przez dwa różne urządzenia. Oraz adres multicast - adres rozgłoszenia grupowego.

Adres IPv6 składa się ze 128 bitów. Zapisuje się go jako 8 liczb całkowitych gdzie każda liczba składa się z 4 liczb szesnastkowych. Np. 2444:A444:1112:0000:0000:0777:ACAC:6666:9999. Co ciekawe taki adres można skrócić do zapisu: 2444:A444:1112:777:ACAC:6666:9999 wyrzucając zera. Podsieć określamy podobnie przez dodanie prefiksu ile bitów wskazuje na sieć np. /60

Jak ma się przestrzeń adresowa IPv4 do IPv6? Jako, że niektórym trudno sobie wyobrazić różnicę między 2^32-1 a 2^128-1, popatrzmy na to inaczej. Liczba 2^52 wystarczy aby obdzielić adresami każdą gwiazdę w obecnym znanym nam wszechświecie, podczas gdy 2^32-1 wystarczy dla naszej pojedynczej planety. Piszemy o 2^52 a ile jeszcze brakuje do 2^128?!. Inna ciekawostka wyobraźmy sobie ,że całą pulę adresów IPv4 skupiamy na odcinku ziemi długości 2cm. Gdybyśmy chcieli tak samo skupić nań adresy IPv6 otrzymalibyśmy linię długości naszego układu słonecznego.

To jest właśnie potęga IPv6 - nigdy nie zabraknie nam adresów. Nawet pojedyncza pralka, lodówka czy nasze koty mogłyby posiadać po kilkaset adresów i jeszcze mielibyśmy nadmiar.

Innymi zaletami IPv6 są: obsługa strumieni audio i video w czasie rzeczywistym, bezpieczeństwo - kodowanie, i najważniejsze mobilność hostów. jest to technologia prawdziwie niedalekiej przyszłości.

Mam nadzieję że choć trochę przybliżyłem możliwości IPv6, gdyż wiele czytamy o tym w internecie a tak naprawdę nie zwracamy uwagi na to co w sobie ona kryje.


Polecamy darmowe kursy oraz pozycje warte uwagi, ciekawostki ze świata e-biznesu polecamy to

Licencjonowane artykuły dostarcza Artelis.pl.