23 listopada 2016

Co daje odpowiednia optymalizacja witryny WWW?

Co daje odpowiednia optymalizacja witryny WWW?


Autor: Artelis - Artykuły Specjalne


Odpowiednio zoptymalizowana witryna WWW szybciej zyskuje nowych użytkowników i popularność. Optymalizacja zlecana zazwyczaj jest agencjom SEO, które przygotowują specjalne audyty i reguły, jakich trzeba przestrzegać, by strona wysoko indeksowała się w wyszukiwarkach.


Stworzenie strony internetowej, która będzie zawierała ciekawą i oryginalną zawartość nie sprawi, że automatycznie odniesie ona sukces. By dotarła do potencjalnych odbiorców, musi być odpowiednio zoptymalizowana. Do tego niezbędny może okazać się audyt firmy zajmującej się SEO.

Czym jest optymalizacja stron WWW?

Optymalizacja strony WWW polega na podjęciu działań zmierzających do zwiększenia liczby odwiedzin przez użytkowników na danej witrynie. Przyczynia się do lepszego zrozumienia zawartości strony przez roboty sieciowe, co w efekcie przekłada się na jej wyświetlanie w momencie, gdy ktoś w internecie wpisuje daną frazę lub słowo kluczowe. Bez tego nawet największe budżety przeznaczone na działania promocyjne mogą nie przynieść oczekiwanych rezultatów. Warto więc zrezygnować np. z drogiego do napisania oprogramowania witryny lub zdecydować się na tani hosting stron, po to, by zaoszczędzone pieniądze przeznaczyć na audyt oraz optymalizację. Od tego zależy czy nasza strona zdobędzie popularność i osiągnie sukces.

Jak optymalizuje się witryny WWW i co to daje?

Podczas audytu w pierwszym etapie przygotowywane są wytyczne dotyczące optymalizacji kodu strony. Prowadzi się je pod kątem szybkości wyświetlania strony, wyszukiwania jej w wyszukiwarkach i zgodności ze standardami W3C (przestrzeganie go pozwala na odpowiednie wyświetlanie witryn na różnych urządzeniach). Dzięki tej optymalizacji roboty sieciowe wyszukiwarek z łatwością mogą poruszać się po stronie i ją indeksować.

Po optymalizacji kodu, firma przeprowadzająca audyt SEO musi przygotować reguły dotyczące tworzenia treści. Zawartość strony musi być przede wszystkim wartościowa dla użytkowników i unikalna. Zastosowanie popularnych słów kluczowych i fraz tworzonych w tekstach pozwala na lepsze pozycjonowanie witryny.

Ostatnim etapem audytu jest optymalizacja grafiki oraz struktury linków wewnętrznych. Ważne jest, by obrazy, które znajdują się na stronie, ważyły jak najmniej i wyglądały jak najlepiej. Dodatkowo podczas optymalizacji nie wolno zapomnieć o wzajemnym linkowaniu się treści umieszczonej na stronie. Poprawia to indeksowanie i zwiększa wartość witryny u robotów sieciowych.

Błędy podczas optymalizacji stron

Dobrze zoptymalizowana strona może dać jej właścicielowi więcej unikalnych wejść, co niesie za sobą większe szanse na zdobycie kontraktów reklamowych i umów biznesowych. Niejednokrotnie zdarza się jednak, że witryny są źle zoptymalizowane. Spowodowane jest to:

l złą konstrukcją strony,

l źle dobraną nazwą domeny,

l złym wyborem słów kluczowych,

l brakiem odpowiedniej dostępności dla robotów sieciowych,

l stosowaniem technik spamerskich.

Może cię również zainteresować: Jak promować swoją stronę w internecie?


Artykuły na licencjach dostarcza i publikuje Artelis.pl

Licencjonowane artykuły dostarcza Artelis.pl.

5 powodów, dla których warto kupować w sieci

5 powodów, dla których warto kupować w sieci


Autor: Kasia Mercik


Zakupy odzieżowe przez Internet cieszą się w Polsce coraz większą popularnością. Za granicą, zwłaszcza w Stanach Zjednoczonych czy w państwach Europy Północno-Zachodniej, z tej niestandardowej formy zakupów korzysta aż 80% internautów. Co wpływa na rosnącą popularność takich zakupów?


Duży wybór

Jednym z najczęściej podawanych powodów, dla których kupujemy przez Internet, jest szeroka gama produktów do wyboru. Przy tradycyjnych zakupach nie mamy na tyle czasu czy motywacji, aby dokładnie przejrzeć cały asortyment sklepu. Natomiast zakupy odzieżowe przez Internet dają nam taką możliwość bez wychodzenia z domu.

Oszczędność czasu

Nie musimy też tracić czasu na dojazd do sklepu czy galerii handlowej. Tradycyjne zakupy niosą ze sobą konieczność oczekiwania w kolejce do kasy lub do parkingu – gdy kupujemy przez Internet, jedyne, czego potrzebujemy to wygodne krzesło do siedzenia przy komputerze.

…i pieniędzy

To jedna z najczęściej wymienianych zalet wirtualnych zakupów. Sklepy internetowe i outlety zakupowe oszczędzają na wielu rzeczach, za które płacą właściciele sklepów (wynajem miejsca, sprzątanie, ograniczone koszty pracownicze). Dlatego też zakupy w sieci są tańsze i często oferują bardzo atrakcyjne promocje i obniżki cen.

Wygoda

Długie wyczekiwanie w kolejkach, kilometry spacerów po galeriach handlowych i konieczność odwiedzenia kilku(nastu) sklepów – to wątpliwe uroki tradycyjnych zakupów, których nie doświadczymy podczas zakupów w sieci. Dodatkowym ich atutem jest fakt, iż kupować możemy o dowolnej porze dnia, a zamówione artykuły dostarczane są pod wskazany adres.

Opinie i komentarze

I ostatnią, ale równie ważną zaletą zakupów online jest porównywania cen i sprawdzenia opinii o produktach. Dzięki temu zyskujemy obiektywne spojrzenie na rzecz, którą chcemy kupić. Zwiększa się też szansa, że dany produkt kupimy po cenie niższej, niż zakładaliśmy na początku! A to jest chyba cel każdego konsumenta – niezależnie od tego, czy robi zakupy tradycyjnie, czy wirtualnie.


Outlet internetowy www.limango-outlet.pl
Markowe ubrania: www.limango-outlet.pl/marki

Licencjonowane artykuły dostarcza Artelis.pl.

Integracja urządzeń mobilnych w firmie? Prosta i naturalna

Integracja urządzeń mobilnych w firmie? Prosta i naturalna


Autor: ADul


W małych i średnich przedsiębiorstwach coraz bardziej istotne staje się wykorzystanie nowych technologii. To szansa nie tylko na usprawnienie komunikacji i obiegu dokumentów, ale i najlepsze świadectwo innowacyjności firmy. Zobacz, na jakie rozwiązania możesz liczyć w zakresie integracji urządzeń mobilnych i jak w pełni wykorzystać płynący z tego potencjał.


Możliwości oprogramowania

Największą zaletą urządzeń mobilnych, oprócz dostępu do sieci, jest także dostęp do firmowego oprogramowania. To gwarancja efektywniejszej komunikacji, sprawnego obiegu dokumentów i możliwość zdalnego zarządzania pracą zespołu. Warto pamiętać o tych korzyściach i wykorzystywać je w codziennym funkcjonowaniu firmy. Nawet po godzinach, kiedy nie mamy już ochoty włączać komputera, możemy sprawdzić postęp prac i odpowiadać na pytania współpracowników lub klientów za pośrednictwem telefonu lub tabletu. W tym celu niezbędne jest dobrze zintegrowane oprogramowanie, które umożliwi otwieranie, edycję i przesyłanie plików z każdego urządzenia, z którego połączymy się z siecią (zobacz wiecej: www.microsoft.com/pl-pl/male-srednie-firmy/oferty-specjalne/Office365-dla-malej-firmy/default.aspx).

Pięć urządzeń – jedna licencja

W ramach usługi Office 365 wystarczy jedna licencja, by nasz pracownik mógł w pełni legalnie korzystać ze swojego oprogramowania na pięciu różnych urządzeniach mobilnych (mogą to być np. stacjonarne komputery służbowy i domowy, laptop, tablet i smartfon). Dzięki takiej integracji nie tylko generujemy spore oszczędności w firmie, ale i dajemy pracownikom komfort działania, także poza biurem. Możliwość dostępu do dokumentów, ich modyfikacji, czy omówienie zmian z zespołem lub z klientem może zadecydować o powodzeniu przedsięwzięcia. W dobie Internetu niewiele firm może sobie pozwolić na to, by ich pracownicy bywali poza zasięgiem.

Office na iPada

Ku zadowoleniu wielu przedsiębiorców od kilku miesięcy mamy już możliwość korzystania z pakietu Office 365 także na iPadach. Aplikacje można pobrać za darmo z AppStore. Do wyboru mamy trzy najpopularniejsze biurowe rozwiązania, czyli: Word, Excel i Power Point. W aplikacji Word mamy możliwość zespołowej pracy nad dokumentem i tzw. wersjonowania pliku (czyli zapisywania kolejnych wersji dokumentu z zachowaniem możliwości powrotu do poprzednich). Posiadacze iPadów mogą również swobodnie dodawać formuły i wykresy w aplikacji Excel. Power Point pozwala na tworzenie, edytowanie i bezprzewodowe wyświetlanie prezentacji.

Pełna integracja urządzeń mobilnych pozwala pracownikom firm na swobodne i sprawne działanie. Redukuje także ryzyko, że po wielokrotnych korektach lub konwersjach pliki nie będą poprawnie odczytywane na komputerze naszych klientów. Warto więc zwrócić uwagę na dobór odpowiednich narzędzi i aktualizowanie licencji.


Licencjonowane artykuły dostarcza Artelis.pl.

Informatyczna infrastruktura dla firm

Informatyczna infrastruktura dla firm


Autor: Ewa Bart


Współczesna gospodarka jest ściśle uzależniona od możliwości telekomunikacyjnych. Internet stał się niezwykle istotnym czynnikiem stymulującym rozwój wielu sektorów.


Rozwój infrastrukturalny, postępująca informatyzacja firm oraz popyt na usługi mobilne w życiu codziennym powodują ogromny wzrost zapotrzebowania na moce obliczeniowe. Ma to swój fizyczny wymiar. Serwery, macierze dyskowe i inne urządzenie sieciowe muszą się gdzieś podziać. Do tego potrzeba coraz większej przestrzeni. Sytuacji nie zmienia nawet podwajająca się co dwa lata moc obliczeniowa mikroprocesorów.

Możliwości rozwoju są ściśle związane z powstawaniem centrów danych, które wynajmują uzbrojoną infrastrukturalnie powierzchnię. Hoteling serwerów lub szaf serwerowych jest dla większości podmiotów szansą na stworzenie telekomunikacyjnej lub internetowej oferty. Korzystają z niego całe regiony. Rozwijanie takich usług jak kolokacja w Katowicach daje podmiotom gospodarczym, instytucjom publicznym i organizacjom pozarządowym możliwość budowy sieci w oparciu o własne urządzenia techniczne. W profesjonalnych centrach danych (data center) serwery są pod stałą kontrolą, mają optymalne warunki pod względem wilgotności i temperatury, są również świetnie zabezpieczone.

Firmy oferujące takie usługi kolokacyjne w ramach zaawansowanych technologicznie data center umożliwiają dużo lepszą konkurencję w całym regionie. Poszczególne przedsiębiorstwa mają ułatwiony dostęp do infrastruktury niezbędnej do zbudowania własnego zaplecza, co zapobiega dyktatowi największych i najbardziej zamożnych korporacji. Przekłada się to na znacznie lepsze usługi, oferowane w różnych segmentach rynku, począwszy od firm proponujących usługi informatyczne i hosting, aż po rynki e-commerce.

Nowo powstające centra danych, a także te rozwijające swoje zaplecze, to znak nowych czasów, w których postępująca informatyzacja biznesu stała się faktem i nie ma już od niej odwrotu. Jest to z pewnością powód do zadowolenia dla większości firm, które chcą się rozwijać.


Kompleksowe rozwiązania teleinformatyczne - 4 Data Center

Licencjonowane artykuły dostarcza Artelis.pl.

Internet rzeczy - w czym rzecz?

Internet rzeczy - w czym rzecz?


Autor: Tomasz Galicki


Truizmem jest stwierdzenie, że Internet jest wszechobecny – nawet jednak to byłoby niedopowiedzenie. Nikogo nie dziwi już przecież fakt, że za pomocą telefonu, a w zasadzie smartfonu, możemy wykonać szereg skomplikowanych czynności. Niesamowity jest jednak fakt, że w domowej sieci WiFi współdziałać mogą już przeróżne sprzęty.


O części już słyszeliśmy – będąc na zakupach wysyłamy zapytanie do lodówki, czego brakuje. Ewentualnie dzięki kamerze zamontowanej wewnątrz możemy podejrzeć, co koniecznie trzeba włożyć do koszyka. Lodówka może też nas poinformować, że na niedzielną jajecznicę brakuje kilku produktów. O takich oczywistościach, jak podsuwanie pomysłów na danie, które można stworzyć z produktów obecnych wewnątrz, nawet nie warto już wspominać.

Podobnie kuchenka – piece z ekranem dotykowym i podłączeniem do sieci są wielkim udogodnieniem dla gospodyń domowych. W kilka chwil możemy przeszukać zasoby sieci web w poszukiwaniu przepisu, a nie przekopywać się przez setki stron różnego rodzaju książek kucharskich.

Do sieci może być podłączony również… dzbanek na mleko! Na najpopularniejszym na świecie serwisie crowdfundingowym jakiś czas temu trwała zbiórka na taki gadżet. Dzięki specjalnemu czujnikowi w denku mierzył on ‘świeżość’ mleka, wysyłając nam odpowiednie powiadomienie i sygnalizując diodami świetlnymi jego zdatność do spożycia. A co powiecie na skarpetki, które automatycznie dobierają się w parę? Tudzież na żarówki, którym zostało już niewiele ‘życia’, a które są na tyle inteligentne, by w porę wysłać nam na telefon odpowiednie powiadomienie, byśmy mogli zakupić nową?

Internet rzeczy zabija to, do czego jesteśmy przyzwyczajeni i co znamy – wydawałoby się – od zawsze. Tak dzieje się przecież z telewizją: chociaż wciąż jest to przepotężne medium, to coraz więcej młodych ludzi woli przenieść się na platformy typu Video on Demand, słusznie wychodząc z założenia, że po co śpieszyć się na kolejny odcinek ulubionego serialu, skoro możemy go obejrzeć o dowolnej porze za pośrednictwem sieci? Ponadto możemy to zrobić w domu, autobusie czy pociągu – nawet na ekranie telefonu.

W sieć przenieść możemy także cały dom. Sterowanie zasilaniem, oświetleniem czy ogrzewaniem wydaje się być normą. Prace trwają także nad przystosowaniem zamków w drzwiach tak, by można było je otworzyć smartfonem – na chwilę obecną technologia ta ma wiele minusów, na czele z nie najlepszymi bateriami tych urządzeń, niemniej idea na pewno będzie się rozwijać. Nam pozostaje czekać z cierpliwością.


Chcesz być na bieżąco informowany o ciekawostkach technologicznych? Zapraszamy na blog IT.

Licencjonowane artykuły dostarcza Artelis.pl.

Monitorowania sieci

Monitorowania sieci


Autor: Marcin Kamiński2


W dzisiejszych czasach każda firma posiada dostęp do internetu. Czym większa firma, tym więcej komputerów w jej biurach, a co za tym idzie, tym większa sieć komputerowa.


W dzisiejszych czasach każda firma posiada dostęp do internetu. Czym większa firma, tym więcej komputerów w jej biurach, a co za tym idzie, tym większa sieć komputerowa. Posiadanie dużej sieci wiąże się ze znaczną ilością urządzeń aktywnych. Do tej kategorii należą, miedzy innymi, serwery plików, poczty, stron www, ale także zwykłe switche (niektóre zarządzane). Posiadamy zazwyczaj jakieś punkty dostępu do sieci bezprzewodowej. Coraz więcej urządzeń peryferyjnych jest podłączonych do sieci, a wśród nich np. drukarki, rzutniki, skanery, a nawet nowoczesne lodówki czy piece oraz systemy zarządzania roletami itd.

Wszystko wpinamy w sieć, aby uzyskać zdalny dostęp i kontrolę. Cały ten ogrom tworzy wiele połączeń i mnoży urządzenia, które się łączą między sobą. Aby nad tym wszystkim zapanować potrzebne są coraz to lepsze narzędzia do zarządzania. Często zdarza się, że drukarka nie chce drukować. Pokazuje status OK, a na naszym komputerze pozostają niewydrukowane pliki. Może doprowadzić to do znacznej frustracji, ale powód jest prosty - zawiesił się jakiś switch. Trzeba zlokalizować, które urządzenie odmówiło posłuszeństwa i uruchomić je ponownie. Tu pojawia się pytanie: czy któryś z naszych pracowników odnotuje, że urządzenie się zawisło. A poza tym, warto wiedzieć ile raz w miesiącu wystąpiła taka sytuacja. W typowych warunkach nikt tego nie liczy. A okazać się może, że urządzenie nie ma wystarczającej mocy przerobowych, aby pracować w naszej sieci i należy wymienić je na mocniejsze, aby na przyszłość nie powtarzały się problemy. A może tylko wystarczy wymienić zasilacz na mocniejszy, bo są skoki napięcia i przy zbyt dużym skoku następuje zawieszenie?

Warto zauważyć, jak ważne jest, aby w sieci mieć oprogramowanie do jej monitorowania. Przykładowe oprogramowanie pracuje na systemie Windows, ale także można zainstalować je na systemach linuksowych. Na stronie producenta można znaleźć forum i opisy jak dokonać odpowiedniej instalacji. Program ten pozwala na dodanie wszystkich urządzeń sieciowych, które mają przyznany adres IP w sieci. Mogą być to urządzenia w sieci lokalnej, ale i także w sieci zewnętrznej. Oprogramowanie korzysta z protokołu SMNP, wspiera wszystkie wersje. Dla wygody użytkownika, można tu ustawiać raporty, powiadomienia, a także przeszukać logi. Wiadomo, że jak drukarka podłączona jest do sieci, da się z niej odczytać informacje np. ile pozostało papieru i tonera lub tuszu. Przy niskim poziomie możemy dostać maila i raport powiadamiający nas o potrzebie zakupu tonera do drukarki. Ale najważniejsza sprawa w monitorowaniu sieci to informacje jakie ilości danych są przesyłane między portami switchy. A także, które z tych urządzeń się zawiesiło i jak często. W jakich godzinach dochodzi do awarii itd. Dzięki temu oprogramowaniu uzyskamy łatwość w wyszukiwaniu problemów w naszej sieci, a co za tym idzie możliwość skutecznego usuwania i zapobiegania awariom.


Serdecznie zapraszam na moją stronę www.robmar.eu

Licencjonowane artykuły dostarcza Artelis.pl.

Sposób działania systemu WWW dla laików

Sposób działania systemu WWW dla laików


Autor: Ludwik Nolberczak


World Wide Web – właśnie tak należy rozszyfrować skrót, od którego rozpoczyna się adres właściwie każdej strony internetowej. Co właściwie kryje się pod tą nazwą i na jakiej zasadzie funkcjonuje wspomniany system?


Pod pojęciem World Wide Web znajduje się specyficzny, wirtualny świat, do którego dostęp uzyskujemy poprzez obsługę komputera podłączonego do Internetu. W obecnych czasach to dla nas naturalne, że w przeglądarce internetowej mamy możliwość odnalezienia informacji na praktycznie dowolny interesujący nas temat, jednak prawdopodobnie niewielu z nas zna i rozumie działanie mechanizmu funkcjonowania nadmienionego systemu…

W powszechnym języku niekiedy pojęcia „Internet” oraz „WWW” używane są zamiennie. Tymczasem różnica między wspomnianymi terminami jest dość istotna – Internet jest bowiem systemem połączonych sieci komputerowych z całego świata, natomiast World Wide Web to nazwa najbardziej popularnej usługi funkcjonującej w ramach wymienionego systemu. Innymi słowy, WWW to nic innego, jak specyficzna aplikacja działająca w Internecie, która w istocie jest zbiorem najróżniejszych, skontaminowanych ze sobą dokumentów elektronicznych.

Jak to jednakże możliwe, że po wpisaniu adresu danej strony internetowej, w przeglądarce ukazuje nam się harmonijna całość? Przeglądarka internetowa to specjalny program komputerowy, który komunikuje się z serwerem WWW, na którym zamieszczona jest wywołana przez nas strona, za pomocą wysyłania i odbierania tzw. „zapytań”. Następnie otrzymywane z serwera informacje są przez przeglądarkę przetwarzane na to, co widzimy na ekranie monitora. W rzeczywistości jednak wszystko, co ukazuje się naszym oczom, opisane jest za pomocą specjalnych kodów, co w swej źródłowej postaci dla przeciętnego użytkownika komputera byłoby niezrozumiałe.

Adres strony WWW, który wpisujemy w odpowiednim polu w przeglądarce, nazywa się URL (z ang. Uniform Resource Locator). Odnosi się on do adresu IP, a więc swoistego „położenia” w globalnej sieci danego serwera z interesującą nas stroną internetową. W przypadku większości stron przeglądarka najpierw „dekoduje” unikalny kod HTML danej witryny, a dopiero w następnej kolejności pobiera jej pozostałe elementy, jak na przykład fotografie, filmy, muzykę itp. Obecnie znaczna część witryn internetowych jest bardzo rozwinięta pod względem oferowanej przez nie zawartości, toteż przeglądarki pobierają poszczególne elementy oglądanych przez nas stron stopniowo. Sposób, w jaki „budowany” jest finalny efekt, określa wykorzystany do stworzenia danej strony język skryptowy, jak na przykład HTML, PHP, CSS itd. Ponadto bardzo mocną stroną systemu World Wide Web jest łatwe przełączanie się między treściami, które nas interesują. Stosuje się do tego tak zwane hiperłącza, których uporządkowana struktura tworzy zorganizowaną sieć informacji, złożoną z wszelkiego rodzaju multimedialnych treści.

Oczywiście powyższy opis funkcjonowania systemu WWW jest bardzo uproszczony i ma na celu uzmysłowić przeciętnemu użytkownikowi Internetu, jak to się dzieje, że praktycznie bez żadnego wysiłku ma ów użytkownik dostęp do wszelkich interesujących go informacji. W rzeczywistości komunikacja między komputerem użytkownika a serwerami WWW oraz proces polegający na przetwarzaniu przez przeglądarkę pozyskanych treści jest znacznie bardziej skomplikowany, jednak z perspektywy zwykłego zjadacza chleba wdawanie się w techniczne meandry jest w ocenie autora bezzasadne.


serwery dedykowane

Licencjonowane artykuły dostarcza Artelis.pl.

Sieci komputerowe - wstęp i klasyfikacja sieci

Sieci komputerowe - wstęp i klasyfikacja sieci


Autor: Andrzej K.


Wszystko, co potrzebujesz wiedzieć o sieciach komputerowych od strony teoretycznej.
Geneza, wady, zalety, rodzaje sieci komputerowych. Definicje.
Od ery dyskietki do ery Internetu.


Na początku…

Komputery były niezależne, samowystarczalne, połączone co najwyżej wspólną linią zasilającą. Aby wymienić się plikami (danymi) z innym użytkownikiem, potrzeba było fizycznie przenieść pliki na jakimś nośniku, np. dyskietce, taśmie magnetycznej. Oprogramowanie musiało być zainstalowane na każdym komputerze, na którym użytkownicy z niego korzystali. Chcąc skorzystać z drukarki podłączonej do sąsiedniego komputera, należało do niego dotrzeć z nośnikiem zawierającym dane do wydrukowania. Można było ewentualnie zastosować specjalne przełączniki pozwalające na podłączenie kilku komputerów do jednego komputera. Jednak rozwiązanie to miało swoje ograniczenia (maks. długość kabla, maks. ilość komputerów). Jeśli użytkownik potrzebował dodatkowych zasobów dyskowych, potrzeba było podłączyć do komputera kolejne dyski twarde.

Rozwiązaniem wcześniej opisanych problemów jest sieć komputerowa, czyli system komunikacyjny służący do przesyłania danych, łączący co najmniej dwa komputery i/lub urządzenia peryferyjne (np. drukarka – serwer wydruku).
Ogólnie komputery w sieci nazywamy hostami.
Komputer oferujący pewne usługi w sieci nazywamy serwerem (np. serwer plików). Komputer umożliwiający użytkownikowi pracę w sieci oraz korzystanie z jej zasobów nazywamy stacją roboczą (ang. workstation).

Podłączanie urządzeń peryferyjnych (np. drukarek, skanerów, dysków) do sieci komputerowej.

Pośrednie – urządzenie jest podłączone do komputera, który jest wpięty do sieci komputerowej, komputer pełni wtedy rolę serwera udostępniającego to urządzenie w sieci.
Bezpośrednie – urządzenie wpięte jest bezpośrednio do sieci komputerowej, posiada odpowiedni moduł sieciowy działający jako serwer.

Urządzenia posiadające moduł sieciowy są droższe, jednak nie potrzebują do ich wykorzystania w sieci stale włączonego komputera.

Zalety sieci komputerowych

Współdzielenie zasobów takich jak:
– pamięć zewnętrzna (np. dyski twarde),
– urządzenia zewnętrzne (np. drukarki, skanery),
– moc obliczeniowa procesora np.: projekt SETI, czyli badanie sygnałów z kosmosu, poszukiwanie leków na raka, AIDS World Community Grid

Wymiana, współużytkowanie plików (danych) między użytkownikami różnych komputerów:
– proste kopiowanie plików,
– systemy wymiany plików P2P (ang. Peer-To-Peer),
– dostęp do wspólnej bazy danych.

Komunikacja - przesyłanie poczty elektronicznej między użytkownikami, komunikatory (np. gadu-gadu), telefonia VoIP, telekonferencje.

Wykonywanie programu na drugiej maszynie. Zdarza się, że inny komputer może być lepiej dostosowany do wykonywania jakiegoś programu. Często bywa tak w przypadku programów wymagających specjalnych właściwości systemu np. dostęp do dużych obszarów pamięci.

Możliwość centralnego zarządzania komputerami i użytkownikami w sieci (np. domeny Active Directory)

Zdalny dostęp do odległych komputerów (np. pracownik będąc w domu może pracować na komputerze w firmie korzystając z jego zasobów).

Inne korzyści:
– transmisja dźwięku, obrazu w czasie rzeczywistym (radio i telewizja)
– gry sieciowe
– zdalna pomoc
– przenośne środowisko pracy użytkownika pomiędzy komputerami (przeważnie w sieci lokalnej)
– bankowość i handel elektroniczny

Wady sieci komputerowych

Pogorszenie bezpieczeństwa

Dopóki komputer nie jest w sieci, włamanie i np. kradzież danych jest możliwe praktycznie tylko przez fizyczny kontakt z danym systemem komputerowym.
W przypadku sieci włamania i kradzieże danych dokonywane są przede wszystkim zdalnie za pośrednictwem sieci.
Administratorzy sieci i włamywacze (hackerzy) prowadzą ciągły „wyścig zbrojeń”.

Klasyfikacja sieci

Ze względu na zasięg sieci dzielimy na:

LAN (ang. Local Area Network) - lokalna sieć komputerowa zawierająca od kilku do kilkudziesięciu stacji roboczych rozmieszczonych na niewielkim obszarze.

MAN (ang. Metropolitan Area Network) - miejska sieć komputerowa, łączy sieci LAN na większym obszarze miasta, osiedla, dzielnicy.

WAN (ang. Wide Area Network) - rozległa sieć komputerowa obejmująca swoim zasięgiem różne kraje, a nawet całe kontynenty. Przykładem jest tu sieć Internet.

Sieć globalna Internet - jest "siecią sieci": zbudowany jest na zasadzie łączenia ze sobą poszczególnych sieci lokalnych.

Ze względu na rolę hostów w sieci:

Każdy z każdym (ang. peer-to-peer) - Każdy host w sieci tego typu może być jednocześnie zarówno klientem, jak i serwerem.
Wszystkie komputery są zdolne do pobierania danych, programów i innych zasobów. Każdy komputer pracujący w takiej sieci jest równorzędny w stosunku do każdego innego, w sieciach tego typu nie ma hierarchii, stąd sieci takie nazywane są również sieciami równorzędnymi.

ZALETY:

Sieci te są w miarę łatwe do wdrożenia i proste w obsłudze. Sieci te są tanie w eksploatacji. Nie wymagają one drogich
i skomplikowanych serwerów dedykowanych oraz zatrudniania administratorów. Sieci typu każdy-z-każdym mogą być ustanawiane przy wykorzystaniu prostych systemów operacyjnych, takich jak np. Windows 98, Windows 2000/XP.

WADY:

Użytkownicy tej sieci muszą pamiętać wiele haseł, zwykle po jednym dla każdego komputera wchodzącego w sieć. Brak centralnego serwera plików zmusza użytkownika do samodzielnego wyszukiwania informacji. Nieskoordynowane i niekonsekwentne tworzenie kopii zapasowych danych oraz oprogramowania.

Klient-serwer - jeden lub więcej komputerów spełnia rolę serwera i nie wykonuje innych zadań. Serwer spełnia takie zadania jak: przechowywanie i udostępnianie plików, zarządzanie współdzieleniem drukarek oraz funkcje związane z bezpieczeństwem danych. Serwery zwykle nie mają użytkowników bezpośrednich. Typowy system tego typu – Novell Netware.

Model sieci klient-serwer występuje w dwóch wersjach:
programy wykonywane są przez serwer a wyniki wyświetlane na ekranie klienta – cienki klient (ang. thin client),
serwer dostarcza danych dla aplikacji uruchamianych na komputerze klienta – gruby klient (ang. fat client).

Programy (aplikacje) działające w takiej sieci z kolei możemy podzielić na:
frontend - uruchamiane u klienta,
back-end - uruchamiane na serwerze.

ZALETY:

W sieciach tego typu z klientów zdjęty jest ciężar funkcjonowania jako serwery wobec innych klientów. Sieci oparte na serwerach są dużo bezpieczniejsze niż sieci równorzędne (bezpieczeństwem zarządza się centralnie) Zwykle serwer cechuje się większą mocą przetwarzania, większą ilością pamięci i większym, szybszym dyskiem twardym niż komputer-klient. Dzięki temu żądania komputerów-klientów mogą być obsłużone lepiej i szybciej.

WADY:

Ponoszenie dużych kosztów związanych z zainstalowaniem i obsługą tego rodzaju sieci (większe koszty sprzętu i oprogramowania, związane z zainstalowaniem dodatkowego komputera, którego jedynym zadaniem jest obsługa klientów).
Naprawa komputerów udostępniających dane lub usługi (serwerów) jest z reguły droższa niż normalnych komputerów.

Koszty obsługi takich sieci są dużo wyższe. Wynika to z potrzeby zatrudnienia wyszkolonego pracownika (administratora sieci) specjalnie do administrowania i obsługi sieci.

Większy koszt ewentualnego czasu przestoju. W sieci każdy-z-każdym wyłączenie lub uszkodzenie jednego komputera powoduje niewielkie jedynie zmniejszenie dostępnych zasobów sieci lokalnej. Natomiast w sieci lokalnej opartej na serwerze, uszkodzenie serwera może mieć znaczny i bezpośredni wpływ na praktycznie każdego użytkownika sieci.

Trochę humoru

Precyzyjna dokumentacja wszystkich połączeń zapewnia szybki dostęp do każdego abonenta. Masywna budowa skrzynki rozdzielczej chroni przed dostępem osób postronnych do skomplikowanej i wyrafinowanej techniki.


KodIT - Serwis komputerowy Poznań

Licencjonowane artykuły dostarcza Artelis.pl.

Ruszył Google Drive

Ruszył Google Drive


Autor: Przemysław Starosta


Google robi kolejny krok ku przyciągnięciu klientów. Oto startuje usługa Google Drive, która umożliwia uzyskanie dostępu do 5GB przestrzeni dyskowej za darmo umiejscowionej oczywiście w chmurze. Czy pokona DropBox lub SkyDrive? Z pewnością będzie potrzebowała na to jeszcze trochę czasu.


Google robi kolejny krok ku przyciągnięciu klientów. Oto startuje usługa Google Drive, która umożliwia uzyskanie dostępu do 5GB przestrzeni dyskowej za darmo umiejscowionej oczywiście w chmurze.

google

Read More

Po co mi Google Drive?

Nie tak dawno nasze dane znajdowały miejsce na dyskach CD. Później sukcesywnie, krok po kroku, zostały one wyparte przez pendrive. Teraz z kolei pendrive coraz bardziej oddaje miejsce dyskom wirtualnym, do których mamy dostęp z każdego miejsca na świecie, gdzie tylko jest dostęp do internetu.

Ile to kosztuje?

W zasadzie nie kosztuje nic, jeśli wystarczy nam 5GB. Jeśli zatem chcemy skoncentrować się na przechowywaniu dokumentów a nie plików multimedialnych, zupełnie powinno nam to wystarczyć. W innym wypadku będzie konieczność dokonania właściwej opłaty według poniższej tabeli

Przestrzeń dyskowa

Miesięczna opłata

25 GB

2,49 $

100 GB

4,99 $

200 GB

9,99 $

1 TB

49,99 $

16 TB

799,99 $

Co oferuje Google Drive?

Przede wszystkim możliwość udostępniania naszych plików. Podobnie jak w Google Docs możemy w trybie rzeczywistym pracować nad jednym dokumentem z kilkoma współpracownikami, co znacząco ułatwia pracę nad wspólnym projektem. Możliwość udostępniania pozwala też uniknąć żmudnego przesyłania kolejnej wersji (np. prezentacji) co zawsze zwiększa możliwość zagubienia właściwego pliku. W tej chwili do Google Drive mamy dostęp przez przeglądarkę, dedykowaną aplikację na PC oraz MAC jak i aplikację do smartfonów opartych na systemie Android. Z tego co wyczytałem w informacjach przygotowywana jest wersja na iOS.

Ważnym atutem dla korzystających do tej pory z dobrodziejstw Google jest oczywiście jego integracja. Z poziomu dysku bez problemu możemy dołączyć pliki do naszych maili lub udoskonalić swój profil na Google+.

Bardzo ciekawie wyglądają również techniki wyszukiwania (w sumie przecież to Google). Algorytm rozpoznania tekstu i obrazu pozwoli poprzez technologię OCR przeszukać dany dokument pod kątem podanych słów kluczowych. Ta możliwość odróżnia Google od konkurencji w tym segmencie informatyki.

Kiedy mogę zacząć?

No i tu jest problem. Gdyż udając się pod ten adres musimy wpierw zgłosić chęć utworzenia usługi dla naszego konta (oczywiście trzeba mieć konto @gmail). Później pozostaje czekać. Niektórzy mówią o kilku godzinach, a inni o kilku dniach. Zatem im szybciej zadeklarujemy chęć korzystania z Google Drive tym lepiej, bo można przypuszczać iż coraz więcej chętnych będzie choćby do przetestowania tej usługi.

Podsumowanie

Google Drive próbuje stworzyć kolejną alternatywę dla Dropboxa. Czy dobrze? Zawsze jest dobrze, gdy konkurencja istnieje, bo wtedy klient się cieszy. Myślę, że Google Drive ma dużą szansę zdobyć serca i pieniądze tych, którzy już polubili takie usługi jak Gmail czy Google Docs. Integracja z kalendarzem i mailem jak i ze smartfonem Androidowym jest niezwykle kusząca. Sądzę, że rynek dysków wirtualnych tylko zyska na tym kroku naszego wujka Google.


Przemysław Starosta
www.issem.com.pl

Licencjonowane artykuły dostarcza Artelis.pl.

Proste udostępnianie plików i drukarek

Proste udostępnianie plików i drukarek


Autor: JANUSZ KOSTECKI


W tym wpisie chciałbym poruszyć nie nową kwestię udostępniania plików i drukarek w systemie operacyjnym Windows XP, na zasadzie udostępniania prostego.


Mimo, że firma Microsoft w ostatnich latach wypuściła na rynek dwa nowe systemy operacyjne Vistę i Windows 7, to jak wykazują badania system XP cieszy się popularnością, a w ostatnich miesiącach nieco zwiększył swój udział w rynku, co jest fenomenem na OS, który ma już ponad 10 lat.

Proste udostępnianie plików i drukarek jest najczęściej stosowane w gospodarstwach domowych, za pośrednictwem routera. Za wzór opisu służyć będzie udostępnianie między komputerem stacjonarnym z systemem operacyjnym Windows XP Professional i laptopem z OSem Windows XP – Home. Jeśli ktoś będzie mieć z tym problem, to przeczytawszy ten wpis, będzie mieć gotowy wzór do realizacji.

Na samym początku musimy odhaczyć dwie opcje:

W Mój komputer – narzędzia – opcje folderów – widok odhaczamy dwie opcje:

A) Użyj prostego udostępniania plików,

B) Automatycznie wyszukaj foldery sieciowe i drukarki.

Następnie w Panelu sterowania – narzędzia administracyjne – zarządzanie komputerem – użytkownicy i grupy lokalne, ustawiamy hasło na gościa. Od samego użytkownika zależy, czy można, bądź nie zmienić to hasło, ale obowiązkowo odhaczamy konto jest wyłączone. To poprzez konto gościa komputer i laptop będą się ze sobą łączyć.

Pozostajemy w Panelu sterowania – narzędzia administracyjne – zasady zabezpieczeń lokalnych – przypisywanie praw użytkownika.

A) Odmowa logowania lokalnego – gdy jest tam gość, to należy go stamtąd usunąć.

B) Odmowa logowania w trybie wsadowym – tam dajemy konto gościa, bo my w domyśle logujemy się w trybie zwykłym, czyli lokalnym.

C) Logowanie lokalne – tam dajemy gościa.

Co trzeba jeszcze zrobić w tym miejscu.

1. Odmowa dostępu do tego komputera z sieci – gdy jest tam gość to go usuwamy.

2. Logowanie w trybie wsadowym – nie może tam być komputerów przypisanych do sieci, gdyż one jak pisałem wcześniej logują się w trybie usługi lokalnej. Gdy tam są, to je usuwamy. Jest to niezwykle ważne, gdyż w przeciwnym razie komputery nie będą się łączyć, a użytkownikowi oszczędzi to dodatkowego stresu.

Kolejna rzecz. Panel sterowania – narzędzia administracyjne – zasady zabezpieczeń lokalnych – opcje zabezpieczeń –dostęp sieciowy – udostępnianie użytkowników lokalnych jako samych siebie.

Bardzo ważną sprawą jest odpowiednio ustawienie opcji w firewallu, tak aby komputery przepuszczały się wzajemnie. Nie trzeba całkiem wyłączać firewalla, tylko wystarczy jak w wyjątkach zaznaczone mamy udostępnianie plików i drukarek. Pamiętać należy też o własnych programach antywirusowych, które mają własne firewalle, zwłaszcza Norton antywirus. W jego opcjach należy wyłączyć firewall, bo inaczej nie przepuści on innego komputera, a użytkownik będzie w stanie permanentnej irytacji. Wyłączenie firewalla w programie antywirusowym nie oznacza, że dostęp do komputera jest dostępny dla każdego, gdyż mamy włączonego systemowego firewalla.

Kolejna ważna rzecz, to nadanie unikatowych nazw dla komputerów, czy laptopów, które mamy zamiar połączyć, w tym wypadku komputer i laptop. Nazwa dla sieci musi być jedna i musi widnieć taka sama w komputerze i laptopie.

Udostępniamy tylko te foldery i katalogi, które uznajemy za stosowne. Czyni się to poprzez kliknięcie prawym przyciskiem myszki (dla praworęcznych) w dany folder, a następnie udostępnianie i zabezpieczenia, później klikamy w udostępnij ten folder. Tutaj system daje dosyć duże pole manewru, jeśli chodzi o sprawę, na ile chcemy go udostępnić. To co zostało opisane do tej pory, sotyczy jedynie komputera hosta, który pracuje w systemie XP - Profesional, w wersji Home nie mamy tych opcji.

Teraz dopiero przychodzi czas na puszczenie kreatora sieci na obu nośnikach i resetujemy je. Po restarcie należy być nieco cierpliwym, bo czasami mija i dobra minuta, zanim komputer i laptop w tym wypadku zobaczą się nawzajem. Moje miejsce sieciowe – wyświetl komputery grupy roboczej.

Gdy komputery jednak nie widzą się, a zabezpieczenia z systemu antywirusowego zostały zdjęte, to należy popingować. Klikamy START – URUCHOM – Command i dajemy polecenie ping….adres IP, ot przykładowo 192.168.0.1 i ENTER. Powinny być 4 pytania i cztery odpowiedzi, zero strat i odpowiedź powinna nadejść niemal błyskawicznie. Gdy nie mamy w miarę szybko odpowiedzi, albo otrzymujemy 100 strat, znaczy że nie usunęliśmy jakiś zabezpieczeń. Czynność tą należy wykonać na obu komputerach, względnie laptopach.

Pamiętać należy o odpowiednim ustawieniu adresów IP, muszą one być różne dla obu nośników, powinny się nawet krzyżować, choć nie jest to wymóg z gatunku absolutu. Maska podsieci jest taka sama, czyli 255.255.255.0. Adres bramy domyślnej to przeważnie 192.168.1.254.Adres DNS to IP, które przydzielił nadawca internetowy. Obecnie kiedy zdecydowana większość użytkowników ustawia automatycznie uzyskanie adresu IP i adresu serwera DNS, te unikatowe adresy znajdziemy poprzez kliknięcie na połączenie lokalne w połączeniach sieciowych, będą one widoczne w dolnej części lewego paska.

Home Version

Gdyby jakiś użytkownik zechciał połączyć dwa komputery, względnie laptopy tylko w systemie XP – Home, to tutaj zadanie jest proste. Nie ma opcji użytkownicy i grupy lokalne, a także „użyj prostego udostępniania plików”. Potrzeba jedynie odpowiednio ustawić adresy IP i puścić kreatora, do logowania na takich kompach nie trzeba hasła. System XP – Home ma domyślnie ustawione udostępnianie plików i drukarek, choć w systemie prostym może uchodzić za hosta, to gdy chcemy połączyć już trzy nośniki potrzebny będzie OS XP – Profesional.

Ważne jest, aby wersja Home widziała drugiego kompa w sieci. W razie potrzeby pingujemy, czyli dajemy polecenie Command i adresy IP.


Janusz Kostecki

Dobrze brać, co się chce

Licencjonowane artykuły dostarcza Artelis.pl.

22 listopada 2016

Czy bez Internetu obecnie jeszcze istniejesz?

Czy bez Internetu obecnie jeszcze istniejesz?


Autor: Marika Kobza


Od pierwszego maila wysłanego w 1991 roku na Uniwersytecie Warszawskim do ultraszybkiego mobilnego Internetu LTE w Plusie w 2011r minęło 20 lat. Tylko Chuck Norris mógł przewidzieć taki rozwój Internetu w Polsce. I pewnie dlatego, jako jedyny ma wszystkie dane zapisane na dyskietce:)


Internet

Na początku było stypendium dla naukowców Uniwersytetu Warszawskiego od Polskiego Komitetu Badań Naukowych. Nie było oszałamiające, około 500 tysięcy starych złotych, czyli na dzisiejsze niecałe 50 tysięcy złotych. Jednym z celów naukowego projektu było uzyskanie połączenia sieciowego Uniwersytetu z różnymi uczelniami w Polsce i zagranicą.

Od kamienia łupanego do średniowiecza

W sierpniu 1991 r. Rafał Pierak z wydziału Fizyki UW uzyskał połączenie z siecią z kopenhaskiego uniwersytetu. Ten symboliczny moment uważany jest za wysłanie pierwszego maila. W 1992 r. jest już w Polsce około 2 tysięcy (!) internautów, skupionych głównie przy uczelniach. Dostępność sieci w domu lub biurze to w tamtych czasach było kompletne science- fiction, zasady działania Internetu nie były zrozumiałe nawet dla największych erudytów. W 1993 r. powstaje firma ATM, która sprzedaje przedsiębiorcom dostęp do sieci. Dwa lata później pojawiają się firmy Polbox oraz PDI (Publiczny Dostęp do Internetu), które udostępniają prywatnym uczestnikom dostęp do Internetu. W tym samym roku telewizyjna Panorama jako pierwszy program telewizyjny w Polsce zaczyna posiadać swój adres internetowy.

W tym czasie mamy w Polsce już 500 tysięcy użytkowników sieci. Rozwój Internetu przyspiesza dzięki uruchomieniu przez TP SA numeru 0-20-21-22 przez który można się było „wdzwonić” do sieci za pomocą modemu telefonicznego, właśnie wtedy powstają pierwsze duże serwisy: Wp.pl,Onet.pl. Następuje wysyp dziesiątek mniejszych i większych serwisów internetowych: Interia.pl., Arena.pl, Ahoj.pl , Gazeta.pl, Yoyo.pl, Hoga.pl. Cześć z nich stanie się liderami, a cześć upadnie jak amerykańska bańka internetowa na początku nowego Millenium. W 1999 roku pojawia się usługa SDI czyli stały dostęp do Internetu w TP SA pozwalający na stałe nielimitowane połączenie z siecią bez konieczności połączenia ze słynnym numerem. W tym czasie stałe łącze obsługuje wciąż tradycyjna linia telefoniczna z prędkością do 115 kb/s. Mimo że prędkość nie jest zawrotna, przybywa użytkowników sieci.

Oświecenie, czyli przyśpieszamy

Sytuacja zmienia się na początku stulecia, kiedy rozpoczyna się wykorzystanie do korzystania z Internetu sieci telewizji kablowych. Liczba użytkowników gwałtownie rośnie, zwiększa się też liczba i różnorodność informacji. Pojawiają się coraz to nowsze usługi w Internecie: pierwsze banki z internetowym dostępem do konta, serwis aukcyjny Allegro, itp. W 2004 udostępniony zostaje szerokopasmowy bezprzewodowego dostęp do sieci (WLAN) ,który udostępniają różni dostawcy zarówno operatorzy kablówek , TPSA jak i operatorzy sieci komórkowych: Era, Idea, Plus. W 2006 r. statystycznie z Internetu korzysta już co trzeci Polak. Większość z nich to osoby do 40 roku życia. Miedzy innymi dzięki serwisowi nasza klasa, na którym można spotkać kolegów i koleżanki z młodzieńczych lat szkoły, liczba internautów znów się zwiększa. Sam portal ma 11 milionów zarejestrowanych użytkowników. Pod koniec pierwszej dekady nowego tysiąclecia powstają popularne serwisy plotkarskie np.: Plotek.pl czy rozrywkowe Demotywatory.pl, które codziennie gromadzą miliony internautów przed komputerami. Internauci mogą korzystać ze stałych łączy zapewniających szybkość ponad 100 Mb/s. Wraz z rozwojem sieci komórkowych Internet staje się dostępny niemal w całym kraju.

Mobilny Internet to przełom, LTE kamień milowy

Mobilna sieć w Polsce pojawia się w 2005r. Jej szybkość 384 kb/s. nie od razu zachęca do użytkowania, ale zasięg już tak. Jednym z pierwszych dostawców tej usługi był Orange, jednak szybkość pozostawiała wiele do życzenia. Rok 2006 to wejście technologii HSDPA i przyspieszenie od 1,8 Mb/s. do 7,2 w 2008 r. Liczba korzystających z mobilnych urządzeń zaczyna być liczona w milionach. Polska staje się liderem dostępu do mobilnego Internetu. Niektóre sieci komórkowe zaczynają dostarczać Internet z szybkością 21mb/s. Na początku 2011r Cyfrowy Polsat a obecnie sieć komórkowa Plus wprowadza na rynek ultra szybki Internet LTE (Long Term Evolution), który umożliwia transfer danych do 100 Mb/s. Dzięki tej technologii ściągnięcie filmu o wielkości 1 GB zajmuje niecałe 2 minuty, a pobranie piosenki mp3 o wielkości 6 MB to tylko sekunda. Wkrótce dzięki LTE oglądanie TV i filmów w Internecie oraz granie on-line w czasie podróży po Polsce nie będzie czymś nadzwyczajnym.

Internet w Polsce a na świecie

Według międzynarodowego giganta Cisco i jego badań opublikowanych na stronie gigaom.com na świecie Internetu używa niemal 1,8 miliarda osób. Na pierwszym miejscu z około 360 mln użytkowników znajdują Chiny. To około 21 procent Internautów sieci na całym świecie. Drugie miejsce dzierżą Stany Zjednoczone z niemal 230 milionami internautów ( ok. 13%). Trzecie miejsce zajmuje kraj kwitnącej wiśni z ok.96 mln fanów sieci. Nasz kraj z 20 milionami Internautów ( około 1, 3%) znajduję się w pierwszej 30 państw posiadających największą liczbę internautów. Nowe technologie, interaktywny Internet przyszłości: Web 3.0, dostępny dla wszystkich Internet LTE w końcu całe pokolenia wychowane w sieci skłaniają ekspertów do tez, że wkrótce niemal każdy obywatel cywilizowanego świata będzie mieć dostęp do sieci. Z Internetu korzystamy praktycznie cały czas: sprawdzamy newsy, program TV, piszemy na Facebooku, odbieramy pocztę, robimy przelewy bankowe, zakupy, orientujemy się gdzie i na co pójść do kina…itd.

Dwadzieścia lat minęło jak jeden dzień. Internet w Polsce dostępny jest niemal dla każdego, a internauci mogą wybierać stałe lub mobilne łącza różnej proweniencji. Dostawcy sieci proponują szeroki wachlarz usług od średniej jakości do LTE. Dziś firma, która nie ma własnej strony w sieci praktycznie nie istnieje, bez adresu mailowego lub strony na Facebooku człowiek wypada z rurociągu zawodowego i towarzyskiego. Co raz więcej z nas na palcach jednej ręki może policzyć dni w roku bez używania Internetu. Czy zasadne jest pytanie: jeśli nie ma cię w sieci to czy w ogóle istniejesz?


Licencjonowane artykuły dostarcza Artelis.pl.

Klasy adresów IP

Klasy adresów IP


Autor: Maciej Lewandowski


W sieciach komputerowych tak jak i w innych rodzajach sieci występują pewne standardy. Standardy sieciowe zapewniają poprawne funkcjonowanie i możliwość komunikowania się z komputerami, które znajdują się w różnych częściach świata.


Co to jest adres IP i do czego służy?

Klasy adresów IP są jednym ze standardów umożliwiających podział sieci na mniejsze lub większe. Poniżej znajduje się typowa definicja.

IP(internet protocol) - protokół komunikacyjny warstwy sieciowej modelu OSI (warstwy internet w modelu TCP/IP). Używany powszechnie w Internecie i sieciach lokalnych – źródło www.wikipedia.pl

Tak jak podaje źródło jest to sposób komunikowania się komputerów stosowany powszechnie w Internecie i sieciach lokalnych. Adres IP zostaje przydzielony po wcześniejszym podziale sieci z wybranej klasy adresów IP.

Klasy adresów IP stosowane w dzisiejszej technologi sieciowej

Wyróżniamy pięć klas adresów IP. Każdej z klas przydzielona została jedna litera z alfabetu A, B, C, D lub E. Dzięki takiemu podziałowi można stworzyć sieć o dużych rozmiarach lub mniejszych w zależności od występujących potrzeb. Klasy adresów IP składają się z przedziałów:

Klasa A – 1-126 – maksymalna liczba sieci w klasie 126
Klasa B – 128-191 - maksymalna liczba sieci w klasie 16384
Klasa C – 192-223 - maksymalna liczba sieci w klasie 2097152
Klasa D – 224-239
Klasa E – 240-254

Dwie ostanie klasy adresów IP zarezerwowane są dla odpowiednio do adresowania puli emisyjnej, która umożliwia kontakt z innymi urządzeniami w sieci oraz do celów eksperymentalnych. Należy pamiętać, że każdy adres sieci posiada swoją maskę podsieci.

Podsumowanie

Klasy adresów IP umożliwiają podział sieci ze względu na ilość urządzeń w niej pracujących, co pozwala zachować porządek w całej sieci. Informacje zawarte w artykule są jedynie podstawą do dalszego zdobywania wiedzy o infrastrukturze sieciowej.


http://www.komputerpc.pl/artykuly/index.php?key=rozwin&id_artykulu=35

Licencjonowane artykuły dostarcza Artelis.pl.

Potęga IPv6

Potęga IPv6


Autor: J S


Wiele razy spotykamy się z artykułami w internecie na temat wyczerpania się puli adresów IP. Ile w tym prawdy? Jaka jest przyszłość tej adresacji, co mają z tym wspólnego koty i gwiazdy? postaram się na to odpowiedzieć.


Każdy komputer, drukarka obojętnie jakie urządzenie sieciowe jest identyfikowane przez tzw. adres IP. Oparty na protokole internetowym (Internet Protocol) działa on w 3 warstwie modelu OSI czyli warstwie sieciowej. Możemy bardzo łatwo sprawdzić jaki posiadamy IP - jest mnóstwo stron służących do tego. Adres taki składa się z 4 oktetów, czyli czterech bajtów. Określona ilość bitów odpowiada za identyfikację sieci oraz identyfikację hosta. Dzięki temu pakiet internetowy wie gdzie ma dotrzeć (piszę w dużym uproszczeniu) tam jak listonosz przynosi list wie, że ma go zanieść do adresata w Polsce, danym mieście i danej ulicy. Jest to dobry sposób na wyobrażenie sobie hierarchicznej adresacji z jaką mamy do czynienia w sieci.

Jeśli adres składa się z 4 oktetów więc mamy możliwość zaadresowania 2 do potęgi 32-1 urządzeń. Dużo prawda? Dokładnie jest to tyle 4294967296. Aby było łatwiej adresować takie urządzenia pulę adresów podzielono na tzw. klasy. Wyróżniamy klasę A, B, C, D, E. Dzięki temu adresy klasy A są przypisywane do odpowiednich instytucji, klasy B do innych itd. W tych klasach wyróżniamy również adresy prywatne tzn. takie które możemy używać my zwykli użytkownicy internetu, ale także nasi providerzy. Podział na klasy stał się powodem wyczerpania praktycznie możliwości IP. Wiele adresów jest i tak marnowanych. Dlatego zbliża się nieuchronny koniec tej epoki.

Jednak pamiętajmy, że przecież nie nastąpi to z dnia na dzień, jak piszą niektórzy. Proces ten jest powolny. Przecież mamy do czynienia z tunelowaniem tzn. przepływem IPv6 przez IPv4 i odwrotnie. Serwisy czy instytucje testują i powoli przestawiają się na IPv6 ale nie od razu.

Co to takiego ten Ipv6? Jest to nowa wersja adresowania w sieci. Posiada trzy specjalne rodzaje adresów: adresy unicast (adres pojedynczej emisji) używany głównie przez providerów, adres anycast (adres grona) - przypisany głównie do więcej niż jednego interfejsu. Dzięki temu obaj różni użytkownicy nadający na ten sam adres zostają obsłużeni przez dwa różne urządzenia. Oraz adres multicast - adres rozgłoszenia grupowego.

Adres IPv6 składa się ze 128 bitów. Zapisuje się go jako 8 liczb całkowitych gdzie każda liczba składa się z 4 liczb szesnastkowych. Np. 2444:A444:1112:0000:0000:0777:ACAC:6666:9999. Co ciekawe taki adres można skrócić do zapisu: 2444:A444:1112:777:ACAC:6666:9999 wyrzucając zera. Podsieć określamy podobnie przez dodanie prefiksu ile bitów wskazuje na sieć np. /60

Jak ma się przestrzeń adresowa IPv4 do IPv6? Jako, że niektórym trudno sobie wyobrazić różnicę między 2^32-1 a 2^128-1, popatrzmy na to inaczej. Liczba 2^52 wystarczy aby obdzielić adresami każdą gwiazdę w obecnym znanym nam wszechświecie, podczas gdy 2^32-1 wystarczy dla naszej pojedynczej planety. Piszemy o 2^52 a ile jeszcze brakuje do 2^128?!. Inna ciekawostka wyobraźmy sobie ,że całą pulę adresów IPv4 skupiamy na odcinku ziemi długości 2cm. Gdybyśmy chcieli tak samo skupić nań adresy IPv6 otrzymalibyśmy linię długości naszego układu słonecznego.

To jest właśnie potęga IPv6 - nigdy nie zabraknie nam adresów. Nawet pojedyncza pralka, lodówka czy nasze koty mogłyby posiadać po kilkaset adresów i jeszcze mielibyśmy nadmiar.

Innymi zaletami IPv6 są: obsługa strumieni audio i video w czasie rzeczywistym, bezpieczeństwo - kodowanie, i najważniejsze mobilność hostów. jest to technologia prawdziwie niedalekiej przyszłości.

Mam nadzieję że choć trochę przybliżyłem możliwości IPv6, gdyż wiele czytamy o tym w internecie a tak naprawdę nie zwracamy uwagi na to co w sobie ona kryje.


Polecamy darmowe kursy oraz pozycje warte uwagi, ciekawostki ze świata e-biznesu polecamy to

Licencjonowane artykuły dostarcza Artelis.pl.

27 sierpnia 2016

Internet stacjonarny, czy mobilny?

Internet stacjonarny, czy mobilny?


Autor: Tomasz Galicki


Dostęp do Internetu posiada dzisiaj praktycznie każdy. Sieć stwarza nam wachlarz właściwie niczym nie ograniczonych funkcji, takich jak wysłanie e-maili, komunikowanie się na odległość w czasie rzeczywistym, tworzenie i dzielenie się własną treścią, jak również jej czytanie. Jednym słowem – bez internetu ciężko jest się obejść.


Powstają specjalne programy, które obejmują instalację sieci w szkołach, bibliotekach zarówno w mniejszych, jak i w większych miastach, słyszy się też o pomyśle stworzenia darmowego internetu, który byłby dostępny wszędzie. Prawda jest jednak taka, że zbyt szybko to nie nastąpi. Jak w takim razie ma poradzić sobie ktoś, kto jeszcze dostępu do globalnej sieci nie posiada, a jest mu ona niezbędna do nauki czy komunikowania się? Możliwości jest kilka. Na obszarach miejskich, gdzie infrastruktura i okablowanie są dobrze rozwinięte najlepszym rozwiązaniem będzie szybki internet z nieograniczonym transferem. Koszty instalacji jak i późniejszej eksploatacji zależą właściwie od naszego usługodawcy. Możemy się zdecydować na jakąś popularną ofertę albo też skorzystać z propozycji internetu osiedlowego. W obu przypadkach tego typu usługa będzie nam stwarzała możliwości nieograniczonego ściągania plików i szybkiego przeglądania stron. Zwykle też, dzięki zamontowaniu dodatkowego routera, internet może być rozdzielony przewodowo lub bezprzewodowo na wiele komputerów w domu, czy w jego niedalekiej odległości.

Jednak usługodawcy poznali potrzeby również osób, które nie mogą lub nie chcą sobie pozwolić na internet przewodowy. Powody są co najmniej dwa. Pierwszy to mobilność – ludzie często się przemieszczają, czy to pociągiem, czy innym środkiem transportu i potrzebują stałego dostępu do internetu, aby w ten sposób załatwiać wszystkie ważne sprawy. Drugi to ograniczenia wynikające z miejsca zamieszkania. Często jest tak, że obszary wiejskie nie zostały jeszcze objęte programem „usieciowania” i nie posiadają odpowiedniej infrastruktury. W obu przypadkach doskonałym rozwiązaniem okaże się internet mobilny. Można z niego korzystać zarówno na komputerze stacjonarnym, jak i na laptopie – wszystko zależy od nas. Minęły już czasy, kiedy jego koszty były tak wysokie, że mogli sobie na niego pozwolić jedynie biznesmeni. Dziś w internet mobilny zaopatrują się studenci, przedsiębiorcy, ale też ludzie, którzy głównie ze względów technicznych nie mogą sobie pozwolić na lepsze rozwiązanie. Jego zaletą jest również fakt, że proponowane są coraz większe szybkości, które wcale nie są gorsze od tych, które proponuje się przy internecie stacjonarnym.


Licencjonowane artykuły dostarcza Artelis.pl.

Microsoft Silverlight

Microsoft Silverlight


Autor: Arterix


Dynamiczny rozwój internetu prowadzi do powstania wielu nowych technologii. Dwa najbardziej znane i uwielbiane języki programowania: Java i Adobe Flash pojawiły się kolejno w 1995 i 1996 roku. Po niemalże 13-latach ich istnienia, wyłonił się nowy konkurent o nazwie Silverlight.


Silverlight to framework do pisania i uruchamiania bogatych aplikacji internetowych (RIA) z naciskiem na multimedia, animacje i grafiki podobnie jak Adobe Flash .

Środowisko uruchomieniowe dla Silverlight`a dostępne jest jako plug-in dla wielu przeglądarek internetowych . W obecnej wersji (4), która została wydana w kwietniu 2010r. Framework współpracuje z większością popularnych przeglądarek internetowych oraz telefonów komórkowych pracujących pod kontrolą systemów operacyjnych Windows 7 phone oraz Symbian (seria 60).

Podobnie jak w technologii Flash, w Silverlight można przechwytywać zachowania (zdarzenia) myszy i klawiatury, wyświetlać pliki graficzne i obsługiwać dźwięki. Dodatkowo za pomocą technologii Silverlight możliwe jest wyświetlanie standardowych plików video oraz tych w wysokiej rozdzielczości (HD). Możliwe jest również odtwarzanie plików muzycznych (MP3, WMA). Silverlight obsługuje DRM (Digital Rights Management).

Silverlight to niewielkich rozmiarów wtyczka, która tak samo jako Flash doinstalowuje się do przeglądarki. Ta mała zabawka ma jednak w sobie ogromny potencjał. Silverlight oferuje bogatą paletę funkcji dostępną na różnych platformach:

>możliwość tworzenia interaktywnych, bogatych w efekty i multimedia, stron sieci WEB,

>możliwość budowy efektywniejszych i prostszych w obsłudze aplikacji sieciowych,

>bogata, wręcz olśniewająca animacja i grafika wektorowa,

>rozwiązania niezależne od platformy– strony wyglądają tak samo na komputerach z Windows i Mac OS X,

>szybka i prosta instalacja.

Silverlight jako pierwszy tak silnie docenia wagę multimediów w Internecie. Dlatego jej priorytetem jest zapewnienie niespotykanie wysokiej jakości i wydajności multimediów:

>jednolity format wideo – skalowalny od wysokiej rozdzielczości HD i do rozdzielczości urządzeń mobilnych,

>możliwość dodawania grafiki wektorowej do odtwarzanych multimediów,

>przesyłanie strumieniowe,

>możliwość różnorodnego odtwarzania, łącznie z wypełnianiem figur obrazem wideo,

>możliwość poddawania odtwarzanych filmów różnorodnym transformacją.

Nie tylko atrakcyjność ważna. Ta nowa wtyczka okazuje się również bardzo elastyczna:

>podwyższona wydajność stron sieci WEB,

>oddzielenie warstwy prezentacji od kodu,

>umożliwia jednoczesną, niezależną prace grafików i programistów,

>możliwość wyboru jednego z pięciu języków programowania: JavaScript, Ruby, Python, C# i VB.NET,

>model programowania oparty o Microsoft .NET Framework,

>spójny model prezentacji wykorzystującym język oparty na standardzie XML – czyli XAML,

>łatwa integracja z istniejącymi rozwiązaniami,

>bogaty model sterowania i reagowania na zdarzenia czasowe lub działania użytkownika.

Technologia Silverlight ma szanse przenieść strony internetowe na kolejny poziom ewolucji. Dzięki prostocie konstrukcji umożliwi każdemu tworzenie stron Internetowych. W sposób niesamowicie efektywny i efektowny – prosty i intuicyjny. Istnieje już dziś wiele narzędzi, które wspomagają tworzenie w Silverlight. Dzięki swoim walorom i wsparciu ze strony społeczności internetowych Silverlight ma szanse stać się bardzo silną konkurencją dla tradycyjnych technologii. Za jakiś czas może zdystansować Adobe i Flash, która od kilkunastu lat funkcjonują w Internecie. Warto zapoznać się z tym systemem i z nową wizją tworzenia stron WWW, które ta technologia proponuje.


Zobacz również :
Pobierz wtyczkę Microsoft Silverlight
Oficjalny Showcase Microsoft Silverlight
Serwis darmowych aplikacji internetowych ai24

Licencjonowane artykuły dostarcza Artelis.pl.

Streaming – kolejny budulec globalnej wioski

Streaming – kolejny budulec globalnej wioski


Autor: Efemeryczna Hybryda


Streaming to kolejna usługa, która pozwala wykorzystać niemal nieograniczony potencjał, jaki drzemie w Internecie. Technologia ta umożliwia przesyłanie skompresowanych nagrań multimedialnych, zarówno video jak i audio, ze specjalnego serwera do użytkownika przy wykorzystaniu łącza internetowego.


Nic zatem dziwnego, że w dobie wszechobecnej informatyzacji i globalizacji, zyskuje coraz większą popularność i rozwija się w oszałamiającym tempie.

Streaming na żądanie

Streaming pozwala odtwarzać transmitowane dane w czasie bezpośrednim, jak również istnieje możliwość wyboru przez użytkownika dowolnego utworu lub jego fragmentu. Ta pierwsza opcja wykorzystywana jest głównie przy przeprowadzaniu telekonferencji, gdy konieczne jest przesyłanie obrazu i dźwięku do wszystkich uczestników „na żywo”. Z tego samego względu streaming znajduje zastosowanie w coraz liczniejszych kamerach internetowych. Z kolei usługa VOD (video on demand) wykorzystuje streaming do udostępniania filmów w sieci. W efekcie nie ma już potrzeby pobierania całego pliku na dysk komputera, gdyż film można oglądać niemal bezpośrednio po połączeniu z serwerem. Co więcej, użytkownik może rozpocząć odbiór w dowolnym czasie i od dowolnego fragmentu.

Streaming – w pogoni za doskonałością

Streaming wciąż się rozwija i zwiększa swe możliwości, wykorzystując przy tym najnowsze technologie. Obecnie w celu poprawy jakości przekazu, stosuje się m.in. takie techniki jak Smooth Streaming czy Silverlight. Smooth Streaming pozwala na automatyczne dopasowanie w czasie rzeczywistym jakości transmisji obrazu i dźwięku do warunków sieciowych, panujących między serwerem a użytkownikiem. W ten sposób obraz wyświetlany na ekranie komputera jest optymalnie dopasowywany do przepustowości łącza internetowego. Silverlight z kolei umożliwia odtwarzanie plików audiowizualnych (także tych w jakości HD) za pomocą zwykłej przeglądarki. W ten sposób streaming, zbliżając się do perfekcji w bezpośredniej transmisji multimedialnej, coraz bardziej zaciera odległości dzielące użytkowników sieci otwierając przed nimi nowe możliwości.


Licencjonowane artykuły dostarcza Artelis.pl.

Różne techniki wirtualizacji a system linux

Różne techniki wirtualizacji a system linux


Autor: sysop


Ponieważ nowoczesne procesory doskonale radzą sobie z wirtualizacją, we wszystkich wiodących systemach operacyjnych pojawiły się aplikacje i rozszerzenia umożliwiające uruchomienie na fizycznym komputerze kilku maszyn wirtualnych. W świecie administracji serwerami taka funkcjonalność ma wiele ciekawych zastosowań.


W niniejszym artykule zostaną wymienione i omówione tylko dwa sposoby wirtualizacji, które nadają się do wykorzystania na serwerach. Obydwa sposoby reprezentują dwa zupełnie różne podejścia do zagadnienia i pozwolą administratorowi systemu linux na wybranie najbardziej odpowiedniej do jego potrzeb opcji.

OpenVZ to łatka do kernela linuxa, która rozszerza jego funkcjonalność o możliwość tworzenia i uruchamiania na serwerze maszyn wirtualnych, które nie są zupełnie niezależne i mają kilka ograniczeń takich jak na przykład współdzielenie kernela z systemem operacyjnym linux gospodarza. Tak na prawdę to tak technika wirtualizacji z punktu widzenia administratora przypomina raczej uruchomienie całego niezależnego systemu operacyjnego na swojego rodzaju więzieniu (ang. jail) i odizolowanie go pozostałych elementów systemu operacyjnego linux oraz zapewnienie mu określonych warunków funkcjonowania. Administracja linux dzięki takiemu rozwiązaniu staje się łatwiejsza a zasadniczą zaletą takiego rozwiązania jest znacznie zmniejszona ilość niezbędnych zasobów dla zapewnienie funkcjonowania samej wirtualizacji w systemie linux.

Kolejnym przykładem jest XEN, który jest również dostarczany w postaci łatki na kernel systemu operacyjnego linux jednak jego architektura zasadniczo różni wyżej opisanej techniki wirtualizacji. Uruchomienie maszyny wirtualnej wiąże się tutaj z utworzenie zupełnie niezależnego środowiska, które jest zupełnie odizolowane od systemu linux gospodarza a jedyne punkty sytemu to te które są niezbędne do funkcjonowania całego mechanizmu. System operacyjny gościa może posiadać swój własny kernel niezależny od systemu gospodarza co daje możliwość uruchomienia poza linuxem również innych systemów operacyjnych. Tak dużą elastyczność okupiono znaczną konsumpcją zasobów systemu operacyjnego linux gospodarza i jest to największa wada tego rozwiązania.

Pamiętać należy, że każdy administrator linux powinien sam sobie odpowiedzieć na pytanie, które rozwiązanie będzie dla określanej sytuacji najlepsze. Ponieważ obydwa maja określone wady i zalety, co więcej te wady i zalety są przeciwstawne, nie można jednoznacznie stwierdzić która technika wirtualizacji jest lapsza a która gorsza.


Licencjonowane artykuły dostarcza Artelis.pl.

Sieci komputerowe - omówienie ogólne - część 2

Sieci komputerowe- omówienie ogólne- część 2


Autor: RatujPC


Na serwerze, podobnie jak w głowie, znajdują się wszystkie potrzebne innym maszynom dane, o które muszą one „poprosić” komputer centralny. Po otrzymaniu „prośby” serwer wysyła poszczególnym komputerom dane, o które one „prosiły”.


W zależności od liczby „próśb” poszczególnych komputerów, dane przesyłane są wolniej lub szybciej – mówimy, że serwer jest mało obciążony lub bardzo obciążony. Należy zwrócić uwagę, że szybkość wysyłania informacji jest uzależniona nie tylko od ilości „próśb” kierowanych do serwera, ale też od sposobu połączenia komputerów z centralną maszyną. Sposób połączenia to rodzaj kabli fizycznie użytych przy konstrukcji sieci, który charakteryzuje się określoną przepustowością (dalej będę określał przepustowość jako szerokość danego połączenia, przez które przepływają informacje; wygodnie jest wyobrazić sobie łącze sieciowe jako rurę, a informacje jako wodę – im większą średnicę ma rura, tym więcej wody może nią popłynąć). Główne komputery w sieci są zazwyczaj połączone najszerszymi łączami, natomiast cała reszta nieco węższymi. Im węższe łącze, tym wolniej przepływają wspomniane listy elektroniczne oraz jakiekolwiek inne zasoby – zdjęcia, filmy,muzyka.

W tym miejscu możesz się zacząć zastanawiać, jak to jest, że zasoby i informacje mogą zmieścić się w pojedynczym kablu. Wyjaśnienie tego problemu wymagałoby sporo czasu, dlatego ograniczę się do porównania przesyłania danych kablami do nowego środka lokomocji (nie przeznaczonego niestety dla ludzi), który jest o wiele szybszy niż samochody i samoloty. Samochód podczas jazdy napotyka na swojej drodze przeszkody, przez które musi zwalniać, aby się z nimi nie zderzyć, natomiast jedynym ograniczeniem samolotu jest opór powietrza. W obydwu przypadkach występują jakieś niekorzystne warunki, które przeszkadzają w szybkości podróży bądź przelotu. Tylko i wyłącznie na potrzeby zrozumienia pewnych treści chciałbym, abyś przyjął, że informacje, które płyną kablami, poruszają się bez oporu, dlatego są w stanie tak szybko dotrzeć do adresata. Sieci komputerowe są naprawdę obszernym tematem, któremu poświęcono wiele książek. Mam nadzieję, że do tego miejsca udało Ci się, w mniejszym lub większym stopniu, zrozumieć ich działanie. Nie martw się, jeśli nadal nie czujesz się zbyt pewnie w tej tematyce, nie musisz jej wcale znać, aby móc korzystać z Internetu. Możesz jednak sobie pogratulować, ponieważ odważyłeś się na zaznajomienie z wiedzą, której przeważająca część polskich seniorów się boi lub twierdzi, że nie jest im ona do niczego przydatna. Zapoznanie się z nią miało na celu jedynie poszerzenie Twojego postrzegania nowoczesnych sposobów komunikowania się.


Serwis Komputerowy Katowice

Licencjonowane artykuły dostarcza Artelis.pl.

Sieci komputerowe - omówienie ogólne - część 1

Sieci komputerowe- omówienie ogólne- część 1


Autor: RatujPC


Internet jest siecią komputerową. Sieć komputerowa jest zespołem komputerów pracujących w grupie, połączonych
na różne sposoby (konfiguracje połączeń komputerów sieci nazywa się fachowo topologią), które mogą się ze sobą komunikować.


W najprostszym przypadku sieć można porównać do prymitywnych lampek choinkowych, które połączone są jedna z drugą, a awaria jednej lampki unieruchamia wszystkie pozostałe. Prąd w takich lampkach płynie przez każdą z osobna, zanim dotrze do ostatniej – i na odwrót. Jeśli zechcesz przesłać jakiekolwiek dane do użytkownika znajdującego się na końcu sieci lub z końca na początek, będę one musiały „przewędrować” po kolei przez każdy komputer, zanim dotrą do ostatecznego adresata. Zatem uszkodzenie jednego stanowiska będzie wiązało się z wyłączeniem z działania wszystkich pozostałych maszyn.

Poniższa ilustracja przedstawia opisywany problem:

Każde stanowisko działa wedle własnego uznania, musi być wyposażone we w pełni funkcjonalne programy i zabezpieczenia. Jest to rozwiązanie bardzo mało odporne na awarie oraz mało wydajne ekonomicznie. Co zapewne cieszy serwisy komputerowe.

Wystarczy, że niesforny gryzoń przegryzie okablowanie, żeby do czasu
rozwiązania problemu sieć musiała zostać wyłączona.

Obecnie jednak mamy do czynienia z lampkami, które mogą działać nawet z kilkoma przepalonymi lub brakującymi żarówkami. Również sieć komputerowa działająca na zasadzie nowocześniejszych lampek choinkowych jest o wiele wydajniejsza niż ta pierwsza. W takim przypadku zainfekowanie wirusem jednej maszyny nie musi wcale oznaczać awarii całej sieci, gdyż odpowiednio wcześnie odłączony komputer nie będzie zakłócał pracy pozostałych. Bardzo ważną różnicą
między opisywanymi rodzajami sieci jest sposób zarządzania ich działaniem. W pierwszym przypadku brakuje czegoś odpowiedzialnego za koordynację działania sieci – każdy komputer sobie rzepkę skrobie. To trochę tak, jakby człowiek był w stanie żyć bez głowy i nie miał kontroli nad poszczególnymi częściami ciała, które same robiłyby,
co by chciały. Drugi przypadek sieci to już człowiek z głową, której funkcję pełni centralny komputer, zwany serwerem. Spójrz na poniższe ilustracje:

Taka konstrukcja daje możliwość przechowywania głównych programów oraz
danych w jednym centralnym miejscu, dzięki czemu są one dostępne dla
wszystkich użytkowników sieci.


Pomoc Drogowa Katowice

Licencjonowane artykuły dostarcza Artelis.pl.

Tani hosting VPS: 10 porad, jak dokonać dobrego wyboru

Tani hosting VPS: 10 porad, jak dokonać dobrego wyboru


Autor: VPSimple Staff


VPS może być odpowiednim rozwiązaniem dla tych administratorów systemowych i web deweloperów, którzy nie chcą inwestować w serwer dedykowany, ale potrzebują czegoś więcej niż zwykły (współdzielony) hosting. Na serwerze wirtualnym możliwy jest hosting stron WWW i baz danych, poprzedzony testowaniem serwera.


Zacznijmy od wyjaśnienia, czym jest VPS. Serwer wirtualny (VPS, ang. Virtual Private Server) pozwala pokonać ograniczenia tradycyjnych konfiguracji usług hostingowych. VPS posiada pewne cechy serwera dedykowanego, które wykorzystywane są dla wszystkich aplikacji, które wymagają wysokiej wydajności, specyficznej konfiguracji i całkowitej izolacji od innych usług. Zadaniem serwera wirtualnego jest dostarczenie niezależnych części wydajnego serwera, który jest bezpiecznie współdzielony z innymi klientami.

Tanie rozwiązanie

VPS może być odpowiednim rozwiązaniem dla tych administratorów systemowych i web deweloperów, którzy nie chcą inwestować w serwer dedykowany, ale potrzebują czegoś więcej niż zwykły (współdzielony) hosting. Na serwerze wirtualnym możliwy jest hosting stron WWW i baz danych, poprzedzony testowaniem serwera.

Co wziąć pod uwagę? Porady

1. Czas trwania kontraktu
Dostawcy często wprowadzają ograniczenia co do możliwości nabycia VPS, które zmuszają klientów do zakupu usługi na narzucony z góry, minimalny okres czasu. Przykładem może być minimalny, miesięczny okres użytkowania VPS z koniecznością zapłaty za 3 miesiące z góry. Radzimy unikać takich ofert i poszukać dostawcy, który zaproponuje bardziej elastyczne rozwiązanie. Mamy tu na myśli możliwość testowania serwera przez krótki okres czasu, podczas którego możemy ocenić wydajność i niezawodność systemu. Dlatego też zalecamy, aby wybrać hostingodawcę, który oferuje kontrakt bez ograniczeń na długość jego trwania i pozwala korzystać z VPS przez kilka dni lub kilka tygodni.

2. Koszty aktywacji
W niektórych przypadkach do opłaty miesięcznej zostaje nam doliczony koszt aktywacji usługi. Co gorsze, nie zawsze aktywacja ta jest natychmiastowa - zazwyczaj musimy odczekać kilka dni zanim dane nam będzie rozpoczęciem korzystania z VPS. Wybór dostawcy, który nie naliczy nam tej opłaty jest niewątpliwą zaletą, szczególnie w połączeniu z możliwością natychmiastowej aktywacji VPS.


3. Zasoby RAM i CPU
Gwarancja zasobów pamięci RAM i procesora jest niezwykle ważna. Sprawdź, czy oferowane serwery są oparte o technologię Xen (oprogramowanie open source rozpowszechniane na licencji GNU / GPL, które oferuje wydajność porównywalną do rozwiązań niewirtualnych - ~ 8% przewodów napowietrznych) lub wirtualizację VMware.

4. Fizyczna jakość serwerów
Biorąc pod uwagę technologię, zwracajmy uwagę nie tylko na wizerunek firmy. Dostawcy, którzy korzystają z markowego sprzętu na pewno oferuje większą niezawodność, niż ci, którzy decyduje się na montowane serwery. Moc obliczeniowa maszyn odgrywa równie ważną rolę - 16-rdzeniowe procesory są doskonałą gwarancją niezawodności.

5. Dystrybucje
Nie jest problemem znaleźć VPS z różnymi dystrybucjami Linuksa. Tylko niewielu dostawców oferuje dystrybucję Windows, z której chętnie skorzystają webmasterzy preferujący system operacyjny Microsoft.

6. Administracyjny dostęp do serwera
Web deweloperzy i administratorzy systemowi są przyzwyczajeni do współdzielonego hostingu, który zapewnia ograniczony panel sterowania. Pełne dystrybucje VPS z nieograniczonym dostępem pozwalają użytkownikom pracować swobodnie i w pełni dostosować swoje otoczenie.

7. Zarządzanie adresem IP
Wspólny publiczny adres IP jest standardowym rozwiązaniem dostępnym na rynku. Warto wybrać hostingodawcę, który oferuje dedykowany publiczny adres IP. Zalecamy sprawdzić również, czy zamierza wprowadzić prywatny IP, a także High Availability (HA).

8. Fizyczna lokalizacja maszyn
Upewnij się, że dostawca jest właścicielem farmy serwerów lub jest obsługiwany przez zewnętrzne Data Center. Nazwy głównych firm telekomunikacyjnych są niewątpliwie gwarancją bezpieczeństwa i niezawodności. Sprawdź, czy posiadają zasilanie redundantne i czy mają certyfikat ISO27001 (SLA powinno przekraczać 99%.).

9. Usługi dodatkowe
Czy VPS posiada dodatkowe usługi, takie jak firewall? Czy będziesz mógł ustawić i dostosować swoje reguły? Te aspekty odgrywają kluczową rolę, jeśli chcesz zapewnić swojemu serwerowi maksymalne bezpieczeństwo. Czy Twój hostingodawca oferuje proaktywny monitoring usług i zasobów maszyny? Czy możesz go konfigurować w zależności od swoich potrzeb?

10. Backup
Zaplanowana kopia zapasowa serwera jest usługą, której nie możesz zaniedbać. Jeśli dostawca gwarantuje wysoką jakość w wyborze konfiguracji sprzętu i maszyn, twoje dane są bezpieczne od samego początku użytkowania serwera.
Zalecamy wybrać dostawcę, który używa wysoki poziom zabezpieczeń t.j. używa dysków RAID10, które są synonimem niezawodności i ochrony dysków przed awarią.


Aby uzyskać więcej informacji o wyborze VPS, zajrzyj na stronę http://www.vpsimple.com

Licencjonowane artykuły dostarcza Artelis.pl.

Meru: wirtualizacja sposobem na lukę w WPA2

Meru: wirtualizacja sposobem na lukę w WPA2


Autor: Jan Sowiński


Sieci bezprzewodowe, tworzone w oparciu o rozwiązania Meru Networks, są odporne na zagrożenia związane z niedawno wykrytą „Luką 196” w protokole szyfrowania WPA2. Pełne bezpieczeństwo Meru zawdzięcza autorskiej technologii Virtual Port.


Istnienie błędu w protokole WPA2 - używanym do ochrony informacji w sieciach Wi-Fi - ujawniła firma AirTight. Błędowi nadano nazwę „Luki 196”, ze względu na numer strony dokumentacji WPA2, na której znajduje się opis wykorzystywanych w tym protokole kluczy: PTK (Pairwise Transient Key) oraz GTK (Group Temporal Key). To właśnie błędne zdefiniowanie właściwości drugiego z tych kluczy umożliwia przeprowadzenie ataku w sieci bezprzewodowej.

„Klucz PTK jest unikalny dla każdego klienta sieci WLAN i służy do zabezpieczania transmisji unicastowych. Z kolei klucz GTK jest wspólny dla wszystkich urządzeń przypisanych do konkretnego BSSID i służy do zabezpieczania danych w transmisjach broadcastowych, czyli do wielu klientów w sieci. O ile klucz PTK jest w stanie wykryć fałszowanie danych i podszywanie się pod adresy MAC, to już klucz GTK tego nie potrafi. Korzystając z tej ułomności, osoba podłączona i uwierzytelniona w ramach określonej sieci bezprzewodowej może stworzyć zainfekowany pakiet rozgłoszeniowy, na który inne urządzenia będą odpowiadały wysyłając własny adres MAC z informacjami o kluczu prywatnym. Ta wiedza umożliwia przejęcie całkowitej kontroli nad urządzeniami z zaatakowanej sieci, przechwytywanie i deszyfrowywanie ruchu, a nawet całkowite zniszczenie sieci, np. za pomocą ataków denial-of-service. Problem ten nie występuje jednak w sieciach bezprzewodowych, które zostały zbudowane w oparciu o technologię Virtual Port dostępną w rozwiązaniach Meru Networks” - mówi Łukasz Naumowicz, Technical Support Unit Manager z Konsorcjum FEN.

Odporność sieci bezprzewodowych Meru na zagrożenia związane z Luką 196 wynika z faktu, że połączenia w tych sieciach są kontrolowane przez technologię Virtual Port. Dzięki niej, każde urządzenie w sieci WLAN posiada swój unikalny identyfikator BSSID, który jest indywidualnie generowany dla klienta i kontrolowany przez oprogramowanie Meru System Director. To z kolei powoduje, że każde urządzenie posiada też swój unikalny klucz broadcastowy dla WPA2. - „W związku z tym w sieci nie może pojawić się dwóch klientów korzystających z tego samego klucza broadcast'owego i wrogi klient nie może podszywać się pod adresy MAC punktów dostępowych i rozszerzać klucz broadcastowy, tak aby uruchomić potencjalny atak” - wyjaśnia Łukasz Naumowicz.

Technologia Virtual Port to nie jedyne rozwiązanie od Meru Networks, dzięki któremu sieci WLAN stają się coraz bardziej niezawodne i bezpieczne. Meru jest również twórcą m.in. opatentowanych technologii: kontroli i zarządzania ruchem w sieci - ATC (Air Traffic Control™) oraz technologii tzw. wirtualnej komórki (Virtual Cell™). Pierwsza z nich pozwala na ścisły nadzór nad ruchem generowanym w sieci bezprzewodowej. Natomiast wirtualna komórka umożliwia wszystkim punktom dostępowym pracę na tym samym kanale, tworząc w ten sposób jednolity obszar pokryty zasięgiem sieci WLAN. Innowacyjność rozwiązań Meru została doceniona m.in. przez Gartner Group. Firma ta dwa razy z rzędu - w raporcie z 2007 i 2008 roku „Magiczny kwadrant Gartnera dla WLAN” - uznała Meru Networks za twórcę najbardziej wizjonerskich rozwiązań bezprzewodowych na świecie. W Polsce przedstawicielem Meru jest Konsorcjum FEN. Dodatkowe informacje: www.merunetworks.pl.


PRS

Licencjonowane artykuły dostarcza Artelis.pl.

Internetowe drukarnie – czy warto z nich korzystać?

Internetowe drukarnie – czy warto z nich korzystać?


Autor: Mateusz Mszyca


Nierzadko musimy wykonać profesjonalny wydruk, jednak sprzęt, którym dysponujemy nie jest w stanie spełnić naszych oczekiwań. Zwykła domowa drukarka ma bardzo ograniczone możliwości. Co zrobić w takiej sytuacji?


Powszechnie wiadomo ze Internet niesie za sobą wiele możliwości, stał się on nieodzownym elementem naszego życia, i za jego pośrednictwem dokonujemy wielu codziennych czynności, płacimy rachunki, robimy zakupy, a nawet pracujemy. Upowszechniło się również drukowanie przez Internet dzięki tzw. drukarniom on-line. Pytanie tylko czy są opłacalne? Jakie niosą za sobą korzyści?

Bez wątpienia śmiało można powiedzieć, że zalet jest wiele, chociażby fakt, iż nie musimy wychodzić z domu, gdy mamy pilnie wydrukować jakiś projekt (np. plakaty, wizytówki, ulotki). Nie musimy przemierzać miasta w celu znalezienia jak najniższych stawek, wystarczy, że przejrzymy oferty kilku firm, siedząc wygodnie przed komputerem, by w przeciągu kilku minut wybrać dla nas najkorzystniejszą. Kolejnym plusem jest fakt, iż drukowanie przez Internet jest bardzo tanie. Wielu ludzi od razu pomyślałoby, że koszt przesyłki takiego zamówienia wyniesie więcej niż ono samo, jest to jednak nieprawdą. Zbalansowane koszty sprawiają, że wręcz przeciwnie, taka usługa staje się dla nas bardzo opłacalna. Ceny są bardzo zbliżone do tych w zwykłych drukarniach.

Oczywiście, aby w pełni docenić zalety drukarni on-line, należy osobiście skorzystać z ich oferty. Na pewno nikt nie będzie zawiedziony. Satysfakcja jest gwarantowana.


drukowanie

Licencjonowane artykuły dostarcza Artelis.pl.

E-booki: analiza popularności

E-booki: analiza popularności


Autor: agata


Jeszcze kilka lub kilkanaście lat temu nikt z nas nie wyobrażał sobie, że będzie można czytać książki przez internet. Dziś to jedna z popularniejszych form czytelnictwa, która regularnie zyskuje nowych zwolenników. Mało tego e-booki zaczynają sprzedawać się lepiej niż tradycyjne książki.


Skąd tak ogromna popularność elektronicznych książek?

1)Niskie koszty, to pierwsza i chyba najważniejsza kwestia, e-booki są sporo tańsze niż tradycyjne książki, za jedną papierową książkę można dostać kilka lub kilkanaście książek w wersji elektronicznej, korzystają na tym nie tylko czytelnicy, którzy zamiast jednego egzemplarza mogą przeczytać kilka w tej samej cenie, e-booki to także ogromna szansa dla wydawców, koszty wydania książki w formie elektronicznej są właściwie zerowe – odchodzą bowiem koszty związane z drukiem, składem tekstu, oraz kosztowną kampanią reklamową

2)Postęp wydawniczy, już dawno weszliśmy w fazę totalnej informatyzacji gdzie informacje przesyłane są na żywo, z prędkością światła, produkcja książki na tym tle wygląda co najmniej archaicznie, przestarzałe sposoby produkcji książki oraz czas jaki musi upłynąć od czasu powstania pomysły do jego realizacji powodują, że rynek wydawniczy stał się jedną z bardziej zacofanych dziedzin biznesu, dlatego coraz częściej autorzy sami wydają swoje dzieła, a proces publikacji książki trwa kilka godzin a nie miesięcy

3)Ekologia, dbałość o środowisko jest nadal bardzo modna, i to kolejna rzecz, która determinuje wzrost popularności e-booków, książki elektroniczne są bardziej przyjazne dla środowiska, ograniczona bowiem zużycie drewna jako materiału do produkcji papieru, którego ogromne ilości są codziennie przeznaczane na książki, czasopisma i gazety codzienne, które po przeczytaniu są od razy wyrzucane,

4)Spadek popularności rynku prasowego, tradycyjne gazety papierowe tracą powoli na znaczeniu, coraz więcej osób decyduje się na elektroniczne wydania prasy, które są nieporównywalnie tańsze lub całkowicie darmowe, proces ten będzie dalej postępował, i przetrwają tylko ci wydawcy, którzy zdecydują się elektroniczne wydanie prasy codziennej i czasopism

5)Dostępność, kolejna bardzo istotna kwestia przemawiająca na korzyść książek elektronicznych jest taka, że możesz je zabrać praktycznie wszędzie, teoretycznie dotyczy to także tradycyjnych, papierowych książek, ale w przypadku e-booków zajmują one o wiele mniej miejsca, nowoczesne oprogramowanie pozwala na wyświetlanie treści książki czy czasopisma nie tylko na ekranie komputera, ale także telefonu komórkowego czy Netbooka, i co ważne na jednym takim urządzeniu możesz zmieścić kilkanaście lub nawet kilkadziesiąt plików z tekstem

Co prawda tradycyjna książka ma nadal wielu swoich wiernych zwolenników. Ale prawie pewne jest,że wraz z upływem czasu ich liczba będzie maleć na korzyść zwolenników książek i czasopism elektronicznych. Ich przewaga nad tradycyjną formą książki rośnie w zawrotnym tempie, i w czasach mega szybkiego postępu techniki coraz mniej osób będzie zwracało uwagę na takie walory książki jak jej zapach, fakt trzymania jej w ręce i bezpośredni z nią kontakt, a coraz więcej osób wybierze tańszą, łatwiejszą i bardziej przystępną formę czytelnictwa.


agata b.

Licencjonowane artykuły dostarcza Artelis.pl.

Kamery IQeye w ofercie FEN

Kamery IQeye w ofercie FEN


Autor: Jan Sowiński


Konsorcjum FEN podpisało umowę dystrybucyjną z firmą IQinVision. Jej efektem jest rozszerzenie oferty dystrybutora o megapikselowe, sieciowe kamery IQeye.


IQinVision od 1998 roku produkuje najwyższej jakości kamery IP o wysokich rozdzielczościach pod marką IQeye. Firma jako pierwsza wprowadziła sieciowe kamery megapikselowe i HDTV, które wielokrotnie otrzymywały prestiżowe nagrody i wyróżnienia branżowe. Kamery IQeye wyróżniają się doskonałą jakością obrazu oraz stabilną i niezawodną pracą, nawet w najbardziej wymagających warunkach. Ze względu na wysokie parametry, urządzenia IQinVision są wykorzystywane w wielu lokalizacjach, zwłaszcza takich, w których niezbędne jest precyzyjne odwzorowanie monitorowanego obszaru - np. w systemach monitoringu miejskiego, szkołach, sklepach, kasynach, bankach i wielu innych.

Znakomita jakość obrazu w kamerach IQeye uzyskiwana jest dzięki przetwornikom, które gwarantują rozdzielczość nawet do 5 Mpx. Dodatkowo, w kamerach zastosowano technologię Lightgrabber, która pozwala na uzyskanie wysokiej jakości obrazu także przy słabym oświetleniu. Urządzenia wyposażone zostały w slot na kartę SDHC, co umożliwia nagrywanie obrazu bezpośrednio w kamerze. Istotną zaletą modeli IQeye jest także fakt, iż mogą współpracować z większością dostępnych na rynku urządzeń NVR (Network Video Recorder) lub oprogramowaniem do zarządzania zawartością wideo - np. QNAP, Koukam, GeoVision czy Alnet Systems.

„Rynek systemów monitoringu wizyjnego zmienia się w ostatnim okresie bardzo dynamicznie. Widać zdecydowany wzrost zainteresowania rozwiązaniami opierającymi się o protokół IP, które zapewniają więcej funkcji i możliwości w porównaniu do analogowych odpowiedników. Wyraźnie rosną wymagania odnośnie jakości obrazu. W wielu wdrożeniach zapewnienie wysokiej rozdzielczości jest czynnikiem decydującym o realizacji projektu, dlatego coraz większą popularnością cieszą się kamery megapikselowe. Klienci oczekują także coraz bardziej zaawansowanych rozwiązań - takich jak: inteligentna analiza obrazu czy efektywna archiwizacja - które umożliwiają optymalizację dużych systemów monitoringu oraz wspomagają ich funkcjonowanie. To właśnie dlatego staramy się stale poszerzać portfolio naszych produktów, dbając o kompleksowość oferty, która pozwala zbudować zróżnicowane systemy monitorujące, w zależności od potrzeb. Temu celowi służy nawiązywanie współpracy z kolejnymi producentami - umowa z IqinVision, a także niedawno podpisane z March Networks i GeoVision Inc" - podkreśla Anna Twardowska, Monitoring IP Product Manager w Konsorcjum FEN.

Konsorcjum FEN zapewni sprzedawanym kamerom IQeye szerokie i zróżnicowane wsparcie. Obejmuje ono zarówno działania marketingowe, jak i techniczne - bezpłatne szkolenia, konsultacje handlowe i doradztwo oraz pełny serwis gwarancyjny.


PRS

Licencjonowane artykuły dostarcza Artelis.pl.

Windows Server 2003

windows server 2003


Autor: Grzegorz Patynek


Jak działa serwer Windows, jakie cechy posiada. Jakie są nowe funkcje systemu Windows Server 2003. Czy warto instalować Windows Server 2003? Podstawowe funkcjonalności serwera.


Serwery windows to potężne narzędzie to użycia w wielu przedsiębiorstwach. Serwery Windows oferowane są przez gci. Standardowy serwer Windows jest dostępny w wersji 64 bitowej jak i 32 bitowej. Wersja 64 bitowa jest szybciej działającym serwerem bo działa na 64 bitowym procesorze.
Na pokładzie serwera znajduje się serwer aplikacji, który obsługuje usługi internetowe, zarządzania transakcjami oraz posiada logi zdarzeń.
Możesz wdrażać rozwiązania biurowe dla twojej firmy. Zwiększa się dostępność i dostarczanie usług dzięki technologii klastrowej.
Znajdują się tu usługi przechowywania i plikowe wraz z systemem przechowywania kopii zapasowej i szyfrowaniem. Znajduje się tu rozproszony system wejścia/wyjścia.
Znajduje się tu centrum zarządzania o rzeczach związanych z siecią, takich jak ludzie, aplikacje, pliki drukarki. Usługa active direktory udostępnia zarządzanie tymi zasobami.
Istnieje polityka zarządzania grupami i mamy konsole do zarządzania.
Mamy tutaj wsparcie dla ipv6, dnsów, sieci bezprzewodowych oraz spiec. Znajdują się tutaj usługi drukowania oraz bezpieczeństwa. Mamy też usługi terminalowe.
W całości mamy .net Framework i ASP.net oraz przydatny do tworzenia aplikacji internetowych serwer iis.
Dla chcących współpracować pracowników jest serwer SharePoint.
Gci wdraża serwery windowsowe w przedsiębiorstwach. Taki serwer można wdrożyć chociażby w szkole i używać go do nauki przez dzieci jak i do swoich obowiązków biurowych. Serwery Windows to jedne z wiodących na rynku, dlatego trzeba się liczyć z ich zakupem przy modernizacji infrastruktury przedsiębiorstwa. Cały Windows jest łatwo obsługiwalny, rzeczy konfiguruje się przyjemnie i mamy dostarczone dokumentacje i pomoc użytkownika więc nie jest trudno administrować serwerem. Możemy tworzyć grupy użytkowników i im przypisywać odpowiednie działania albo usługi, całość jest dobrze konfigurowalna co ułatwia nam pracę. Serwer jest dość stabilny.


--

Grzegorz Patynek

Gminne Centrum Informatyczne

Licencjonowane artykuły dostarcza Artelis.pl.