Wiedza, Edukacja wyższa, kariera

Losy Internetu – rozwój internetu na przestrzeni lat

Posted by on Sie 3, 2016 in Wiedza | 0 comments

Początki Internetu są takie jak większości innych zaawansowanych technologii. Na początku lat 60. wojsko w Stanach Zjednoczonych potrzebowało odpowiedzi na wystrzelenie przez Rosjan satelity okołoziemskiej Sputnik. Podyktowane było to względami bezpieczeństwa w toczącej się Zimnej Wojnie. Agencja Bezpieczeństwa Narodowego (NSA), odpowiadająca za nasłuch i przechwytywanie informacji, utworzyła wówczas na polecenie Departamentu Obrony Agencję ds. Zaawansowanych Przedsięwzięć Badawczych – ARPA (ang. Advanced Research Projects Agency). Głównym zadaniem nowo utworzonej agencji było stworzenie zdecentralizowanej sieci, do przesyłu informacji dla celów wojskowych. Rozwiązanie miało uwzględniać możliwe uszkodzenie części sieci, nawet przetrwanie ataku atomowego, przy zachowaniu łączności. Kilka lat później w 1969 roku nastąpiło pierwsze uruchomienie eksperymentalnej sieci, która została nazwana ARPAnetem. Komputery w sieci działały na dobrze dziś znanej architekturze peer-to-peer. Każdy komputer był równorzędną maszyną, a więc w przypadku awarii któregoś z nich, cała sieć mogła nadal funkcjonować. Już wtedy przesył danych opierał się o zasadę dzielenia informacji na mniejsze pakiety i wysyłanie przez sieć do odbiorcy. Dawało to możliwość jednoczesnego korzystania z Sieci wielu komputerów. Następną zaletą była szybkość w przypadku zaistnienia błędu transmisji, nie trzeba było ponownie przesyłać całej informacji, a jedynie uszkodzony pakiet. Sposób działania tamtej Sieci przypomina dzisiejszą.

Rozwój sieci oraz prace nad stworzeniem pierwszych protokołów transmisji przyspieszyły popularyzację ARPAnetu. Przez kolejne lata sieć rozrastała się, a dołączone do niej organizacje, zaczęły wykorzystywać ją do normalnej, codziennej wymiany danych.

Po publicznej prezentacji sieci w 1972 roku na International Conference on Computer Communications, agencja ARPA zmieniła nazwę na DARPA (ang. Defense Advanced Research Projects Agency). Sieć miała już wtedy 23 hosty oraz podłączone instytucje akademickie i rządowe – w sumie 15 węzłów.

Więcej

Pierwsza przeglądarka – narodziny www

Posted by on Sie 3, 2016 in Wiedza | 0 comments

Pierwszy dzień 1983 roku to początek Internetu. ARPAnet został rozdzielony w dwie sieci połączone bramą. Pierwsza sieć o nazwie MILNET pozostała siecią do użytku militarnego, pozostała część ARPAnetu została przekazana do użytku cywilnego i później zmieniła nazwę na NSFnet. Sieć wówczas miała już połączenia z Australią, Europą, Ameryką Południową i Japonią.

W 1988 roku został napisany pierwszy wirus komputerowy o nazwie Internet Worm. To wydarzenie stało się bodźcem do utworzenia organizacji o nazwie CERT (Computer Emergency Response Team), której zadaniem jest zapewnienie bezpieczeństwa w sieci. Ten sam rok przynosi udostępnienie nowej usługi – IRC – stworzonej przez fińskiego studenta Jarkko Oikarinen’a.

Powstanie WWW łączy się bezpośrednio z działalnością szwajcarskiego instytutu CERN. Instytut chciał udostępnić na zewnątrz wyniki swoich badań. Tim Berners-Lee wprowadził rozwiązanie oparte na połączeniu dokumentów umiejscowionych na serwerach WWW (World Wide Web) za pomocą hipertekstowych łączy. W 1991 powstała pierwsza tekstowa przeglądarka WWW. W tym samym roku został zniesiony zakaz mówiący o niekomercyjnym wykorzystaniu Sieci.

Kolejny rok przyniósł namiastkę globalnej sieci. W 1973 roku wykonano pierwsze połączenie pomiędzy Stanami Zjednoczonymi a Wielką Brytanią. Usługami dostępnymi wówczas w Sieci były Telnet oraz FTP.

1975 rok przyniósł rozwiązanie tak dobrze dziś znane – email, a 4 lata później Usenet – grupy dyskusyjne. Końcówka lat 70. to dalszy rozwój sieci. Było już wtedy ponad 400 hostów połączonych z ARPAnetem, tworzyły się nowe, niezależne sieci. Wszystko to było przyczyną rozpoczęcia prac nad nowym opisem Sieci standaryzującym wszystkie składowe Sieci i będącym jednolitym dla zbioru hostów.

W 1982 roku został wprowadzony protokół TCP/IP, który obowiązuje aż do dziś.

Kolejne lata przyniosły nowe projekty działających sieci. Powstał CSNET (Computer Science Network), która była siecią przeznaczoną dla naukowców nie mających połączenia z ARPAnetem oraz BITNET („Because It’s Time NETwork”), która połączyła City University of New York z Uniwersytetem w Yale. W Europie powstał równocześnie sieć pod nazwą Eunet pozwalająca na korzystanie z takich usług jak Usenet oraz email.

Więcej

Działanie wyszukiwarki – jak działa wyszukiwarka Internetowa

Posted by on Sie 3, 2016 in Wiedza | 0 comments

Działanie wyszukiwarki można podzielić na dwa równoległe procesy – zbieranie i sortowanie. Z jednej strony agent (ang. spider, crawler, robot) odwiedza strony w sieci WWW przeglądając ich zawartość, zbiera i kataloguje dane na podstawie ściśle określonych mechanizmów. Zasada działania robota jest prosta. Program jest uruchamiany na stronie z dużą zawartością odnośników do innych witryn. Po uruchomieniu, robot przechodzi do analizy zawartość strony i zaczyna przesyłać do bazy informacje o treści oraz zawartości tych stron. Po zakończeniu analizy robot wykorzystuje odsyłacze znajdujące się na stronie i przechodzi za ich pomocą do kolejnej podstrony w obrębie serwisu lub do innej witryny, a całość procesu rozpoczyna się od nowa. W tym samym czasie dla danej wyszukiwarki pracuje wiele robotów, zwiększając szybkość działania. Wyniki zebrane przez roboty następnie trafiają do bazy wyszukiwarki.

W 1994 roku przy udziale Cern i wsparciu DARPA powstała organizacja W3C, zadaniem której jest rozwój sieci, tworzenie nowych standardów i technologii oraz zatwierdzanie oficjalnych specyfikacji np. CSS. W3C w głównej mierze finansowane jest przez firmy zainteresowane rozwojem Sieci z branży komputerowej takie jak MicroSoft czy z poza niej takie jak np. Boeing.

Ten sam rok przyniósł powstanie pierwszego katalogu internetowego z możliwością przeszukiwania zasobów – Yahoo! 4 lata później światło dzienne ujrzała wyszukiwarka Google z innowatorskim rozwiązaniem BackRub. Była to analiza połączeń hipertekstowych, która dała początek późniejszemu PageRankowi.

Wraz z rozwojem wyszukiwarek internetowych rosło zainteresowanie webmasterów sposobem listowania wyników wyszukiwania. Zrodziło się zainteresowanie firm, prywatnych osób dotarciem tym medium do grupy odbiorców. Rozpoczął się wyścig o pierwsze lokaty w wynikach wyszukiwania. Dało to początek SEO – optymalizacji stron pod kątem wyszukiwarek internetowych.

Więcej

Zmienność wyników wyszukiwania.

Posted by on Sie 3, 2016 in Wiedza | 0 comments

Celem wyszukiwarki jest zwracanie trafnych wyników wyszukiwania każdego zapytania. Wyniki wyszukiwania pochodzą z indeksu wyszukiwarki. Z kolei indeks stale ewoluuje, w miarę jak zmienia się zawartość Internetu. Zmiany te, a także aktualizacje algorytmów obliczających pozycje stron w rankingu mogą prowadzić do zmiany położenia poszczególnych adresów URL w wynikach wyszukiwania, a nawet do ich usunięcia.

SERP (ang. Search Engine Results Page) jest to strona internetowa wyświetlająca listę adresów znalezionych za pomocą wyszukiwarki internetowej; obejmuje ona strony znalezione automatycznie przez wyszukiwarkę i adresy wprowadzone do indeksu ręcznie oraz adresy pochodzące z bazy adresów opłacanych przez ogłoszeniodawców. Adresy te są wyświetlane w pewnej kolejności, jako pierwsze od góry strony podawane są te, które uznane są przez wyszukiwarkę za najbardziej odpowiednie dla zapytania.

Oprogramowanie sortujące, umożliwia przeszukanie zasobów wyszukiwarki według pojedynczych słów kluczowych lub kombinacji wielu słów kluczowych(Danowski, 2007).

Im częściej dany robot odwiedza stronę, tym aktualniejsza jest ona w wyszukiwarkach oraz pojawia się wyżej w wynikach. Świadczy to także o popularności strony. Roboty wyszukiwarki Google czytają znaczniki meta danych znajdujące się w kodzie strony lecz w bardzo wąskim zakresie, ograniczając się jedynie do znaczników „title” „description” „keywords” dla strony WWW, przy czym pod względem budowania rankingu brany pod uwagę jest tylko znacznik „title”. Znaczniki Meta Robots Tag informują odwiedzające stronę roboty, czy mają ją odwiedzić i czy mają podążać za linkami na niej umieszczonymi. Lepszym rozwiązaniem od używania tego tagu jest stosowanie linków „nofollow” i pliku robots.txt.

Zadaniem mechanizmu wyszukiwania jest odnalezienie w bazie stron zawierających słowo-frazę wyszukiwaną przez Internautę. O kolejności wyświetlania poszczególnych stron w wynikach wyszukiwania decyduję określony i ściśle strzeżony algorytm. Jest to serce całego systemu wyszukiwania.

Więcej

Rynek wyszukiwarek – konkurencja pomiędzy wyszukiwarkami

Posted by on Sie 3, 2016 in Wiedza | 0 comments

Na rynku polskim w 2003 roku popularność wyszukiwarek takich jak onet.pl, wp.pl, google.pl mniej więcej rozkładała się na podobnym poziomie, po około 30% rynku.

Po roku 2003 wyszukiwarka google.pl sukcesywnie zdobywała przewagę nad pozostałymi silnikami wyszukiwania. Przez ostatnie 7 lat wyparła konkurentów, zyskując na polskim rynku miano zdecydowanego lidera. Niedawny konkurent Google – Onet w dniu dzisiejszym w swojej wyszukiwarce wykorzystuje silnik Google, a co za tym idzie zasięg rynku i ilość osób korzystających z tego silnika jeszcze się zwiększył.

znane przez wyszukiwarkę strony generują największy ruch i właściciele witryn chcą i dążą do tego aby umieścić tam swoje strony WWW. Duży ruch generowany jest nie tylko na podstawie dostępności pierwszych stron w SERPie lecz także dlatego, że te strony uważane są przez większość użytkowników za godne zaufania, skoro zostały ocenione wysoko i znalazły się na czołowych miejscach.

Niekiedy zmienność wyników wyszukiwania jest skutkiem różnic między centrami danych. Podczas przeprowadzania wyszukiwania, zapytanie jest wysyłane do centrum danych w celu pobrania wyników wyszukiwania. Centrum danych jest to miejsce, w którym skupiono komputery podłączone wspólnymi łączami do sieci, często współpracującymi ze sobą. W przypadku centrum danych Google, można mówić o jednym z wielu rozrzuconych po świecie centrów obliczeniowych. Istnieje wiele centrów danych, a o tym, do którego z nich zostanie wysłane zapytanie, decyduje wiele czynników (takich jak lokalizacja geograficzna i obciążenie serwerów). Ponieważ centra danych nie są aktualizowane jednocześnie, wyniki wyszukiwania mogą się nieznacznie różnić w zależności od tego, do którego centrum danych wysłano zapytanie.

Nie ma gwarancji stałego miejsca witryny w indeksie ani jej rankingu w wynikach wyszukiwania.

Więcej