World Wide Web

Historyczne logo WWW zaprojektowane przez Roberta Cailliau
Pierwszy serwer WWW zrealizowany na komputerze NeXT

World Wide Web [ˌwɜ:ldˌwaɪdˈwɛb] (sieć ogólnoświatowa, światowa rozległa sieć komputerowa), w skrócie WWW lub Webhipertekstowy, multimedialny, internetowy system informacyjny oparty na publicznie dostępnych, otwartych standardach IETF i W3C. WWW jest usługą internetową, która ze względu na zdobytą popularność bywa błędnie utożsamiana z całym Internetem, szczególnie przez początkujących użytkowników.

Historia

Brytyjski inżynier i naukowiec sir Tim Berners-Lee, obecnie dyrektor World Wide Web Consortium (W3C), 12 marca 1989[1] opublikował projekt oparty na ENQUIRE (aplikacji i bazie danych, którą stworzył na własny użytek w 1980). Przedstawił w nim dużo bardziej rozbudowany system zarządzania informacjami, który stał się zalążkiem obecnej World Wide Web. Po jakimś czasie dołączył do niego belgijski naukowiec Robert Cailliau, z którym Berners-Lee współpracował w ośrodku CERN. 12 listopada 1990 opublikowali oficjalny projekt budowy systemu hipertekstowego zwanego „World Wide Web” (w skrócie: WWW, lub jeszcze krócej: W3), obsługiwanego przy pomocy przeglądarki internetowej, używającego architektury klient-serwer[2]. Użycie hipertekstu umożliwiło dostęp do różnego rodzaju informacji poprzez sieć odnośników, tzw. hiperłączy – oglądając stronę internetową, użytkownik może podążać za zamieszczonymi na niej hiperłączami, które przenoszą go do innych, udostępnionych w sieci dokumentów lub innych stron internetowych. Początkowo „World Wide Web” został oparty na SGML-owej przeglądarce o nazwie „Dynatext”, opracowanej w ramach działalności Instytutu Badań nad Informacją i Wiedzą (Institute for Research in Information and Scholarship) Uniwersytetu Browna. „Dynatext” był projektem komercyjnym, licencjonowanym przez CERN – okazał się jednak zbyt kosztowny w używaniu dla szerszej społeczności (wówczas było to środowisko fizyków wysokich energii), bowiem przewidywał opłatę za każdy nowy dokument oraz za każdorazową jego edycję.

System informacyjny „World Wide Web” zaprojektowano, aby zbierać zasoby ludzkiej wiedzy i umożliwić współpracownikom w odległych miejscach dzielenie się swoimi pomysłami oraz zgłębianie wszystkich aspektów wspólnego projektu. W przypadku, gdy dwa projekty tworzone były niezależnie od siebie, WWW pozwalała skoordynować pracę naukowców, dzięki czemu obie prace stawały się jednym spójnym dziełem. Niniejszy projekt szacował, że służąca tylko przeglądaniu sieć rozwinie się w ciągu trzech miesięcy, a w ciągu pół roku użytkownicy będą mieli możliwość publikowania nowych materiałów i odnośników do nich, dzięki czemu system stanie się w pełni uniwersalny. Usługa została oficjalnie uruchomiona w grudniu 1990 roku.

Jako pierwszy na świecie serwer WWW, Berners-Lee zastosował komputer NeXT, na którym stworzył również pierwszą przeglądarkę o nazwie WorldWideWeb (zmienionej później na Nexus). Do czasu świąt Bożego Narodzenia 1990 roku Berners-Lee zbudował wszystkie narzędzia niezbędne do działania WWW: przeglądarkę WWW (która służyła również jako edytor), pierwszy serwer WWW oraz pierwsze strony WWW, opisujące nowo powstały projekt. 6 sierpnia 1991 roku zamieścił krótkie podsumowanie projektu „WorldWideWeb” na grupie dyskusyjnej alt.hypertext. Ta data jest również uznawana za debiut publicznie dostępnych usług w Internecie. Pierwszy serwer poza Europą został uruchomiony w Centrum Liniowego Akceleratora Stanforda (SLAC) w grudniu 1992. Zasadnicza koncepcja hipertekstu pochodzi ze starszych projektów z lat 60., takich jak: Hypertext Editing System (HES) utworzony na Uniwersytecie Browna, Xanadu autorstwa Teda Nelsona i Andriesa van Dama oraz oN-Line System (NLS) Douglasa Engelbarta. Nelson i Engelbart z kolei inspirowali się mikrokomputerem Memex, który w 1945 r. został opisany esejem pt. „As We May ThinkVannevara Busha.

Przełomem w projekcie było połączenie hipertekstu z internetem. W swojej książce pt. „Weaving The Web” („Tkając Sieć”) Berners-Lee wyjaśnia, iż wielokrotnie sugerował możliwość połączenia tych dwóch technologii, jednakże nikt wcześniej nie podjął starań w tym kierunku, w związku z czym postanowił wziąć sprawę w swoje ręce. Na potrzeby projektu autor opracował system ogólnodostępnych, unikatowych identyfikatorów zasobów sieci: „The Universal Document Identifier” (UDI) znany później jako Uniform Resource Locator (URL) i Uniform Resource Identifier (URI), język służący projektowaniu stron – HyperText Markup Language (HTML) oraz protokół przesyłania dokumentów hipertekstowych Hypertext Transfer Protocol (HTTP).

World Wide Web posiadała szereg cech wyróżniających ją spośród innych systemów hipertekstowych, które były wówczas dostępne, np. używał jednokierunkowych zamiast dwukierunkowych odnośników. Umożliwiało to użytkownikowi przełączenie się z bieżącego zasobu danych do kolejnego, bez potrzeby reakcji ze strony jego właściciela. W porównaniu do poprzednich systemów ułatwiło to wdrażanie nowych serwerów i przeglądarek, ale wprowadziło chroniczny problem wygasłych odnośników (hiperłączy, linków). W odróżnieniu od poprzedników, takich jak np. HyperCard, World Wide Web nie została skomercjalizowana, umożliwiając rozwój serwerów i publikowanych na nich stron, w sposób niezależny oraz dodawanie rozszerzeń bez ograniczeń licencyjnych. 30 kwietnia 1993 CERN ogłosił, że World Wide Web będzie udostępniona bezpłatnie dla każdego. W ciągu kolejnych dwóch miesięcy, po ogłoszeniu, że protokół Gopher[3] nie będzie już dostępny bezpłatnie, odnotowano duży spadek jego popularności, na rzecz darmowej WWW. Najpopularniejszą przeglądarką internetową wówczas była ViolaWWW.

Punktem zwrotnym w historii World Wide Web było wprowadzenie, w 1993 roku, przeglądarki Mosaic, działającej w trybie graficznym. Przeglądarka ta została opracowana przez zespół „Narodowego Centrum Zastosowań Superkomputerów” (National Center for Supercomputing Applications) na Uniwersytecie Illinois w Urbanie i Champaign (NCSA-UIUC), który kierowany był wówczas przez Marca Andreessena. Mosaic była finansowana przez „Inicjatywę Wysokowydajnych Technik Obliczeniowych i Komunikacyjnych” (High-Performance Computing and Communications Initiactive), powstałej dzięki „Ustawie o Wysokowydajnych Technikach Obliczeniowych i Komunikacyjnych” (High Performance Computing and Communication Act) z 1991 roku, będącej jednym z kilku opracowań dotyczących rozwoju informatyki, zainicjowanych przez senatora Ala Gore’a. Przed wprowadzeniem przeglądarki graficznej Mosaic, strony internetowe nie posiadały grafiki wplecionej bezpośrednio w tekst, a popularność WWW była mniejsza niż starszych protokołów używanych dotychczas w Internecie, takich jak Gopher czy WAISinterfejs graficzny przeglądarki Mosaic uczynił WWW zdecydowanie najpopularniejszą usługą internetową.

World Wide Web Consortium (W3C) zostało założone przez Tima Bernersa-Lee po opuszczeniu przez niego ośrodka CERN, w październiku 1994 roku. Konsorcjum zostało utworzone w Laboratorium Informatyki MIT (Massachusetts Institute of Technology, Laboratory for Computer Science, MIT/LCS), z pomocą agencji „Agencji Zaawansowanych Obronnych Projektów Badawczych” (Defense Advanced Research Projects Agency, DARPA), będącej pionierem w rozwoju Internetu, oraz Komisji Europejskiej. Do końca 1994 r., gdy całkowita liczba stron internetowych stanowiła ułamek ich obecnej liczby, wiele spośród znanych dziś stron było już uruchomionych, a część z nich mogło stanowić inspirację dla wielu współczesnych serwisów internetowych.

Dzięki połączeniu z Internetem, na całym świecie zaczęły powstawać serwery WWW, tworząc ogólnoświatowe standardy nazewnictwa domen internetowych. Od tamtej pory Berners-Lee odegrał bardzo aktywną rolę w nadawaniu kierunku rozwoju standardów sieciowych (takich jak np. języki znaczników, w których strony internetowe są tworzone), a w ostatnich latach opowiada on o swojej wizji Semantic Web. World Wide Web, dzięki łatwemu do opanowania interfejsowi obsługi, aktywnie rozpowszechnia informacje za pośrednictwem Internetu – tym samym odgrywa istotną rolę w jego popularyzacji – mimo że te dwa pojęcia są często mylone w powszechnym użyciu: World Wide Web nie jest całym Internetem, a jedynie pewną aplikacją zbudowaną na jego bazie.

World Wide Web a Internet

Określenia: World Wide Web i Internet są często stosowane zamiennie w życiu codziennym. Jednak World Wide Web i Internet nie są jednym i tym samym. Internet to globalny system połączonych ze sobą sieci komputerowych. W przeciwieństwie do Web, która jest jedną z usług działających w Internecie, WWW jest zbiorem powiązanych ze sobą zasobów i dokumentów, połączonych hiperłączami i URL-ami. Krótko mówiąc, Web jest aplikacją działającą w Internecie. Przeglądanie stron internetowych WWW zwykle rozpoczyna się albo od wpisania adresu strony w przeglądarce internetowej, albo poprzez podanie linku do tej strony lub linku do konkretnego zasobu. Następnie przeglądarka wysyła do serwera WWW, na którym zlokalizowana jest strona, szereg niewidzialnych dla nas zapytań, aby później pobrać zawartość danej strony i wyświetlić ją na ekranie monitora.

Na początku nazwa serwera (część adresu URL) jest dekodowana na adres IP za pomocą globalnej, rozproszonej bazy danych znanej jako Domain Name System (DNS). Adres IP jest niezbędny, aby móc połączyć się z danym serwerem. Przeglądarka następnie wywołuje dany zasób, wysyłając zapytanie do serwera określonego powyższym adresem. W przypadku typowej strony internetowej, przeglądarka najpierw pobiera jej kod HTML, analizuje go, a następnie wysyła zapytanie o resztę elementów wchodzących w jej skład (zdjęcia, grafika, dźwięki, video, animacje). Statystyki mierzące popularność stron zazwyczaj są oparte na liczbie odwiedzin, ale również na liczbie wysłanych na serwer zapytań, które miały miejsce.

Podczas pobierania plików z serwera WWW, przeglądarki mogą stopniowo składać stronę na ekranie w sposób określony przez jego kod HTML, CSS lub inne języki skryptowe. Wszelkie zdjęcia i inne zasoby są włączane do strony, którą użytkownik widzi na ekranie. Większość stron internetowych zawiera hiperłącza umożliwiające bezpośrednie przechodzenie do innych stron z nimi powiązanych, gotowych plików, które można pobierać, dokumentów źródłowych, definicji oraz innych zasobów internetowych. Taki zbiór przydatnych materiałów powiązanych ze sobą za pośrednictwem łączy hipertekstowych nazwano „siecią informacji”. Udostępniając tę sieć w Internecie, Tim Berners-Lee nazwał ją w listopadzie 1990 roku „World Wide Web” (początkowo „WorldWideWeb”, jednak ten zapis został później odrzucony).

Korzyści z WWW

WWW (lub jeszcze krócej: W3) jest realizacją idei nieograniczonego świata informacji. Na jej sukces, poza samym Internetem jako fizycznym nośnikiem, składają się przede wszystkim następujące elementy:

Prefiks WWW

Wiele adresów internetowych zaczyna się od „www” ze względu na długoletnią praktykę nazywania hostów internetowych (serwerów) zgodnie z usługami, które oferowały. Nazwa hosta dla serwera Web to najczęściej www, tak jak ftp dla serwera FTP czy news lub nntp dla serwerów informacyjnych Usenet. Te nazwy hostów ukazują się, jako subdomeny w Domain Name System (DNS), jak w przykładzie www.example.com. Stosowanie takich subdomen nie jest wymagane. Pierwszy na świecie serwer Web nazywał się nxoc01.cern.ch, a wiele stron internetowych istnieje bez prefiksu WWW, czy innych takich jak „www2”, „secure” itp. Prefiksy subdomen nie mają żadnego praktycznego znaczenia, są to zwykłe nazwy nadane przez administratorów. Wiele serwerów internetowych jest tak skonfigurowanych, aby korzystać z obu wersji adresu, zarówno samej domeny (example.com), jak i z subdomeną (www.example.com). W praktyce kierują one użytkownika dokładnie do tej samej strony.

W przypadku wpisania tylko jednego specyficznego słowa w pasku adresu przeglądarki, np.: apple <enter>, openoffice <enter>aplikacja może sama spróbować dodać przedrostek www i końcówkę np.: „.com”, „.org” lub „.net” i przekieruje nas np. na stronę „http://www.apple.com/”, czy http://www.openoffice.org/. Funkcje te zostały wprowadzone we wczesnych wersjach przeglądarki Mozilla Firefox na początku roku 2003. Natomiast Microsoft otrzymał w 2008 patent na to samo rozwiązanie, z tym, że tylko w odniesieniu do urządzeń mobilnych.

Przedrostki „http://” i „https://” należy rozróżniać. Hypertext Transfer Protocol (HTTP) i HTTP Secure wyznaczają protokół komunikacyjny, który ma zostać użyty do wysyłania i pobierania zawartości strony. Protokół HTTP jest podstawowym elementem działania struktury www, a HTTPS dodaje niezbędną warstwę ochronną w przypadku, gdy poufne informacje, takie jak hasła czy dane bankowe, mają być przesyłane w publicznej sieci Internet. Przeglądarki internetowe również automatycznie dopisują ten element (HTTPS), jeśli zostanie on pominięty. Ogólny zarys RFC 2396 ↓ określający postać adresów internetowych to: <protokół>://<host><ścieżka>?<zapytanie>#<fragment>, gdzie <host>to np. serwer internetowy (jak www.example.com), a ścieżka identyfikuje konkretna podstronę. Serwer przetwarza <zapytanie>, które może np. za pośrednictwem formularza wysłać dane do zewnętrznej wyszukiwarki, poprzez to zawartość wyświetlanej strony jest zależna od odebranych informacji zwrotnych. <fragment>nie jest wysyłany do serwera. Określa, która część strony ma być wyświetlana użytkownikowi domyślnie.

W języku angielskim www wymawiane jest przez pojedyncze wypowiedzenie ciągu znaków (double-u double-u double-u). Niektóre kręgi użytkowników wymawiają dub-dub-dub, aczkolwiek ten sposób nie jest jeszcze zbyt powszechny. Angielski pisarz Douglas Adams zażartował kiedyś w „The Independent on Sunday” (1999): „World Wide Web jest z tego, co wiem, jedynym wyrażeniem, którego skrócona forma jest trzy razy dłuższa od pełnej”. Określenie World Wide Web jest powszechnie tłumaczone na język chiński jako: wan wei wǎng, co dosłownie oznacza „mnóstwo wymiarów sieci”. Tłumaczenie to bardzo dobrze odzwierciedla koncepcję projektu i założenia WWW. Tim Berners-Lee zdefiniował, iż wyrażenie World Wide Web powinno być pisane jako 3 osobne słowa bez żadnych dodatkowych łączników.

Prywatność

Użytkownicy komputerów, którzy oszczędzają czas i pieniądze, a także ci, którzy poszukują wygody i rozrywki, są narażeni na utratę prywatności w sieci. Na całym świecie ponad pół miliarda osób korzysta z serwisów społecznościowych, a młodzież dorastająca w dobie Internetu dokonuje kolejnej zmiany pokoleniowej. Z Facebooka, początkowo rozpowszechnionego pośród amerykańskich studentów, korzysta dziś ponad 70% użytkowników z innych państw niż USA. W 2009 roku na portalu uruchomiono test nowych narzędzi, umożliwiających dostosowanie ochrony prywatności, jednakże tylko 20% użytkowników rozpoczęło korzystanie z nich. Same serwisy wykorzystują część powierzonych im danych użytkowników do celów reklamowych. Osoba korzystająca z Internetu ma możliwość usunięcia historii przeglądanych stron, zablokowania niektórych ciasteczek (cookies) oraz wyskakujących okienek, jednak nie zapewnia to pełnej ochrony prywatności.

Bezpieczeństwo

Sieć Web stała się otwartą drogą dla przestępców rozprzestrzeniających złośliwe oprogramowanie. Cyberprzestępczość prowadzona w internecie może składać się z kradzieży tożsamości, oszustw, szpiegostwa i gromadzenia poufnych informacji. Połączenie z internetem przewyższa tradycyjne zagrożenia dla bezpieczeństwa danych przetwarzanych przy pomocy komputera, a jak szacuje Google, około jedna na dziesięć stron internetowych może zawierać złośliwy kod. Większość ataków opartych na sieci Web odbywa się z poziomu legalnych stron internetowych, a najczęściej, jak szacuje firma Sophos, producent oprogramowania antywirusowego, ataki są prowadzone w Stanach Zjednoczonych, Chinach i Rosji. Najpowszechniejszym typem zagrożeń jest SQL injection. Za pomocą języka HTML i URI sieć Web została również narażona na ataki, takie jak cross-site scripting (XSS), które pojawiły się wraz z wprowadzeniem JavaScript, następnie zostały rozszerzone do pewnego stopnia przez Web 2.0 i AJAX, używające dużych ilości skryptów. Dziś szacunkowo 70% wszystkich stron internetowych jest niezabezpieczonych przed atakami XSS.

Archiwizacja stron WWW

Z biegiem czasu wiele zasobów publikowanych w Internecie zanika, zostaje przeniesionych, zaktualizowanych lub całkowicie zmienia się ich zawartość. To sprawia, że niektóre odnośniki stają się przestarzałe. Określa się je wtedy mianem „martwych odnośników” (ang. dead links). Problem ten spowodował, że podjęto działania zaradcze, i np. Internet Archive, działające od 1996 roku, jest obecnie najbardziej znaną instytucją zajmującą się archiwizacją zasobów Internetu.

Standaryzacja

Funkcjonowanie World Wide Web w Internecie oraz wymiana informacji pomiędzy komputerami opierają się na wielu standardach i specyfikacjach technicznych. Duża część tych dokumentów to opracowania World Wide Web Consortium (W3C), kierowanego przez Bernersa-Lee, a niektóre z nich są dziełem Internet Engineering Task Force (IETF) oraz innych organizacji.

Gdy wspominamy o standardach internetowych, najczęściej mamy do czynienia z następującymi publikacjami:

  • Zalecenia W3C dla języków znaczników, zwłaszcza HTML i XHTML. Określają one struktury interpretacji dokumentów hipertekstowych.
  • Zalecenia W3C dla arkuszy stylów, szczególnie CSS.
  • Standardy ECMAScript (zazwyczaj w formie JavaScript), z ECMA International.
  • Zalecenia W3C dotyczące modelowania dokumentów obiektowych.

Dodatkowe publikacje dostarczają definicji innych podstawowych technologii stosowanych w World Wide Web, m.in.:

  • Uniform Resource Identifier (URI), który jest uniwersalnym systemem odniesień do zasobów w Internecie, takich jak dokumenty hipertekstowe i obrazy. URI, często nazywane URL jest definiowane przez RFC 3986 ↓.
  • Protokół HTTP, a konkretnie RFC 2616 ↓ i RFC 2617 ↓, które określają, jak przeglądarka i serwer uwierzytelniają siebie nawzajem.

Dostępność WWW

Dostęp do WWW jest możliwy dla wszystkich, bez względu na to, czy użytkownik jest osobą w pełni czy niepełnosprawną. Niezależnie od rodzaju niepełnosprawności, sieć Web służy przesyłaniu, jak również pozyskiwaniu informacji oraz interakcji ze społeczeństwem, przez co niezmiernie ważne jest, aby umożliwić dostęp do sieci osobom niepełnosprawnym, często ograniczonym ruchowo. Tim Berners-Lee twierdzi, iż „potęga internetu polega na jego uniwersalności. Dostępność dla wszystkich, bez względu na niepełnosprawność jest jej głównym aspektem”. Wiele krajów wymaga od autorów witryn stosowania ułatwień dostępu. Międzynarodowa ustalenia w ramach „Inicjatywy dostępności do sieci” W3 Consortium (Web Accessibility Initiative) doprowadziły do wystosowania pewnych prostych wytycznych, które autorzy treści internetowych, jak również twórcy oprogramowania mogą wykorzystywać, aby umożliwić „surfowanie” po sieci osobom niepełnosprawnym.

Obsługa różnych języków

W3C zapewnia, że usługa WWW będzie dostępna we wszystkich językach świata. Na początku 2004 r. Unicode zyskał znaczną popularność i ostatecznie w grudniu 2007 r., jako najczęściej używany system kodowania znaków w sieci Web, wyparł zarówno ASCII, jak i zestaw znaków dla Europy Zachodniej. Pierwotnie zbiór RFC 3986 ↓ zezwalał obiektom sieci na identyfikację tylko poprzez adresy składające się ze znaków z podgrupy US-ASCII. RFC 3987 ↓ uznaje rozszerzony zakres znaków i od tej pory zasoby sieci mogą być identyfikowane poprzez adresowanie w każdym z języków.

Prędkość transmisji

Przeciążenie infrastruktury Internetu, wywołane przewagą popytu nad podażą, powoduje, nieraz znaczące, opóźnienia w przeglądaniu stron internetowych. Powstało nawet żartobliwe określenie dla WWW: „World Wide Wait” (czyli: „wielkie, światowe czekanie”). Przyspieszenie działania sieci jest ciągle otwartym tematem dyskusji i rozważań użytkowników, specjalistów oraz polem działania technologii QoS. Inne rozwiązania mające na celu przyspieszenie Internetu można znaleźć na stronie W3C[4].

Standardowe wytyczne dla idealnego czasu odpowiedzi z serwera to:

  • 0,1 sekundy (jedna dziesiąta sekundy) – idealny czas reakcji. Użytkownik nie odczuwa jakichkolwiek opóźnień.
  • 1 sekunda – największy dopuszczalny czas reakcji. Czas odpowiedzi powyżej 1 sekundy zakłóca pracę użytkownika.
  • 10 sekund – niedopuszczalny czas reakcji. Przeglądanie zostanie przerwane, a użytkownik prawdopodobnie ujrzy komunikat błędu.

Statystyki

Według badań z 2001 roku, istniało wtedy więcej niż 550 miliardów dokumentów internetowych, najczęściej dostępnych w tzw. „widocznym WWW” (ang. visible Web lub surface Web), czyli skatalogowanych (zindeksowanych) przez wyszukiwarki internetowe lub w tzw. „ukrytym WWW” (ang. hidden Web lub deep Web), czyli nieskatalogowanych przez wyszukiwarki. W 2002 r. przebadano zawartość 2,024 miliarda stron WWW, dzięki czemu wiadomo, że zdecydowanie najwięcej zawartości sieci Web była w języku angielskim: 56,4%; następne były strony w języku niemieckim (7,7%), francuskim (5,6%) i japońskim (4,9%). Najnowsze badania wykorzystywały do zebrania próbek stron internetowych wyszukiwarki internetowe w 75 różnych językach. Ustalono, że od końca stycznia 2005 było ponad 11,5 miliarda publicznie indeksowanych stron internetowych. W marcu 2009 indeksowanych stron było już co najmniej 25,21 miliarda. 25 lipca 2008 inżynierowie oprogramowania Google Jesse Alpert i Nissan Hajaj ogłosili, iż wyszukiwarka odkryła bilion unikatowych adresów URL. Spośród 109,5 miliona domen działających w maju 2009 74% było komercyjne (tzn. strony działające w domenie najwyższego poziomu .com).

Zobacz też

Przypisy

  1. 30 rocznica WWW. [dostęp 2019-03-12].
  2. Michael Calore: 20 Years Ago, Web’s Founders Ask for Funding. www.wired.com, 2010-11-12. (ang.).
  3. University of Minnesota Gopher software licensing policy. www.nic.funet.fi. (ang.).
  4. World Wide Web Consortium (W3C).

Bibliografia

Linki zewnętrzne

Media użyte na tej stronie

WWW logo by Robert Cailliau.svg
WWW's "historical" logo, created by Robert Cailliau in 1990. Made of three W using the Optima Bold font, according to Cailliau himself.
Tim Berners-Lee.jpg
Autor: Uldis Bojārs, Licencja: CC BY-SA 2.0
Tim Berners-Lee at a Podcast Interview
First Web Server.jpg
(c) Coolcaesar z angielskojęzycznej Wikipedii, CC-BY-SA-3.0
* This NeXT workstation (a NeXTcube, monitor Cern 57503) was used by Tim Berners-Lee as the first Web server on the World Wide Web. It is shown here as displayed in 2005 at Microcosm, the public science museum at CERN where Berners-Lee was working in 1991 when he invented the Web.
  • The document resting on the keyboard is a copy of "CERN DD/OC March 1989 Information Management: A Proposal. Abstract" which was Berners-Lee's original proposal for the World Wide Web. (Further text visible: "...distributed hypertext systems, Hypertext, computer conferencing, document retrieval, information management. Project, IBM Group talk, VAX/Notes, CERNDOC, UUCP News, Hierarchical systems".)
  • The partly peeled off label on the cube itself has the following text: "This machine is a server. DO NOT POWER IT DOWN!!" The labels on top of the server and on the keyboard read "PROPRIETE CERN" (French for "Cern property").
  • Just below the keyboard (not shown) is a label which reads: "At the end of the 80s, Tim Berners-Lee (TBL) invented the World Wide Web using this Next computer as the first Web server."
Text at the beginning of Tim Berners-Lee: Weaving the Web, Chapter 1 Enquire Within upon Everything:
"When I first began tinkering with a software program that eventually gave rise to the idea of the World Wide Web, I named it Enquire, short for Enquire Within upon Everything, a musty old book of Victorian advice I noticed as a child in my parents' house outside London. With its title suggestive of magic, the book served as a portal to a world of information, everything from how to remove clothing stains to tips on investing money. Not a perfect analogy for the Web, but a primitive starting point.
What that first bit of Enquire code led me to was something much larger, a vision encompassing the decentralized, organic growth of ideas, technology and society. The vision I have for the Web is about anything being potentially connected with anything..."
This is a new upload by Coolcaesar of the original JPEG file on en:September 22, en:2008 directly to Commons in response to continued vandalism of the original.