World Wide Web on hajautettu järjestelmä , joka tarjoaa pääsyn toisiinsa yhdistettyihin asiakirjoihin, jotka sijaitsevat eri tietokoneissa , jotka on kytketty Internetiin . World Wide Webiin viitattaessa käytetään myös sanaa web ( englanniksi web "web") ja lyhennettä WWW .
World Wide Web koostuu sadoista miljoonista verkkopalvelimista . Suurin osa World Wide Webin resursseista perustuu hypertekstitekniikkaan . World Wide Webissä isännöityjä hypertekstiasiakirjoja kutsutaan web-sivuiksi . Useita Web-sivuja, joilla on yhteinen teema tai ulkoasu sekä linkkejä toisiinsa ja jotka sijaitsevat yleensä samalla verkkopalvelimella , kutsutaan verkkosivustoksi . Verkkosivujen lataamiseen ja katseluun käytetään erityisiä ohjelmia - selaimia ( englanninkielinen selain ).
World Wide Web aiheutti todellisen vallankumouksen tietotekniikassa ja antoi voimakkaan sysäyksen Internetin kehitykselle . Jokapäiväisessä puheessa Internetistä puhuttaessa ne tarkoittavat usein World Wide Webiä. On kuitenkin tärkeää ymmärtää, että nämä eivät ole sama asia.
World Wide Web koostuu miljoonista Internet -verkkopalvelimista , jotka sijaitsevat ympäri maailmaa. Web-palvelin on tietokoneohjelma, joka toimii verkkoon kytketyssä tietokoneessa ja käyttää HTTP-protokollaa tiedonsiirtoon. Yksinkertaisimmassa muodossaan tällainen ohjelma vastaanottaa tietyn resurssin HTTP-pyynnön verkon kautta, löytää vastaavan tiedoston paikalliselta kiintolevyltä ja lähettää sen verkon kautta pyynnön esittäneelle tietokoneelle. Kehittyneemmät web - palvelimet pystyvät luomaan asiakirjoja dynaamisesti vastauksena HTTP - pyyntöön käyttämällä malleja ja komentosarjoja .
Verkkopalvelimelta vastaanotettujen tietojen tarkastelemiseksi asiakastietokoneessa käytetään erityistä ohjelmaa - verkkoselainta . Web-selaimen päätehtävä on näyttää hypertekstiä . World Wide Web liittyy erottamattomasti hypertekstin ja hyperlinkkien käsitteisiin . Suuri osa verkossa olevasta tiedosta on hypertekstiä.
Hypertekstin luomiseen, tallentamiseen ja näyttämiseen World Wide Webissä käytetään perinteisesti HTML -kieltä ( englanniksi HyperText Markup Language "hypertext markup language"). Hypertekstiasiakirjojen luomista (merkintää) kutsutaan taittotyöksi , sen tekee webmaster tai erillinen merkintäasiantuntija - taittosuunnittelija. HTML-merkinnän jälkeen tuloksena oleva asiakirja tallennetaan tiedostoon , ja tällaiset HTML -tiedostot ovat pääasiallinen World Wide Web -resurssien tyyppi. Kun HTML-tiedosto on asetettu verkkopalvelimen saataville, sitä kutsutaan "verkkosivuksi". Joukko verkkosivuja muodostaa verkkosivuston .
World Wide Webin hypertekstisivut sisältävät hyperlinkkejä. Hyperlinkit auttavat World Wide Webin käyttäjiä helposti navigoimaan resurssien (tiedostojen) välillä riippumatta siitä, sijaitsevatko resurssit paikallisessa tietokoneessa vai etäpalvelimessa. Yhtenäisiä resurssihakulaitteita käytetään resurssien etsimiseen World Wide Webistä . Esimerkiksi Wikipedian venäjänkielisen osan pääsivun koko URL -osoite näyttää tältä: . Tällaiset URL-osoitteet yhdistävät URI -tunnistustekniikan ( Uniform Resource Identifier ) ja DNS :n ( Domain Name System ) . Verkkotunnuksen nimi (tässä tapauksessa ) osana URL-osoitetta tarkoittaa tietokonetta (tarkemmin sanottuna yhtä sen verkkoliitännöistä ), joka suorittaa halutun verkkopalvelimen koodin. Nykyisen sivun URL-osoite näkyy yleensä selaimen osoitepalkissa, vaikka monet nykyaikaiset selaimet haluavat oletuksena näyttää vain nykyisen sivuston verkkotunnuksen. http://ru.wikipedia.org/wiki/Заглавная_страница ru.wikipedia.org
Verkon visuaalisen havainnoinnin parantamiseksi CSS -tekniikkaa on käytetty laajalti , jonka avulla voit asettaa yhtenäisiä suunnittelutyylejä monille verkkosivuille. Toinen huomion arvoinen innovaatio on URN ( Uniform Resource Name ) - resurssien merkintäjärjestelmä .
Suosittu World Wide Webin kehityskonsepti on semanttisen verkon luominen . Semanttinen verkko on lisäosa olemassa olevaan World Wide Webiin, jonka tarkoituksena on tehdä verkkoon lähetetyistä tiedoista tietokoneille ymmärrettävämpää. Se on myös verkon käsite, jossa jokaiselle ihmiskieliselle resurssille annettaisiin tietokoneelle ymmärrettävä kuvaus. Semanttinen verkko avaa pääsyn selkeästi jäsenneltyihin tietoihin kaikille sovelluksille alustasta ja ohjelmointikielistä riippumatta . Ohjelmat voivat löytää itse tarvittavat resurssit, käsitellä tietoa, luokitella tietoja, tunnistaa loogisia suhteita, tehdä johtopäätöksiä ja jopa tehdä päätöksiä näiden johtopäätösten perusteella. Jos semanttinen verkko otetaan laajalti käyttöön ja toteutetaan hyvin, se voi mullistaa Internetin. Semanttinen verkko käyttää tietokoneystävällisen resurssikuvauksen luomiseen RDF -muotoa ( Resource Description Framework ) , joka perustuu XML - syntaksiin ja käyttää URI-tunnisteita resurssien osoittamiseen. Uutta tällä alueella: RDFS ( RDF Schema ) ja SPARQL ( Protocol And RDF Query Language ) (lausutaan "sparkle"), uusi kyselykieli RDF-tietojen nopeaan käyttöön .
Tim Berners-Lee ja jossain määrin Robert Cayo pidetään World Wide Webin keksijöinä . Tim Berners-Lee on HTTP- , URI / URL- ja HTML -tekniikoiden kirjoittaja . Vuonna 1980 hän työskenteli Euroopan ydintutkimusneuvostossa ( ranskalainen conseil européen pour la recherche nucléaire , CERN ) ohjelmistokonsulttina. Siellä Genevessä ( Sveitsi ) hän kirjoitti Inquire-ohjelman omaan käyttöönsä ( eng . Inquire , voidaan löyhästi kääntää "Interrogatoriksi"), joka käytti satunnaisia assosiaatioita tietojen tallentamiseen ja loi käsitteellisen perustan maailmalle. Laaja verkko.
Vuonna 1989 työskennellessään CERN :ssä organisaation intranetissä Tim Berners-Lee ehdotti maailmanlaajuista hypertekstiprojektia, joka tunnetaan nykyään nimellä World Wide Web. Hankkeessa julkaistiin hyperlinkeillä yhdistettyjä hypertekstiasiakirjoja , jotka helpottaisivat CERNin tutkijoiden tiedonhakua ja yhdistämistä. Tim Berners-Lee (yhdessä avustajiensa kanssa) keksi projektin toteuttamiseksi URI :t , HTTP-protokollan ja HTML -kielen . Nämä ovat teknologioita, joita ilman modernia Internetiä ei enää voida kuvitella . Vuosina 1991–1993 Berners - Lee paransi näiden standardien teknisiä eritelmiä ja julkaisi ne. Mutta silti virallisesti World Wide Webin syntymävuotta olisi pidettävä 1989 .
Osana projektia Berners-Lee kirjoitti maailman ensimmäisen web -palvelimen nimeltä " httpd " ja maailman ensimmäisen hypertekstiverkkoselaimen nimeltä "WorldWideWeb". Tämä selain oli myös WYSIWYG -editori (lyhenne sanoista what you see is what you get - what you see is what you get), sen kehitys aloitettiin lokakuussa 1990 ja valmistui saman vuoden joulukuussa. Ohjelma toimi NeXTStep - ympäristössä ja alkoi levitä Internetiin kesällä 1991 .
Mike Sendall ostaa tällä hetkellä NeXT-kuutiotietokoneen ymmärtääkseen sen arkkitehtuurin ominaisuudet ja antaa sen sitten Timille [Berners-Leelle]. NeXT-kuutioohjelmistojärjestelmän hienostuneisuuden ansiosta Tim kirjoitti prototyypin, joka havainnollistaa projektin pääkohtia muutamassa kuukaudessa. Tulos oli vaikuttava: prototyyppi tarjosi käyttäjille muun muassa edistyneitä ominaisuuksia, kuten WYSIWYG-selauksen/-kirjoituksen!… . Ainoa asia, jota vaadin, oli, ettei nimeä saisi enää poimia samasta kreikkalaisesta mytologiasta. Tim ehdotti "maailmanlaajuista verkkoa". Pidin heti kaikesta tässä otsikossa, vain se on vaikea lausua ranskaksi.
- Robert Cailliau, 2. marraskuuta 1995 [1]Berners-Lee isännöi maailman ensimmäistä verkkosivustoa 6. elokuuta 1991 ensimmäisellä verkkopalvelimella , joka on saatavilla osoitteessa http://info.cern.ch/( arkistoitu täällä ). Resurssi määritti " World Wide Webin " käsitteen, sisälsi ohjeet verkkopalvelimen asentamiseen, selaimen käyttöön jne. Tämä sivusto oli myös maailman ensimmäinen Internet-hakemisto , koska Tim Berners-Lee asetti ja ylläpiti myöhemmin linkkiluetteloa. muille sivustoille siellä.
Ensimmäinen World Wide Webiin ilmestynyt valokuva oli parodiafilk - yhtye Les Horribles Cernettes [2] . Tim Berners-Lee pyysi bändin johtajalta skannattuja valokuvia CERNin hardronic-festivaalin jälkeen.
Silti verkon teoreettinen perusta luotiin paljon aikaisemmin kuin Berners-Lee. Vuonna 1945 Vannaver Bush kehitti Memex -konseptin - mekaanisen apuvälineen "ihmisen muistin laajentamiseen ". Memex on laite, johon ihminen tallentaa kaikki kirjansa ja tietueensa (ja ihannetapauksessa kaiken muodollisesti kuvattavissa olevan tietonsa) ja joka antaa tarvittavan tiedon riittävän nopeasti ja joustavasti. Se on laajennus ja lisäys ihmisen muistiin. Bush ennusti myös kattavan tekstien ja multimediaresurssien indeksoinnin, jonka avulla tarvittava tieto löydetään nopeasti. Seuraava merkittävä askel kohti World Wide Webiä oli hypertekstin luominen ( Ted Nelsonin vuonna 1965 keksimä termi ).
Vuodesta 1994 lähtien Tim Berners-Leen perustama ja edelleen johtama World Wide Web Consortium (W3C) on ottanut vastuulleen päätyön World Wide Webin kehittämiseksi . Tämä konsortio on organisaatio, joka kehittää ja toteuttaa teknisiä standardeja Internetiä ja World Wide Webiä varten. W3C:n missio: "Vapauta World Wide Webin koko potentiaali luomalla protokollia ja periaatteita, jotka takaavat Webin pitkän aikavälin kehityksen." Konsortion kaksi muuta päätavoitetta ovat varmistaa verkon täydellinen "kansainvälistyminen" ja tehdä Webistä vammaisten käytettävissä.
W3C kehittää Internetille yhteisiä periaatteita ja standardeja (jota kutsutaan "suosituksiksi", eng. W3C-suosituksiksi ), jotka ohjelmisto- ja laitteistovalmistajat sitten toteuttavat. Tällä tavalla saadaan aikaan yhteensopivuus eri yritysten ohjelmistotuotteiden ja laitteiden välillä, mikä tekee World Wide Webistä täydellisemmän, monipuolisemman ja kätevämmän. Kaikki World Wide Web Consortiumin suositukset ovat avoimia, eli niitä ei suojata patenteilla ja kuka tahansa voi toteuttaa ne ilman taloudellista tukea konsortiolle.
Tällä hetkellä World Wide Webin kehityksessä on kaksi suuntaa: semanttinen verkko ja sosiaalinen verkko .
Toisen suunnan puitteissa työkaluina käytetään aktiivisesti semanttiseen verkkoon kuuluvia kehityssuuntia ( RSS ja muut verkkosyötemuodot , OPML , XHTML-mikroformaatit ). Wikipedian luokkapuun osittain semanttisoidut osiot auttavat käyttäjiä tietoisesti navigoimaan tietoavaruudessa, mutta erittäin lievät alakategorioiden vaatimukset eivät anna aihetta toivoa tällaisten osioiden laajentamista. Tässä suhteessa yritykset laatia tietokartastoja voivat olla kiinnostavia.
On myös suosittu Web 2.0 -konsepti , joka tiivistää useita World Wide Webin kehityssuuntia kerralla.
On myös olemassa projekti, jossa integroidaan World Wide Web Web3 - lohkoketjuun [3] , joka sisältää sellaisia käsitteitä kuin hajauttaminen ja merkkitalous [ 4 ] [5] . Jotkut asiantuntijat ja toimittajat vertaavat sitä Web 2.0 :aan , jossa heidän mielestään data ja sisältö on keskitetty pieneen konserniin yrityksiä, joita joskus kutsutaan nimellä GAFAM ( Google , Amazon , Facebook , Apple , Microsoft ) [6] . Termin keksi vuonna 2014 Ethereumin toinen perustaja Gavin Wood , ja vuonna 2021 kryptovaluuttojen harrastajat, suuret teknologiayritykset ja riskipääomayritykset [6] [7] kiinnostuivat ideasta .
Verkossa esitettyjä tietoja voi käyttää:
Tapoja näyttää aktiivisesti tietoa World Wide Webissä:
Tämä jako on hyvin ehdollinen. Joten vaikkapa blogia tai vieraskirjaa voidaan pitää foorumin erikoistapauksena, joka puolestaan on sisällönhallintajärjestelmän erikoistapaus. Yleensä ero ilmenee tietyn tuotteen tarkoituksessa, lähestymistavassa ja sijoittelussa.
Osa verkkosivujen tiedoista on saatavilla myös puheella. Intia on jo alkanut [8] testata järjestelmää, joka mahdollistaa sivujen tekstisisällön pääsyn myös lukemattomille ja kirjoittamattomille.
Verkkorikollisille World Wide Webistä on tullut keskeinen tapa haittaohjelmien leviämiselle . Lisäksi verkkorikollisuuden käsite sisältää identiteettivarkauden , petoksen , vakoilun ja laittoman tiedonkeruun tietyistä aiheista tai esineistä [9] . Web - haavoittuvuuksia on joidenkin tilien mukaan nyt enemmän kuin perinteisiä tietoturvaongelmien ilmenemismuotoja ; Google arvioi , että noin joka kymmenes World Wide Webin sivu saattaa sisältää haitallista koodia [10] [11] [12] . Brittiläisen virustorjuntaratkaisujen valmistajan Sophosin mukaan suurin osa verkkoon kohdistuvista kyberhyökkäyksistä tehdään laillisilla resursseilla , jotka sijaitsevat pääasiassa Yhdysvalloissa , Kiinassa ja Venäjällä [13] . Yleisin tällaisten hyökkäysten tyyppi saman yrityksen tietojen mukaan on SQL-injektio - haitallinen tietokantakyselyjen syöttäminen resurssisivujen tekstikenttiin, mikä riittämättömällä suojaustasolla voi johtaa aineiston sisällön paljastamiseen. tietokanta [14] . Toinen yleinen HTML- ja Unique Resource Identifier -uhka World Wide Web-sivustoille on cross-site scripting (XSS), joka on mahdollista JavaScript -tekniikan käyttöönoton myötä ja vauhdittumassa Web 2.0 :n ja Ajaxin kehityksen myötä – uudet web-suunnittelustandardit rohkaisivat käyttämään interaktiiviset skenaariot [15] [16] [17] . Vuoden 2008 arvioiden mukaan jopa 70 % maailman kaikista verkkosivustoista oli alttiina käyttäjiään kohdistuville XSS-hyökkäyksille [18] .
Ehdotetut ratkaisut vastaaviin ongelmiin vaihtelevat merkittävästi täysin ristiriitaisiin toistensa kanssa. Suuret tietoturvaratkaisujen toimittajat, kuten McAfee , Avira , Avast ja muut kehittävät tuotteita tietojärjestelmien arvioimiseksi tiettyjen vaatimusten mukaisiksi, muut markkinatoimijat (esimerkiksi Finjan ) suosittelevat aktiivisen ohjelmakoodin tutkimista ja yleensä kaikkia sisältö reaaliajassa tietolähteestä riippumatta [9] [19] . On myös mielipiteitä siitä, että yritysten pitäisi nähdä turvallisuus liiketoimintamahdollisuutena eikä kustannusna. Tätä varten sadat nykyiset tietoturvayritykset on korvattava pienellä ryhmällä organisaatioita, jotka valvoisivat jatkuvan ja kattavan digitaalisten oikeuksien hallinnan infrastruktuuripolitiikkaa [20] [21] .
Aina kun käyttäjän tietokone pyytää verkkosivua palvelimelta , palvelin määrittää ja yleensä kirjaa lokiin IP-osoitteen , josta pyyntö tuli. Samoin useimmat Internet-selaimet tallentavat vieraillut sivut, jotka voidaan sitten tarkastella selaimen historiassa, ja tallentavat ladatun sisällön välimuistiin mahdollista uudelleenkäyttöä varten. Jos salattua HTTPS -yhteyttä ei käytetä vuorovaikutuksessa palvelimen kanssa , pyynnöt ja vastaukset niihin välitetään Internetin kautta selkeänä tekstinä ja niitä voidaan lukea, kirjoittaa ja tarkastella verkon välisolmuissa .
Kun verkkosivu pyytää ja käyttäjä antaa tietyn määrän henkilökohtaisia tietoja , kuten etu- ja sukunimi tai oikea tai sähköpostiosoite, tietovirta voidaan deanonymisoida ja liittää tiettyyn henkilöön. Jos verkkosivusto käyttää evästeitä , käyttäjän todennusta tai muita vierailijoiden seurantatekniikoita, voidaan myös luoda suhde aiempien ja myöhempien vierailujen välille. Näin ollen World Wide Webissä toimiva organisaatio pystyy luomaan ja päivittämään tietyn asiakkaan profiilin käyttämällä sivustoaan (tai sivustojaan). Tällainen profiili voi sisältää esimerkiksi tietoa vapaa-ajan ja viihteen mieltymyksistä, kuluttajien kiinnostuksen kohteista, ammatista ja muista demografisista tiedoista . Tällaiset profiilit kiinnostavat merkittävästi markkinoijia , mainostoimistojen työntekijöitä ja muita tämän tyyppisiä ammattilaisia. Tiettyjen palveluiden käyttöehdoista ja paikallisista laeista riippuen tällaisia profiileja voidaan myydä tai siirtää kolmansille osapuolille käyttäjän tietämättä.
Sosiaaliset verkostot osallistuvat myös tietojen luovuttamiseen ja tarjoavat osallistujille mahdollisuuden ilmoittaa itsenäisesti tietyn määrän henkilötietoja itsestään. Tällaisten resurssien ominaisuuksien huolimaton käsittely voi johtaa siihen, että yleisö saa tietoja, jotka käyttäjä haluaisi piilottaa; muun muassa tällaiset tiedot voivat joutua huligaanien tai sitä paitsi verkkorikollisten keskipisteeseen. Nykyaikaiset sosiaaliset verkostot tarjoavat jäsenilleen melko laajan valikoiman profiilin tietosuoja-asetuksia, mutta nämä asetukset voivat olla tarpeettoman monimutkaisia - etenkin kokemattomille käyttäjille [22] .
Vuosina 2005–2010 verkon käyttäjien määrä kaksinkertaistui ja saavutti kahden miljardin rajan [23] . Varhaisten vuosien 1998 ja 1999 tutkimusten mukaan hakukoneet eivät indeksoineet useimpia olemassa olevia verkkosivustoja oikein, ja itse verkko oli odotettua suurempi [24] [25] . Vuoteen 2001 mennessä on jo luotu yli 550 miljoonaa verkkoasiakirjaa, joista suurin osa oli kuitenkin näkymättömän verkon sisällä [26] . Vuodesta 2002 lähtien luotiin yli 2 miljardia web-sivua [27] , 56,4 % kaikesta Internet-sisällöstä oli englanninkielistä , jota seurasivat saksa (7,7 %), ranska (5,6 %) ja japani (4,9 %). Tammikuun 2005 lopussa tehdyn tutkimuksen mukaan yli 11,5 miljardia verkkosivua tunnistettiin 75 eri kielellä ja indeksoitiin avoimeen verkkoon [28] . Ja maaliskuussa 2009 sivumäärä kasvoi 25,21 miljardiin [29] . Googlen ohjelmistosuunnittelijat Jesse Alpert ja Nissan Hiai ilmoittivat 25. heinäkuuta 2008, että Googlen hakukone oli havainnut yli miljardi yksilöllistä URL -osoitetta [ 30] .
Sanakirjat ja tietosanakirjat | ||||
---|---|---|---|---|
|
Web ja verkkosivut | |
---|---|
maailmanlaajuisesti | |
Paikallisesti | |
Sivustojen ja palveluiden tyypit |
|
Luominen ja ylläpito | |
Asettelutyypit, sivut, sivustot |
|
Tekninen | |
Markkinointi | |
Yhteiskunta ja kulttuuri |
semanttinen verkko | |
---|---|
Perusasiat | |
alajaksot |
|
Sovellukset |
|
liittyvät aiheet | |
Standardit |
|
selaimet (ennen vuotta 1996) | Varhaiset|
---|---|
1991 | World Wide Web (Nexus) |
1992 | |
1993 |
|
1994 |
|
1995 |
|
1996 |
|
Katso myös |
|