Senza categoria

La Storia Di INTERNET

Anni 50′ L’inizio

Nel 1957 l’Unione Sovietica realizzò un importantissimo progetto spaziale: la messa in orbita dello Sputnik.

Lo Sputnik fu il primo satellite artificiale della storia, lanciato appunto per dimostrare la possibilità di costruire “satelliti” artificiali. Ciò significava un grave ritardo tecnologico da parte degli stati uniti.

In risposta a questo evento l’amministrazione Eisenhower stimolò e finanziò la ricerca militare nel settore delle telecomunicazioni. Il dipartimento della Difesa degli Stati Uniti nel 1958 diede vita all’ARPA (Advanced Research Projects Agency) con sede all’interno del Pentagono a Washington.

Lo scopo dell’ARPA era quello di ristabilire il primato americano nelle scienze applicate in campo militare.

Anni 60′ – Lo Sviluppo

Negli anni ‘60 i computer già esistevano ma erano molto diversi da quelli che utilizziamo oggi. Innanzitutto non era ancora stata sviluppata la microelettronica: i calcolatori occupavano intere stanze. In secondo luogo i sistemi di stoccaggio informazioni erano delle grandi bobine di nastro magnetico. Inoltre non esisteva uno standard per il sistema operativo: ogni calcolatore aveva il proprio.

Nel 1961 l’unione sovietica continuò a svilupparsi nel campo spaziale, infatti portarono nello spazio il primo uomo (Yuri Gargarin). Gli Stati Uniti decisero allora di stanziare maggiori finanziamenti nella ricerca aereospaziale e costituirono la NASA, alla quale vennero trasferiti i capitali e le competenze di gestire i programmi spaziali. I risultati della NASA fruttarono in poco tempo dando vita alle missioni “Apollo”. L’ARPA allora trovò nella scienza dell’informazione e della telecomunicazione un nuovo oggetto di studio parallelo.

Nel 1969 nacque il primo risultato concreto del progetto, chiamato ARPAnet. Il suo obiettivo primario era di preservare la sicurezza dei dati in caso di guerra nucleare. Gli studiosi partendo dalla convinzione che l’unico modo per assicurare la continuità nelle comunicazioni era quello di partire da un nodo centrale la cui distruzione non avrebbe compromesso il funzionamento dell’intera rete.

Nacque così, una rete decentralizzata studiata in modo che ogni nodo potesse continuare ad elaborare e trasmettere dati qualora i nodi vicini fossero stati danneggiati.

Arpanet coinvolse inizialmente quattro “utenti” importanti: la UCLA (Università di Los Angeles) dotata di un Xerox DSX-7; la UCSB (Università di Santa Barbara) dotata di un IBM 360/75, l’Università dello UTAH che aveva un DEC PDP-10 e lo SRI (Stanford Research Institute) con il proprio XDS 940; ad ognuno fu consegnato un IMP “Interface Message Processor”, un computer dedicato alla gestione del traffico dati, prodotto dalla BBN (Bolt Beranek & Newman), la cui piattaforma di base era costituita da un elaboratore Honeywell 516 con una memoria centrale di “ben”12 K. I quattro nodi furono collegati tra loro attraverso circuiti a 50Kbps prodotti dalla AT&T.

Nuovi computer vengono collegati rapidamente ad ARPANET nel corso degli anni successivi mentre procede il lavoro di completamento di un protocollo completo Host-to-Host funzionale ed altri network software.

Nel dicembre del 1970 il Network Working Group (NWG) completa il protocollo iniziale Host-to-Host di ARPANET, chiamato Network Control Protocol (NCP). Dopo che i siti ARPANET sono stati completamente implementati con NCP nel periodo 1971-1972, gli utilizzatori della rete possono finalmente cominciare a sviluppare le applicazioni.

L’IMP concepito dalla BBN poteva collegarsi, al massimo, con 64 computer e una sola rete locale. Limiti che oggi farebbero tenerezza: oggi Internet ha milioni e milioni di utenti.

Arpanet ebbe successo fino ai primi anni ottanta quando il successo delle connessioni in rete fece proliferare i computer collegati rendendo indispensabile un rapido accordo per la loro interconnessione e la nascita di un protocollo per la trasmissione dati uguale per tutti e molto più elastico.

La Nascita Del Protocollo TCP/IP

I calcolatori, pur avendo sistemi operativi diversi, dovevano infatti “parlare” la stessa lingua, un esperanto informatico basato sul metodo del packet switching; tale idioma nasce informalmente nel 1973, grazie a Vinton Cerf (che in un’intervista rilasciata a Mediamente ne spiega le caratteristiche, vedere allegati) e Robert Kahn. I due ricercatori, diedero vita al progetto di realizzazione di una architettura di cooperazione tra reti (internetworking), in grado di collegare tra loro reti diverse basate su pacchetti di informazioni e macchine diverse collegate a reti diverse ma interconnesse.
Tale architettura si basa sul protocollo tcp/ip, del quale vennero realizzate quattro versioni nella seconda metà degli anni ‘70, negli anni ‘80 il protocollo aveva già un successo tale da “oscurare” lo standard dal quale derivava, l’ISO/OSI; la rivoluzione Internet prendeva sempre più piede, appoggiata anche dalle autorità e dalle imprese.
Principalmente, il protocollo tcp/ip è formato da due protocolli distinti che svolgono funzioni diverse nella trasmissione dei dati: il TCP gestisce l’organizzazione dei dati e il controllo della trasmissione di questi ultimi, poiché i dati da inviare sono troppo grandi ne ridimensiona la grandezza, li spezzetta in pacchetti più piccoli e li ricompone nel momento in cui arrivano al computer scelto. Compito del protocollo IP è invece quello di trasmettere i dati e di gestire il traffico fra i diversi computer collegati; tale protocollo, infatti, impacchetta i dati in uscita e li invia, scegliendo la strada migliore per l’invio. Altro compito assolto dal protocollo IP è l’invio dei dati ad un indirizzo esistente, utilizzando uno schema di “indirizzamento” dei computer collegati, basato su un sistema di indirizzi numerici. Infatti in Internet ogni sito logico è individuato da un solo indirizzo numerico, intellegibile da parte di un computer; l’indirizzo numerico è determinato da quattro campi separati tra loro da un punto, in cui ogni campo può assumere valori da 0 a 255 per un totale di 8 bit , per cui l’indirizzo completo del sito dà vita ad una parola di 32 bit (esempio: 113.175.64.1). L’indirizzo del sito assume diversi nomi, anche se più tecnicamente la prima parte corrisponde all’indirizzo della sottorete a cui il nodo appartiene, mentre la seconda parte individua i computer secondari di appartenenza fino ad arrivare al singolo computer. Tale modalità è efficiente ma non è molto semplice da memorizzare e perciò è stata affiancata da un altro metodo chiamato FQDN (Fully Qualified Domain Name), che si caratterizza con nomi simbolici tipo: sito.dominio. Il dominio cui appartiene il sito appare in modi diversi in relazione alle sottoreti alle quali ci si appoggia, per cui nelle sottoreti statunitensi si caratterizzano i domini in relazione alla loro tipologia di appartenenza mentre in Europa secondo la nazione di appartenenza del sito stesso.
Naturalmente ad ognuno di questi indirizzi simbolici (FQDN) è associato un indirizzo IP numerico nella forma xxx.xxx.xxx.xxx ma l’associazione tra le due codifiche non è compito dell’operatore bensì del sistema stesso; infatti la ‘tabella di transcodifica’ dei nomi simbolici in indirizzi numerici viene affidata ad uno o più nodi di sotto-rete chiamati name-server, distribuiti in modo conveniente all’interno della rete in modo tale da poter fornire in ogni momento e in tempo reale l’indirizzo numerico richiesto. Tutto questo avviene senza alcun coinvolgimento dell’utente.
Con l’utilizzo di questa codifica possiamo raggiungere un determinato sito e se vogliamo raggiungere uno specifico utente nel sito (esempio: vogliamo inviare un messaggio di posta elettronica) dobbiamo aggiungere all’indirizzo il codice identificativo del destinatario. L’indirizzo individuale si presenta perciò così: [email protected], oppure nel caso simbolico: [email protected], otterremo così ad esempio: [email protected]
I vantaggi derivati dall’uso del protocollo tcp/ip sono relativi al fatto che esso ha assunto la status di open standard, in quanto chiunque può utilizzare le sue caratteristiche ed inoltre perché tale protocollo è indipendente dal modo in cui la rete alla quale si attacca è realizzata; esso infatti supporta una rete Ethernet, una linea telefonica o un cavo a fibre ottiche, integrando i diversi componenti hardware in un’unica soluzione.

ARPANET La Mutilazione

Con l’utilizzo ufficiale del protocollo tcp/ip all’interno di Arpanet, la stessa Arpanet comincia a perdere progressivamente d’importanza; per questo motivo il Dipartimento della Difesa statunitense si convinse che per favorire la crescita del networking di suo interesse si doveva dividere la rete Arpanet in due separate sottoreti. Una di queste reti viene usata a scopi militari e collega prevalentemente siti all’interno degli Stati Uniti e solo eccezionalmente nel resto del mondo, la cosiddetta rete MILNET; la sezione della ricerca universitaria prende invece il nome di NSFnet (National Science Foundation Network), della quale fanno parte diversi enti di ricerca (Bolder, Carnegie Mellon University, University of Pittsburg).
Tale scissione fu sostenuta in modo da far sì che gli atenei potessero usufruire dei benefici di Internet nonostante non fossero a diretto contatto con enti militari; per questo motivo la NSF durante i primi anni ‘80 dà vita alla Csnet, che mette in contatto fra loro tutte le università americane.
Ovviamente il protocollo tcp/ip mette ancora in comunicazione le macchine sulla rete MILNET e quelle sulla rete NSFnet, anche se i nodi della rete militare sono protetti dal fatto di trovarsi all’interno di siti protetti più che in laboratori di ricerca; dunque se ci sono problemi sulla rete NSFnet la rete MILNET può essere disconnessa tagliando i collegamenti in un determinato numero di gateways che le collegano, i quali vengono creati per limitare le comunicazioni fra le due reti al semplice scambio di posta elettronica.

I Primi Servizi

Nel 1986 i Newsgroup creati da due studenti dell’Università del Nord Carolina migliorano enormemente grazie all’utilizzo del protocollo NNTP, che usufruisce del protocollo tcp/ip; i Newsgroup sono gruppi di discussione elettronica fra diverse persone che condividono interessi in comune.
Nel 1985 nasce la prima comunità virtuale, Well (Whole Earth Lectronic Link), e nel 1988 cominciano le prove di terrorismo sulla rete (creazione di virus che danneggiano il sistema): alla fine del 1988 la prima infezione colpisce il 10% dei 60000 computer collegati alla rete. A seguito di ciò viene istituito il CERT (Computer Emergency Response Team), con il compito di controllare l’intromissione di virus informatici nella rete; nel 1988 nasce anche IRC (Internet Relay Chat), la prima chat che consente agli utenti di chiacchierare tra loro in diretta.
Gli anni ottanta, dopo il boom dei servizi offerti dalla rete, si chiudono con un evento memorabile, che se ne trascina dietro un altro: cade il Muro di Berlino, simbolo della Guerra Fredda fra USA e URSS, e conseguentemente muore anche ARPANET. Nello stesso anno della morte di ARPANET, Peter Deutsch e la sua equipe danno vita al software ARCHIE, che permette di sviscerare all’interno di grandi archivi per gestire il contenuto dei singoli siti a livello di FTP; ad ogni nome di file di tali archivi è infatti associata una serie di informazioni (data di memorizzazione, dimensione) automaticamente archiviate dal programma.

Anni 90′ – Il Successo Di Internet

L’enorme circolazione di notizie sulla rete Internet comincia a rendere problematici i controlli o le censure delle stesse informazioni; nasce dunque nel 1990 la Fondazione EEF (Electronic Frontier Foundation), ad opera di Mitch Kapor; tale fondazione (www.eff.org) si propone come scopo quello di tutelare i “naviganti” in relazione alla libertà di circolazione delle informazioni e alla libertà di accesso a queste stesse.
Inoltre questa fondazione ha difeso in molti processi presunti hacker o programmatori informatici, tacciati dalle autorità statali di pirateria e diffusione illegale di programmi. Nascono in questo periodo altri software per la navigazione protetta: WAIS (Wide Area Information Service) creato da Brewster Kahle, GOPHER creato da Mark McCahill e Paul Lindner e PGP (Pretty Good Privacy) inventato da Philip Zimmerman.
PGP (www.pgpi.com) è il programma più famoso per garantire la sicurezza nello scambio di messaggi tramite la posta elettronica; il meccanismo di tale programma si basa sul possesso di due chiavi di accesso, una strettamente personale, l’altra pubblica e comunicabile a tutti coloro con i quali si vuole corrispondere. Queste due chiavi sono interconnesse fra di loro, per cui per decifrare un messaggio all’inizio si ha bisogno della chiave pubblica ma poi deve subentrare la conoscenza della chiave privata. GOPHER rappresenta invece il primo tentativo di razionalizzare l’architettura delle informazioni; tale strumento si fonda sul principio della struttura gerarchica, rappresentata da un grafico ad albero composto da rami e nodi.
Gopher usa due moduli interconnessi fra loro, il server, col compito di gestire la struttura ad albero, e il client che permette all’utente di esplorare la struttura ad albero e accedere alle risorse richieste. Nel 1991 nasce infine la struttura portante dell’attuale sistema di Internet: Tim Berners Lee sviluppa il WWW, WORLD WIDE WEB.

Come Mai Tanto Successo

La “ragnatela mondiale”, è questo il significato della tripla w, mira al superamento delle barriere geografiche che impediscono la collaborazione fra gruppi scientifici fisicamente distanti, ma anche ad accelerare lo scambio di informazioni grazie a protocolli standardizzati.
L’architettura di WWW è di tipo CLIENT-SERVER; un’architettura è definita client-server se, in un sistema, un’entità offre il servizio (server) ed un’altra (client) vi accede e ne usufruisce secondo una serie di regole specifiche. Dunque Server e Client sono due programmi che permettono la navigazione; come funzionano tecnicamente questi due programmi e qual è la loro finalità nel sistema? Il programma CLIENT funziona da interfaccia fra utente finale e server web, gestendone dunque l’interazione; esso si collega al server tramite il protocollo HTTP per richiedere un documento identificato dal proprio URL, scarica sulla propria macchina i dati che ha prelevato, legge da un buffer i dati scaricati dai server interpretando i TAG HTML che determinano lo stile di visualizzazione sulla pagina web ed infine visualizza i widget grafici costruiti in precedenza, grazie all’aiuto delle librerie grafiche. Il programma SERVER, invece, riceve le richieste di connessione in rete e distribuisce i documenti richiesti da qualche utente, tramite un programma CLIENT.

Il programma WWW può essere eseguito su diverse piattaforme ma per sfruttare totalmente le caratteristiche peculiari di tale sistema si deve possedere una macchina con capacità grafiche e audio oltre ad una connessione ad Internet abbastanza veloce, che consenta il trasferimento di immagini, animazioni e suoni in tempi accettabili.
WWW consente di astrarre dalla struttura fisica della rete presentandola con una struttura più pratica, trasformandola cioè in un ipermedia; si definisce “ipermedia” un insieme di notizie collegate tra loro nella rete non solo in forma di documenti testuali ma anche di testi, immagini, suoni, video. I dati per poter essere immessi in rete devono essere tradotti in un unico formato denominato HTML (HyperText Markup Language), standard di lettura per i Client browser in WWW.



Questa e tutta la storia su come è nato internet e queste sono tutte le informazioni che sono riuscito a trovare se manca qualcosa o ci sono errori ontattatemi tramite E-Mail e corregero o aggiungero le vostre informazioni.



Lascia un commento