Ogni minuto su Youtube vengono caricati 600 nuovi video per un totale di 25 ore di filmati. Ogni 60 secondi vengono spedite 168 milioni di email, cinguettati oltre 98 mila tweet e scritti quasi 80 mila nuovi post su Facebook.

«Se continuiamo di questo passo, la rete internet mobile rischia di collassare. Cosa che in Giappone è già successa di recente, lasciando al buio, per diversi giorni, milioni di persone».

Non si tratta di un monito lanciato da un allarmista qualunque, ma da Franco Bernabè, presidente della Gsm Association (raggruppa oltre 800 compagnie telefoniche mobili mondiali) e presidente della Telecom Italia, incontrato da Panorama al Gsm world congress di Barcellona.

Il problema è serio: stiamo andando velocemente verso la saturazione della banda. In pratica internet è un po’ come se fosse un’autostrada. Se le corsie (ossia la banda) non sono sufficienti a smaltire il flusso, le auto (ossia i dati) non riescono più a circolare velocemente, creando la paralisi. E in pericolo non è solo la rete mobile. Secondo una ricerca a cura del colosso americano delle reti Cisco Systems, il traffico di tutta internet (mobile e via cavo) aumenta di circa il 34 per cento ogni anno: significa che alla fine del 2012 sarà raddoppiato rispetto al 2009. Questo notevole incremento diventa critico sulle reti mobili, dove la situazione è a dir poco esplosiva: il tasso di crescita stimato fino al 2015 raggiunge il 92 per cento ogni 12 mesi. Insomma, raddoppia di anno in anno.
E se Internet si spegne?

Motivo principale, l’enorme quantità di video che scarichiamo e guardiamo su smartphone e tablet: da soli pesano per il 66 per cento dell’intero traffico in mobilità, ovvero per i due terzi. Ed è una tendenza di lungo corso, se pensiamo al progressivo sviluppo di servizi in streaming come quelli che permettono di vedere ovunque programmi e serie televisive, partite di calcio o interi film.

«Sono già 1 miliardo gli smartphone che si connettono alla rete dati mondiale, generando un traffico otto volte superiore a quello dell’intero web nel 2000» aggiunge Bernabè. «Entro il 2015 i dispositivi mobili connessi dovrebbero raggiungere quota 2,5 miliardi. In Italia attualmente sono più di 16 milioni. Secondo Bernabè, per scongiurare il collasso del network mondiale gli operatori investiranno 800 miliardi di dollari per adeguarsi alla richiesta di banda larga. C’è un problema che però li spaventa (e potrebbe frenarli): il ritorno economico non premia gli investimenti. «Già oggi l’80 per cento del traffico è realizzato in mobilità, ma vale solo il 20 per cento dei ricavi».

DOWNLOAD PIÚ LENTO

Alla luce di questi fattori, il pericolo di congestione della rete si conferma molto serio. «Il che non significa necessariamente che i telefonini di tutto il mondo collasseranno e non potremo più parlare e navigare» spiega Maurizio Dècina, professore ordinario di telecomunicazioni al Politecnico di Milano e tra i principali esperti italiani di tlc. «Piuttosto assisteremo a una perdita sul piano della qualità. Vuol dire che le operazioni come il download rischiano di rallentare, e molto, specie nelle ore più congestionate della giornata». Da una parte cresce infatti l’uso che facciamo di questi dispositivi per applicazioni avanzate che richiedono parecchia banda, inclusi i giochi online o la navigazione tramite gps, dall’altra aumenta il numero dei dispositivi stessi, finendo per saturare le reti.

Reti che comunque guardano avanti e stanno per evolversi verso l’Lte, abbreviazione di long term evolution: una tecnologia di quarta generazione (4G) molto più veloce rispetto a quella attuale 3G. È bene ricordare che il processo non sarà immediato, che la transizione richiederà tempo. «L’Lte arriverà nel 2013 e lentamente inizierà a crescere, per raggiungere il 50 per cento dell’utenza, ma non prima di altri due anni» prevede Dècina. «Vuole dire che il 3G sarà impiegato ancora a lungo. Insomma, oggi ci troviamo tutti in una vasca da bagno piccola e abbiamo deciso di costruirne una più grande. Però il fenomeno di travaso sarà lungo e periglioso, perché si concluda ci vorranno almeno cinque anni».

IN ATTESA DEL FUTURO

Per evitare il blackout, secondo Dècina ci si appoggerà a meccanismi che hanno dimostrato la loro efficacia non solo in mercati maturi come gli Stati Uniti ma pure in quelli in espansione come il Sud America. Uno di questi è il cosiddetto wi-fi offload: si ha quando un operatore decide di affiancare un accesso wi-fi alle celle tradizionali montate su antenne nei punti strategici delle città, per esempio quelle in centro o dove si concentra la popolazione. Così, chi si trova nelle vicinanze di quell’accesso, può collegarsi tramite wi-fi anziché 3G diminuendo il carico sulla rete, che in quel momento può servire meglio chi invece si trova più distante e non può accedere al wi-fi. Precisa Dècina: «Non parliamo di accesso gratuito, ma riservato agli utenti di una compagnia telefonica. Utenti che così viaggiano a velocità superiori, paragonabili a quelle via cavo, senza affaticare la rete e senza nemmeno accorgersene».

HACKER E TERRORISTI

Ma l’overdose di dati non è la sola possibile causa di blackout del web. A mettere a rischio la sua piena efficienza ci si mettono anche gli hacker. Recentemente un post apparso sulla bacheca Pastebin, pubblicato presumibilmente dai membri di Anonymous, ha rivelato le intenzioni di provocare un blackout globale. Vittime dell’attacco? I 13 router più importanti del mondo, ossia i centri di smistamento del traffico internet. «Eliminando questi 13 server» minacciava il post degli hacktivisti «nessuno sarà in grado di eseguire una ricerca su Google». Con enfasi l’annuncio dell’attacco si concludeva dicendo: «Ricordate, questa è una protesta, non stiamo cercando di uccidere internet, vogliamo solo temporaneamente chiuderlo dove fa più male».

Il web, purtroppo, non è minacciato solo dagli hacker che, a sentirne i proclami, non ne vogliono il male, ma ne rivendicano la libertà. I pericoli più grossi potrebbero arrivare dai terroristi. C’è chi ipotizza che il prossimo attentato in grande stile sarà telematico. Mandando in tilt il web, infatti, si bloccherebbero i gangli della società contemporanea: le borse, le comunicazioni, l’informazione, i servizi, i trasporti… Tutto, insomma. Secondo il rapporto Defense review del governo americano, negli ultimi due anni gli attacchi informatici solo nel settore militare sono stati in media oltre 5 mila al giorno.

Per combattere questa battaglia gli Stati Uniti stanno formando un reparto d’élite così da gestire attacchi digitali, il Cyber command, struttura interforze che conta 1.000 uomini scelti, con 3,2 miliardi di dollari di budget. Il loro compito è quello di bloccare, ma in casi estremi anche attaccare i nemici del cyberspazio. Il reparto si trova a Fort Meade, nel Maryland ed è comandato dal generale Keith B. Alexander. A dimostrazione della gravità della minaccia c’è una recente esercitazione effettuata dal dipartimento della Sicurezza degli Stati Uniti: Cyber storm III. Una prova sul campo per testare l’efficacia del National cyber security incident response plan approntato da Barack Obama per la cyberdife
sa degli interessi e dei cittadini americani.

 

                                                                                         di Guido Castellano
                                                                                               (Panorama.it)

Articolo precedenteDirigente in vacanza con i soldi della regione, arrestato dalla Finanza
Articolo successivoPasqua: da oggi le partenze dei vacanzieri