INTERVENTO DI MASSIMO MARESCA

PROFESSORE ORDINARIO DI RETI DI CALCOLATORI

UN SISTEMA DI QUALIFICAZIONE DEI SERVIZI INTERNET

"Il contributo della ricerca per un sistema di qualificazione dei servizi di Internet Provisioning che preservi le caratteristiche fondamentali della filosofia Internet"

Diversamente da quanto percepito dalla maggioranza degli utilizzatori, la rete Internet non rappresenta assolutamente un esempio significativo di democrazia. Al contrario essa è nata ed ha avuto successo proprio perché è stata pensata, realizzata, e per parecchi anni anche gestita, da un ristretto gruppo di scienziati e ricercatori che hanno avuto la capacità di inventare ed affermare il nuovo paradigma della rete senza cercare il conforto del consenso democratico.

Oggi Internet è evoluta verso un sistema di comunicazione nel quale gli aspetti della ricerca sui modelli di "governance" sembrano prevalere rispetto agli aspetti della ricerca scientifica e tecnologica. La sperimentazione di ICANN, ed in particolare il rapporto tra essa ed i governi, rappresenta un esempio significativo di ricerca su tali modelli, attraverso il quale si cerca di introdurre elementi di "democrazia" nelle strutture di governo della rete, confinando la ricerca scientifica e tecnologica "eccellente" allo studio di aspetti di nicchia, legati all'introduzione di servizi molto avanzati e quindi non di immediato interesse.

Invece la ricerca scientifica e tecnologica sui temi di Internet può essere valorizzata anche ed in particolare in supporto alla "governance" della rete, in particolare ad esempio per lo sviluppo di tecnologie a supporto della crescita e della diffusione dei servizi.

Questo è il tema specifico della presente comunicazione, che prende in considerazione, in particolare il tema della qualità dei servizi di fornitura di connettività ad Internet.

I servizi di fornitura di connettività Internet (Internet Service Provisioning) sono, per la stessa natura del protocollo IP, di tipo "best-effort" e quindi di qualità non garantita. Normalmente gli ISP si impegnano malvolentieri a rispettare Livelli di Servizio, principalmente perché per farlo devono sovradimensionare le risorse, non essendo disponibili strumenti di costo contenuto per assegnare le risorse staticamente ai servizi.

Se da un lato gli ISP sono continuamente impegnati ad aggiornare i dispositivi di rete e le linee di comunicazione per fornire livelli di servizio sempre più adeguati alle richieste dell'utenza, dall'altro l'introduzione di nuove applicazioni, basate sul cosiddetto triple-play (Dati, Audio e Video) causa un costante aumento della richiesta di banda, compensando gli aumenti delle risorse e rendendo di fatto sostanzialmente costanti le necessità degli "upgrade" della rete.

Si è quindi in presenza di un circolo "virtuoso" nel quale le esigenze degli utilizzatori e le risposte dei fornitori si inseguono in continuazione, determinando la ben nota crescita del fenomeno Internet.

Tale crescita non è però accompagnata da un sistema di "governance" adeguato, in particolare per quanto concerne la qualificazione dei servizi di connettività. Il fondamento teorico di Internet, infatti, è costituito dai concetti del "best-effort", del "low-cost" e del "rough consensus", che rappresentano un significativo cambio di paradigma rispetto all'approccio tradizionale alle telecomunicazioni dell'era pre-Internet.

Il vero significato della locuzione "best-effort", al di là del suo significato tecnico, è che di fatto la comunità degli utilizzatori di Internet è disposta ad accettare livelli di servizio limitati. Dovesse succedere (come succede) che un pacchetto IP non arriva a destinazione, il che implica ritrasmissioni a livello TCP, ed alla fine ritardi nella fruizione dei servizi applicativi, l'utilizzatore non può incolpare nessuno perché il "best-effort" è intrinseco nella rete.

Il "low cost" altro non è che una diversa faccia del "best-effort". Il livello di servizio non viene garantito (concetto del "best effort") ma il servizio costa poco (concetto del "low cost"). Ed infatti Internet viene associata ad un insieme di meccanismi per fruire a basso costo (quando non addirittura gratuitamente) di servizi che prima di Internet non esistevano o venivano erogati ad alto costo, e che ancora adesso, su reti non aperte, hanno costi non trascurabili. La ben nota contrapposizione tra Video-On-Demand su Internet e Video-On-Demand su rete privata è un esempio evidente di tale differenza di paradigma.

Il "rough consensus", che si riferisce al fatto che la comunità della rete si autogoverna e tende a rifiutare invece che autorità esterne la governino , è la terza faccia dello stesso concetto. Ad esempio qualunque fornitore di servizi di telecomunicazioni può fornire servizi di accesso ad Internet senza dover rispettare alcuna regola, se non quelle evidenti di rispettare i protocolli di accesso (tipicamente i protocolli di livello fisico ed il PPP) e di internetworking (IP). Ma questi protocolli sono in parte inclusi nelle interfacce ed in parte inclusi nel software di base dei PC e dei server, sia nei sistemi operativi proprietari (p. es. Microsoft) sia nei sistemi operativi open-source (p. es. Linux), e quindi il costo di realizzazione di un infrastruttura per l'IP Service Provisioning diventa trascurabile.

In un contesto di questo tipo, basato su una pluralità di potenziali fornitori che non sono tenuti a rispettare regole definite da organismi terzi, cresce il traffico e crescono le applicazioni. Alle applicazioni tradizionali della rete, quelle del Web per intendersi, si sono affiancate nuove applicazioni, in particolare ad esempio quelle del Peer-to-Peer, nelle quali gli utilizzatori si scambiano brani musicali, video e dati in modo completamente distribuito. Contestualmente, le applicazioni tipiche delle reti chiuse, come quelle della telefonia, migrano pian piano dalle reti telefoniche degli operatori tradizionali, che vendono i loro servizi a costi ancora molto elevati, verso Internet. I nuovi operatori, i cosiddetti Other Licensed Operator (OLO), che non hanno il fardello di una rete telefonica TDM (Time Division Multiplexed) da gestire e da utilizzare, realizzano tutti i loro servizi, inclusi quelli telefonici, utilizzando il protocollo IP, che diventa quindi il vero protocollo di convergenza.

A questo si uniscono la nascita e l'espansione dei servizi di trasmissione dati Wireless. L'introduzione del GPRS, all'inizio considerata una semplice evoluzione del GSM, costituisce nei fatti una rivoluzione tecnologica, non tanto e non solo per i suoi aspetti tecnologici, quanto per i modelli di tariffazione ad essa legati, decisamente aggressivi perché finalizzati a spingere la comunità verso l'utilizzazione di questo servizio.

In sintesi, quindi, con Internet il mondo è evoluto verso

  • La proliferazione dei servizi di comunicazione;
  • La proliferazione dei fornitori di servizi di comunicazione;
  • La richiesta da parte degli utilizzatori di prezzi sempre più bassi;
  • La tacita accettazione da parte degli utilizzatori di livelli di servizio non elevati.

Confrontando questo scenario con quello del passato, le differenze appaiono in modo evidente.

Prima di Internet infatti si aveva:

  • Un solo servizio di comunicazione, la telefonia (e pochi altri, trascurabili);
  • Un solo fornitore, tipicamente monopolista;
  • Prezzi alti del servizio, di fatto dovuti al monopolio, ma giustificati con il vincolo di dover supportare il "servizio universale";
  • Livello di servizio elevato, rappresentato dai cosiddetti "cinque 9", che corrispondono al 99.999% di disponibilità del servizio (pari allo, 0.001 per 100 di tempo di malfunzionamento massimo ammesso, che significa, per fare un esempio, 1 minuto ogni 70 giorni).

La differenza di Livello di servizio nel caso delle reti telefoniche e nel caso della rete Internet è giustificata quando il servizio telefonico viene associato a servizi applicativi "mission critical" mentre il servizio Internet viene associato a servizi, diciamo così, meno importanti, servizi che, quand'anche in alcuni momenti dovessero risultare non disponibili, impatterebbero sugli utilizzatori in modo non devastante.

Purtroppo però le cose non vanno in questo senso. Anzi, è sempre più diffusa la situazione in cui tutti i servizi di telecomunicazione, inclusi quelli "mission critical" migrano su Internet. Questo porta ad una debolezza generale del sistema, perché basare servizi essenziali, ad esempio nei settori della sanità o della sicurezza, su un infrastruttura a basso costo non gestita e che ha livelli di servizio limitati costituisce un rischio decisamente elevato.

Qual è la risposta che può essere data a questo problema ? Non certo l'appropriazione di Internet da parte dei governi o delle autorità pubbliche, che ne snaturerebbero i principi di libertà ed autonomia.

Quello che il sistema di "governance" della rete potrebbe fare, prima che l'esigenza venga fatta propria dai governi, è predisporre e proporre un sistema pubblico di monitoraggio della qualità del servizio degli Internet Service Provider, in modo tale che ciascuno di essi sia obbligato ad esporre una valutazione del suo punteggio relativo ai livelli di servizio garantiti, per esempio nell'anno passato, espresso in termini asettici e garantisti per tutti.

Tutto ciò nell'interesse degli utilizzatori, che devono vedere riconosciuto il loro diritto ad avvalersi dei fornitori più adatti alle loro esigenze, ed anche dei fornitori, che devono poter vedere premiati i loro sforzi di aggiornamento della rete.

È giusto che un utilizzatore della rete di tipo non professionale possa accontentarsi di un livello di servizio limitato mentre un utilizzatore di tipo professionale possa pretendere un livello di servizio più elevato.

Questo apre la strada ad un insieme di temi di ricerca, i più evidenti dei quali riguardano:

  • l'identificazione dei parametri di classificazione dei fornitori e
  • l'identificazione dei metodi per la misurazione dei livelli di servizio.

Per quanto riguarda l'identificazione dei parametri di classificazione dei fornitori in relazione ai livelli di servizio da essi garantiti, si può pensare di elaborare i concetti dell'"end-to-end delay", del "round-trip delay", del "delay jitter" e della "packet loss", per giungere fino a metodi di misurazione attiva e passiva dei livelli di servizio anche relativi ai livelli di trasporto e addirittura applicativi delle comunicazioni.

Per quanto riguarda invece i metodi per misurare i livelli di servizio, e più precisamente i punti in cui misurare tali livelli, si può senz'altro pensare di basarsi su un'autovalutazione da parte dei fornitori, ma se si vuole predisporre un sistema credibile di classificazione si devono identificare punti in cui misurare i livelli di servizio che siano indipendenti dai fornitori e tecniche uniche di analisi dei dati.

Questi punti esistono, nella rete Internet, e sono rappresentati da un lato dalle reti di accesso, che si possono vedere come trasversali rispetto alle reti di backbone degli ISP, e dall'altro dai Neutral Access Point, in corrispondenza dei quali gli Internet Service Provider si scambiano il traffico.

Nel momento in cui in questi punti si decidesse di installare sistemi di valutazione delle prestazioni dei fornitori di servizi Internet, sotto la supervisione delle associazioni degli stessi e con il supporto delle pubbliche autorità, si potrebbe davvero pensare di far evolvere Internet verso una rete in grado di supportare applicazioni di tipo "mission critical" con livelli di servizio garantiti preservando le caratteristiche di "best effort", "low cost" e "autonomy" che ne hanno determinato il successo e ne determinano costantemente la crescita.

MASSIMO MARESCA

  • Massimo Maresca, genovese, laureato in Ingegneria Elettronica, professore Ordinario di "Reti di Calcolatori" presso la Facoltà di Scienze Statistiche dell'Università di Padova.
  • Autore di diverse decine di articoli sul tema delle architetture dei sistemi di calcolo e delle reti di calcolatori, è Associate Editor della rivista "Proceedings of the IEEE" ed ha partecipato ai comitati scientifici delle principali conferenze nel settore dei sistemi di elaborazione.
  • Responsabile dell'Ufficio del Consigliere Tecnico dell'Autorità per l'Informatica nella Pubblica Amministrazione (1999-2000) ha coordinato il Comitato di esperti Internet (Coesin) istituito dalla Presidenza del Consiglio dei Ministri (DPCM 27.12.1999) con il compito di definire le linee strategiche di indirizzo per un approccio globale e sistematico alle problematiche inerenti alla rete Internet.
Quaderno WSIS 2005 indice
Maresca