- La neutralità
della rete è un argomento di cui negli ultimi anni si parla molto,
in ambito internazionale prima ancora che italiano.
- Nel nostro Paese
la discussione è ancora limitata agli ambiti specializzati e solo
molto recentemente si è cominciato ad ipotizzare interventi legislativi,
mentre negli Stati Uniti e in varie nazioni europee la questione è
già stata oggetto di discussioni politiche ad alto livello e talvolta
anche di proposte di legge.
- Si tratta di
un tema complesso, che abbraccia trasversalmente tutti gli aspetti della
rete - tecnici, economici, sociali, politici - poiché non deriva
da uno di questi aspetti in particolare, ma dal modello di interazione
tra i nodi della rete e quindi tra i suoi utilizzatori.
- Cronologicamente,
la neutralità della rete - pur se non chiamata con questo termine
- nasce come tema tecnico nel momento in cui i primi "padri della
rete" si trovarono a disegnare la sua architettura.
- Nelle reti di
telecomunicazione tradizionali, l'architettura è generalmente stata
disegnata per minimizzare la complessità dei terminali utente, in
quanto essi sarebbero stati da produrre in grande quantità e da
distribuire agli utenti finali al prezzo più basso possibile, indipendentemente
dal fatto che tale prezzo fosse sostenuto direttamente dagli utenti oppure
dall'operatore del servizio in quanto proprietario del terminale concesso
in uso.
- Di conseguenza,
la complessità tecnologica veniva concentrata nei nodi centrali
della rete, che, pur risultando magari estremamente costosi, erano comunque
in numero relativamente limitato e sotto il controllo diretto dell'operatore
della rete, generalmente singolo o comunque facente parte di un ristretto
numero di attori di grandi dimensioni soggetti ad autorizzazione o licenza
pubblica.
- Questo schema
è tuttora in uso non solo per radio e televisione - sistemi che
per il loro carattere di trasmissione broadcast ("uno a molti")
non sono completamente paragonabili a Internet - ma anche per la rete telefonica,
sia fissa che mobile, dove anzi il concetto di "rete intelligente"
è stato uno dei driver dello sviluppo tecnologico negli ultimi decenni.
- Alla fine degli
anni '60, durante lo sviluppo dell'architettura di ARPAnet - la rete che
poi evolvette in Internet - ci si trovò di fronte a uno scenario
differente: non si trattava di realizzare una intera rete di telecomunicazione
da zero, ma piuttosto di interconnettere tra loro dei grossi mainframe
universitari, che rappresentavano già, per l'epoca, più o
meno la massima complessità tecnologica disponibile. In altre parole,
si disponeva già dei terminali di rete, ed erano già terminali
costosi e complessi.
- Inoltre, uno
degli obiettivi del progetto era quello di sperimentare nuove tecnologie,
tra cui l'idea allora innovativa della comunicazione mediante commutazione
di pacchetto, opposta alla tradizionale commutazione di circuito delle
reti telefoniche; la commutazione di pacchetto, riducendo l'operazione
di instradamento della comunicazione al cosiddetto "store and forward",
permise di semplificare concettualmente il ruolo degli apparati centrali
della rete, riducendolo ad una sola operazione: spostare bit da un ingresso
ad un'uscita.
- Nacque così
in modo naturale il concetto di "rete stupida": gli IMP di ARPAnet
(Interface Message Processors, antenati degli odierni router) erano dedicati
a svolgere la sola funzione di spostamento di bit, mentre tutte le operazioni
più complesse sarebbero state svolte dai terminali intelligenti
già disponibili agli estremi della rete. Inizialmente, peraltro,
l'operazione a cui la rete era dedicata era quella di permettere il login
remoto da un terminale situato presso un nodo di rete ad un mainframe situato
presso un altro nodo: lo scopo della rete era effettivamente soltanto quello
di spostare bit, remotizzando la connessione da terminale.
- Tuttavia, anche
quando negli anni successivi si svilupparono applicazioni più complesse
- la posta elettronica, il trasferimento di file... - il paradigma non
fu mutato; invece di complicare gli IMP, si sviluppò del software
adeguato da far funzionare sui nodi esterni della rete.
- Questo modello
fu quindi conservato durante tutta la lunga fase dei primordi della rete,
compreso durante la migrazione al set di protocolli TCP/IP; anche quando
si dovette sviluppare il DNS, ossia un sistema di indirizzamento avanzato
dei nodi della rete - una delle funzioni più tipiche del centro
delle reti -, la scelta fu di demandare la funzione ad un normale applicativo
utente. Col tempo, giunsero anche giustificazioni scientifiche ben argomentate
sull'utilità del cosiddetto "principio end-to-end" (13).
- Un'altra grande
innovazione della rete ARPAnet fu il concetto di stratificazione dei protocolli.
Già dall'inizio si provvide a distinguere le comunicazioni in due
livelli: uno tra il terminale (host) e l'IMP, e uno tra il terminale e
il terminale remoto (3, 6, 12).
- Questo concetto
influenzò il disegno delle reti di calcolatori degli anni successivi,
tra cui DECnet, SNA e ISO/OSI; per quanto riguarda Internet, esso fu definitivamente
riconosciuto quando, all'inizio degli anni '80, dagli originali protocolli
si passò al neonato TCP/IP (4), ampliando significativamente
il numero dei livelli e formalizzando la loro separatezza.
- Il principio
alla base della stratificazione dei protocolli è proprio la neutralità
reciproca dei vari livelli: qualunque sia l'applicativo o il protocollo
di livello superiore che si rivolge a quello di livello inferiore per ottenere
un servizio di rete attraverso una interfaccia prestabilita, il livello
inferiore deve offrire questo servizio in maniera imparziale, senza privilegiare
alcuno degli interlocutori del livello superiore.
- Questo "dovere"
non è tuttavia imposto da una scelta politica, ma da una necessità
di semplificazione tecnologica: attraverso questa "imparzialità"
si permette di suddividere una trasmissione potenzialmente molto complessa
in una serie di operazioni semplici, modularizzando il problema e riconducendolo
a problemi meno difficili. La neutralità tra i vari protocolli costituisce
insomma un vantaggio in termini utilitaristici, e rappresenta al contempo
l'unico modo per riuscire ad incrementare il livello di complessiva difficoltà
dell'operazione che l'utente finale può compiere sulla rete.
- Stratificando
i protocolli e suddividendone le funzioni in modo rigoroso e reciprocamente
impermeabile è possibile delegarne la realizzazione ad attori diversi
(quindi permettere cooperazione), permettere lo sviluppo di più
implementazioni per lo stesso modulo (quindi permettere competizione),
ed offrire la possibilità di aggiungere nuove funzionalità
semplicemente cambiando alcuni dei moduli e senza la necessità di
grossi investimenti per reimplementare l'intero software della rete (quindi
permettere innovazione).
- In coerenza
con la tradizione informale di Internet, non vi fu mai una definizione
formale della sua architettura, se non quando, venticinque anni dopo i
primordi, di fronte agli inizi del tumultuoso sviluppo della Internet di
massa e al rischio che masse di nuovi operatori e sviluppatori tecnologici
non ne capissero i principi, lo Internet Architecture Board decise di riassumerne
le basi, pur se con molto pudore (2).
- Fu in realtà
il vantaggio utilitaristico sopra descritto ad imporre questi principi
come legge: la continua crescita di Internet, divenuta esponenziale verso
la fine dello scorso millennio, e tale da inglobare progressivamente tutte
le reti di telecomunicazione del tipo centralizzato, non sarebbe stata
fisicamente e computazionalmente realizzabile senza l'adozione di questi
principi; giacché sono questi principi ad offrire ad Internet, dal
punto di vista tecnologico, la flessibilità necessaria per poter
funzionare in un ambiente immenso ed immensamente diverso, ormai costituito
da miliardi di calcolatori e grande quanto l'intero pianeta.
- Fu più
o meno in questo periodo, tuttavia, che il tema della neutralità
degli strati di rete cominciò a manifestarsi non più in termini
di architetture tecnologiche, ma in termini di architetture economiche.
Con l'avvento della Internet di massa, aperta oltre gli originari confini
della comunità di ricerca e di difesa che l'aveva sviluppata per
i suoi primi venticinque anni, gli interessi economici divennero rilevanti;
da sforzo collettivo e diretto da entità senza fine di lucro, Internet
diventò la palestra dove aziende via via più grandi si scontravano
per massimizzare i propri profitti.
- Questa "seconda
fase della neutralità della rete" si apre con un episodio che
non viene comunemente associato a questa discussione, ma che a mio parere
dovrebbe esserlo: la cosiddetta "guerra dei browser".
- Tra il 1995
e il 1996, il fenomeno della rete globale non si chiamava ancora Yahoo
o Google, ma Netscape: la prima vera "dot com" della storia,
il cui unico prodotto era un nuovo browser che in brevissimo tempo, grazie
a una crescita esponenziale, giunse ad occupare tra l'80 e il 90 per cento
del mercato (17).
- Fu in quel momento
che il colosso Microsoft, in quegli anni al massimo della propria potenza
economica e politica, decise di rinunciare all'originario progetto di una
propria rete dial-up privata - la prima versione di Microsoft Network -
e di trasformarlo in un accesso a Internet potenziato, ponendosi nel frattempo
l'obiettivo di arrivare a conquistare il mercato dei browser, sperando
di acquisire con ciò una posizione di vantaggio commerciale e di
controllo sull'accesso a Internet, così come l'aveva già
acquisito sui sistemi operativi per PC.
- La mossa decisiva
in questa guerra avvenne quando Microsoft, nell'ottobre 1997, rilasciò
la versione 4.0 di Internet Explorer, che presentava una caratteristica
importante: sui sistemi Windows - cioè la quasi totalità
dei PC - non solo Internet Explorer era pre-installato e pre-configurato
come browser di default, ma la maggior parte del suo codice veniva pre-caricato
in memoria all'avvio del sistema; in questo modo, quando si desiderava
accedere al Web, Internet Explorer si apriva in un lampo.
- Per utilizzare
un browser concorrente, quindi, l'utente finale doveva andarselo a scaricare,
installarlo, configurarlo, e soprattutto, ogni volta che lo volesse usare,
attendere un tempo infinitamente più lungo.
- Chiaramente,
non vi fu partita: in soli due anni la quota di mercato di Internet Explorer
passò dal 15 - 30% (a seconda delle stime) dell'ottobre 1997 a circa
l'80% della fine del 1999, per poi toccare un picco attorno al 95% tra
il 2002 e il 2004.
- Perché?
Al di là degli eventuali meriti e demeriti specifici dei due contendenti,
Internet Explorer godeva di un vantaggio fondamentale che non derivava
dalle proprie qualità, ma dal fatto di essere prodotto dalla stessa
azienda che già godeva di un quasi monopolio sul sistema operativo.
- Tale azienda
fece in modo che il sistema operativo si comportasse in maniera non neutrale,
ossia favorisse uno dei due browser e sfavorisse l'altro.
- Dal punto di
vista tecnico, la separatezza tra i due strati - il sistema operativo,
strato di livello inferiore che fornisce servizi verso l'alto, e il superiore
strato delle applicazioni - veniva violata rendendo lo strato inferiore
sufficientemente intelligente da distinguere tra le varie applicazioni
ed offrire servizi di qualità diversa a concorrenti diversi.
- Tuttavia, anche
dal punto di vista economico il sistema operativo si comportava in modo
non neutrale, in quanto uno dei due concorrenti era offerto gratuitamente
e congiuntamente, mentre l'altro, pur gratuito (e pur costretto ad essere
gratuito dall'esistenza del prodotto gratuito del concorrente-monopolista,
minandone alla base la sostenibilità economica), doveva essere acquisito
separatamente (10).
- Questa pratica
fu successivamente sanzionata dalle autorità anti-trust, a partire
dagli Stati Uniti (15), e successivamente anche dall'Unione Europea.
Il caso americano fu basato su un insieme di argomentazioni estremamente
ampie, legate anche alla quota dominante di Microsoft sul mercato dei sistemi
operativi e ad altri comportamenti commerciali.
- E' interessante
però notare come, tra le analisi scientifiche più citate
sull'argomento, sia quelle tendenzialmente favorevoli a Microsoft (8)
che quelle critiche (10) si concentrino sugli argomenti economici,
ma ignorino quasi completamente il contesto dell'architettura di Internet
e i comportamenti non neutrali di tipo tecnologico, mancando di notare
il legame tra la natura tecnica della rete e delle sue applicazioni e la
natura delle dinamiche economiche che la rete genera: la neutralità
della prima richiede e provoca la neutralità delle seconde e viceversa.
- D'altra parte,
l'obiettivo dichiarato di Microsoft era quello di conquistare il controllo
economico dell'accesso ai contenuti Web di Internet; bene, la strategia
per realizzare tale controllo è passata attraverso un attacco alla
neutralità tecnologica.
- Non possiamo
sapere se le sole azioni di "non neutralità economica"
sarebbero state sufficienti a vincere la guerra dei browser; probabilmente
sì, visto che già nei due anni precedenti all'ottobre 1997,
quando Internet Explorer veniva spinto essenzialmente dal suo bundling
gratuito con Windows e senza particolari dispositivi tecnologici, esso
stava rapidamente conquistando quote di mercato.
- La neutralità
tecnologica della rete, insomma, non è da sola sufficiente a garantire
la neutralità economica. Allo stesso tempo, però, la neutralità
tecnologica è chiaramente un fattore frenante verso gli attacchi
alla neutralità economica; non si spiegherebbe altrimenti come mai
la difesa di posizioni di vantaggio commerciale si sia molto spesso realizzata
tramite tentativi di violare la neutralità tecnologica.
- Per esempio,
un altro dei comportamenti contestati a Microsoft in questo periodo fu
il tentativo di manipolare le specifiche e l'implementazione del linguaggio
di programmazione Java in modo da rompere la sua capacità di funzionare
su qualsiasi sistema operativo, ossia di creare un linguaggio di programmazione
tecnicamente non neutrale allo scopo di favorire la creazione di applicazioni
che funzionassero soltanto per Windows, sfavorendo quindi commercialmente
i concorrenti nel mercato dei sistemi operativi.
- Si giunge così
alla nascita del dibattito sulla neutralità della rete in senso
proprio, che peraltro, negli Stati Uniti, consegue in parte dalla discussione
sull'accesso aperto e paritario da parte degli ISP all'infrastruttura dei
grandi fornitori di televisione via cavo; nasce insomma ancora una volta
come un tema strettamente economico e legato alla regolamentazione delle
telecomunicazioni in senso classico, quelle di origine telefonica e televisiva.
- Il tema, peraltro,
si ripropone anche in Italia e negli altri Paesi sviluppati: quasi ovunque
vi è una infrastruttura fisica di rete che è proprietà
di un solo operatore ex monopolista, e persino all'apice della bolla di
investimenti nella "new economy" è estremamente difficile
immaginare la nascita di infrastrutture fisiche in competizione con essa
(di fatto, l'unico caso di successo in Italia è Fastweb, che però,
anche dopo molti anni di crescita, copre soltanto una parte minoritaria
del territorio nazionale).
- La concorrenza
sul mercato della fornitura di accesso a Internet è cruciale per
garantire la disponibilità di connettività Internet veloce,
affidabile e a basso costo per gli individui e per le imprese, un elemento
ormai fondamentale per il successo culturale ed economico di qualsiasi
nazione; perché tale concorrenza sia possibile è allora necessario
che l'unica infrastruttura fisica venga messa a disposizione di tutti gli
ISP a condizioni paritarie, senza privilegiare l'ISP di proprietà
del gestore della rete. In Italia, purtroppo, ciò è avvenuto
solo in piccola parte, avendo come risultato una netta posizione dominante
da parte di Alice, l'ISP di Telecom Italia, e in subordine di due o tre
altri grossi player dotati del peso economico e politico necessario per
non essere troppo maltrattati.
- Se pensiamo
che nel 2001, quando la maggior parte degli italiani si collegavano mediante
dial-up scegliendo semplicemente il numero di telefono da chiamare, Tin.it
era soltanto il terzo provider italiano con l'11% del mercato (9),
è ragionevole ritenere che la proprietà dell'infrastruttura
di rete abbia giocato un ruolo importante nel permettere all'ISP di Telecom
Italia di conquistare la maggioranza (62%) del mercato (1).
- All'inizio dell'attuale
decennio, tuttavia, la diatriba sulla neutralità si allargò
al livello superiore, ovvero alla relazione tra ISP e fornitori/utilizzatori
di contenuti, dove iniziarono a verificarsi pratiche di discriminazione
dei contenuti e delle applicazioni da parte degli ISP stessi.
- Una delle prime
cause fu la rapida diffusione dei primi applicativi peer-to-peer per la
distribuzione della musica, che provocò un aumento altrettanto rapido
della domanda di banda residenziale: i provider che non erano in grado
di fronteggiare tale domanda o che temevano ritorsioni legali cominciarono
ad adottare dispositivi tecnici per limitare, disturbare o bloccare l'uso
di questi applicativi (in alcuni casi, per mancanza di mezzi tecnici, gli
ISP si ridussero a terminare il contratto unilateralmente o perlomeno a
minacciare di farlo se l'utente in questione non si fosse autolimitato).
- Sempre per carenza
di banda, o meglio per il tentativo di farsi pagare a prezzo molto più
alto servizi che tecnicamente erano ormai quasi indistinguibili da quelli
offerti al consumatore medio ma che commercialmente erano qualificabili
come "professionali", parecchi ISP cercarono di vietare agli
utenti di condividere l'accesso a Internet tra più computer, o di
utilizzare applicazioni come server Web, server FTP e server di gioco in
rete, talvolta mediante l'uso di dispositivi tecnici originariamente pensati
per altri scopi, come il NAT, i firewall o l'assegnazione dinamica degli
indirizzi IP.
- Vi furono provider
che bloccarono o rallentarono il funzionamento di applicativi innovativi,
come Skype e i programmi di telefonia via Internet, quando essi andavano
ad erodere la competitività dei servizi tradizionali offerti da
aziende consociate, come la telefonia su rete fissa. I casi più
clamorosi e più contestati si verificarono tuttavia quando l'intervento
dell'operatore andava a ledere le aspettative fondamentali dell'utente
della rete, quale quella di ottenere la connessione verso la risorsa richiesta
e secondo gli standard tecnici della rete.
- Per esempio,
in un caso atipico ma comunque analogo a questi, nel settembre 2004 Verisign,
operatore del registro per il dominio di primo livello .com, decise che
tutte le richieste di risoluzione DNS per domini .com non esistenti non
avrebbero più ricevuto la tradizionale risposta di "non esiste",
ma sarebbero state servite come se il dominio fosse esistito, dirigendo
il client a un server gestito da Verisign stessa.
- Nel caso in
cui la richiesta fosse finalizzata ad una navigazione Web, il browser dell'utente
si sarebbe così trovato di fronte non al normale messaggio d'errore
che ci accoglie quando inseriamo un indirizzo inesistente, ma ad una pagina
di pubblicità gestita da Verisign stessa.
- Questa palese
violazione degli standard della rete suscitò un tale sdegno da venire
ritirata dopo breve, ma dimostrò come il tema della neutralità
e dell'indipendenza tra gli strati della rete - che vorrebbe che chi gestisce
l'operazione di risoluzione di un nome a dominio non si immischi di quale
sia l'applicazione che richiede tale operazione - fosse attuale anche per
ciò che riguarda gli strati più basilari della pila di protocolli
Internet. In Italia, nell'estate 2003, Telecom Italia sperimentò
un servizio davvero innovativo: dopo l'avvio della connessione ADSL con
Internet, al primo uso del browser, qualsiasi fosse l'indirizzo digitato
si veniva rediretti alle pagine di "La casa di Alice", un negozio
online dove il fornitore di connettività cercava di vendere ulteriori
prodotti al proprio cliente.
- Non c'era modo
di sfuggire a questa pratica; ma ciò che fece infuriare più
di tutto i clienti fu l'esplicita manipolazione del loro traffico, che
lasciava loro la sensazione che il provider entrasse nelle loro comunicazioni
e le manomettesse.
- Dopo brevissimo
tempo il servizio venne ritirato; eppure, proprio questo esempio ci porta
nel cuore del dibattito sulla neutralità della rete propriamente
intesa. Come abbiamo visto, esistono infiniti modi e infiniti punti dell'architettura
tecnica ed economica della rete in cui un comportamento "non neutrale"
di chi è responsabile di uno degli strati può danneggiare
la concorrenza o la libertà d'azione di chi si trova a uno strato
superiore, e infine degli utenti finali.
- Tuttavia, la
domanda che viene normalmente intesa come nocciolo della discussione sulla
neutralità della rete è la seguente: può un fornitore
di accesso a Internet trattare in maniera diversa i bit che gli vengono
affidati da trasportare, a seconda di quale sia l'applicazione a cui appartengono,
il contenuto che trasportano o il destinatario della comunicazione?
- I sostenitori
della neutralità della rete, tra cui buona parte dei più
famosi guru della stessa (Cerf, Lessig...) e molte delle aziende di servizio
e contenuto (a partire da Google), sostengono di no, al punto da sostenere
spesso che queste pratiche vadano regolamentate e vietate per legge; al
contrario, i provider e le aziende di telecomunicazione sostengono non
solo che sia proprio diritto determinare le politiche di trattamento del
traffico senza sottostare ad eccessive regolamentazioni, ma che questo
sia un bene per il mercato stesso, incoraggiando competizione, innovazione
e diversificazione delle offerte commerciali.
- Nello studio
scientifico che forse più di tutti pose le basi del problema (18),
il professor Wu della Columbia Law School si schiera a favore della regolamentazione
e della protezione legislativa della neutralità della rete.
- Wu sottolinea
comunque come vi siano altri tipi di discriminazione insiti nella natura
della connettività - ad esempio il fatto che la maggior parte degli
utenti disponga di connessioni DSL dove la velocità di upload è
molto inferiore a quella di download svantaggia naturalmente le applicazioni
peer-to-peer - o addirittura nel disegno stesso della rete: il principio
della rete stupida e neutrale, infatti, finisce per privilegiare le applicazioni
dove non è necessaria una particolare qualità di servizio
in termini di latenza e di disponibilità garantita di banda - ad
esempio il file transfer - rispetto a quelle che ne hanno bisogno - ad
esempio le comunicazioni audio e video in diretta.
- È effettivamente
difficile sostenere, come pure fanno alcuni di coloro che si schierano
a favore dela neutralità della rete, che Internet sia sempre stata
perfettamente neutrale. In particolare, è sempre stato considerato
normale per gli ISP offrire livelli di servizio diversi a clienti diversi,
a seconda del tipo e del costo dello specifico servizio di accesso da loro
acquistato.
- Lo stesso principio
si applica man mano che i pacchetti procedono all'interno della rete: anche
quando dal singolo ISP si passa ai grandi operatori di connettività
internazionale, questi ultimi trattano il traffico in maniera differenziata
a seconda degli accordi negoziati con l'ISP da cui provengono. Insomma,
è del tutto normale differenziare il trattamento del traffico in
base al mittente; perché allora - dicono gli oppositori della neutralità
della rete - dovrebbe essere vietato differenziare anche in base all'applicazione
utilizzata, al contenuto trasmesso o al destinatario del messaggio?
- Il motivo che
spinge i fornitori di connettività a sollevare la questione è
il fatto di trovarsi in un punto poco redditizio della catena del valore:
il mercato globale delle telecomunicazioni, nonostante la frequenza di
posizioni dominanti e i residui degli antichi monopoli, è comunque
maturo e competitivo, e i margini sulla fornitura di connettività
sono bassi.
- Al contrario,
le aziende che offrono contenuti o servizi su Internet sono spesso capaci
di realizzare margini e tassi di crescita decisamente superiori (a prezzo
però, va notato, di un rischio d'impresa generalmente molto superiore,
associato ad elevatissimi tassi di "mortalità infantile").
- Il desiderio
nemmeno troppo nascosto dei fornitori di accesso è quello di poter
vendere la connettività due volte: una al cliente finale, e un'altra
ai fornitori di servizio. Infatti, uno degli elementi fondamentali per
il successo di un servizio offerto a distanza via Internet è la
velocità di accesso da parte dei consumatori: un sito dotato di
connettività insufficiente risulterà lento o inaccessibile,
venendo quindi velocemente snobbato dai propri potenziali clienti.
- I fornitori
di connettività già oggi vengono pagati dai fornitori di
servizio, ma soltanto in maniera locale: ogni fornitore di servizio acquista
la banda necessaria per collegare i propri calcolatori al resto della rete,
esattamente come ogni altro utente di Internet.
- I maggiori fornitori
di servizio tendono a moltiplicare e delocalizzare la propria presenza
in rete, acquistando quindi connettività da vari fornitori in giro
per il mondo; ma resta valido il principio per cui, una volta pagata la
connessione locale tra i propri server e l'ISP, il servizio è accessibile
a tutta la rete Internet senza particolari discriminazioni. Gli ISP, tuttavia,
vorrebbero poter discriminare il traffico dei propri utenti in base alla
destinazione, perché in questo caso potrebbero esigere dai fornitori
di servizio del denaro in cambio di una migliore accessibilità del
loro servizio, o anche solo per non bloccare il traffico diretto ad essi;
oppure, chiedere ai clienti somme extra per accedere ai servizi più
popolari.
- Si tratterebbe
insomma di una specie di "pedaggio" da introdurre sulle famose
"autostrade dell'informazione"; ogni ISP attraversato dai pacchetti
avrebbe la possibilità di imporre un pedaggio - chi poi lo paghi,
se il fornitore di servizio o il cliente finale, è solo questione
di un giro di cassa - o di bloccare il traffico se il pedaggio da esso
unilateralmente deciso non viene pagato. Il risultato potrebbe essere,
ad esempio, la nascita di abbonamenti a Internet differenziati per accessibilità:
con l'abbonamento base puoi soltanto accedere al portale dell'ISP, mentre
con dieci euro mensili in più puoi usare anche Google e Facebook,
e con altri dieci euro mensili puoi usare Skype e giocare online.
- Uno scenario
del genere sarebbe davvero così dannoso? Iniziamo da qualche valutazione
economica: l'effetto più ovvio sarebbe un generalizzato aumento
dei costi per la connessione a Internet, specialmente in una fase storica
del mercato delle telecomunicazioni in cui - dopo le grandi liberalizzazioni
degli anni '90 e la fioritura di nuovi player durante la bolla della "new
economy" attorno all'anno 2000 - il numero di attori si è ridotto
e consolidato, riducendo la competitività sul mercato: per esempio,
in Italia il 62% del mercato della connettività ADSL è in
mano a un solo fornitore, l'85% è in mano ai primi tre e il 95%
è in mano ai primi cinque (1); un livello di competizione
decisamente basso, rispetto ai milioni di siti e servizi raggiungibili
via Internet.
- E' facile quindi
presumere che, grazie anche ad accordi più o meno taciti, la possibilità
di applicare tariffe differenziate per destinazione o applicativo sarebbe
utilizzata da queste aziende per aumentare la spesa media del cliente finale.
Inoltre, grazie alla possibilità di discriminare, gli ISP potrebbero
effettuare favoritismi tra diversi fornitori dello stesso servizio: per
esempio, un ISP potrebbe dare gratuitamente a tutti i propri clienti la
possibilità di effettuare ricerche con Virgilio, ma richiedere un
pagamento aggiuntivo per la possibilità di usare Google (pratiche
simili, tra l'altro, sono già state messe in atto in Italia da alcuni
operatori di telefonia mobile).
- Probabilmente,
questo provocherebbe un cospicuo trasferimento di utenti da Google a Virgilio,
danneggiando il primo e favorendo il secondo (tra l'altro, essendo Google
già attualmente il leader nel mercato delle ricerche, delle mappe
e di tanti altri servizi Internet, si capisce come tale azienda possa venire
soltanto danneggiata dalla mancanza di neutralità: da qui il suo
interesse economico nello schierarsi a favore della neutralità della
rete).
- Si riproporrebbe
in sostanza la situazione già vista nel caso più sopra citato
della guerra dei browser, con l'effetto di affidare il successo nel mercato
dei servizi Internet non tanto a una onesta competizione, ma ai rapporti
di parentela aziendale tra ISP e fornitori di servizi.
- La pratica di
favorire determinati fornitori di servizi e contenuti su altri non ha soltanto
risvolti sulla concorrenza e sul mercato: infatti, dato il ruolo sempre
più centrale dell'informazione nella nostra società e di
Internet nella sua circolazione, è evidente che le ragioni per la
discriminazione potrebbero facilmente diventare sociali o politiche: un
ISP potrebbe rendere meno accessibili i siti dei quotidiani con una linea
politica diversa dalla propria, o i blog e i media non allineati, o discriminare
contenuti su base religiosa o razziale. Inoltre, la discriminazione dei
contenuti e delle applicazioni prevede quasi sempre la cosiddetta deep
packet inspection, ovvero l'analisi dettagliata del significato dei bit
che l'utente scambia con il destinatario, violando completamente la segretezza
delle comunicazioni e la privacy dell'utente stesso.
- Di fatto, gli
ISP diventerebbero detentori unilaterali di un importante potere di controllo
delle attività dei cittadini, con rischi di deviazione che, alla
luce delle notizie comprovate su attività spionistiche di massa
esercitate da parte del maggiore operatore italiano, senza alcuna giustificazione
né controllo, sulle comunicazioni private dei telefoni di migliaia
di persone, appaiono tutt'altro che teorici.
- Per queste ragioni,
la difesa della neutralità della rete arriva ad assumere un valore
fondante e costituzionale, quando essa minacci di mettere a rischio la
libertà e la sicurezza dei cittadini.
- Ritorniamo invece
ad un discorso economico: un effetto anche peggiore, infatti, si avrebbe
sull'innovazione, specie su quella radicale. E' noto che i grandi salti
tecnologici vengono generalmente compiuti da piccole aziende appena nate,
in quanto per le grandi aziende del settore non è remunerativo entrare
in mercati che ancora non esistono, né esse dispongono della flessibilità
mentale, tecnica, organizzativa e commerciale necessaria per abbracciare
il cambiamento distruttivo (5).
- Questo è
maggiormente vero su Internet, dove la maggior parte delle tecnologie e
dei servizi radicalmente nuovi - il World Wide Web, l'instant messaging,
lo scambio di file peer-to-peer... - sono stati inventati da individui
o da piccolissime aziende.
- Grazie alla
non-discriminazione, queste innovazioni sono state immediatamente rese
accessibili a tutto il mondo, permettendo la loro adozione globale a velocità
incredibile, spesso con il risultato di mettere fuori mercato e rovesciare
rapidamente aziende di grandi dimensioni e dotate di grandi capitali. In
questo meccanismo, la non-discriminazione è fondamentale: nei mercati
in cui le aziende leader hanno il potere di influenzare la neutralità
degli "strati" circostanti del mercato - ad esempio, dei fornitori
o dei clienti del loro nuovo concorrente - è comune che tale potere
venga usato per limitare la possibilità del nuovo concorrente di
entrare sul mercato, nonostante esso disponga di un prodotto più
moderno, più innovativo e in ultima analisi migliore per i clienti
finali.
- Un esempio di
ciò si può vedere nella storia della Transmeta, start-up
nella produzione di semiconduttori che nel 2000, dopo cinque anni di lavori
segretissimi, introdusse sul mercato un microprocessore di tipo radicalmente
innovativo, giudicato nettamente più avanzati di quelli dei grandi
leader del mercato dei chip come Intel e AMD, ma che non riuscì
mai a decollare, fino a portare alla decadenza dell'azienda; ciò
è stato spesso attribuito non tanto a problemi tecnologici o alla
competitività dei prodotti, ma alla resistenza attiva dei leader
del mercato dei chip, che sfruttarono la loro posizione dominante per mettere
in atto accordi e pressioni commerciali più o meno legittime sui
grandi produttori di PC, che avrebbero dovuto acquistare i chip Transmeta.
- Secondo analisti
del settore, pur nell'ovvia assenza di prove certe, furono proprio queste
pressioni a far sì che Transmeta non potesse disporre di un grande
cliente al momento del lancio, e che poco prima della sua quotazione in
Borsa uno dei massimi produttori di personal computer, IBM, annunciasse
pubblicamente che non avrebbe comprato chip Transmeta, facendo così
crollare le aspettative (7).
- Questo genere
di comportamento da parte dei leader di mercato è assolutamente
ragionevole, se analizzato dal loro punto di vista e in ottica utilitaristica;
non rappresenta, in sé, una prova di egoismo o di cattiva fede -
se mai, è una prova di sanità e di mancanza di masochismo
-, ma è insito nel ruolo del leader in un mercato con un nocciolo
forte, cioè con poche grandi aziende che dominano un indotto di
clienti e fornitori.
- D'altra parte,
sul mercato dei servizi Internet, che è fortemente coreless - privo
cioè, per quasi tutte le sue nicchie, di un dominatore con un forte
potere di influenzare il mercato -, questi comportamenti sono quasi impossibili,
e il risultato è un tasso di innovazione molto più forte,
legato alla maggiore libertà dei nodi più piccoli del sistema
e, in ultima analisi, degli utenti ai bordi della rete (11).
- Nello specifico,
è stato dimostrato nell'ambito di una analisi economica (16)
che la possibilità da parte degli ISP di discriminare il traffico
in base al servizio di destinazione o al contenuto, pur incrementando leggermente
gli incentivi all'innovazione per gli ISP stessi, riduce drasticamente
quelli per tutti gli altri, portando nel complesso a una diminuzione del
tasso di innovazione nel mercato delle applicazioni e dei servizi su Internet.
- Ne consegue
che i comportamenti discriminatori delle aziende, pur se naturali, devono
essere impediti dalla legge se si ritiene che sia superiore interesse garantire
il progresso complessivo del mercato e della tecnologia, anche se questo
significa una frequente instabilità del mercato, con la rapida sparizione
delle aziende che erano leader nell'ondata tecnologica precedente.
- Da qui nasce
una chiara esigenza di tutelare la neutralità della rete e dei mercati
tecnologici per garantire maggiore innovazione.
- Per concludere,
è bene inquadrare il problema della neutralità della rete
in termini più propriamente sociali: abbiamo infatti mostrato come
la neutralità della rete in senso stretto sia soltanto uno di molteplici
casi in cui una entità sociale detentrice di potere lo sfrutta per
competere ad armi non pari con un'altra entità sociale, la quale
per suoi meriti sarebbe destinata al successo, ma che invece soccombe.
- Un famoso libro
(14) parlò apertamente di "darwinismo digitale"
per descrivere il funzionamento dell'economia di Internet: in altre parole,
l'evoluzione economica e sociale di Internet si basa sui principi della
teoria dell'evoluzione e della sopravvivenza del più adatto.
- Questo è
tuttavia reso possibile dall'architettura fondamentale di Internet, cioè
dalla volontaria devoluzione dell'intelligenza verso i bordi della rete,
e dalla conseguente attribuzione ad essi della libertà di fare e
di innovare, senza la necessità di autorizzazioni e quindi di sottostare
ad alcun potere.
- Soltanto se
tutti gli utenti della rete (individui o aziende che siano) hanno le stesse
possibilità e dispongono della libertà di evolversi, le dinamiche
evolutive del loro "branco globale" saranno darwiniane e la sopravvivenza
andrà ai migliori. Una distribuzione asimmetrica della libertà
e del potere, invece, altererà queste dinamiche e porterà
alla sopravvivenza dei meno adatti ma più potenti, castrando gli
effetti dell'evoluzione e quindi depotenziando la capacità di Internet
di far evolvere la società, la scienza e l'economia nel loro complesso.
- Nelle nostre
società, tuttavia, non sempre la distribuzione simmetrica del potere
è considerata desiderabile: abbiamo sempre vissuto con un accentramento
di potere in poche mani (monarchie, dittature, parlamenti, eserciti, forze
dell'ordine...).
- La desiderabilità
di una distribuzione di potere più o meno ampia è questione
di opinioni politiche personali; è proprio per questo che è
così difficile arrivare ad opinioni comuni sulla neutralità
della rete, perché se alcuni di noi trovano equo che ad ognuno sia
garantita dalla legge la propria chance di vittoria, altri trovano equo
che chi si è conquistato in passato un maggior potere ne faccia
tutto l'uso possibile per conservarlo. Inoltre, questa distinzione varia
fortemente a seconda del problema specifico: non tutti gli accentramenti
di potere sono egualmente indesiderabili, e ad esempio, nel caso delle
istituzioni democratiche, l'accentramento di potere nelle mani di individui
scelti in modo democratico è preferito da quasi tutti alla completa
anarchia.
- Analogamente,
al di fuori dell'ambiente liberal americano, attaccato al Primo Emendamento
della propria Costituzione, è difficile trovare qualcuno che, pur
opponendosi alla discriminazione delle comunicazioni via rete sulla base
dei contenuti, sia contrario a mettere un freno alla libera circolazione
di materiale pedopornografico; se mai, la questione è come, dove,
da parte di chi, con quali garanzie.
- Per queste ragioni,
nonostante il principio di neutralità della rete sia superficialmente
semplice, lineare ed attraente come una grande legge della fisica, e sia
molto difficile da respingere in linea di principio, esso è così
difficile da applicare in maniera assoluta; il problema non è allora
tanto se sia giusto o meno discriminare, ma capire quali sono i casi e
le entità per cui la discriminazione è accettabile.
- Tuttavia, tali
casi difficilmente comprendono l'azione da parte di entità private,
senza alcun controllo da parte della collettività e delle istituzioni,
su materiale delicato come le comunicazioni di ognuno di noi: per questo
motivo, nel caso specifico della neutralità "economica"
della rete e della possibilità di discriminare applicazioni e contenuti,
è ragionevole concludere che sia necessario un intervento legislativo
da parte dei governi, teso a garantire la libertà di espressione
e di informazione e la privacy degli utenti, e la libertà di innovare
e di competere su basi paritarie dei fornitori di servizi e contenuti in
rete.
|