15
Dic
David Isenberg spiega con parole semplici perche’ lo scoop odierno del Wall Street Journal su Google che abbandona la neutralita’ e’ semplicemente una palla corredata per di piu’ di citazioni di Lessig totalmente fuori contesto. L’accordo di cui si vocifera nell’articolo sarebbe un semplice accordo di edge caching che con la neutralita’ c’entra poco o nulla. A Repubblica, che appena si profila all’orizzonte il fantasma dei “Don’t be evil” che si trasformano in “Evil” alza le antenne, sono ovviamente andati in immediata fibrillazione.
update: Luca ha un bel post al riguardo.
Dicembre 15th, 2008 at 19:19
Massimo, dai. Cerchiamo, per una volta, di parlarne in modo chiaro e senza polemiche.
Tu, come del resto molto altri con cui ne ho discusso, di Akamai o di edge caching non avete mai saputo nulla, fino a ieri.
Per voi esisteva il dogma Neutrality, e stop, e ogni altro ragionamento era vietato ed eretico. Io, da eretico, ho faticato per spiegare “guardate che per esempio esiste Akamai”. Dal 2006, non da un mese fa. Credo di essere stato l’unico in Italia, due e piu’ anni fa, ad andare contro l’ideologia dominante su questo terreno.
Oggi, e Google e Lessing, che erano i due principali baluardi della Net Neutrality hanno cambiato posizione. E voi vi appellate al “e’ solo edge”.
Allora. Primo, sarebbe ora che la piantaste di ragionare solo in termini ideologici. Per la serie: se Lessig dice X, X va bene. Se Lessig passa su P, si’, vabbe’ ma non conta, e’ la stessa cosa, e va bene, diciamo P, perche’ comunque Lessig e’ buono e giusto.
E sarebbe anche ora che vi studiaste nel dettaglo le questioni, oppure che smetteste di parlarne.
Guarda che si puo’: ci sono un sacco di argomenti su cui io mi rifiuto di scrivere, dicendo, scusate, non ne so un beato e non ho tempo di studiarmelo. Non e’ infamante, fare cosi’. E’ normale. Anzi, oserei persino dire che e’ onesto.
Due, oggi hai imparato la parola Edge. Ok, domani ti si sputtanera’ su Ipv6 e dopodomani sui router. Dai, lascia perdere… Ammetti che non eri studiato e chiudi il discorso, e parlaci ancora di politica, che li’ chiunque non sbaglia mai, manco il mio verduriere.
Eh si’, comunque, guarda che l’edge e’ solo l’inizio della revisione del pensiero unico sulla Net Neutrality. Poi si andra’ avanti, vedrai, poco alla volta, e tu a piccoli passi ogni volta dovrai mettere alla tua posizione quello che i milanesi chiamano “tacun”. Una pezza.
Tre, dire che l’edge “c’entra poco o nulla” con la neutrality e’ a dir poco ridicolo, e non ho manco voglia di spiegarti per te, non per mancanza di tempo, ma per vera e sconsolata caduta delle mie ciuffole sul pavimento. Cioe’, dai… se non sai di cosa si parla, tirati indietro, per una volta, no?
Quale sara’, il succo di questo lungo dibattito (dal 2006…), alla fine?
Che tu non ne capisci un beato, e per dire qualcosa devi aspettare che un tuo bloggher di fiducia scriva qualcosa che, distorto un po’, forse riesce quasi a giustificare le tavanate che avevi detto.
Mantellini, seriamente, ma e’ vita, questa? Non e’ meglio dire: scusi, Signora Maestra, a me piace disegnare, per favore non mi mandi alla lavagna a parlare di Internet, che mi viene il mal di pancia perche’ non ne capisco nulla e mi rendo ridicolo?
Ciao, Fabio.
Dicembre 15th, 2008 at 19:23
Metitieri guarda che hai sbagliato blog. Vai da Isenberg e da Lessig a spiegare a loro come va il mondo. Pensa hanno i commenti aperti (almeno fino al tuo arrivo). Ciao.
Dicembre 15th, 2008 at 19:46
Mantellini, a me non interessa discutere con Lessig. Forse gli faro’ un’intervista, che e’ un po’ diverso.
A me interessa solo capire cosa succede, senza ideologie.
Oggi, quello che vedo e’ che dopo due anni che io dico (unico, mi pare) che la Net neutrality, cosi’ come e’ stata discussa finora, soprattutto in Italia, e ancora piu’, soprattutto, nella blogosfera italiana, era una grossa minchiata, * Lessig e Google * hanno avuto bisogno di tornare sui loro passi e di precisare meglio. Nella stessa direzione in cui sono andato io due anni fa.
I dettagli, con te, sinceramente, mi farebbe ridere discuterli. Con te cerco solo di farti capire che il metodo di chi fa informazione dovrebbe essere un pochino diverso dal tuo.
Di fatto, io oggi posso dire: l’avevo scritto due anni fa.
E tu sei qui a cercare con il lanternino dei blog statunitensi autorevoli che spieghino che il Wall Street Jounal ha raccontato palle (e si sa, che il Wall Street Journal racconta palle, peggio di Eva3000, e infatti tutti leggono Mantellini e non il Wall Street Journal).
Scuole diverse, Mantellini, siamo di scuole completamente diverse… O, meglio, tu una scuola non l’hai mai avuta. Tu apri la tastiera e scrivi. Io invece studio, per anni.
Ciao, Fabio.
http://xoomer.alice.it/fabio.metitieri
Dicembre 15th, 2008 at 19:59
L’edge caching potrebbe avere un impatto enorme sulla neutralità della rete, almeno per come l’abbiamo conosciuta fino ad oggi. Basta pensare alle politiche di caching: chi decide cosa velocizzare e di conseguenza cosa penalizzare ha un potere enorme di influenzare la rete, altro che neutralità. Il paragone con le diverse velocità di accesso attuali non regge, un accesso lento non riguarda solo alcuni siti, va tutto lento uguale. In un sistema di caching no, si decide a priori cosa avvantaggiare a discapito del resto. A repubblica prevenuta, fanno da contraltare i difensori di google a oltranza che minimizzano sempre e comunque.
Dicembre 15th, 2008 at 20:25
Si, ho visto. Luca De Biase ha scritto un bel post al riguardo. Un altro che ragiona solo in termini ideologici e senza capire un beato di tecnologia. Ho gia’ commentato anche li’.
Luca, persona che io ho sempre stimato molto, senza ironia o battute, ormai pensa solo a una cosa. Come fare profitti dal Web 2.0. E mi spiace, molto, perche’ e’ un grande professionista, non un pirla qualsiasi come tanti bloggher. Eppero’…
Ciao, Fabio.
http://xooemr.alice.it/fabio.metitieri
Dicembre 15th, 2008 at 22:42
Ho commentato anche da Quintarelli e vorrei aggiungere una domanda:
Questo blog si occupa anche di questioni legate al mondo informatico.
Pero’ mi sembra che ci si dimentichi che l’informatica è prima di tutto tecnologia, numeri e bit che poi messi insieme hanno anche importanti risvolti sociali.
Va bene commentare l’utilizzo dei corporate blog e le implicazioni dei rapporti umani nell’epoca del web 2.0 (ecco l’ho scritto) ma di fondo ci deve essere una cultura informatica che renda capaci di avere una visione obiettiva e razionale dei concetti trattati.
In sostanza, come ho commentato da Quintarelli, mi sembra invece che le affermazioni espresse siano molto ideologizzate senza un concreto retroterra informatico.
Da questo e altri blog non mi aspetto un semplice rimbalzo delle notizie sparse nella rete (fortunatamente esistono strumenti appositi) ma un commento critico e razionale suffragato da motivazioni tecniche.
Ma forse pretendo troppo e, nel caso, qual’è la funzione di questo blog?
Senza polemica
Dicembre 15th, 2008 at 23:30
E’ una domanda interessante Cafonauta.
La mia risposta e’ che quello che tu cerchi qui su questo blog non lo trovi (e nemmeno sulle cose che scrivo altrove), semplicemente perche’ io non sono un tecnico. Magari puo’ succedere che compaia fra i commenti visto che molta gente che bazzica professionalmente la tecnologia capita da queste parti. A margine di questo io non credo ci siano oggi troppi punti di contatto fra l’informatica e l’utilizzo degli strumenti tecnologici o, se ci sono, quasi mai riguardano la critica sociale alle pratiche informatiche (che oggi poi e’ una cosa enorme dire cosi’ visto che moltissimo della nosra vita di relazione e’ ormai mediata dalla tecnologia).
La funzione di questo blog poi e’ nota: e’ uno spazio personale di chi lo gestisce nel quale finiscono appunti, link, opinioni su cose che lo interessano, lo divertono o lo fanno arrabbiare. Niente di speciale insomma.
Se invece alludi al resto delle cose che scrivo, beh mi pare di poter dire che esiste uno spazio editoriale sempre piu’ ampio ed abitato che si occupa della tecnologia guardandone gli aspetti di ricaduta sociale su tematice importantissime (accesso, divide, privacy, espressione ecc) piu’ che quelli strettamente tecnici. Spero di averti risposto. saluti.
Dicembre 16th, 2008 at 06:34
Mantellini, va bene che tu voglia parlare “di ricadute sociali” e non di “aspetti tecnici”.
Ci sono solo due cose che ti contesto.
1) Hai passato anni (e lo fai tuttora) a contestare i giornalisti che scrivevano di Internet senza conoscerla, pero’ tu pretendi sempre di poter fare proclami, anche su un terreno – la net neutrality – dove se non hai un minimo di preparazione tecnica non ci capisci un’acca.
2) Su terreni per te cosi’ incerti, di cui non sai nulla, comunque, se solo trovi almeno un bloggher che sembri vagamente dar ragione alla tua visione ideologica (che e’ solo ideologica, perche’ la capacita’ di analizzare il problema seriamente non ce l’hai), invece di scrivere “forse” devi subito dare dei “bugiardi” a tutti… Compreso il Wall Street Journal, perche’ comunque son tutti venduti e incapaci e invece tu sai tutto.
E datti una calmata, almeno sulle cose che non capisci.
Ciao, Fabio.
http://xoomer.alice.it/fabio.metitieri
Dicembre 16th, 2008 at 20:52
Notevole, questo signor Metitieri che esordisce con “cerchiamo, per una volta, di parlarne in modo chiaro e senza polemiche”, e poi – subito dopo – si produce in una mirabile serie di trollate, tipo: “non ne capite un cazzo”, “non ne sapete un beato”, “e’ ridicolo”, “non sai di cosa si parla”, “dici tavanate”, “non ne capisci nulla”, “ti rendi ridicolo”, “sarebbe ora che smetteste di parlarne”, “e’ vita questa?” e via andare.
A Metitieri, che e’ anni che studia la questione, chiedero’ di illuminarmi perche’ invece io non ne capisco un cazzo. La domanda che mi ponevo era: non si capisce in che senso il fatto che Google voglia implementare dei sistemi di Contend Delivery ed Edge Caching proprietari faccia si’ che abbia “cambiato posizione” o sia “tornata sui suoi passi”, quando Google stessa si e’ servita dei servizi di Akamai (content delivery, edge caching) almeno dal 2003 al 2004 e, come si intuisce argutamente facendo una ricerca con “akamai google” come parole chiave, anche recentemente per un broadcast live su youtube.
Ah, e a proposito: youtube stesso prima di essere di google era cliente di Limelight, apparentemente: un’altra societa’ dello stesso tipo di Akamai.
A Cafonauta direi che se in questi giorni ci si deve indignare per il modo in cui la tematica di “OpenEdge” e’ stata trattata, non e’ certo con Mantellini che lo si deve fare, ma con chi si e’ accodato ad una crociata messa in piedi su basi tutt’altro che tecniche: al contrario, fumose ed ideologiche.
Dicembre 16th, 2008 at 21:33
Se parli di bugie, viene da pensare alla malafede.
Faro’ l’avvocato *difensore*, ma ci vedo di piu’ grossa ignoranza mixata con una buona dose di sensazionalismo.
Poi, ovviamente, posso sbagliare.
Anche Zambardino l’ha sparata grossa, se non sbaglio (salvo correggersi, molto onestamente).
Dicembre 17th, 2008 at 00:21
bene, vediamo se la discussione puo’ andare avanti in modo meno esasperato. Premesso che senza conoscere i dettagli dell’accordo si parla al vento…
proviamoci.
dice Davide Baroncelli:
La domanda che mi ponevo era: non si capisce in che senso il fatto che Google voglia implementare dei sistemi di Contend Delivery ed Edge Caching proprietari faccia si’ che abbia “cambiato posizione” o sia “tornata sui suoi passi”, quando Google stessa si e’ servita dei servizi di Akamai (content delivery, edge caching) almeno dal 2003 al 2004 e, come si intuisce argutamente facendo una ricerca con “akamai google” come parole chiave, anche recentemente per un broadcast live su youtube.
Vero, ma forse qualcosa sta cambiando.
Provo io a fare qualche domanda?
1) Intanto perchè google non delocalizza i suoi server? Per dire, ha una sede a Milano perchè mai deve fare accordi con Telecom Italia piuttosto che con Tiscali o con altri provider per ottenere lo stesso risultato?
2) L’accordo riguarda tutti gli ISP o se li sceglie google?
La seonda domanda credo sia di fondamentale importanza. Qualcuno ha la risposta?
A me pare evidente che di questo passo stiamo andando dritti dritti verso la televisione del XXI secolo. Per chi non avesse capito… di questo si parla.
Dicembre 17th, 2008 at 02:08
Lunar, Google i server li delocalizza eccome: vedi ad esempio qua: http://www.techcrunch.com/2008/04/11/where-are-all-the-google-data-centers/
Ma da qui ad aprire un datacenter ovunque ci siano utenti mi sembra chiedere un po’ troppo! ;)
Comunque io continuo a dire che questa storia della “corsia preferenziale velocizzata” e’ stata montata con l’enfasi sulla “velocita’” solo perche’ questo faceva comodo a chi voleva dare addosso a Google: ma i servizi di google sono gia’ molto veloci, e un’ottimizzazione di questo tipo puo’ portare certo miglioramenti di latenza, ma non credo radicalmente percepibili.
Al contrario, l’effetto piu’ importante di una misura di questo tipo e’ quello di *portare a fattor comune flussi di traffico*, e quindi ridurre la quantita’ di dati che “per colpa di google” circolano sulla rete.
Mi spiego: immaginati che, che so, i Coldplay facciano un concerto dal vivo in broadcast su internet. Tipicamente una tsunami di richieste si scaglierebbe sui server che forniscono il servizio: supponi che quelli siano server di youtube, situati in giro per il mondo. In assenza di meccanismi del tipo di quelli di cui si parla in questi giorni, il server “piu’ vicino” a, che so, gli utenti di Milano e’ da qualche parte nel centro Europa: questo significa che se 10000 persone vogliono vedere il concerto da Milano, passano 10000 volte gli stessi dati sulle infrastrutture di rete tra il centro europa e Milano, perche’ le connessioni si attestano sui server distanti.
Con un meccanismo di questo tipo, al contrario, le connessioni si possono attestare sui server collocati sugli ISP di Milano, sui quali poi il sistema di Content Delivery fa in modo che i dati in arrivo dal Centro Europa non siano moltiplicati per il numero di utenti che li richiedono, ma vengano messi a fattor comune per tutti gli utenti attestati su uno stesso server.
Il risultato e’ che:
1) gli utenti che vedono il concerto attestandosi su un server co-locato sull’ISP si collegano alla pagina 1ms prima degli altri (e capirai, per un concerto di due ore arrivarci un millisecondo prima!!): questa sarebbe la famosa “autostrada privilegiata piu’ veloce” di cui cianciano i giornali piu’ blateranti di questi giorni
2) sul backbone su cui si attestano gli ISP di Milano passano quantita’ di dati notevolmente inferiori, perche’ i server co-locati agiscono da “moltiplicatore”, distribuendo lo stesso contenuto a piu’ utenti, e quindi fanno si’ che si possa risparmiare la banda necessaria per i flussi di tutti quegli utenti meno uno.
Il risultato netto e’ che ci guadagna Google, che deve far passare meno dati dal suo bocchettone dal datacenter al backbone, ci guadagna il backbone che vede passare meno dati, ci guadagna l’ISP che riceve meno dati in ingresso: ci guadagna tutta la rete.
Capito? La neutralita’ non c’entra una mazza.
Quanto agli ISP, suppongo che non possa essere fatto con tutti: sarebbe folle, in termini di numero di server che Google dovrebbe gestire in giro per il mondo! Immagino che verrebbe fatto con i maggiori player, quelli su cui si attestano piu’ utenti. Ma, ancora, il guadagno in termini di latenza e’ probabilmente ridotto, e molto relativo: quello che si guadagna e’ soprattutto sui dati che vengono scambiati alla sorgente, e per questo ha senso che accordi di quel tipo vengano fatti soprattutto con ISP di grandi dimensioni.
Dicembre 17th, 2008 at 06:00
Baroncelli, sono piu’ di due anni che dico on line e che pubblico che la Net Neutrality e’ una bufala. Se tu mi avessi seguito lo sapresti e sapresti perche’.
Internet non e’ “stupida” – come ha scritto di recente anche Mantellini in suo articolo – e non e’ “neutrale”, da circa 10 anni. E su questo, mi spiace, ma non ci piove. Chi sostiene il contrario e’ un ignorante, ma ignorante forte, e mi pare utile dirlo e senza mezzi termini.
Premesso questo, per me, che non sono u ideologo ma bado alla realta’ delle cose e basta, la questione di fondo e’ abbastanza semplice. I meccanismi che privilegiano o favoriscono il traffico in Rete di un content provider stanno diventando via via piu’ importanti. Come vengano implementati non e’ cosi’ essenziale, e non esistono meccanismi “buoni” e meccanismi “cattivi”.
Detto questo, due anni fa Google si e’ (falsamente) eletto paladino della Net Neutrality solo perche’ i meccanismi che Comcast e Verizon provavano a imporgli non erano economicamente convenienti, per Google. Ma dei metodi per favorire i propri server Google li ha sempre usati. E adesso sta cercando (in silenzio, se possibile, appunto per non essere sbugiardato come difensore della neutralita’) di rendere piu’ sistematico questo suo lavoro, grazie a un edging piu’ diffuso e ad accordi con gli Isp (dei quali, mi pare, non sono noti i dettagli, per cui non siamo neppure sicuri che sara’ / sia stato solo edging e distribuzione dei contenuti in diversi nodi).
Di fatto, Google vuole fare almeno in parte da solo il lavoro di solito svolto da Akamai e da operatori simili, o l’equivalente di quello che gli proponevano / imponevano Comcast e Verizon.
Per cui, il Wsj ha fatto un buon servizio e che Google lo smentisse era scontato. L’unico errore lo ha fatto chi ha parlato di “svolta” di Google. In realta’ Google non ha fatto nessuna svolta, dato che non gli e’ mai importato nulla di una neutralita’ che non esiste piu’ da 10 anni. Semmai Google, nell’esigenza di “prioritizzarsi” in modo piu’ sistematico, e’ soltanto venuto un po’ di piu’ allo scoperto. O, almeno, si e’ fatto beccare dal Wsj.
Dove ci potra’ essere una “svolta”, invece, e’ tra gli ideologi della Net neutrality, a cominciare da Lessig e da chi consigliera’ Obama. Perche’? Per il semplice motivo che due anni dopo i loro proclami pro-neutralita’ si stanno rendendo conto che i loro discorsi sono improponibili, e dovranno quanto meno inventare un nuovo modo di raccontare questa storia, visto che Obama punta cosi’ tanto sullo sviluppo di Internet per riaffermare la supremazia tecnologica Usa nel mondo.
Il coretto di smentite all’articolo del Wsj, comunque, e soprattutto dai blogger (che sono sempre i piu’ ideologici, i meno “imparati” e i piu’ superficiali, tra gli osservatori ), per me, e’ stato a dir poco ridicolo. A cominciare da Mantellini che titola “bugie” senza avere capito manco di cosa si sta parlando, e solo copiando da un blogger di cui “si fida”, come fa sempre (e sempre presupponendo che gli altri siano in malafede e che scrivano solo per distruggere chissa’ quale inesistente democrazia della Rete, il che, sinceramente, inizia a essere intollerabile).
E scusami se mi sembra importante dirlo.
Poi, sul fatto che lo shaping (la prioritizzazione) sia “cattivo” e l’edging invece sia “buono” si potrebbe discutere a lungo, e soprattutto su quale sia la soluzione piu’ razionale e migliore per Internet stessa. Io sottolineo solo una cosa: tra shaping e edging il succo e’ sempre lo stesso, dal punto di vista dell’utente.
Ovvero: tra i servizi on line, chi ha i soldi e paga avra’ i contenuti piu’ veloci per gli utenti, e chi non ha soldi sara’ piu’ lento e rischiera’ di andare fuori mercato. Stop. Da questo punto di vista la soluzione implementata non conta per nulla. O molto poco.
E, Lunar, si’, il protocollo IP ormai non e’ solo Internet (cosi’ come la intendiamo noi), ma puo’ essere anche “rete telefonica” o “televisione via cavo”. Io non trovo nulla di scandaloso in questo. Qualcuno guardera’ film on demand e qualcuno scrivera’ sui blog. Quale sarebbe il problema? E non e’ gia’ cosi’, adesso, persino in Italia, tra l’altro?
Spero di essere stato chiaro, pur semplificando molto.
Ciao, Fabio.
http://xoomer.alice.it/fabio.metitieri
Dicembre 17th, 2008 at 06:38
Aggiungo un’ultima cosa, su cui vi invito a riflettere.
Obama sta dimostrando, gia’ adesso, di essere poco incline alle ideologie e di volere concretezza, soluzioni che funzionano, proposte di legge chiare. E in fretta, perche’ la situazione in Usa non e’ mica da ridere. Questo secondo me obblighera’ gli ideologi della Net Neutrality a decidersi (almeno in Usa; qui in Italia Mantellini continuera’ a raccontarci che la Rete e’ stupida, come titolano i suoi articoli su Nova24, per altri vent’anni e senza fare una piega).
Per cui, o costoro se ne escono con una proposta concreta, oppure devono cambiare posizione. Io lo dico da mesi, da quando ho iniziato a capire che Obama avrebbe potuto vincere: sono molto curioso in merito.
Poi, pero’, Baroncelli, se Lessig e/o chi per lui se ne escono con una sorta di “revisionismo” e non con una legge concreta e dettagliata per difendere la Net Neutrality, che sia chiaro che, qui in Italia, posso spernacchiare tutta la blogosfera per i prossimi decenni. E anche molti colleghi…. E, ovviamente, te.
;-)
Ciao, Fabio
http://xoomer.alice.it/fabio.metitieri
Dicembre 17th, 2008 at 08:48
Metitieri,
Hai, per caso, una nutria attaccata dove ti senti meglio?
Perchè non riesco veramente a capire da dove derivi il tono dei tuoi post.
Prima insulti tutto e tutti perchè si fa solo ideologia; e potevo pure essere d’accordo con te nei contenuti e non nei toni.
Adesso Baroncelli ha affrontato la questione in modo semplice ma tecnico e tu continui con lo stesso tono e questa aria di superiorità come se l’unico detentore della verità in Italia fossi tu! Una sorta di Savonarola del nuovo millennio!
Se ti preme così tanto postare nei commenti del Mantellini allora è meglio che entri nell’ottica di metterti sullo stesso piano dei tuoi interlocutori altrimenti puoi’ tornare nella tua torre d’avorio circondato da chi, come scrivi, in questi anni ti ha seguito.
Per me, come tanti, che non ti ha seguito, hai la pazienza di indicarmi dei link in cui trovo questi tuoi scritti sulla net neutrality?
Davide
Dicembre 18th, 2008 at 03:06
Le diro’, Metitieri, che non solo non la ho mai seguita (come e’ ovvio: chi crede di essere?), ma dopo questo scambio non mi sento particolarmente invogliato ad approfondire la sua conoscenza.
Le diro’ altresi’ che sulla neutralita’ della rete non avevo mai letto nulla, ma in questi giorni ho leggiucchiato qua e la’, e le sue opinioni tagliate con l’accetta non mi paiono particolarmente illuminanti.
Inoltre la sua abilita’ a svicolare dalle questioni tecniche per concentrarsi su fumose teorie complottistiche, sul vittimismo da incompreso e sull’evidente desiderio di rivincita morale mi comunica cattive vibrazioni: penso che non la seguiro’ neppure da qui in poi, se non le dispiace.
Ci sono poi alcune cose che scrive che mi paiono proprio strampalate.
Tipo:
“Come vengano implementati [meccanismi di prioritizzazione] non e’ cosi’ essenziale, e non esistono meccanismi “buoni” e meccanismi “cattivi”.
Ah no? Eppure riesco ad immaginarmi una certa quantita’ di scenari cattivissimi senza molto sforzo.
“Ma dei metodi per favorire i propri server Google li ha sempre usati.”
Certo, metodi diabolici tipo installare batterie di server in giro per il mondo, ottimizzare il proprio software, riconfigurare le reti in modo tale da minimizzare le latenze, studiare hardware all’avanguardia, ecc. Tutta roba forte, neh.
“E adesso sta cercando (in silenzio, se possibile, appunto per non essere sbugiardato come difensore della neutralita’)”
Mi sembra che qui ci avviciniamo al delirio dietrologico: le aziende non fanno proclami ogni volta che fanno una mossa per migliorare il proprio business. Li fanno se questo serve al business. Poi, detto questo, “in silenzio” non significa “nell’ombra”. Quanto all’essere sbugiardati, da quello che si legge in rete da questa storia l’unica realta’ “sbugiardata” e’ stato il WSJ, che ha dato una pessima impressione a chiunque ne capisse qualcosa.
“di rendere piu’ sistematico questo suo lavoro, grazie a un edging piu’ diffuso e ad accordi con gli Isp (dei quali, mi pare, non sono noti i dettagli, per cui non siamo neppure sicuri che sara’ / sia stato solo edging e distribuzione dei contenuti in diversi nodi).”
Potrebbero anche star costruendo la bomba atomica: piu’ o meno c’e’ lo stesso legame con l’edge caching.
“Di fatto, Google vuole fare almeno in parte da solo il lavoro di solito svolto da Akamai e da operatori simili, o l’equivalente di quello che gli proponevano / imponevano Comcast e Verizon.”
La prima parte mi pare vera, la seconda non saprei.
“Per cui, il Wsj ha fatto un buon servizio”
Certo: centinaia di osservatori in giro per il mondo hanno sbeffeggiato l’articolo, comprese tutte le associazioni sulla neutralita’ della rete: pero’ l’articolo (che, ricordiamolo, affermava che Google aveva tradito la sua posizione sulla neutralita’ della rete) era un “buon articolo”.
(Immagino che se l’avessi seguita nei due anni scorsi capirei anche la logica con cui viene giudicato tale. My bad.)
E ancora:
“e che Google lo smentisse era scontato. L’unico errore lo ha fatto chi ha parlato di “svolta” di Google. In realta’ Google non ha fatto nessuna svolta,”
Ah, qui son rimasto di stucco. Perche’ devo dire che dal suo commento precedente, in cui diceva che “Google ha cambiato posizione” e “Google e’ tornata sui suoi passi” avevo dedotto che lei propendesse per la teoria della Svolta.
Capisco quindi che invece la sua opinione e’ che “Google ha cambiato posizione ma senza voltarsi”? Forse si e’ messa di profilo? Tre quarti? E se e’ “tornata sui suoi passi” senza svoltare ha forse camminato a ritroso?
C’e’ coerenza, lo ammetto: quelli che parlano di “Svolta di Google” si sbagliano di grosso, ma lei parla di “cambiamento di posizione”, quindi non e’ fra quelli: un cambiamento di posizione puo’ essere pure, che so accavallare le gambe, sdraiarsi, mettersi di sghimbescio, niente a che fare con la svolta. E “tornare sui propri passi” non vuol dire necessariamente tornare indietro: pure facendo il trenino camminando in circolo si torna sui propri passi!
Ok, quindi tutto coerente, qui, nulla da vedere, procediamo.
“esiste piu’ da 10 anni. Semmai Google, nell’esigenza di “prioritizzarsi” in modo piu’ sistematico, e’ soltanto venuto un po’ di piu’ allo scoperto. O, almeno, si e’ fatto beccare dal Wsj.”
Prioritizzarsi? Allora non ci siamo capiti. L’edge caching e il content delivery non prioritizzano. “Deliverano”. E funzionano bene solo per certi tipi di contenuti (multimediali): ad esempio, per i servizi di ricerca ad occhio e croce non servono a granche’ (perche’ la ricerca deve per forza andare verso i datacenter e quindi il fatto di avere un primo contatto vicino non aiuta, se non a stabilire la prima connessione con qualche millisecondo di anticipo). E il WSJ non ha “beccato” nessuno: Google e’ stato cliente di Akamai gia’ anni fa, quindi che Google faccia uso di edge caching non e’ uno scoop.
Tra l’altro anche per i contenuti per cui funziona, l’edge caching non e’ prioritizzazione: e’ ottimizzazione. Come limare un centinaio di millisecondi dal tempo di latenza di una ricerca, tramite l’installazione di un cluster piu’ potente, o il profiling del software coinvolto, o l’utilizzo di switch piu’ complessi che consentono comunicazioni piu’ dirette tra le macchine di un sistema distribuito.
Le faro’ uno schemino sperando che stavolta non si giri dall’altra parte a spernacchiare:
Ottimizzazione = Pratica Competitiva Su Base Tecnologica = Efficace come Motore Di Progresso = Buona.
Prioritizzazione = Pratica Competitiva Basata Su Accordi Commerciali Esclusivi = Indipendente da Progresso Tecnologico (e dal benessere degli utenti) = Cattiva
Ancora piu’ schematico:
Ottimizzazione = atleta che si allena e corre piu’ veloce
Prioritizzazione = industriale amico degli amici che paga la mazzetta al politico per passare davanti agli altri nella gara d’appalto
Spero le piaccia, come ricostruzione figurata.
“Il coretto di smentite all’articolo del Wsj, comunque, e soprattutto dai blogger (che sono sempre i piu’ ideologici, i meno “imparati” e i piu’ superficiali, tra gli osservatori ),”
Ma LOL: a differenza dei giornalisti, che sono notoriamente i tecnici piu’ esperti!
Poche balle: il WSJ ha scritto un articolo che gridava vendetta al cospetto d’iddio. E una serie di osservatori in giro per il mondo, tra cui il New York Times, Wired, BoingBoing, DslReports, Lessig, Isenberg, Doc Searls, SaveTheInternet, Gizmodo, ecc. (per citare solo quelli che trovo con 2 minuti di ricerca) hanno detto chiaramente che era un articolo vergognoso.
“A cominciare da Mantellini che titola “bugie” senza avere capito manco di cosa si sta parlando”
Io Mantellini non lo trovo delirante, al contrario di tante cose che ho letto in questi commenti.
“, e solo copiando da un blogger di cui “si fida”, come fa sempre (e sempre presupponendo che gli altri siano in malafede e che scrivano solo per distruggere chissa’ quale inesistente democrazia della Rete, il che, sinceramente, inizia a essere intollerabile).”
Eh, che Mantellini la faccia rosicare si era capito.
“E scusami se mi sembra importante dirlo.”
Sara’ forse il modo, che appare un po’ inusuale.
“Poi, sul fatto che lo shaping (la prioritizzazione) sia “cattivo” e l’edging invece sia “buono” si potrebbe discutere a lungo, e ”
Ma no, valah, smettiamola qua.
“soprattutto su quale sia la soluzione piu’ razionale e migliore per Internet stessa. Io sottolineo solo una cosa: tra shaping e edging il succo e’ sempre lo stesso, dal punto di vista dell’utente.”
Se l’utente ha i paraocchi, forse e’ lo stesso: e’ forse lo stesso utente che guarda il tg4 e pensa “sto guardando il telegiornale”?
“Ovvero: tra i servizi on line, chi ha i soldi e paga avra’ i contenuti piu’ veloci per gli utenti, e chi non ha soldi sara’ piu’ lento e rischiera’ di andare fuori mercato. Stop. Da questo punto di vista la soluzione implementata non conta per nulla. O molto poco.”
Stranamente, la tecnologia e’ anche una questione di risorse finanziarie.
“che sia chiaro che, qui in Italia, posso spernacchiare tutta la blogosfera per i prossimi decenni. E anche molti colleghi…. E, ovviamente, te.”
Che intanto non ho ancora capito se Google e’ tornata sui suoi passi voltandosi o sdraiandosi, e soprattutto come abbia fatto a “cambiare posizione” usando l’edge caching l’altro ieri, visto che e’ cliente Akamai da almeno un lustro.
Dicembre 18th, 2008 at 10:29
Baroncelli, non credo di dover perdere tempo per rispondere a una persona che invece di presentarsi correttamente, come informatico impiegato nella sede londinese di Google, si presenta come uno che ci capisce poco e vorrebbe capire meglio.
Comunque, Mantellini mi sta bloccando le risposte, ce n’e’ gia’ una in “pending” che avevo dato a Cafonauta, con gli indirizzi di alcuni miei interventi, e che rimarra’ li’ in eterno, immagino, per cui, fine della discussione, dato che non si puo’ procedere a singhiozzo.
Ciao, Fabio.
http://xoomer.alice.it/fabio.metitieri
Dicembre 18th, 2008 at 11:39
E ci risiamo col complottismo: che sia impiegato da Google non e’ mica un segreto, non per nulla le e’ bastata una ricerca (su Google, suppongo) per scoprirlo: avessi tenuto a mascherarlo avrei usato uno pseudonimo!
Detto questo, su net neutrality, openedge, etc. non ho mai letto nulla fino a due giorni fa: tuttora mi sento ben poco informato sull’ idea di neutralita’, ma non faccio fatica a vedere le contraddizioni in chi grida allo scandalo per una cosa che esiste da 10 anni.
Ora smetta di svicolare e si concentri sugli aspetti tecnici, perche’ in questo caso e’ la tecnica, che segna la differenza tra la fuffa e la sostanza.
(p.s.: chi ha detto che “ci capisco poco”?)
Dicembre 18th, 2008 at 12:49
Baronceli, nel tuo primo intervento hai scritto:
“A Metitieri, che e’ anni che studia la questione, chiedero’ di illuminarmi perche’ invece io non ne capisco un cazzo.”
Comunque, se vuoi discutere scrivimi in privato, perche’ qui non si puo’.
La mia email la trovi sulle mie pagine.
Ciao, Fabio.
http://xoomer.alice.it/fabio.metitieri
Dicembre 18th, 2008 at 13:49
Scrive Davide Baroncelli:
Detto questo, su net neutrality, openedge, etc. non ho mai letto nulla fino a due giorni fa: tuttora mi sento ben poco informato sull’ idea di neutralita’, ma non faccio fatica a vedere le contraddizioni in chi grida allo scandalo per una cosa che esiste da 10 anni.
Perdonami Davide. Nel mio primo e unico intervento avevo parlato di soluzioni tecniche che portano allo stesso risultato e che nessuno può vietare. Ci mancherebbe. Google faccia quello che gli pare ma a casa sua. Quello che io contesto è che lo faccia a casa mia, tra le mura del mio ISP. Il problema esiste e va discusso: Gli ISP sono i fornitori di un servizio all’utente finale o alle grandi corporazioni? Io a questa semplice domanda domanda vorrei una risposta. Ma vedo che in giro si parla d’altro.
e ancora…
il WSJ ha fatto bene? Repubblica ha fatto bene?
Per me hanno fatto benissimo anche se non sfugge un possibile conflitto di interessi.
P.S.
comunque sia questo scontro tra Davide e Metitieri mi piace molto. Litigano dicendo le stesse cose. Affascinante. :)
Dicembre 18th, 2008 at 14:54
Lunar, il “tuo” ISP e’ un’azienda terza, non casa tua: proprio per questo e’ importante che ci si chieda se quell’ISP si comporta “bene” o “male” rispetto al servizio che gli si chiede.
Un servizio di edge-caching co-locato presso il tuo ISP e’ una cosa che fa bene:
– a te come utente in quanto ti riduce la latenza nell’accesso ai servizi in caching e potenziali eventi negativi dovuti a interruzioni o ingolfamenti delle reti,
– al tuo ISP in quanto gli riduce la banda occupata in ingresso,
– al network (quindi anche ai concorrenti) in quanto riduce la quantita’ di dati in transito
– a Google, perche’ riduce la banda in uscita dai suoi datacenter e aumenta l’affidabilita’ dei suoi servizi.
Insomma, ne beneficiano tutti, salvo la concorrenza, che deve prendere adeguate contromisure: questo e’ quello che normalmente succede in qualsiasi agone competitivo, e non e’ per nulla diverso da quello che capita quando un’azienda si dota di nuovi apparati, o stringe una alleanza con un’altra per creare sinergie. In questo caso e’ pure meno problematico, perche’ quelle alleanze possono farle anche altre aziende.
Comunque: questa questione si e’ gia’ stemperata, e si spegnera’ definitivamente man mano che il video online (di Google o no, in tempo reale o no) si diffondera’, auspicabilmente rimpiazzando la televisione: in questo scenario l’edge caching e le CDN mi paiono una necessita’, quindi lo faranno tutti (come del resto lo fanno tutti gia’ ora, mi sa), e nessuno ne parlera’ piu.
Ma a quel punto probabilmente il WSJ (e Repubblica…) se ne saranno inventata un’altra: se il livello rimane questo, comunque, io mi preoccupo molto di piu’ per la neutralita’ dell’informazione, che per la neutralita’ della rete: e’ un argomento altrettanto delicato, e mi pare in mani molto meno affidabili.
A proposito, Metitieri: mi scuso, immaginavo che l’ironia nella frase di cui sopra fosse evidente (visto che era seguita da una domanda provocatoria sulle contraddizioni del suo commento…).
Dicembre 18th, 2008 at 15:56
La discussione è interessante, ed è un delitto segare gli interventi di uno degli interlocutori, imho.
Tra l’altro Baroncelli mi sembra si sappia difendere benissimo da sé, senza bisogono di papà Mantellini ;-)
Dicembre 18th, 2008 at 16:21
Davide,
lo vedi che siamo arrivati al nocciolo della questione: La neutralità della rete. Tutte le soluzioni tecniche atte a migliorare la “gestione della rete” vanno bene. Su questo siamo d’accordo tutti. Anzi, Metitieri è quello che da più tempo sostiene queste tesi. Te lo posso assicurare visto che con lui ho già avuto in passato uno scambio di idee a tal proposito. Il problema, quindi, non è il se ma il chi fa cosa. Io faccio parte di quella scuola di pensiero che ritiene improponibile che gli ISP si mettano a guardare “dentro” i pacchetti. Ti faccio l’esempio classico. Noi quando parliamo di Internet dobbiamo rifarci a modelli preesistenti. Per me Internet è come l’autostrada. Io entro al casello e pago un pedaggio in funzione della mia autovettura. Più grande è l’autovettura più il pedaggio sarà salato ma una volta in autostrada la mia panda ha gli stessi diritti di chi viaggia in mercedes. In caso di incidente, in caso di traffico intenso, io con la mia panda e il signore in mercedes ci fermiamo allo stesso modo. Questa è la neutralità della rete autostradale. Applichiamo lo stesso principio e abbiamo risolto tutti i problemi.
Dicembre 18th, 2008 at 17:40
Si’. Ma a me le rappresentazioni figurate mettono un po’ in crisi. Ma se proprio devo figurare, allora in questo caso preferisco pensare a tubi e fluidi.
Cioe’: supponiamo di avere in casa tubature (che non sia l’acqua :) ) che possano emettere diversi tipi di liquidi per ricevere i quali dobbiamo telefonare a dei fornitori.
I fornitori sono moltissimi, e si agganciano a delle tubature molto grosse, finanziate in parte da tutti i fornitori.
Quando io voglio, che so, l’aranciata sanpellegrino, telefono alla san pellegrino, e un signore dall’altra parte apre un rubinetto. In quel momento l’aranciata esce dagli stabilimenti della sanpellegrino (a San Pellegrino), e ad una certa velocita’ viene spinta verso casa mia, dove arriva dopo un po’ di tempo. Da quel momento in poi, cioe’ da quando ha cominciato ad arrivare, arriva sempre alla stessa portata, finche’ non ritelefono al signore per chiedergli di chiudere il rubinetto.
Il problema del sistema, e’ che quando un cliente richiede la Coca Cola, i distributori centrali sono in Germania, e la Coca Cola ci mette due giorni ad arrivare ai rubinetti. Allora la Coca Cola comincia a installare grossi contenitori presso le locali aziende dell’acqua, in modo tale che quando gli utenti la richiedono, la Coca Cola arrivi prima.
Ecco, se questo fosse l’unico paragone possibile, allora l’unico vantaggio di Google nel montare cache piu’ vicine agli utenti sarebbe la diminuzione nei tempi di arrivo della Coca Cola al rubinetto. Nel caso di un video youtube, direi che questa diminuzione si puo’ quantificare tra i 50 e i 300 millisecondi per video.
Ripeto: tra i 50 e i 300 millisecondi per video. Su un video di 5 minuti, questo significa una riduzione dell’esperienza utente quantificabile in uno su diecimila. Un po’ come se per andare da Milano a Roma ci si mettessero tre ore, cinquantanove minuti e cinquantanove secondi invece di quattro ore. Capirai.
Ma qui interviene l’altra rappresentazione figurata che tu fai: l’autostrada. Direi che la content distribution, rispetto all’esempio dell’autostrada e’ come se in un giorno in cui tutti vogliono andare nello stesso posto (che so, in due o tre posti molto popolari del Centro Italia per le vacanze il primo di agosto), invece di andarci con una macchina per famiglia qualcuno mettesse dei grossi sistemi di trasporto che ospitano le famiglie che vogliono andare nella stessa destinazione, riducendo quindi il numero di macchine che circolano, e migliorando lo stato di tutta la rete autostradale.
In altri termini: se il primo esempio dipinge i vantaggi di una cache in termini di “velocita’”, il secondo dipinge i vantaggi della content delivery: prendersela con Google che vuole fare edge caching, e’ come dire “il treno e’ cattivo, perche’ se una nuova societa’ volesse mettersi nel business dei trasporti non potrebbe facilmente competere con le esistenti societa’ di ferrovie”. Oppure: “i distributori di bibite nel mio ufficio sono maligni, perche’ se io volessi aprire una azienda di bevande, non potrei avere lo stesso vantaggio”.
Ora: a differenza degli accordi di distribuzione delle bibite nelle aziende, l’accordo di Google e’ non esclusivo: quindi altre aziende possono farlo. E a differenza di questo, per cui il vantaggio nell’avere bibite in ufficio invece che doversele far consegnare dal bar ogni volta che le si vuole e’ consistente, il vantaggio in termini di tempi di distribuzione e’ minimale (pochi millisecondi).
Il vantaggio principale sta nel rendere fattibili cose che altrimenti non lo sarebbero: poter andare tutti nello stesso posto nello stesso momento, senza che tutte le strade della citta’ si ingolfino. Ovvero: distribuzione di contenuti live.
Molti illustri commentatori in questi giorni si strappano le vesti e si tuffano nella retorica dicendo “ah, disgrazia, come potrebbe una nuova Google competere con la ricerca di Google, se venisse implementata questa cosa?”: ignorano, o fanno finta di ignorare, che una architettura di questo tipo NON DIMINUISCE I TEMPI DELLA RICERCA WEB IN NESSUN MODO.
Ripeto: l’edge caching NON serve per migliorare le ricerche. Serve, al limite, per ridurre fenomeni di interruzione dei video, per mandare video dove non potrebbero arrivare perche’ le reti a monte son troppo scarse, serve come tecnologia abilitante per la distribuzione di contenuti televisivi via internet (cosa buona e giusta, per giove, e non vedo l’ora che avvenga per davvero).
Quindi: basta con ‘sta storia, l’edge caching, le content delivery network non sono niente di strano.
Al contrario, fermare i treni di un certo tipo per far passare prima quelli di un altro tipo, puo’ essere negativo (e fare incazzare assai gli utenti dei treni regionali): e’ vero quando si tratta di treni sempre della stessa azienda, sarebbe verissimo se dei signorotti locali si appropriassero degli scambi e bloccassero treni di una certa azienda per fare andare avanti quelli dell’altra con cui inciuciano, o se fermassero i pullman sulle loro autostrade per favorire i treni o gli aerei. Quello che google teme, se ho capito bene, sono scenari di questo tipo, applicati ai dati.
Quanto agli ISP che controllano i pacchetti, pensaci bene: se tutti i governi d’Europa seguono l’esempio degli esperimenti francesi, in cui mi pare il governo abbia investito gli ISP della responsabilita’ di controllare che non avvengano comunicazioni che violano il diritto d’autore, cosa credi che questo vorrebbe dire? Non solo che gli ISP dovrebbero individuare flussi di un particolare tipo di protocollo (ex: bittorrent), ma “guardarci dentro”, per capire quali usi di bittorrent siano fraudolenti e quali no. E quando bittorrent venisse veicolato da altri protocolli di trasporto (tipo HTTP tunneling, immagino si possa gia’ fare?), dovrebbero smontare l’http, o indagare gente sulla base delle destinazioni di rete delle loro comunicazioni.
In altri termini:
– Google vuole fare content delivery e edge caching con tecnologie proprietarie
– I governi europei stanno varando provvedimenti che non sono applicabili (mi pare) se non monitorando attivamente tutte le comunicazioni
– Alcuni giornali montano un caso mediatico usando parole come “voltafaccia”, “attacco alla neutralita’”, “violazione del principio ‘don’t be evil'” con nessuna base effettiva
Quali di questi tre scenari ti sembra quello piu’ preoccupante?
Dicembre 18th, 2008 at 17:46
Lorenzo,
apprezzo molto i tuoi preziosi consigli sulla moderazione di questo blog.
Dicembre 18th, 2008 at 18:19
Se si stratta di una semplice (si fa per dire) infrastruttura di reverse-proxy à la Akamai, non vedo davvero come possa avere a che fare con la neutralità della rete.
Sarebbe come dire che un server ospitato in un datacenter di Telecom mina la neutralità della rete perché i clienti di Telecom vi accederebbero più velocemente di quelli di Infostrada. Dovrebbero esistere datacenter con la stessa quantità di banda in entrata da tutti i provider? Mi pare assurdo.
Se l’accordo con gli ISP non è esclusivo (e non v’è ragione che lo sia) non vedo come questa cosa possa dare problemi.
Se poi, come dice Longo, qualche ISP potrebbe essere tentato di comportarsi in modo disonesto solo perché ha un cliente (parecchio) pagante, beh, mi pare che il problema non sia Google, ma quello specifico ISP.
@Massimo, ci credo: sono ottimi consigli. ;-)
Dicembre 19th, 2008 at 00:15
Davide, a questo punto mi sembra di stare in una giostra. Lo dico senza ironia o altro. Torniamo sempre al punto di partenza, al mio primo commento. La mia ricetta, semplice, è delocalizzare e ancora delocalizzare. Mi hai mostrato delle cartine. Bene, evidentemente non basta più. Andava bene prima ma ora, con i video, quel modello non basta più. Con milioni di utenti che stanno guardando lo stesso video non ha senso far viaggiare quei pacchetti come una trottola. Sempre gli stessi, uguali a se stessi. Lo capisco benissimo. Ma questo è un problema di google e dell’utente finale. L’ISP in tutto questo deve restare neutrale. Vedi Davide, io non ho nulla contro google. Pensa che lo scorso anno ho cambiato provider proprio a causa di YouTube. Il mio provider in alcune ore del giorno faceva talmente schifo che io non riuscivo a guardare un video con un flusso decente. Ho fatto un reclamo, poi il secondo e al terzo ho cambiato provider.
Posso pensare, legittimamente, che il provider in questione potesse avere un interesse a che io non passassi il mio tempo a guardare i video su YouTube? Scusate la costruzione macchinosa della frase. Non me ne viene una migliore. :)
Dicembre 19th, 2008 at 11:32
> L’ISP in tutto questo deve restare neutrale.
E’ vero, ma “neutrale” non significa “gestire ugualmente male tutto il traffico”. Nel caso dell’edge caching, che e’ un’ottimizzazione utile per tutti, neutrale significa non creare barriere al fatto che qualunque operatore che ne voglia usufruire possa farlo (dal momento che lo fa qualcuno, ovviamente).
E questo perche’ non e’ vero che “[il video]è un problema di google e dell’utente finale.”: ci sono interessi economici per cui alcuni ISP recentemente hanno cercato di battere cassa dicendo che Google “consuma troppa banda”.
Leggi qui:
http://www.informationweek.com/blog/main/archives/2008/12/isp_funded_grou.html
e qui:
http://telcommunicator.blogspot.com/2008/12/should-philips-contribute-to-cost-of.html
e capirai per quale motivo e’ importante poter ridurre il flusso di dati che passa per effetto del video.
Alla fine non c’entra solo google: c’entra tutta l’industria dello streaming, il che suppongo includa chiunque sia interessato a fare streaming di film online, servire contenuti televisivi via internet, ecc.: poter usufruire di tecnologie abilitanti e’ importante se queste cose le si vuole avere (Google o no).
E io, personalmente, la possibilita’ di avere televisione via internet la voglio: non perche’ mi interessi particolarmente la televisione, ma perche’ mi interessa particolarmente la democrazia.
Dicembre 19th, 2008 at 11:46
Altro articolo che dice le cose come stanno (dal punto di vista tecnico):
http://techliberation.com/2008/12/18/googles-openedge-could-dramatically-reduce-googles-impact-on-the-internets-core/
“caching programs like Google’s have the potential to dramatically reduce the total traffic on tier one and tier two carriers (networks that peer, or exchange data without charge, with other networks). But this traffic reduction is one of the biggest benefits Google’s program provides to the rest of the Net.”
“This also means that the average web user will have a much less congested Internet to deal with.
Additionally, small web businesses won’t have to put up with an Internet filled with sleeping cats. This would give Google some edge over the little guy, but it also represents Google paying to reduce its bandwidth use, making it easier for much smaller competitors to have a presence online.”
“Does OpenEdge hurt the future of the Internet? No, it improves it for everyone.”
Dicembre 19th, 2008 at 15:11
a Davide, famo a capisse, fai il bravo. Il problema tecnico, il beneficio di certe scelte tecniche le capisce pure il mio gatto. Il problema NON è tecnico. Se la Coca Cola restava ad Atlanta la bevevano solo lì. Invece la Coca Cola è disponibile sotto casa mia perchè la Coca Cola ha aperto stabilimenti, depositi, magazzini in giro per il mondo. E’ la Coca Cola che si è ramificata creando una rete propria. Qualcuno dica alla signora google che di fronte alla mia centrale telefonica ci sono ampi magazzini, uffici, locali sfitti. Ecco, ne affitti uno, ci piazzi i suoi server e la smetta di rompere i marroni al resto del mondo. ecchecasso. :(
Dicembre 19th, 2008 at 15:24
Perche’?
Dicembre 20th, 2008 at 00:01
Lunar, ha ragione Baroncelli: perché? Se Google affitta i magazzini davanti alla tua centrale telefonica da qualcuno dovrà pure comprare connettività, no? E allora che differenza c’è tra mettere i propri server in un magazzino e poi collegarlo con una linea remota a un ISP, oppure metterlo direttamente nel datacenter dello stesso ISP a cui comprare la stessa connettività?
Tra l’altro, Lunar, qualsiasi server sta da qualche parte. Soprattutto in una realtà piccola come quella italiana, dove credi che siano i server delle nostre aziende? Presso le aziende? Qui non posso perché in molti non hanno piacere a che queste cose siano pubbliche, ma di qualche MIB30 ti so dire dove sono i loro server, ovvero in che datacenter di quale operatore di telecomunicazioni.
Poi se vogliamo, possiamo dire che in italia non esiste un vero mercato dei datacenter. Salvo rare eccezioni sono tutti di operatori di telecomunicazioni. Ma questo c’entra poco e magari lo diciamo un’altra volta :-D
Dicembre 20th, 2008 at 00:38
Non che sia il piu’ furbo del mondo, ma state ancora a scervellarvi perche’ BigG si tiene i suoi bei server in casa?
Valutate la questione sotto l’aspetto giuridico, magari pensando a tutto il trattamento di dati che fanno…
Dicembre 20th, 2008 at 10:06
“Vostro onore, confermo quanto messo a verbale nel primo commento e tutte le successive integrazioni. Non ho altro da aggiungere.”
Che dici Daniele, può bastare? :)
Dicembre 20th, 2008 at 10:54
Lunar, penso che i problemi di BigG siano altri e ben piu’ seri. Tutto qui.
Al di la’ della battuta sulla forma giuridica, non entro nel merito di questa nuova sortita di Google (anche se mi pare proprio una non notizia), ma piu’ che per motivi tecnici, la scelta di tenere i server ben distanti, ad esempio, dall’Italia ha, secondo me (ed ho qualche elemento pur molto labile), significati giuridico-strategici.
Pensa un po’: ricordi la storia del ragazzo disabile su GVideo? Sai che alcuni top di BigG sono a giudizio? Rifletti un po’ su tutte le varie implicazioni.
Dicembre 20th, 2008 at 11:21
Daniele, non volevo polemizzare con te ma solo avere un “conforto” giuridico sulla forma da me utilizzata. :)
Sulla vicenda del video ho ben presente la cosa e la stavo pure evocando in questo post ma poi ho pensato che ci avrebbe portato fuori pista.
Riguardo alla non notizia, mi spiace ma non sono d’accordo. Se passasse (e non passerà) la proposta di google sarebbe la fine della rete. Si trasformerebbe in una grande, universale, TV on demand. Con un solo padrone e una sola fonte. A questo punto tutti gli altri media…?
E’ un caso che sia stato il wsj a dare l’allarme?
Evidentemente le antenne di Rupert Murdoch funzionano bene e su questo non ho mai avuto dubbi.
Dicembre 20th, 2008 at 11:25
Mica ho pensato che volessi polemizzare. Se l’ho lasciato intendere, scusami.
Sul resto, devo dire che le mie competenze tecniche ad un certo punto si fermano. Dunque, mi rimetto a chi ne sa di piu’.
Dicembre 20th, 2008 at 18:17
Lunar, da quello che ho capito io il progetto e’ gia’ in corso: cioe’, l'”openedge” non era mica una proposta, ma un progetto in atto.
Il google policy blog dice “All of Google’s colocation agreements with ISPs — *which we’ve done* through projects called OpenEdge and Google Global Cache — are non-exclusive,”: “which we’ve done” significa “che abbiamo fatto”, non “che pensiamo di fare”.
E non c’e’ nulla di strano: non essendo una novita’, ma semplicemente l’uso di Google di una tecnica gia’ usata da altri, non ha bisogno di essere santificata da qualche istituzione: che fosse un pericolo per qualcosa se l’e’ inventato il WSJ, ma come ripetono da giorni un sacco di osservatori, non e’ nulla di nuovo.
Timori su “un solo padrone e una sola fonte” poi non ne ha nessuno: internet non e’ mica l’Italia, e finche’ il CEO di Google non si candidera’ alla presidenza della repubblica americana senza lasciare la direzione dell’azienda direi che possiamo stare tranquilli.
Dicembre 22nd, 2008 at 22:44
[…] (il diritto di uguaglianza per tutti i bit che girano su Internet), argomento ripreso tra gli altri da Massimo in Italia (tra l’altro, complimenti per il nuovo template!). Viene confutato da molti, su […]