Archive for the ‘Redattori’ Category

Mappi-amo la città

giugno 21, 2012

Si chiama Genova Mappe, è attivo da poco più di un mese e si presenta come un affascinante progetto web 2.0, per di più made in Genova. L’idea, recensita anche dal Corriere della Sera, è molto semplice: vedete qualcosa che non va in città? Avete qualche proposta che pensate possa essere valida ma temete di perderla nella giungla della burocrazia? Con Genova Mappe basta uno smartphone (o fotocamera + pc), si fotografa l’oggetto in questione, si compila un breve report, si geolocalizza sulla mappa e in poche “ditate” aggiungerete la vostra segnalazione a quelle degli altri utenti, creando una  mappatura sempre più completa delle criticità del territorio. Per una città di mugugnoni come Genova, praticamente un sogno!

CHI C’ È DIETRO
L’ideatore di Genova Mappe è Enrico Alletto,  un programmatore, ma soprattutto un cittadino in rete, che segue con molta attenzione tutto ciò che orbita attorno al web 2.0 attraverso il suo blog personale. Lanciato il progetto online ha subito trovato la convinta collaborazione di Mentelocale che si è fatta promotrice di Genova Mappe curando una rubrica apposita sul proprio portale. A breve partirà anche una collaborazione con il Politicometro che, dopo aver seguito da vicino le amministrative genovesi dichiarazione per dichiarazione, lancerà una nuova rubrica di inchieste partendo proprio dalle segnalazioni di Genova Mappe per portarle sui tavoli dell’amministrazione pubblica.

COME NASCE
Genova Mappe usa la piattaforma Ushahidi, un software free e open source nato in Kenya nel 2008 a seguito degli scontri post-elettorali. Il principio con cui è nato Ushahidi (che in Swahili significa “testimonianza”), è molto semplice, ovvero adoperare  crowdmap per raccogliere tutte le segnalazioni di violenze nel paese e aiutare a coordinare gli aiuti. Dal Kenya, Ushahidi è stato esportato ad Haiti per il terremoto del 2010, dove ha conosciuto la consacrazione per il significativo supporto che ha fornito nell’organizzazione dei soccorsi. Negli ultimi anni la piattaforma è stata miglorata e ampliata, rimanendo sempre open source, e recentemente, dopo esser stata presentata nel libro La scimmia che vinse il Pulitzer di Bruno e Mastrolonardo, è arrivata anche in Italia dove ha fatto la sua comparsa a fine 2011 con Emergenza Neve e Anpas (Associazione Nazionale Pubbliche Assistenze). Genova Mappe, rispetto ai casi precedentemente illustrati ha la peculiarità di non essere nata per far fronte ad un’emergenza, ma per porsi come strumento di partecipazione online, la quintessenza del web 2.0.

COME FUNZIONA
Il punto di forza di Ushahidi, e quindi di Genova Mappe, è la versilità, che consente di operare in condizione logistiche di comunicazione diverse, adattandosi a utlizzi differenti. La funzione di base è rendere disponibili, anche in tempo reale, informazioni geolocalizzate relative a diverse categorie sulla mappa, permettendo di analizzare il flusso temporale degli avvenimenti attraverso una timeline. È possibile ricevere notifiche via mail sulle segnalazioni, scegliendo di seguire anche solo una categoria (ad esempio lo stato delle strade) e una sola zona (il quartiere di Castelletto).  Per quanto riguarda gli smartphone, Genova Mappe è facilmente utilizzabile scaricando gratuitamente la app di Ushahidi dall’Android Market o dall’App Store. Se invece si vogliono solamente seguire le segnalazioni, altri due mezzi utilizzabili sono i social network, con la pagina su Facebook e su Twitter (@GenovaMappe).

RISULTATI
Il tempo trascorso dal lancio di Genova Mappe è ancora troppo poco per poter fare un bilancio attendibile dei risultati raccolti. Merita però una menzione il fatto che, seppur in poco tempo, una segnalazione su un attraversamento pericoloso in zona Manin è arrivata lo scorso 19 giugno  sui banchi del Consiglio comunale di Genova. Che si stia muovendo qualcosa? L’importante – parafrasando De Coubertin – è…partecipare!

Matteo Agnoletto

 

Easyvoyage VS Tripadvisor

giugno 20, 2012

Quando Easyvoyage.com è nato, nel 2001, era un prodotto all’avanguardia, talmente all’avanguardia che il concetto non era stato subito compreso dal suo mercato di riferimento, quello francese, ancora digiuno da esperienze di questo tipo. Consacrato al mondo dei viaggi, si proponeva come sito di infomediazione, un neologismo che sta ad indicare la sua duplice inclinazione: quella commerciale da un lato e quella di canale informativo dall’altro.

Attraverso dei contratti con diversi partner commerciali (agenzie di viaggio on line, tour operator che vendono i loro prodotti in linea, compagnie aeree…), Easyvoyage.com offriva, e offre ancora, un servizio di comparazione su voli e pacchetti vacanza.

Una redazione si occupava, e si occupa, invece di alimentare i contenuti del sito, dalle guide viaggio di tutti i Paesi del mondo ai reportage, da rubriche di informazioni pratiche a notizie aggiornate quotidianamente, dai dossier tematici alle recensioni degli hotel, visitati personalmente dai giornalisti.

L’idea era buona e abbastanza visionaria da sopportare l’iniziale freddezza del mercato per proiettarsi in un futuro di successo, tant’è che, qualche anno più tardi, tra il 2007 e il 2010, la società decise di affiancare al portale francese i suoi gemelli spagnolo, italiano, tedesco e inglese, pubblicati nelle rispettive lingue e ciascuno con una propria redazione.

In tempi non sospetti, quando le novità del Web 2.0 erano ancora fantascienza, Easyvoyage poteva vantare un posizionamento di tutto rispetto nel campo dell’infomediazione di viaggio. Nel 2010, malgrado l’apertura dei nuovi siti internet, un fatturato considerevole e una visibilità (seppur forse ritoccata all’eccesso) di sei milioni di visitatori unici al mese, il gruppo non fu più capace di reggere il confronto, nemmeno su scala europea, con il neo-affermato leader del settore, Tripadvisor.

Il colosso americano era nato su per giù nello stesso periodo del gruppo francese ma il suo concetto era completamente diverso. Se i contenuti di Easyvoyage.com e le sue recensioni di hotel si basavano sul giudizio espresso da una redazione di una ventina di professionisti, in linea con le direttive top-down del Web 1.0, quelli di Tripadvisor erano generati direttamente dagli utenti, in perfetta filosofia Web 2.0.

Immensi i vantaggi di questo secondo approccio, anche dal punto di vista dei guadagni per l’azienda: i contenuti sono generati automaticamente, senza bisogno di pagare gli stipendi dei giornalisti né le loro trasferte in giro per il mondo con l’obiettivo di visitare gli hotel da recensire, e la quantità di avvisi è potenzialmente infinita, vista la completa apertura del sito ad ogni contributo, senza considerare il potere intrinseco della community, la vera chiave di volta del successo, perché i suoi componenti virtuali si danno fiducia l’un l’altro sulla veridicità dei commenti.

Da un lato gli esperti, dall’altro la community, da un lato il Web 1.0, dall’altro il Web 2.0. E sono i secondi a vincere. Se ne sono resi conto anche quelli di Easyvoyage, che hanno lanciato a loro volta una sezione dedicata ai commenti dei viaggiatori, cercando di affiancarsi tardivamente alla filosofia del loro principale concorrente.

Ma la domanda è questa: ci si può fidare davvero delle recensioni scritte da viaggiatori anonimi su hotel in cui non possiamo essere sicuri abbiano soggiornato veramente?

Anche lasciando perdere lo scandalo sollevato dallo studio psico-linguistico della Cornell University che nell’agosto del 2011 ha messo in evidenza come molte delle recensioni siano palesemente false e, secondo l’inchiesta del francese inRocks, costruite a tavolino da agenzie prezzolate, si può dire che Tripadvisor è rimasto vittima del suo successo. Con i suoi 50 milioni di visitatori unici al mese, il portale ha assunto un potere talmente alto sulle scelte dei viaggiatori che l’idea di base non poteva che degenerare. Per gli albergatori era diventato troppo importante comparire ai primi posti nella classifica del sito per permettere che avvisi negativi mettessero in discussione la qualità delle loro strutture. Inevitabile quindi il ricorso a recensioni entusiastiche costruite a tavolino magari non per forza da agenzie assoldate allo scopo, ma anche semplicemente dal proprietario e da suo cugino.

C’è da chiedersi dunque se, dietro all’utopia democratica che sta dietro ad alcuni dei concetti del Web 2.0, non si nasconda nella pratica un loro completo travisamento, a causa dello sfruttamento commerciale e mediatico di un prodotto nato con le più nobili intenzioni.

Non è forse il caso, a volte, di rifugiarsi nel bozzolo rassicurante e vagamente autoritario del conservatorismo Web 1.0? Quello dell’informazione impartita dall’alto, ma, si spera, verificata e attendibile? Quello delle redazioni in cui i giornalisti sono pagati per il loro sacrosanto lavoro? 

Silvia Cher

Il più grande spettacolo dell’ S3

giugno 4, 2012

Il Samsung Galaxy s3

No, non è il titolo dell’ultima canzone di Jovanotti colto da improvvise manie tecnologiche. E non è neppure una partita di battaglia navale.

Per chi non lo conoscesse, il Samsung Galaxy S3 è destinato a diventare (a detta dei più esperti) il miglior smartphone del  2012. In casa Apple le mani inziano già a prudere, perchè non si riesce ad immaginare qualcosa che vada oltre l’ultimo prodotto della società asiatica: l’Iphone 5 dovrà per forza sorprendere con effetti super, super, e ancora super speciali.

La presentazione ufficiale del terzo erede della dinastia Galaxy è andata in scena il 3 maggio: scusate il ritardo. Ma ho voluto riportare questa piccola recensione a seguito del briefing organizzato una settimana fa a Torino per i promoter Samsung, presso il quale ho potuto gustarmi una serie di video ad effetto ripresi proprio dallo show londinese.

Che dire, i coreani ci sanno fare.

Oltre ad aver prodotto un device incredibilmente veloce (processore quad core da 1.4 ghz), con un ampio e definitissimo display (4.8″ Super Amoled HD), dotato di una connettività Hsdpa a 21 Mbps (già gettate le basi per supportare il 4G), oltre alla “solita” fotocamera da 8 megapixel, il Galaxy s3 è “deisgned for humans“. Riconoscitore visivo (lo schermo si accende e si spegne in base al vostro sguardo, per evitare sprechi energetici) e ottima interazione con i comandi vocali, rendono questo prodotto davvero unico nel suo genere.  E ovviamente targato Android (4.0).

Ho avuto modo di poterlo testare in anteprima (riporto il video effettuato al briefing)  e le impressioni sono state naturalmente ottime. Forse si poteva porre più attenzione sulla scocca del telefono, la sensazione è di tenere in mano un oggetto in comune plastica (nonostante il vetro più rinforzato rispetto al predecessore) : giusto per cercare il pelo nell’uovo.

Il costo del device, che in Italia è distribuito solo nella versione da 16 gb (espandibili) di hard disk, è di 699 euro.

Già l’s2 aveva stupito tutti, ma qui siamo andati oltre. E dunque come non dare il giusto tributo ad uno smartphone così, organizzando una presentazione degna della notte degli Oscar: Effetti luci da concerto dei Pink Floyd, e orchestra sinfonica ad accompagnare le suggestive immagini proiettate sul megaschermo dell’Earls Court Arena.

Cosi sul palco si sono alternate le varie figure di spicco della Samsung (tra i quali ovviamente  il presidente JK Shin) introdotti dalla presentatrice inglese Susy Perry.

L’effettto ottenuto è stato davvero notevole, segnale che la casa delle “Tre Stelle” ha riposto grandissima attenzione nel marketing e comunicazione, aspetto fondamentale per qualsiasi azienda al giorno d’oggi. E come non potrebbe esserlo per la società top seller nell’ambito della telefonia?

Inevitabile il confronto con il “rivale” Iphone: Steve Jobs aveva scelto una sede molto più riservata. Tra la penombra ed un semplice schermo alle sue spalle, bettezzava il quarto melafonino tra urla entusiaste dei presenti, che come eccitati scolari assistevano alla lezione del compianto “guru”.  Letteralmente opposto il clima trionfale (ma estremamente accogliente e familiare, sensazione decisamente insolita) realizzato a Londra, in una cornice di religioso silenzio.

Per chi avesse voglia di apprezzare gli sforzi targati Samsung per presentare l’ultimo prodotto, riporto il video della presentazione del spettacolare device “designed for humans”. Per apprezzare questo aspetto del telefono sarà necessario qualche giorno in più, ma non potrà sfuggirvi che il più grande spettacolo dell’ S3 forse è già  andato in scena…


Francesco Colombo

Potere, comunicazione e controllo

marzo 21, 2011

1. Il Panopticon

Il Panopticon nasce come proposta per risolvere il problema delle prigioni.

Il filosofo utilitarista inglese Jeremy Bentham propone, a questo riguardo, un nuovo modello di carcere; la soluzione architettonica di Bentham si trasforma in progetto nel 1791.

La prigione-modello si configura come una costruzione a pianta centrale, con una torretta al centro che ospita un unico controllore. Da questa posizione, il guardiano vede i vari settori dell’edificio circolare nel quale sono alloggiati singolarmente i detenuti.

Il trucco della macchina panottica è che il sorvegliante può coprire con un colpo d’occhio ogni cella in tutta la sua estensione, mentre i prigionieri — che pure sanno di essere visti — non possono vederlo. La percezione di un’invisibile onniscienza dovrebbe portare ad un rispetto integrale della disciplina, ad un ordine automatico.

L’occhio del Controllore diventa una chiara metafora del potere che tutto controlla e tutto ordina. Metafora inquietante, perché richiama sia l’occhio di Dio, il potere religioso della visione, sia l’occhio di Medusa, che pietrifica con lo sguardo.

Il detenuto che sente di essere guardato non compirà alcun atto trasgressivo. L’occhio del guardiano è impersonale, anonimo, è un occhio che distanzia e oggettivizza: in un universo dominato dal potere assoluto dello sguardo non c’è alcuno scambio, ma solo un flusso informativo unidirezionale.

Il filosofo illustra questa struttura con cartine e disegni, e si rende conto che la sua utopia architettonica non è soltanto un nuovo tipo di carcere: lo stesso principio può essere applicato ad altre realtà, a tutti i luoghi in cui le persone devono essere controllate, dalla scuola alla fabbrica, dagli ospedali ai manicomi.

Quis custodiet ipsos custodes?

Il Panopticon come modello di organizzazione di una società è una distopia, un luogo da incubo nel quale nessuno può controllare i controllori onnipotenti.

La comunità riorganizzata sotto il giogo della macchina panottica è manichea, rigidamente divisa in due parti tra colui che controlla e colui che è controllato, e ciascuna parte ha ruoli, funzioni e gerarchie ben distinte.

La non reciprocità, la mancanza di comunicazione tra i componenti del meccanismo, è uno degli elementi fondamentali del dispositivo panottico e della sua tecnica di controllo del potere.

Il sogno — o il progetto — utopico, quando diventa operazione totalizzante che tende al tipo, alla ripetizione e all’ortodossia, nega se stesso: se consolidandosi elimina alla radice ogni alternativa, l’utopia si rovescia in una distopia, proprio perché nega la possibilità di prefigurare ulteriori utopie.

2. 1984

Moltissimi sono i temi che si intrecciano nel romanzo 1984 (1949), di George Orwell: il potere, la guerra, il proletariato, la tortura, il linguaggio, il pensiero, i mezzi di comunicazione…

Dal momento che una trattazione esaustiva sarebbe impossibile in questa sede, cercherò di ricondurre alcune di queste tematiche a quello che è il comune denominatore di tutte, il controllo, e di fare alcuni collegamenti.

2.1. I contenuti del pensiero: il bispensiero

Winston Smith, il protagonista del romanzo, lavora al Ministero della Verità, dove si produce l’informazione di regime. Attraverso la falsificazione sistematica dei documenti, viene creata ogni giorno una nuova realtà, che deve adeguarsi ad un’ortodossia in perenne evoluzione.

Le “notizie” sono costruite ad arte per restituire l’immagine dell’infallibilità e dell’invincibilità: mai vengono annunciate sconfitte, mai fallimenti o errori di previsione. Ogni notizia indesiderabile è prontamente censurata o capovolta.

I membri del Partito sono tenuti ad utilizzare il meccanismo psicologico del bispensiero per adattarsi senza batter ciglio al continuo aggiornamento della verità.

Il doublethink viene definito come “la capacità di condividere simultaneamente due opinioni palesemente contraddittorie e di accettarle entrambe”. Lo slogan trinitario “LA GUERRA È PACE — LA LIBERTÀ È SCHIAVITÚ — L’IGNORANZA È FORZA” è la sua più perfetta espressione.

Al cittadino di Oceania è richiesto un continuo aggiustamento della memoria: deve compiere — consciamente — l’operazione di dimenticare ciò che il Partito ritiene necessario dimenticare, e poi dimenticare d’aver dimenticato. Viene così a crearsi una sorta di cecità volontaria alle contraddizioni e alle menzogne del regime.

L’assassinio della memoria cancella ogni orizzonte temporale e imprigiona la storia in un eterno presente; la capacità critica dell’individuo si dissolve nell’impossibilità di prefigurare una qualsiasi comparazione con tempi e luoghi diversi.

2.2. Gli strumenti del pensiero: la neolingua

Il controllo totale non passa soltanto per la manipolazione dei contenuti del pensiero, ma anche per gli strumenti, i mezzi con cui il pensiero si esercita.

Alla riscrittura della Storia, il regime abbina la revisione della lingua: all’archelingua (l’Inglese così come lo conosciamo) si sostituisce per gradi la neolingua (newspeak), e i vocabolari per la prima volta si restringono.

Il fine di questa operazione è rendere il pensiero divergente “letteralmente impensabile, per quanto almeno il pensiero dipende dalle parole con cui è suscettibile di essere espresso”.

La trasformazione ha da essere graduale, e il vocabolario diventa di anno in anno più piccolo: l’idea alla base della neolingua, infatti, è la rimozione di tutte le sfumature di significato, di tutti i sinonimi e i contrari.

Di ogni vocabolo sopravvive una sola accezione, e il suo inverso si costruisce con un prefisso: per fare solo un esempio, la parola “cattivo” viene rimpiazzata da “sbuono”.

Tutti i termini indesiderabili o comunque associabili a significati eterodossi sono aboliti.

Prendiamo in considerazione la parola “libertà”. Ogni libertà è stata soppressa in Oceania; eliminando anche la parola, cessa di esistere la stessa possibilità di pensare al concetto di libertà.

È proprio questo l’obiettivo della neolingua: rendere impensabile qualsiasi pensiero in contrasto con i principi del Socing, rendere impossibile lo psicoreato. La manipolazione del linguaggio è volta non ad estendere, ma ad annichilire le facoltà dell’intelletto umano.

2.3. Comunicazione e azione: i teleschermi

I teleschermi hanno una duplice funzione di trasmissione e ricezione: dislocati nelle abitazioni come negli spazi pubblici, il loro scopo è quello di intercettare ogni comportamento, ogni discorso e ogni sguardo — mentre diffondono la propaganda di partito.

Tutto quello che gli schermi vedono e sentono è potenzialmente intercettato dalla Psicopolizia, organo addetto alla repressione dell’eteredossia. La polizia del pensiero agisce sempre di notte, e il sospetto dissidente è di solito trasformato in spersona.

Lo psicocriminale non viene semplicemente sequestrato o eliminato, ma cancellato dalla memoria, con la distruzione di ogni prova della sua precedente esistenza.

Ciò che maggiormente contraddistingue il totalitarismo repressivo descritto in 1984 è la totale assenza di libertà, condizione ritenuta necessaria per la tenuta dell’ordinamento.

L’iniziativa individuale è repressa sul nascere, e la vita dei membri del Partito è come imprigionata in un grande panopticon: in ogni luogo pubblico, in ogni abitazione, i teleschermi guardano e ascoltano continuamente. Per eliminare alla radice la possibilità di cospirazioni contro il sistema, il Partito arriva a sorvegliare perfino le espressioni facciali degli individui.

Lo stesso Winston crede che i dispositivi siano in grado di percepire il battito del cuore; teme il sonno, che gli nega il controllo sulle sue stesse parole.

Anche quando l’uomo dorme, l’occhio elettronico è sempre lì con lui, vede lo squallido appartamento in quasi tutta la sua estensione, non si può spegnere, ascolta.

3. Occhi elettronici

Il tema della dittatura dell’occhio è più che mai attuale.

Siamo circondati da mezzi di comunicazione che possono guardarci. Questi occhi sono dappertutto, ci seguono ovunque. Possiamo davvero sapere quando si aprono e quando si chiudono?

Che grado di controllo abbiamo su di loro? Che grado di controllo hanno su di noi?

Nel suo saggio Sorvegliare e punire (1975), Michel Foucault prende il Panopticon come modello e figura del potere nella società contemporanea.

L’architettura del Panopticon è l’immagine di un potere che non si cala più sulla società dall’alto, ma la pervade da dentro e si costruisce in una serie di relazioni multiple.

Due esempi immediati potrebbero essere il cellulare che ho in tasca e un social network come Facebook.

Il telefono è una telecamera bifronte connessa a diverse reti, come quella telefonica e la rete satellitare GPS (Global Positioning System). È sempre con me e ha occhi sia davanti che dietro.

In Facebook il controllo è sia verticale che diffuso: i dati che l’utente inserisce diventano automaticamente patrimonio di un’immenso database, e — almeno potenzialmente — tutti possono spiare ed essere spiati da tutti.

Queste reti in cui ci troviamo — spesso inconsapevolmente — inseriti sono opportunità o trappole? E soprattutto, abbiamo la possibilità di uscirne?

Rileggere per capire. Un’esperienza in rete

maggio 18, 2009

kindle 3

Il breve racconto di non più di quindici minuti di navigazione in rete offre più spunti di riflessione di tanti saggi sull’argomento. Dunque, per prima cosa i fatti. So, per aver visto fisicamente l’oggetto, che Umberto Eco ha da poco pubblicato un libro – piuttosto un dialogo scritto con lo sceneggiatore francese Jean-Claude Carrere, dal titolo ammiccante – Non sperate di liberarvi dei libri  – che si riferisce appunto al futuro dell’editoria nell’epoca digitale. Ricordo di aver letto un articolo, quasi sicuramente su Repubblica, non so esattamente quando, che sempre si riferiva alla questione, proprio a firma di Eco. Penso di cercarlo per metterlo a disposizione del blog, in riferimento all’uscita del libro: ho dunque un’idea ben precisa di quello che devo cercare, quando imposto la ricerca sul motore interno di Repubblica con le parole “Eco” e “book”. La ricerca mi da molteplici risultati, ma non sono molto convinto di aver trovato quello che cercavo. Trovo invece, in terza o quarta posizione, un articolo di Corrado Augias del 18 ottobre 2000, dove si fa riferimento all’inaugurazione della fiera di Francoforte e Umberto Eco viene semplicemente citato. Nonostante l’articolo – si tratta di un’intervista allo storico della lettura Roger Chartier – sia ben altra cosa rispetto a quanto stessi cercando, mi sembra altrettanto interessante e decido di mettere questo a disposizione del blog. Con questa postilla: a distanza di dieci anni (un’enormità per i tempi con cui procede l’evoluzione tecnologica) la discussione sull’e-book come rivoluzione continuamente annunciata che sancirà la morte del libro mi pare sia inquadrata da Chartier nella giusta prospettiva antropologica. Anche dal punto di vista tecnologico si sperimenta e si cerca un mercato (è il caso del nuovo Kindle DX di Amazon) ma i tempi sono più lunghi di quanto si poteva ipotizzare.

Ecco quindi un esempio concreto di ipertestualità e logica associativa che i motori di ricerca contribuiscono a potenziare. Ma anche un esempio di conservazione e accessibilità della conoscenza racchiusa nella rete che, se saputa sfruttare, consente di riflettere sul portato storico dei cambiamenti. Meglio rileggere per capire, appunto, piuttosto di consumare e dimenticare.

Due avvenimenti investono il mondo dei libri. La Fiera che si è aperta ieri a Francoforte e che dedica un’attenzione particolare all’editoria elettronica e il lancio da parte della Mondadori dell’ebook, un libro simile a un’ agenda o a un minuscolo computer grazie al quale sarà possibile scaricare dalla rete (a pagamento) i testi disponibili. Dotato di buona capacità di memoria, il supporto potrà racchiudere fino a centinaia di libri “normali” con grandi possibilità oltre che, ovviamente, di lettura, di ricerca, di collegamenti (links) ipertestuali, di analisi. A Roger Chartier storico della cultura scritta, autore per Laterza (con Guglielmo Cavallo) di una storia della lettura, ho chiesto di valutare quali saranno i vantaggi e gli svantaggi possibili della rivoluzione imminente. Professor Chartier i libri e la lettura stanno vivendo una fase da qualcuno definita senza precedenti. Condivide questa valutazione? «In parte. A me pare che il momento attuale richiami il passaggio dal rotolo (volumen) al libro (codex) che coinvolse sia l’ oggetto fisico che l’ atteggiamento del lettore. Il lettore poté per la prima volta sfogliare, leggere e scrivere nello stesso tempo, stabilire e consultare un indice, includere tavole, tutte cose impedite al lettore del rotolo. Anche con la scrittura elettronica molto cambierà: il supporto in primo luogo, la posizione che sarà in genere davanti a uno schermo i diversi percorsi che l’ ipertesto rende possibili. Tuttavia quando mi chiede se questa fase è senza precedenti, devo rispondere di sì. Il codex introdusse un nuovo supporto e un nuovo modo di leggere ma non rappresentava un’ innovazione tecnica. L’invenzione della stampa fu un’ innovazione tecnica ma non comportava un cambiamento negli altri due elementi. Oggi le tre cose stanno cambiando nello stesso momento e questo effettivamente non era mai successo prima». Tutto ciò accade nel momento in cui i lettori diminuiscono e il mercato librario si contrae. Possiamo prevedere con quali conseguenze? «Non legherei una certa diminuzione delle abitudini di lettura all’ avvento della lettura elettronica. Le statistiche dicono che stanno diminuendo i cosiddetti “lettori forti”. Ciò significa che molti ex lettori forti oggi sono impegnati in altre attività intellettuali. Più in generale è vero che le classi tra i 15 e i 25 anni leggono meno libri e non hanno il gusto che avevamo noi di “fare biblioteca”. Letto un libro lo prestano, lo regalano, lo vendono. Gli adolescenti tra i 15 e i 19 anni, mostrano addirittura un’ accentuata svalutazione della lettura. Tutti fenomeni nei quali non è in gioco la lettura elettronica, ma altri riferimenti culturali che sono in fase di mutazione». Torniamo al libro elettronico, lei come lo definisce? «Faccio un esempio con il libro di Umberto Eco che sta per uscire. Quel libro sarà in primo luogo un oggetto con alcuni caratteri distintivi (formato, prezzo, titolo, copertina e, beninteso, contenuto) rispetto ad altri oggetti della cultura scritta. Possederà in altre parole coerenza e identità abbastanza forti da poterlo definire un’ opera. Prima che un libro bisogna però analizzare che cos’ è in generale la scrittura elettronica. Nella scrittura elettronica gli elementi che ho citato spariscono. L’ oggetto diventa il computer che però è il veicolo di molti testi e di altri messaggi, dalla posta elettronica alle linee di conversazione. Non c’ è più il criterio di riconoscimento materiale ma anche il criterio di “opera” è messo in pericolo dal momento che la scrittura elettronica è nello stesso tempo più e meno di un libro stampato. Può trasformarsi secondo le circostanze in un’ intera biblioteca o in una semplice agenda. Per di più il suo testo è aleatorio, modificabile quindi conflittuale con il concetto di “opera”». Questo per la scrittura in generale. Il libro elettronico però è diverso. «Infatti, pur nella sua ambiguità, il libro elettronico ha una scrittura stabile, ferma, che non può essere riprodotta né modificata, che non richiama l’ intervento del lettore. E’ anche in una certa misura un “oggetto” anche se come supporto fisico torna ad essere sfuggente potendo lo stesso “oggetto” ospitare decine e centinaia di libri diversi». Crede che questo curioso oggetto così nuovo per noi rimpiazzerà il familiare libro di carta? «Qualcuno ha detto che se il libro su carta fosse stato inventato dopo quello elettronico, sarebbe lui la vera novità. E’ più d’ un paradosso. Il libro su carta è maneggevole, si sfoglia facilmente, è più gradevole al tatto eccetera. Non abbiamo fino ad oggi esempi di come si reagisce alla lettura di testi lunghi davanti a uno schermo. Il romanzo di Stephen King, distribuito per via elettronica, era un esperimento di soli due capitoli. Lo schermo presenta d’ altra parte vantaggi indiscutibili per la lettura di studio. La nuova tecnica permette di organizzare il testo in maniera inedita su diversi livelli: dalla lettura semplice a quella arricchita da richiami, note, bibliografie, rimandi ad altri testi, percorsi ipertestuali e quant’ altro. In ogni caso la storia della lettura insegna che i cambiamenti delle abitudini sono sempre più lenti dei cambiamenti nelle tecniche. Esiste però qualche certezza per quanto riguarda la lettura elettronica. Ciò che viene bene è la lettura su schermo di un’ enciclopedia. Data questa diversità di specializzazione credo che il libro elettronico non sostituirà la cosiddetta “macchina di Gutenberg”, cioè la vecchia carta, ma la integrerà». E’ possibile prevedere che cosa sarà di coloro che solo tra qualche anno cominceranno davvero a leggere? «Quella di domani sarà certamente una società di scriventi, anzi le esigenze di scrittura saranno maggiori delle nostre perché il mondo del consumo ne ha bisogno. Si tratterà di una scrittura accompagnata spesso da immagini. Il ventenne del 2020 leggerà con uguale facilità sia su carta che su schermo. La storia ci dice che dopo Gutenberg la forma manoscritta non è scomparsa anzi s’ è rafforzata. Leggerà come leggiamo noi? Qui la risposta è più difficile perché l’ abitudine all’ iperlettura, che dobbiamo dare per scontata, avrà creato in lui abitudini diverse». Quel ventenne sarà abituato a un mezzo che gli permette di leggere, vedere e ascoltare nello stesso tempo, la sua percezione dei legami tra questi tre mezzi sarà quindi diversa dalla nostra. Dove leggerà? Voglio dire su quale strumento? «Il testo elettronico non sarà più legato a un oggetto specializzato, si tratti di computer o di libro elettronico. I testi varcheranno lo spazio e raggiungeranno il lettore su una qualunque superficie adatta: il muro della stanza dove ci troviamo o la manica della mia giacca. La biblioteca del futuro non avrà muri né, almeno in linea teorica, mancanze, il sogno della biblioteca di Alessandria diventerà in questo modo accessibile». Per tutti? «Sicuramente non per tutti. Anzi c’ è il rischio che la scrittura elettronica renda ancora più profonde le diseguaglianze creando un nuovo analfabetismo che non consisterà più nell’ incapacità di leggere o di scrivere bensì in quella di non saper padroneggiare le nuove forme di trasmissione dello scritto. Lo schermo di domani non contrapporrà più testo scritto e immagine come hanno fatto cinema e tv, sarà invece un mezzo potente di acculturazione testuale. Lo sforzo e la battaglia saranno di renderlo accessibile al maggior numero di persone». – di CORRADO AUGIAS

Il grande inganno del Web 2.0

maggio 8, 2009

9788842089179.jpgInterrogarsi sulla tecnologia presente non vuol dire riuscire sempre ad afferrare con certezza quale sarà lo statuto della conoscenza nel futuro. È da tempo che si parla di Web e delle sue applicazioni: spesso vengono descritte come il ‘nuovo’, la nuova tecnologia, i nuovi canali di comunicazione, senza riuscire a coglierne fino in fondo la  portata storica nell’evoluzione dei processi sociali. Se di rivoluzione si tratta, questa si è già compiuta. Le proporzioni del Web sono ormai universali e come tali oggi vengono pensate, nonostante si abbia consapevolezza solo in parte del digital divide che ancora caratterizza il contesto italiano. Piuttosto ci si riferisce alla penetrazione di massa di Internet  – soprattutto fra le giovani generazioni, quelle nate dopo l’avvento del Web e che quindi non conoscono una realtà senza rete (la google generation come qualcuno l’ha chiamata) – e al suo uso indiscriminato per la trasmissione, la conservazione e l’accesso alla conoscenza. Nei prossimi decenni nessuno potrà fare a meno della rete e le prospettive sono di una sempre maggiore pervasività: ovvio che il dibattito fra critici ed entusiasti si animi di volta in volta sulle continue novità che questa piattaforma consente e consentirà. Parlo di ‘piattaforma’ perché è il termine che  meglio sottolinea, nelle ultime evoluzioni di Internet (Web 2.0), l’uso della rete non solo come supporto connettivo ma come luogo dove, in quanto utente (user), sperimentare maggiori possibilità di interazione con i siti, superando in questo senso lo stadio 1.0 basato unicamente sulla navigazione e la consultazione di una serie di pagine in formato HTML.

Proprio partendo dalla google generation il volumetto di Fabio Metitieri da poco pubblicato da Laterza, descrive il comportamento ‘da scoiattolo’ dei giovani utilizzatori della rete, poco avvezzi a una lettura attenta dei risultati ottenuti nella ricerca on-line, laddove il tempo medio di permanenza sulle singole pagine è comunque minimo, e gran parte del tempo complessivo è invece speso per la comprensione veloce dell’attinenza del risultato (e del successivo salvataggio su disco rigido), senza poi procedere alla disamina nel dettaglio di quanto si è scelto di archiviare. Una navigazione orizzontale, casuale che vaglia una molteplicità di documenti, ma poco verticale, non approfondita, che scende difficilmente nell’esame del singolo documento. E, fatto spesso curioso, se pensa di aver trovato ciò che interessa, allora decide di stamparlo, di materializzarlo nel suo formato che si pensa originario, autentico. Se ciò può essere ricondotto all’analisi delle abitudini informatiche in pieno mutamento, del tutto diverso è il dato secondo il quale nell’immaginario dei ‘nativi digitali’ la rete va a coincidere con Google (o comunque con il motore di ricerca): la google generation non ha percezione di alcuna differenza fra i diversi risultati che una ricerca su Internet può dare. Tutto è gratis, tutto è assolutamente sullo stesso piano. Sotto un profilo puramente giornalistico, si potrebbe dire che a venir meno è la capacità di valutare l’attendibilità di una fonte on- line.

A tal proposito Metitieri riporta anche la disciplina che, già in ambito anglosassone, molto meno in Italia, si occupa di studiare i modi della conoscenza dell’organizzazione della conoscenza sulle reti informatiche. Non è solo un gioco di parole, ma l’idea centrale dell’information literacy: ossia la possibilità di imparare ad imparare, di possedere gli strumenti cognitivi adeguati per trovare un’informazione sul Web e riconoscerne la validità. Dunque la comprensione  dell’organizzazione della conoscenza sulla rete e il continuo esame delle fonti; associata alle competenze nell’utilizzo dei diversi strumenti, l’information literacy può essere considerata, per quanto concerne il lavoro umanistico del cittadino istruito del futuro, al pari delle arti liberali (grammatica, retorica e logica) per il cittadino istruito nel mondo medievale. Può sembrare un valore debole, per chi proviene dal mondo accademico delle biblioteche e degli archivi, ovviamente educato al confronto e alla verifica delle fonti nella ricerca storica, ma è un valore che, nello scenario incerto del futuro, ci si auspica venga divulgato e insegnato quanto più possibile, perché davvero i modi del sapere (la sua circolazione, la sua conservazione) stanno mutando velocemente e il rischio è che manchi per le generazioni totalmente digitali un paradigma valido su cui questo sapere va fondato.

“Nessuna mediazione”, è il secondo aspetto che chiama in causa direttamente l’information literacy. Dunque il mondo dei blog e la realtà di un’informazione e un sapere libero da intermediari, (giornalisti, editori, bibliotecari cui è sottratto il compito di farsi autori/autenticatori di risorse on-line). La filosofia del Web 2.0 è la possibilità di mettere on-line contenuti generati dall’utente (Used Generated Content). Questo aspetto di per sé non è innovativo, nel senso che contenuti prodotti dagli utenti, i quali non si limitano semplicemente a scaricare e leggere pagine web, saltando da un link a un altro, ma contribuiscono e interagiscono direttamente, sono anche quelli delle vecchie liste di discussione o dei newsgroup, assai più vecchi dei blog. La tesi di Metitieri è qui apertamente polemica nei confronti della definizione di Web 2.0 elaborata da Tim O’Reilly, che è definito una “brillante operazione di marketing” dove, stante l’idea di democraticità e accessibilità della rete, riunendo sotto un’unica etichetta tutto ciò che di nuovo si è visto on-line negli ultimi anni (blog, social network, wiki) si è sancita la nascita di un secondo stadio del Web. In questo senso anche  Berners-Lee, ideatore del World Wide Web, parla del Web 2.0 come di “un’espressione gergale di cui non si sa l’esatto significato”; al di là delle posizioni polemiche – se il Web 2.0 sia o non sia un inganno – una serie di dubbi, non chiaramente risolti, emergono dalla lettura di queste pagine, e – credo – riguardano esplicitamente lo statuto della conoscenza sperimentabile sulla rete.

Fra tutti la personalizzazione dell’informazione, e quindi della conoscenza, sempre più frammentata e autoreferenziata, è quello che più lascia interdetti. La spinta egualitarista del mondo dei blog, contro cui Metitieri si muove con particolare puntualità, ha in sé il rischio di essere solo virtualmente uno spazio di conoscenza condivisa: la conversazione, che era alla base dei blog, pensati come spazi personali di condivisione di contenuti raccolti e prodotti per essere messi on-line e commentati, rischia di perdersi in un modello diffuso di affermazione personale, in una lotta per apparire che è comunque individuale e che si pone in contrasto con la logica comunitaria della rete. Il blog, nato come spazio personale per mettere in comune i risultati della propria navigazione in rete è divenuto uno spazio di autopromozione che solo fino a un certo punto può avocarsi il ruolo di dare voce dal basso a tutti, praticando quel citizen journalism tanto citato quando si parla di Web 2.0 come spazio alternativo ai media mainstream. Posizioni critiche, che forse nella ‘blogosfera’ difficilmente potranno essere discusse, ma che risentono anche del dibattito estremizzato sulle nuove tecnologie cui spesso s’assiste: il Web che diventa o il demonio o il paradiso futuro cui tutti avremo accesso.

Altre questioni aperte sono, in riferimento al futuro paradigma del sapere on-line, il ruolo delle biblioteche – rivoluzionate dalle possibili collaborazioni degli utenti nella catalogazione dei documenti attraverso le tag che già si trovano nei blog – e quello degli archivi ‘aperti’ (open archive) che nella ricerca accademica permettono la validazione e la valutazione di documenti prima della loro pubblicazione. Esempio chiave di tutto ciò è l’ideologia free che sta alla base di Wikipedia: fra i molti dubbi sollevati quelli relativi alla compilazione di termini più attuali e controversi – per i quali si scatena una vera e propria ‘guerra’ fra gli utenti per la continua modifica –  e la conseguente stabilità di altre voci, che dopo un iniziale dibattito trovano una loro definizione, la quale, per le voci di nicchia, può anche essere la sola.

Il panorama complessivo è dunque quanto di più vario e indefinito, ben altro che un semplice stadio ulteriore di un supporto. Il sapere on-line ha necessità di essere valutato anche in base alle strategie entro cui è stato organizzato: di fronte all’apparente caos e deriva informativa occorre possedere strumenti che non si limitino all’accettazione passiva di un modello di conoscenza diffuso, aperto e incontrollato, ma che offrano pur sempre autenticatori validi.