Archive for the ‘Uncategorized’ Category

Giornalismo partecipativo: strumenti e rapporto con i media tradizionali

dicembre 13, 2013

Con la nascita del web 2.0, il giornalismo cessa di essere monopolio delle grandi testate editoriali. La rivoluzione in questo settore viene dal basso e utilizza tecnologie e strumenti nuovi: si tratta del cosiddetto giornalismo partecipativo (in inglese, citizen journalism), una forma di giornalismo che prevede la partecipazione attiva dei lettori.

Il fenomeno ha assunto forme molteplici: dalla possibilità di commentare gli articoli a quella di diventarne i redattori, fino alla creazione di siti interamente costruiti con i contributi degli utenti. Nell’epoca del web 2.0 la distinzione tra creatori e fruitori di contenuti è sempre più labile.

Ma quali sono gli strumenti del giornalismo partecipativo e come reagiscono i media tradizionali di fronte a questo fenomeno?

Un primo strumento è costituito dai blog: ce ne sono milioni e il numero è in continua crescita. Già nel 2005, il magnate dei media Rupert Murdoch, in un discorso all’American Society of Newspaper Editors, raccomanda:

Dobbiamo incoraggiare i lettori a pensare al web come il luogo in cui coinvolgere i nostri inviati e redattori in discussioni più estese sul modo in cui una particolare notizia è stata riportata o costruita o presentata. Allo stesso tempo dovremmo sperimentare l’uso dei blogger per integrare la nostra copertura quotidiana delle notizie su internet.

Un esempio ragguardevole di collaborazione tra media tradizionali e cittadini per la diffusione di notizie è quello che ha coinvolto la BBC durante l’attentato terroristico a Londra del 7 luglio 2005: subissata di materiale realizzato dagli utenti, l’emittente decise di pubblicare tutto sul proprio sito, riuscendo così a garantire una copertura totale dell’evento.

Intanto, ancora nel 2005, in Francia nasce AgoraVox, che in breve tempo diventa la seconda fonte di informazione dopo il maggiore quotidiano nazionale, Le Figaro.

Per quanto riguarda l’ Italia, citiamo il caso di Youreporter: una piattaforma di video e foto sharing che permette a chiunque di improvvisarsi reporter. I materiali prodotti dagli utenti vengono offerti gratuitamente al pubblico: tra i maggiori fruitori di questo servizio vi sono proprio i media, che sfruttano i contributi delle persone per assicurarsi una copertura completa degli eventi.

Tutto italiano è anche La Mia Notizia, un portale di news realizzate esclusivamente dagli utenti, tutte commentabili dai visitatori del sito. Nessuna registrazione viene richiesta né per inserire articoli né per commentarli.

Formidabile strumento di giornalismo partecipativo, Twitter permette la diffusione di brevi notizie in tempo reale: come durante il terremoto in Abruzzo del 6 aprile 2009, annunciato dagli utenti di Twitter ancor prima che dai media tradizionali.

Un possibile ostacolo al completo sviluppo del giornalismo partecipativo è costituito dalla diffusa convinzione che i contenuti così prodotti siano scarsamente affidabili. In realtà, la verificabilità e l’autorevolezza di questo tipo di giornalismo si fondano sulla revisione tra pari, caratteristica della comunità scientifica, e sulla comunicazione aperta.

Correlato a questa argomentazione, vi è poi il dibattito sull’opportunità di una disciplina normativa che regoli il mondo delle notizie sul web.

Clamoroso fu il caso di Carlo Ruta, saggista e blogger siciliano che, per non avere registrato presso il Tribunale il proprio blog di informazione, fu condannato in primo e secondo grado per reato di stampa clandestina. La sentenza scatenò le violente proteste del mondo del web, che la recepì come un intollerabile attacco dello Stato alla libera espressione nei blog. Nel 2012 Ruta fu finalmente assolto in Cassazione. Secondo i giudici di questa corte, il blogger non aveva commesso alcun reato, non essendo obbligatoria la registrazione per i blog.

In conclusione il giornalismo partecipativo appare come un fenomeno destinato a crescere e ad intaccare sempre di più le prerogative dei media tradizionali, i quali hanno cominciato a capire che non si tratta di un fenomeno da combattere – anche perché arduo e forse impossibile da debellare – ma di una risorsa con cui interagire per migliorare le proprie prestazioni. Una nuova filosofia ha preso piede, e punta sulla condivisione e sul confronto tra le persone, che non vogliono e non possono più essere soggetti passivi di fronte alle industrie e ai media.

Elisa Costa

Il giornalismo iperlocale è sul viale del tramonto?

dicembre 13, 2013

Apocalittici e georeferenziati

Global Positioning System

Global Positioning System

La georeferenziazione è una risorsa strategica del Web 2.0. Ogni utente della rete dialoga a partire dalla sua posizione nello spazio e la sua posizione può essere mappata e registrata nei database dei principali research engine  disponibili. Significa che ogni nostra azione e ogni contenuto da noi diffuso in rete viene automaticamente riferito ad un contesto territoriale rappresentabile tramite un’immagine di grafica tridimensionale. Sviluppata come tecnologia militare negli anni Sessanta, la georeferenziazione, attraverso la riproduzione grafica sempre più sofisticata di una determinata porzione del globo, permetteva alle truppe statunitensi di disporre di una documentazione dettagliata della natura del territorio da esplorare. Ogni modello prodotto veniva quindi classificato e depositato nell’archivio della società Martin Marietta, partner essenziale nello sviluppo di cellule di intelligence coordinate dal Pentagono. Con l’avvento dei computer, si avviò un processo di digitalizzazione delle mappe raccolte e catalogate. Grazie al confronto con le foto satellitari, i files diventavano sempre più fedeli alla realtà da riprodurre. Resosi conto delle potenzialità del servizio, alla fine degli anni Novanta Google procede all’acquisizione dei preziosi archivi della Martin Marietta, nel frattempo svincolati dal segreto militare. Nasce così Google Earth.

Hyperlocal news: la speranza del giornalismo nell’era del Web 2.0?

Le applicazioni che sfruttano il cosiddetto GPS (Global Positioning System, Sistema di Posizionamento Globale) hanno trasformato il nostro modo di orientarci nel pianeta e il nostro modo di rapportarci gli uni con gli altri. a metà degli anni Duemila, si sviluppano progetti con l’obiettivo di integrare il sistema al ciclo di produzione delle notizie, in particolar modo delle news televisive, che più degli altri canali informativi si basano sull’uso delle immagini per contestualizzare territorialmente un evento. I sistemi di mappatura tridimensionali già esistenti vanno a supportare il flusso di notizie grazie a strumenti simili ai feed RSS (acronimo di Really Simple Syndication), celebre applicazione basata sul linguaggio marcatore XML e su un formato che permette agli utenti di essere aggiornati, in tempo reale, sui contenuti digitali di loro interesse, come ad esempio articoli o commenti postati su siti, blog e piattaforme di microblogging, senza doverli cercare manualmente uno ad uno.

Ogni notizia viene agganciata ad un contesto territoriale preciso, visivamente attraverso le mappe georeferenziate e testualmente tramite le parole del reporter, con il vantaggio di tempi di realizzazione immediati, in linea con le tendenze del Real Time Web. Nel giro di pochi minuti è possibile andare in onda con un servizio praticamente in diretta, abbattendo i costi.

Soltanto due anni fa, il mercato hyperlocal veniva salutato come il salvatore di un giornalismo tradizionale zoppicante, incapace di cogliere le sfide del digitale. La fiducia nei confronti delle sue potenzialità sembrava avvalorata dalla proliferazione in rete di siti come Everyblock.com, o ancora le piattaforma Outside.in  e OpenFile, o gli esperimenti dei grandi marchi editoriali come il New York Times con il suo blog The Local, incaricato di monitorare il flusso di notizie dei quartieri newyorkesi di Fort Greene e Clinton Hill. Si tratta di motori di contenuti, che presentano un elenco di città. Inserendo nell’apposito menu a tendina il relativo codice postale, immediatamente il sito è in grado di reperire un robusto stream di informazioni: dalla cronaca locale alle indicazioni di servizio, dalle comunicazioni amministrative ai calendari con gli eventi della settimana, fino ai rumors provenienti dai social network per quella specifica zona. La logica di selezione è quella tipica del web: il sito setaccia la rete alla ricerca di fonti  grazie al cloud computing, che permette sia di catalogare semanticamente i diversi testi trovati, sia di contestualizzarli geograficamente. Le fonti vengono quindi indicizzate, monitorate con una funzione di screen scraping e implementate con fonti aggiuntive, provenienti ad esempio dai siti istituzionali. È la redazione giornalistica che deve creare, in base alle proprie competenze professionali e senso critico, il giusto apporto delle diverse fonti, trasformandosi così da centro di produzione diretta in una sorta di hub multimediale all’interno del quale i reporter rivestono il ruolo di terminali atti a captare, analizzare, verificare e infine smistare i flussi di circuiti informativi esterni.

I benefici, soprattutto per le grandi redazioni nazionali televisive che contengono nella propria mission la copertura di porzioni di territorio locali, come quartieri, piccole e grandi città, sono enormi. Le redazioni locali tradizionali lavorano in condizioni di perenne pressione, dovendo processare in pochissimo tempo una mole di eventi dal quale estrapolare le notizie del giorno, che vengono poi documentate da una troupe, prontamente inviata sul posto. Un modello operativo insostenibile economicamente, che rischia di inficiare la qualità del prodotto informativo: non c’è tempo per approfondire, per entrare in relazione diretta con le comunità locali. Laddove le imprese editoriali televisive non riescono a presidiare efficacemente il territorio, si creano, in particolare sul web, una serie di iniziative bottom-up (dal basso) che cercano di colmare il gap informativo: la rete pullula di siti non professionali che riportano le notizie di interesse per community geograficamente sempre più circostanziate. Dalla pagina web della squadra di calcio locale fino alle web tv delle Asl, veri e propri esempi di giornalismo di servizio digitale. L’autonomia comunicazionale di queste comunità, d’altra parte, raramente sfocia in una dimostrazione di professionalità giornalistica e, anzi, spesso confeziona prodotti informativi di scarso valore. Non solo. La vicinanza ai propri lettori e l’utilizzo intelligente degli strumenti messi a disposizione dalle nuove tecnologie che caratterizzano l’hyperlocal journalism, incarnano due ingredienti essenziali dell’era social media: partecipazione e condivisione. Il giornalismo iperlocale dà cioè ai cittadini l’opportunità di contribuire attivamente al ciclo di produzione della notizia, grazie a soluzioni di tipo user generated content (contenuto generato dagli utenti), che arricchiscono il resoconto giornalistico professionale.

Le ragioni di un fallimento

everyblock

Homepage di EveryBlock

Si muoveva in questa direzione OpenFile, impresa editoriale con sede a Toronto avviata nel 2010 e basata su una semplice intuizione: mettere a disposizione dei lettori tramite il web un “file aperto”, dove segnalare notizie e inserire immagini, commenti e video, successivamente sottoposti il vaglio della redazione di giornalisti professionisti, che ne verificano le fonti e, laddove i contenuti si rivelino interessanti, ne approfondiscono i temi. Un rapporto fiduciario con i lettori – e con la comunità – che non si esauriva con la pubblicazione della notizia, che poteva essere commentata e aggiornata dai navigatori anche una volta postata. Cosa non ha funzionato? A differenza delle altre piattaforme di giornalismo partecipativo, la startup canadese non vendeva a terzi i servizi e i reportage, nella convinzione che la notizia non fosse il “fine”, ma il “mezzo” per nuove forme di interazione. Il rapporto stesso con i lettori avrebbe rappresentato quel valore aggiunto che avrebbe dovuto solleticare l’appetito di inserzionisti e finanziatori. Così non è andata.

Simbolo per eccellenza del fallimento dell’hyperlocal journalism è però la chiusura di EveryBlock, testata partorita nel 2007 dalla mente dello sviluppatore Adrian Holovaty e dal portafoglio della Knight Foundation, che per l’avvio del progetto stanziò 1 milione di dollari. La formula è sempre la stessa: iperlocalità, uso di codici e dati in formato aperto, sperimentazione nel data-journalism. La parabola di Everyblock esemplifica il naufragio delle speranze legate al giornalismo iperlocale. L’avveniristico aggregatore di notizie di Holovaty viene prima acquistato nel 2009 dalla MSNBC per diversi milioni di dollari, poi venduto nel 2012 alla NBC, per la quale diventa un elevato costo di bilancio più che un’opportunità per diversificare il proprio portfolio digitale e rimpinguare le finanze.

L’anello debole che ha spezzato la catena dell’hyperlocal nel panorama giornalistico, in particolare americano, è rappresentato da un modello di vendita pubblicitaria non scalabile, che recluta i propri investitori in un parco inserzionisti privi o quasi di budget consistenti, come sono i piccoli imprenditori locali. Campagne di display advertising basate sul click rate di banner tradizionali sono spesso una perdita di tempo per aziende già ben radicate sul territorio, che per le quali è piuttosto il passaparola la chiave per un presidio sempre più ampio e profittevole della community di riferimento.

Il brand salverà l’informazione iperlocale?

Eppure, con le principali piattaforme internazionali che, una dopo l’altra, chiudono i battenti, c’è ancora chi considera l’opportunità di battere la strada dell’hyperlocal journalism, con mezzi però più solidi. L’ipotesi è che siano i grandi marchi a rilanciare, attraverso delle capital ventures, le sorti dei progetti iperlocali. Dopo tutto, se Everyblock & Co. sono falliti, è a causa di modelli di business inadeguati, e non perché non esista un pubblico interessato alle notizie legate a dimensioni di comunità. Le grandi imprese che non hanno necessità di raccogliere inserzionisti attraverso l’uso dei banner, sono infatti alla continua ricerca di una prospettiva per fornire ai propri utenti contenuti personalizzati. La prospettiva potrebbe essere appunto quella territoriale.

I successi italiani

Se il giornalismo iperlocale è in caduta libera negli Stati Uniti e in altri contesti, lo stesso non si può dire per l’Italia, nella quale questo nuovo approccio editoriale, ancora agli albori, sta già dando i primi frutti. A titolo d’esempio, citiamo i casi di Citynews e VareseNews. La prima è una piattaforma di informazione online attiva in 37 città Italiane. In linea con lo spirito collaborativo che caratterizza tanto il citizen quanto l’hyperlocal journalism, parte dei contenuti redatti sono inviati al sito dagli stessi lettori. L’impatto è più che positivo, con 22,6 milioni di visite ogni mese ed oltre 330.000 utenti registrati. Citynews permette di ricevere alert con le notizie in tempo reale di fatti accaduti nel raggio di 2 Km dalla propria casa, di personalizzare il flusso di notizie e di vestire i panni di inviato speciale, caricando contenuti. Recentemente il network ha annunciato la release di nuove applicazioni mobili per iPhone e smartphone, con sistema operativo Android. L’obiettivo è diventare una delle principali App per la categoria news. Le App danno inoltre la possibilità agli utenti di trasformarsi a loro volta e in qualsiasi momento in giornalisti e video/foto reporter (real time web).

VareseNews è una testata giornalistica, nata nel 1997 in provincia di Varese come mensile cartaceo e successivamente transitata sul web. Secondo una classifica basata su dati Audiweb risalente al 2007, VareseNews figura tra i primi 10 media on-line italiani. Interessante il percorso che ha condotto un piccolo giornale di provincia a risultati tanto importanti: nel 2004 il lancio di “Anche Io”, un evento che da allora la redazione organizza annualmente per incontrare i lettori, consolidando il ruolo della community e dell’iperlocalità. Nel 2007 la creazione di una web-tv associata e nel 2008 l’apertura di un network di blog dal titolo VaresePolitica, che ospita i diari digitali di alcuni politici di spicco della Regione Lombardia. Numerosi sono i servizi offerti alla comunità, dall’agenda degli eventi  alla programmazione delle sale cinematografiche, al meteo, passando per le pagine dedicate all’interattività con e tra i lettori, con le quali VareseNews punta ad una sempre più stretta fidelizzazione degli utenti. Questa logica si amplifica grazie alla massiccia presenza della testata nei social network, con una pagina Facebook che ha quasi raggiunto i 60.000 fan. Parlando di sostenibilità economica, i finanziamenti sono garantiti per il 60-70% dalla pubblicità locale. Un dato sorprendente, se si considera che la maggior parte dei progetti editoriali dello stesso tipo all’estero sono falliti proprio a causa di un mercato pubblicitario locale asfittico, privo di risorse d’investimento e fondato su un modello di display advertising obsoleto, in cui è il buon vecchio banner a farla da padrone. La restante percentuale di entrate è formata dalla pubblicità rastrellata attraverso Google AdSense, da attività di consulenze e di comunicazione.

Sara Marmifero

Amazon Prime Air: quando la fantascienza diventa realtà

dicembre 7, 2013

Tra qualche anno vi vedrete consegnare l’acquisto appena fatto on line da un robot, direttamente dal cielo. Sembra fantascienza ma sarà realtà grazie alla geniale trovata di Amazon, società americana di e-commerce con sede a Seattle. Sembrano definitivamente tramontati i tempi in cui sentivate bussare alla porta di casa e vi trovavate di fronte un corriere che, tutto trafelato e scusandosi per ritardo dovuto alla congestione del traffico, vi consegnava il pacco di cui eravate in trepidante attesa. Anche il vostro corriere di fiducia sarà una versione 2.0! Un mini-drone che porterà a buon fine la consegna di quanto avevate richiesto sul sito online dell’azienda americana. Tutto in meno di 60 minuti dall’ordine, garantiscono i vertici di Amazon. Non è un utopia, il progetto esiste e si chiama Amazon Prime Air, come ha annunciato a inizio dicembre, durante un intervista nel programma televisivo americano 60 minutes, Jezz Bezos, amministratore delegato e fondatore dell’azienda. Bezos ha spiegato, al giornalista Charlie Rose, che la società sta lavorando da qualche tempo a un’idea rivoluzionaria che tra 4-5 anni potrà trasformarsi in realtà. L’obbiettivo di Amazon Prime Air è quello di spedire gli ordini online entro mezz’ora, massimo 60 minuti, dall’acquisto, grazie una nuova generazione di droni, piccoli “aerei robot” senza pilota, che richiedono un budget limitato per la loro produzione. Chi non crede a questa affermazione si faccia un giro su Youtube e perda qualche minuto per guardare il video realizzato dal colosso statunitense. Vedrà questo piccolo “elicotterino” sorvolare la città, posarsi delicatamente davanti al portone di casa del cliente e sganciare il pacco, per poi volare via e tornare alla base, come se fosse da sempre la cosa più naturale e scontata che esista. Il sistema che supporta il progetto è semplice e intuitivo, basterà, al momento dell’ordine, fornire le proprie coordinate GPS che verranno “comunicate” al drone il quale potrà così effettuare la consegna nel punto richiesto e nei tempi stabiliti per il percorso aereo.

Questa straordinaria iniziativa nasce dall’esigenza di predisporre la fase di spedizione, non meno importante delle altre, alle nuove tecnologie, nonché soddisfare nel modo più veloce possibile, l’esorbitante richiesta di prodotti, che in alcuni periodi dell’anno arriva a toccare i 300 ordini al secondo. Il prototipo del drone di Amazon si chiama Octocopter e sarà utilizzato per le consegne su grandi aree metropolitane, coprendo così porzioni molto significative della popolazione. Il servizio dovrà rispettare una sola condizione: i pacchi, per ragioni che si possono facilmente intuire, non potranno superare il peso di 2,2 Kg. In realtà questo limite sembra essere poco significativo, visto che “l’86% delle spedizioni non supera quel peso”, come ha dichiarato lo stesso Bezos. La sfida più impegnativa che Amazon dovrà superare sarà piuttosto quella di conquistare la totale fiducia di clienti che inizialmente potrebbero rimanere spaesati da un sistema così innovativo. Ma sono del parere che non ci vorrà molto tempo; d’altra parte, l’incredibile sviluppo della tecnologia, ci ha abituato a considerare come assolutamente normali, se non addirittura irrinunciabili, abitudini che solo qualche anno fa ritenevamo impensabili. L’efficienza e la celerità del servizio farà il resto.

In America la data di lancio di Amazon Prime Air è fissata per il 2018. Quell’anno, se saranno rispettate le promesse, segnerà il tempo di una svolta epocale nel mondo dell’ e-commerce. Lo shopping online sarà ancora più facile e immediato, i tempi di consegna verranno pressoché eliminati e non ci si dovrà più preoccupare di rimanere a casa, magari tutto il giorno, per aspettare il corriere. Basterà inserire l’ordine, uscire di casa nell’ora prevista (e comunicata) di consegna (e comunque entro massimo sessanta minuti dall’invio dell’ordine) e aspettare col naso per aria che dal cielo arrivi il nostro acquisto. Naturalmente, prima che il progetto si concretizzi si dovrà attendere il via libera delle autorità americane d’aviazione per l’utilizzo di droni per scopi civili, ma da quel giorno, e nel giro di poco tempo, i cieli statunitensi saranno popolati da migliaia di piccoli robot volanti, ognuno con una consegna da portare a termine. Il presidente della Federal Aviation Administration, Michael Huerta, ha ipotizzato che nei prossimi 5 anni potrebbero sorvolare le città americane circa 7.500 mini-droni. Nonostante il progetto sia ancora in via di sviluppo altre aziende stanno cercando di percorrere la stessa strada. UPS, per esempio, la più grande società di spedizioni al modo, ha anch’essa annunciato un progetto di sperimentazione per la consegna di merce con droni. Per l’Italia ovviamente questo programma è solo un lontanissimo sogno, come d’altronde molte altre tecnologie delle quali l’America è leader assoluto. Ci vorrà tempo, ma Amazon sembra intenzionata ad espandere il servizio a più zone metropolitane possibili dell’intero pianeta. Quindi prima o poi quel tempo arriverà, ma non c’è da stupirsi, in fondo lo sapevamo fin dall’inizio che sarebbe finita così. Quando chiedevamo i regali a Babbo Natale, non arrivavano forse dal cielo? E chissà, magari tra qualche anno anche lui e spedirà i suoi pacchi con i droni di Amazon.

Camilla Licalzi

GhOP | plant your project ! – Piattaforma di collaborazione e scambio d’idee.

settembre 23, 2013

Tra le varie piattaforme sociali fornite dal cosiddetto web 2.0, desidero presentare una interessante iniziativa di un gruppo di studenti di diverse città europee. Il suo nome è GhOP | plant your project ! (www.ghop.eu)

Schermata 2013-09-23 alle 10.59.19

 

GhOP è lo sviluppo di una piattaforma di presentazione e collaborazione di progetti delle più svariate forme e connotazioni. Si passa dall’architettura pura, al design, alla fotografia e qualsiasi altra categoria.

 

Come cita il suo statuto GhOP  :

 

GhOP non è un blog, non è una compilazione di portfolio on-line, non è un sito di architettura o di design.

GhOP è una piattaforma virtuale, un terreno di coltura in cui i nostri progetti possono svilupparsi, ibridarsi e proliferare, una realtà che apre finestre e proietta verso altre realtà, un’Eterotopia*.

GhOP è uno strumento per creare connessione tra idee e approcci diversi e contraddittori, piantare le basi di una crescita collettiva.

GhOP, pianta il tuo progetto !

*Michel Foucault, «Des espaces autres», Dits et écrits (1984), Gallimard, Paris 1994

 

In questo luogo virtuale vengono presentati i progetti e le iniziative dei vari utenti che compilando un form sul sito possono caricare i materiale e scrivere un articolo di presentazione del progetto. La parte più interessante di questo progetto è l’obbligo da parte degli utenti che vogliono pubblicare di assegnare, oltre una categoria al loro progetto,  delle tags. Attraverso le tags i promotori di questa piattaforma, vogliono creare una mappa concettuale che unisca i vari progetti attraverso non solo le categorie ma anche attraverso le diverse tags assegnate. Attraverso una mappa concettuale i lettori potranno così creare dei percorsi di ricerca attraverso i progetti e trovare punti di contatto tra i diversi utenti. Questo progetto nasce con l’intento di creare delle connessioni tra gli utenti per sviluppare una collettività del sapere e una condivisione delle idee.

Monovacation-en-180x120-Burak-Arikan

Questa iniziativa, ancora in fase Beta, è stata resa possibile grazie all’elasticità ed economicità di piattaforme CMS opensource. Siamo difronte a un ennesimo esempio del utilizzo del web come mezzo di relazione ove l’utente crea collegamenti e collabora con altri utenti nel vasto mare della rete.

Astroturfing, l’erba artificiale del Web

settembre 21, 2013

Partiamo da un dato di fatto. Il Web 2.0, come è ormai noto, ha trasformato in modo radicale il nostro modo di comunicare e di interagire con la società, l’economia e la politica. Gli esempi sono innumerevoli ma la cifra fondamentale di questa rivoluzione in atto è senza dubbio per l’individuo il passaggio da soggetto passivo a soggetto attivo e partecipativo.

I principali social media, da Facebook a Twitter passando per Youtube, blogs e svariati forum, sono diventati infatti l’humus ideale per la nascita di community che si aggregano spontaneamente attorno una causa, un tema, un personaggio politico o un brand. Attraverso queste comunità ci si scambia pareri su un prodotto, si lascia un commento o una recensione positiva o negativa, si condividono preziose informazioni a un livello di interazione impensabile per i media tradizionali. Da un lato gli utenti hanno non solo la sensazione ma anche la possibilità reale di influire sulle tematiche preferite con il proprio bagaglio di esperienze, critiche e suggerimenti. Dall’altro le aziende o gli attori politici hanno tutto l’interesse di dialogare con le community di riferimento per incrementare parametri quali la fiducia nel proprio marchio o una reputazione altamente positiva nei confronti delle proprie azioni. E’ questa infatti la nuova frontiera della pubblicità e della comunicazione politica. Ma cosa succede per esempio se su un portale come Tripadvisor.it un ristoratore scrive commenti entusiastici sul proprio locale o al contrario screditi la concorrenza con un falso nick e con recensioni faziose e totalmente artefatte? O peggio, pensiamo a un noto brand, una multinazionale che assolda un manipolo di web writers e bloggers per costruire un sentiment positivo nei propri confronti o silenziare eventuali critiche?

In Usa è in voga un preciso termine per etichettare simili comportamenti: l’astroturfing. La parola deriva da una nota marca di erbe sintetiche utilizzate per la copertura di campi da football o baseball. Si intende infatti sottolineare il carattere artificiale dell’azione in contrapposizione alle dinamiche naturali del web 2.0 costituite da relazioni e interazioni assolutamente spontanee. Come è facile intuire si tratta di una pratica altamente scorretta ma che è sempre più diffusa e strisciante. La guerra tra brand per accaparrarsi sempre più ampie fette di mercato comporta la manipolazione di community e forum. Le aziende sanno quanto valore strategico contiene un feedback positivo, un like, dieci post di un blogger che esalta l’ultimo prodotto o la nuova trovata pubblicitaria. Il precursore di questi discutibili comportamenti fu nel 1998 la Microsoft http://it.wikipedia.org/wiki/Astroturfing. Ma l’occhio dei più attenti osservatori si è concentrato in questi ultimi tempi sulle campagne pubblicitarie dei più noti luxury brand quali Bulgari e Cartier. La questione può assumere dei connotati drammatici se si sposta lo sguardo all’ambito politico. Anche in questo caso l’attività di lobby, movimenti, partiti e gruppi d’interesse trova nel web uno strumento formidabile per indirizzare e manipolare l’opinione pubblica su un tema, una campagna o un progetto. In Italia, aldilà di qualsiasi giudizio di valore, abbiamo avuto le prove tangibili di cosa comporti questo mix esplosivo di web e politica con l’affermazione del Movimento 5 Stelle alle ultime elezioni. Ma non mancano esempi molto più discutibili. In Cina è ormai noto il “partito dei 50 centesimi”, ovvero commentatori e bloggers che dietro compenso indirizzano le discussioni nei forum secondo i dettami dell’autorità governativa spacciandoli per opinioni spontanee dei cittadini cinesi. O ancora, ricordate le primavere arabe? Masse di giovani studenti occidentalizzati connessi a Internet che in Egitto e Tunisia rovesciarono i rispettivi dittatori? Non infatti è molto chiaro infatti se gli influencer di tali rivoluzioni 2.0 partorite sul web siano nati spontaneamente o dietro strategie accuratamente pianificate dall’esterno http://www.ilfattoquotidiano.it/2012/03/28/alfredo-macchi/200498/.

A questo punto il nodo fondamentale è capire quali armi ha a disposizione l’ingenuo cittadino-consumatore di fronte a questo pericoloso doping di informazioni. La risposta non è affatto semplice. La consapevolezza di riconoscere il problema è già un buon punto di partenza. Un consiglio a dir poco banale è quello di non fidarsi di utenti che abbiano prodotto pochi commenti o poche recensioni all’interno della community. Ma non basta. Forse l’unico strumento di difesa potrebbe essere l’effetto boomerang dello stesso astroturfing. Qualora infatti venisse a galla una pratica del genere, la dimensione virale del crack in termini di fiducia e reputazione sarebbe devastante per l’azienda in questione. E’ chiaro che si tratta di un rischio che non tutti si sentono in grado di correre. Di certo non mancherebbero neppure gli strumenti giuridici. La direttiva europea 2005/29/CE sulle pratiche commerciali sleali recepita in Italia dal d.Lgs. 146/07 sembra offrire per lo meno un quadro normativo di riferimento. Ma l’evolversi continuo del panorama informatico e la crescente abilità delle agenzie di marketing online di dotarsi di raffinati strumenti di pianificazione complicano ogni giorno la situazione. Chiedersi allora quale sia il confine tra una legittima attività di web marketing o community management e una pratica di manipolazione tout court diventa una domanda di estrema importanza che merita una risposta chiara e quantomeno definitiva.

Salvatore Gaglio

Editoria impalpabile: la rivoluzione eBook nel mercato dell’editoria

settembre 15, 2013

La forte crisi che sta investendo il settore dell’editoria contemporanea trova nell’avvento dell’eBook uno dei settori in costante crescita. Anche se nel nostro Paese il prodotto risulta ancora limitato, rappresenta uno strumento ricco di vantaggi, decisamente più economico rispetto alla carta stampata e mai definitivo, poiché sempre soggetto ad aggiornamenti.

L’idea di un libro in formato elettronico, che si legge tramite appositi device, nasce per la prima volta nel 1971 negli Stati Uniti, dalla geniale intuizione di Michael Hart, giovane studente universitario e futuro informatico. Grazie al “Progetto Gutenberg” oggi tutte le pagine che compongono un libro possono essere racchiuse in un unico file e adattabili a ogni tipo di dispositivo, come computer, smartphone, tablet o eReader. Un eBook si presenta sotto diversi formati: l’ePub tra questi è supportato dal maggior numero di device presenti sul mercato, in quanto garantisce un formato sempre fluido nella lettura dei testi. Il Mobipocket rappresenta invece il formato storico, adoperato da Kindle, l’eReader più diffuso sul mercato, nonostante sia graficamente più povero rispetto al precedente, ma non per questo meno fluido. Esistono anche altri tipi di formati tra cui PDF, generalmente adatto a ogni dispositivo e eBook, di proprietà del colosso informatico Apple, creato esclusivamente per iPad.

Il miglior modo per acquistare un eBook risiede nelle applicazioni, soggette a vincoli poiché strettamente legate alla piattaforma per cui sono state sviluppate. Allo stesso tempo però hanno il vantaggio di poter essere vendute e comprate negli store pubblici e interni, in modo da sfruttare l’hardware per multimedialità e interazione. L’autore ha la facoltà di scegliere il metodo di distribuzione che può avvenire attraverso un editore che diffonde il prodotto mediante apposite piattaforme, store pubblici oppure store interni. Altro modo di distribuzione è il self publishing dove l’autore nel contempo utilizza due metodi di distribuzione mediante piattaforme e mediante store interni, senza passare per l’editore.

Per far fronte al problema della riproduzione illegale anche per gli eBook esistono alcuni sistemi di protezione, come il DRM che impedisce la lettura del file se non in possesso dell’autorizzazione del programma, o il watermark che inserendo informazioni sull’acquirente intimidisce, anche se non blocca la duplicazione. Il diritto d’autore a tutela della proprietà intellettuale nel digitale si può manifestare anche tramite anche altri sistemi chiusi che combattono la pirateria come le Applicazioni Edicola, nate per regolamentare la vendita e la diffusione dei testi, oppure dei blocchi detti “scuolabook”. Come per la carta stampata sono previsti abbonamenti e limitazioni temporali, che possono influire sulla commercializzazione degli scritti.

I vantaggi degli eBook sono molteplici: se in tutto e per tutto hanno le stesse funzionalità di un testo cartaceo, presentano alcune caratteristiche che solo il digitale può offrire. È possibile scegliere le dimensioni dei caratteri del testo, estrapolarne parti che più interessano, aggiungere note, segnalibri, link e rimandi multimediali. Proprio per le molteplici funzionalità l’eBook si presenta come un libro dinamico, in continua trasformazione e aggiornamento che si adatta molto bene a un certo tipo di lavoro giornalistico. Oltre a libri, riviste, periodici, quotidiani, il mondo dell’”editoria impalpabile” sta diventando la nuova frontiera del giornalismo d’inchiesta, attraverso la raccolta di articoli monotematici che andranno poi a confluire in un unico “Instant Book”. Resta da porsi la questione se il mondo dell’editoria tradizionale sarà in grado di far fronte a questo nuovo modo di concepire la lettura, non come un nemico ostile, ma integrandosi con esso. Se il pubblico italiano non ha mai avuto la fama di assiduo lettore, al di fuori dei giornali prettamente sportivi, questa nuova frontiera potrebbe rappresentare un piccolo passo per avvicinare le persone a molte opere e a firme illustri, magari attraverso la curiosità nel digitale che potrebbe catturare anche molti giovani.

Ludovica Brunamonti

Obiettivo intelligente: Sony presentazione le ottiche per smartphone

settembre 9, 2013

Da quando Nokia ha presentato il suo Lumia 1020, il mondo dell’imaging tascabile è in grandissimo fermento. Si sta iniziando ad esplorare quella via intermedia fra il mondo degli smartphone e quello della fotografia con la F maiuscola. È in questo contesto che si inserisce una delle novità più interessanti apparse all’ultima IFA di Berlino: il progetto Sony QX10 e QX100. Si tratta di due obiettivi intelligenti realizzati da Carl Zeiss che si “attaccano” al telefonino per migliorarne le prestazioni fotografiche. Sono delle ottiche esterne universali pensate per trasformare qualsiasi smartphone Android e gli iPhone in una vera e propria fotocamera compatta di livello professionale. A guardarle sembrano delle semplici lenti, in realtà sono vere e proprie macchine fotografiche. Per attaccarle al cellulare basta usare l’apposita clip incorporata, ma entrambi i device possono essere usati anche staccati dagli smartphone grazie a un sistema di connettività integrato Nfc e Wi-fi. Entrambi dispositivi vengono pilotati tramite un’app sviluppata ad hoc e chiamata Play Memories Mobile. Quando si scatta una foto, questa viene subito trasferita sul device che telecomanda la Cyber-shot. Se invece si vogliono girare dei video (in full hd), il device deve avere installata una scheda microsd dove salvare in tempo reale il filmato.
Inoltre, le ottiche possono essere usate anche senza l’utilizzo dei cellulari per scattare fotografie “alla cieca”. Ma guardiamo le caratteristiche tecniche delle due ottiche. Con un peso di appena 105 g (con batteria e memoria Memory Stick Micro integrate), la Cyber-shot DSC-QX10 è dotata di sensore Cmos Exmor R da 18,2 megapixel effettivi con obiettivo G di Sony e zoom ottico 10x. Stabilità e messa a fuoco, regolabile anche manualmente al pari dello zoom, sono invece garantite dalla tecnologia Optical SteadyShot. Il modello più pregiato, la DSC-QX100, è invece equipaggiata con un sensore da un pollice da 20,2 megapixel effettivi, che promette immagini a bassissimo rumore anche in luoghi chiusi o in condizioni di scarsa luce. Entrambe saranno in commercio in Italia a partire da fine settembre, la prima a 200 euro e la seconda a 450 euro. Come si può notare, i prezzi sono il tasto più dolente della novità. Quanti utenti saranno disposti a spendere per acquistare un accessorio che, per quanto compatto, rappresenta pur sempre un secondo dispositivo (con la sua batteria e la sua autonomia) da portarsi dietro? Un utente medio di telefonia mobile perché dovrebbe ricorrere a scomode appendici per i suoi scatti, piuttosto costose? In fondo, il motivo per cui si fotografa con un cellulare è la rapidità e comodità di risposta.

Google al ribasso

settembre 9, 2013

Ancora una volta Google passa all’attacco ribassando il prezzo del Nexus 4 sul Play Device. Un ribasso che appare come al di fuori di ogni logica considerato che si passa da 299€ a 199€ per la versione da 8 GB e da 349€ a 249€ per la versione da 16 GB. Per farla corta: un prezzo a cui non siamo abituati se vogliamo uno smartphone di elevata qualità.

Un affondo che è una mazzata per la concorrenza che si vede proporre un ottimo prodotto, ancora attuale, a metà del prezzo rispetto alle proprie opzioni.

A quanto pare quando si è davvero dei colossi si possono fare dei “regali”, ovviamente aiutandosi anche a smaltire le rimanenze nei magazzini – preparandosi quindi per il lancio previsto tra un paio di mesi del nuovo Nexus 5 – e creando seri problemi ai concorrenti.

Allora, tutto stupendo? Assolutamente no, per noi italiani. Infatti il nostro paese vive nel terzo mondo del e-commerce: il Play Device è disponibile in Australia, Canada, Stati Uniti, Regno Unito, Germania e… Spagna. Dovremo quindi sperare che qualche negozio abbassi i prezzi del Nexus 4 proponendolo d’importazione. Altrimenti è ancora una volta Google a venirci in aiuto: basta andare sul noto motore di ricerca e inserire parole chiave come “comperare nexus 4 a 199€” e analizzando la lista di risultati troveremo una serie di escamotage.

 

Marzio Balzarini

Dal DynaTAC agli Smartwatch.

agosto 30, 2013

Come non sorridere riguardando film come “Wall Street” o “Ppretty Woman” nel vedere distinti uomini d’affari alla prese con la novità tecnologica del tempo, lo status symbol di benessere e potere: il telefonino. Esemplari ingombranti, monocolore, pesanti, con uno schermo piccolissimo e in grado solo di effettuare o ricevere telefonate.
Nel giro di alcuni anni si assiste allo sdoganamento del prodotto. Il cellulare non è più un costoso gadget che possono permettersi solo importanti uomini d’affari, ma diventa uno strumento più alla portata di tutti, con un design un po’ più accattivante, anche se ancora prevalentemente usato come strumento di lavoro. E’ a metà degli anni novanta che il vero e proprio boom dei telefonini esplode, grazie anche allo sviluppo di una nuova forma di comunicazione, gli SMS, e di un’azienda, la Nokia, specializzata nella produzione di apparecchiature telefoniche, che diventerà velocemente leader del settore della telefonia. Il telefonino è uno strumento che in pochi anni conquista tutti, dai ragazzi agli anziani. Le vecchie cabine del telefono spariscono a poco a poco e i modelli monocolore e ingombranti vengono presto sostituiti da esemplari più piccoli, colorati, leggeri e quasi indistruttibili. Vengono integrate nuove funzioni oltre alla rubrica: sveglia, calendario, giochi, calcolatrice eccetera e ogni telefono può essere personalizzato con cover e suonerie pre-impostate o comprate tramite abbonamento, a dimostrazione della nuova evoluzione di questo apparecchio da strumento di lavoro ad accessorio.
Oggi il telefono è diventato smart, intelligente. E’ un oggetto che tutti possiedono, è quello che controlli di avere sempre in borsa o in tasca, più che il portafoglio o le chiavi.
La grande rivoluzione è la possibilità di essere connesso a internet, puoi essere on-line anche quando non sei a casa con un computer a portata di mano. Le funzionalità sono infinite puoi fare foto, video, di qualità sempre migliore, e postarli subito su sui social network. Grazie a programmi spesso già installati puoi caricare e leggere documenti di lavoro, libri, addirittura testi universitari per preparare un esame; si può scaricare, ascoltare musica e creare una playlist senza bisogno di un altro ulteriore apparecchio. Se ti perdi basta collegare il navigatore integrato nel telefono alla macchina, se sei in coda e ti annoi puoi sfidare gli amici o cimentarti da solo con centinaia di giochi diversi dalla grafica impeccabile; ormai “snake” è un pallido ricordo. Inoltre scaricando le miriadi di applicazioni presenti in rete puoi personalizzare il tuo telefono. Dimmi che app hai e ti dirò chi sei, il telefono si plasma sempre più sulle esigenze del suo utilizzatore, che arricchisce la versione “base” acquistata come più desidera. La Nokia ha perso il proprio primato e ad oggi si assiste soprattutto alla guerra tra la statunitense Apple e la sudcoreana Samsung, tra il sistema Android e quello iOS. Ormai lo smartphone ha quasi le stesse funzionalità di un pc e… si riesce anche a telefonare.
Le innovazioni tuttavia non sono terminate, la nuova sfida si chiama smartwatch, oggetti che fino a qualche tempo fa si vedevano solo nei film di fantascienza e di spionaggio sono oggi già in commercio: la Sony vende il proprio modello (la sua seconda versione), a partire da 99,00 euro. La grande attesa è comunque quella riservata per il Samsung Galaxy Gear, lo smartwatch che l’azienda sudcoreana presenterà il 4 settembre all’Ifa di Berlino, bruciando sul tempo l’iWatch targato Apple, su cui l’azienda americana sta ancora lavorando, che ne aveva previsto il debutto per la fine dell’anno. Un oggetto che ci permetterà quindi di poter gestire il telefono dal polso senza neanche dover tirare fuori lo smartphone dalla tasca. Telefonate, messaggi, mail, agenda, aggiornamenti dai social network sempre sotto controllo. Ma non si tratta solo di questo. A questi dispositivi potranno essere integrati sensori in grado di monitorare la nostra salute, con tutte le implicazioni che applicazioni come queste potranno avere per la scienza medica. Inoltre non bisogna dimenticare l’aspetto relativo all’evoluzione di applicazioni già esistenti sviluppate ad esempio dalla Nike, studiate su misura per gli sportivi. Nel campo del “wearable” infatti il Galaxy Gear o l’iWatch non rappresentano una novità assoluta, ma chi può dire quali saranno gli sviluppi su questa nuova tipologia di prodotti, stimolata anche dalla agguerrita concorrenza esistente tra le aziende che si misurano con queste nuove tecnologie.

Il successo di iTunes Store

agosto 28, 2013

Correva l’anno 2003 e il giorno 28 aprile vide la luce quello che diventerà il più grande negozio virtuale nella vendita di musica. Un successo. Meglio, un trionfo. Ma perché tutto questo? Diciamo che la chiave di volta non è rappresentata da un solo fattore bensì da più fattori ed alcune coincidenze, sapientemente sfruttate. Cerchiamo di risalire la corrente. L’industria musicale attraversava una grave crisi, colpa anche della diffusione di numerosi software che ne permettevano il “ripping”: la copia dei supporti magnetici. Freeware che con estrema facilità e poco dispendio di denaro permettevano e permettono di avere una copia quasi fedele dell’originale.  Ne è derivato un crollo delle vendite a cui ha fatto seguito la crisi dell’industria musicale alla quale si è cercato di porre rimedio con azioni contro i distributori online come Napster. Il seguito lo conosciamo tutti: il lupo perde il pelo ma non il vizio. Che fare quindi? Ecco scoperto l’uovo di Colombo! Apple, dopo un’attenta e profonda analisi, giungeva alla conclusione che l’unico rimedio consisteva nel concedere musica a prezzi adeguati, tesi che vide materializzarsi l’iTunes MusicStore. Un successo strepitoso. Ebbene, agire per proibire e bloccare la contraffazione non avrebbe risolto molto. Purtroppo l’industria musicale si ostinava a percorrere questa strada senza guardare altrove. Apple riuscì in questo portando la musica a prezzi adatti a tutte le tasche e quindi ad insinuare nella mente l’amletico dubbio se convenisse acquistare l’originale o continuare con le azioni di pirateria. La redenzione di molti ha fatto il resto. A questi fattori si sommano il software appositamente creato dall’Azienda di Cupertino ed il dispositivo che alla tecnologia ha aggiunto un design di successo. 99 centesimi per un singolo forse sarà un prezzo irrisorio o forse sarà ancora troppo ma comunque il successo ormai è decretato… e anche per l’industria discografica che ha visto nuovamente la luce.

Fabrizio Pronzalino