Archive for the ‘IMI – Blog’ Category

Il caso Repubblica.it

giugno 26, 2013

Intervista a Giuseppe Smorto, direttore di Repubblica.it

Giuseppe Smorto, direttore di Repubblica.it, racconta in un’intervista nell’ambito dell’edizione 2013 dell’International Journalism Festival di Perugia l’iter che ha portato alla formazione del grande contenitore di notizie online.

Nato il 14 gennaio 1997, il sito web di uno dei principali quotidiani italiani (Repubblica.it), è stato un antesignano nel genere dei siti internet associati a testate cartacee: in questo contesto, Repubblica ha capito prima e meglio degli altri competitors le potenzialità della rete e ha potuto affermarsi in questo settore come leader. Repubblica.it è oggi il principale sito d’informazione italiano, con oltre 10 milioni e 600 mila utenti unici.

Giornalismo 2.0: tra crisi e nuove potenzialità. Qual è la posizione di Repubblica circa l’utilizzo dei nuovi media?

Il giornalismo non è crisi di per sé: ad essere in crisi è un certo modo di fare giornalismo, quello che si basa solo ed esclusivamente sulle notizie che compaiono sulla carta stampata.  Si vede che c’è un bisogno estremo di giornalismo, ma il modo di fruirne è cambiato. Repubblica ha un offerta informativa che non viaggia piu solo sulla carta, ma su un sito che conta ogni giorno più di 2,5 milioni di persone e su una web tv ancora in via di sviluppo. Il grande nodo di questi tempi è capire però come finanziare questo giornalismo. L’errore fatto 15 anni fa, al tempo in cui queste innovazioni tecnologiche hanno preso piede, è stato pensare che tutto ciò potesse essere gratis, ma con il passare del tempo ci si è resi conto che non può essere così e che questa non  è la formula adeguata a supportare questo tipo di operazioni. Il giornalismo non è gratis: devo avere la possibiltà di pagare i collaboratori, gli inviati e i corrispondenti, ad esempio in America, in Siria, ecc.; inoltre, questa è una garanzia di indipendenza per chi fa comunicazione, che deve aver modo di svolgere il proprio lavoro senza essere legato a sponsor e finanziatori di varia natura. Proprio negli ultimi mesi gli operatori di Repubblica.it si sono trovati davanti a un nodo insoluto, una questione spinosa: dando un’informazione completa, 7 giorni su 7, 24 ore al giorno, è giusto far pagare i propri lettori o no? il sito di Repubblica e quello del Corriere della Sera sono attualmente gli unici che sarebbero in grado di autofinanziarsi grazie agli introiti provenienti dagli investimenti pubblicitari e che potrebbero benissimo continuare su questa strada, senza gravare i lettori di un carico e senza chiedere un contributo. Attualmente la tendenza anche dei giornali americani è quella di mettere un paywall, un muro oltre il quale il lettore dovrà pagare una minima cifra per continuare nella lettura e accedere a determinati articoli. Questo è indispensabile se si vuole che l’informazione progredisca e vada avanti autonomamente, senza cadere in mano a inserzionisti, gruppi di potere, fondazioni (in USA) che finanziano i giornali. Se i conti funzionano, grazie anche alla collaborazioni degli utenti e di un pubblico di lettori affezionato e  fideizzato, è possibile essere sì indipendenti ma anche fare investimenti per migliorare il giornale, incrementare l’organico, mantenere corrispondenti esteri e inviati in scenari “caldi” del pianeta. Cose che, altrimenti, senza un entrata monetaria, non sarebbero possibili, e che con un entrata derivante dagli investimenti da parte di gruppi di potere, sarebbero limitate sotto il profilo decisionale.

Ma che cos’è Repubblica.it?

Dalla pratica alla teoria, ci siamo trovati improvvisamente col passare del tempo di fronte a un oggetto misterioso e competitivo rispetto a tutte le altre forme di giornalismo: non c’è paragone tra l’offerta informativa data dal sito di Repubblica e dal suo equivalente cartaceo. Da una parte c’è infatti un oggetto statico, non aggiornato, che devi andare a cercare in edicola e per il quale devi tirare fuori dei soldi; dall’altra c’è un oggetto nuovo, dinamico, aggiornato, con foto e video e tutto il materiale interattivo, in cui gli utenti sono protagonisti: una user experience, che vede le persone protagoniste sia nella fruizione (con l’ampliamento dell’offerta), sia nella creazione (UGC – User Generated Content). Si leggono le news in tempo reale, corredate da supporti multimediali audio, video e fotografici, in cui io utente posso intervenire nel flusso della comunicazione o inviando il mio personale supporto, o dicendo la mia opinione, anche criticando e dicendo che le informazioni sono, ad esempio scorrette. L’oggetto digitale è competitivo, chiaramente, e ciò comporta uno sconvolgimento all’interno delle redazioni classiche: intanto, il giornalista di per sé deve reimparare a scrivere, secondo quelle che sono le esigenze di questi nuovi mezzi, misurarsi con questo nuovo modo di fare giornalismo. All’inizio, anche all’interno della redazione di Repubblica, internet veniva considerato come la “brutta copia” del giornale: Repubblica.it era la sorellina minore, un po’ sfortunata, in cui andavano a confluire quei 4, 5 articoli di interesse variabile, mentre tutto il succo dell’informazione continuava a confluire sulla carta. Non si è puntato da subito sui nuovi mezzi, ma adesso Repubblica.it è considerata l’immagine principale di Repubblica. Per capire che cosa pensa la testata si guarda il sito! C’è una gerarchia politica, di cronaca, di attenzione ai fatti del giorno che è costante e ne fa la faccia più visibile del giornale. Il lavoro si è trasformato completamente: da piccola appendice, il mondo digitale è diventato grande locomotiva che traina anche il giornale di carta, vagone di lusso. La parola chiave oggi per noi è “diversificazione”: stiamo allontanando sempre di più i contenuti del giornale di carta da quelli dell’online, che oggi si occupa di informazione in tempo reale. Su Repubblica.it non vedrete mai lo stesso titolo del giornale cartaceo, e se lo vedrete vuol dire che non stiamo facendo bene il nostro lavoro! Sul sito, c’è valorizzazione della multimedialità, sulla carta invece ci sono contenuti di grandissima e eccezionale qualità, ci sono gli scoop, ci sono i grandi contenuti, ma se sappiamo che la notizia sarà “bruciata” noi la inseriamo subito sul sito. Le inchieste giudiziarie e le notizie in esclusiva per repubblica le teniamo invece per la carta. In ogni caso, sulla carta andranno a confluire sempre meno notizie –declinate sull’online- e sempre più contenuti di alto livello e di approfondimento. Anche all’interno della redazione, ad ogni modo, ancora oggi non sappiamo spesso come comportarci e come dividere il carico delle notizie e delle informazioni tra carta e internet.

Velocità vuol dire anche alto margine di errore. Come si rapporta repubblica.it a questo problema?

Per noi la velocità e l aggiornamento continuo sono più importanti della forma. Abbiamo un margine di errore altissimo sul sito, ma abbiamo scelto di privilegiare la velocità, mentre la qualità la mettiamo tutta sul giornale di carta. Sull’online, invece, accade che ci siano errori, che ci siano una serie di smentite e di rettifiche, o correzioni, ma non è sbagliato, non è indice di scarsa professionalità.  Tuttavia, ci sono anche momenti diversi sul sito: si pensi all’editoriale di Scalfari del venerdì mattina, che da un grande apporto qualitativo alla testata.

Come funziona Repubblica.it?

Se la squadra funziona bene, quando arriva la notizia ciascuno in redazione sa benissimo cosa fare: la notizia è un grappolo, un potenziale multimediale. Oltre alla notizia, infatti, si apre la possibilità di creare un video, inserire un file audio, i precedenti, un video-ritratto, i contenuti dei lettori, e tutti i contributi multimediali che una notizia inserita su una piattaforma online comporta. Questo fa del sito un prodotto completo e competitivo rispetto al giornale, che prende pochi fatti del giorno e li sviluppa attraverso editoriali e approfondimenti, mentre noi che lavoriamo sulla velocità non possiamo permetterci di fare la stessa operazione. Quello che è passato oggi è che l’offerta informativa è una sola, tra Repubblica.it e Repubblica: c’è grande responsabilità perché il lettore oggi identifica i due prodotti e le offerte informative. La grande novità, poi, è rappresentata dai social networks: Facebook e Twitter in particolare. Su Facebook noi abbiamo oltre 1 milione e 100 mila fan, 800 mila follower su Twitter, numeri pazzeschi. Però ancora non abbiamo capito qual è il business-plan dietro questi numeri: ora raggiungiamo sì lettori cui prima non arrivavamo, però basta questo? Quanto incide sul nostro giornalismo e sul nostro modo di finanziarci? Come possiamo sfruttare questa situazione per incrementare i nostri fondi e le nostre professionalità? Certo, ora con un link possiamo arrivare a un pubblico di lettori sterminato e sconosciuto fino a pochissimo tempo fa, e questo giova alla cultura e all’informazione, a livello sociale. Ma ancora non è chiaro come questa offerta e la richiesta possano essere coniugate in termini economici. È fastidioso chiedere soldi ai lettori (si pensi al caso Whatsapp), ma questo sarà prima o poi necessario perché dietro al nostro lavoro cc’è una professionalità che necessita di essere ricompensata.

Inoltre, c’è un’esplosione delle forme della tecnologia: l’abbassamento dei costi nei fare video, la permanenza delle immagini e dei testi rispetto ai testi  e una serie di altri fattori, che portano alla conclusione che internet sta creando un tipo di giornalista che non sa più solo scrivere ma che è una figura multi-tasking, un “mobile journalist”, che deve non tanto o non solo saper scrivere ma sapere anche fare un video, montarlo, tagliarlo, ecc. questo è il contrario della specializzazione, e porta sì tanta superficialità (non più giornalisti di settore, esperti un determinato campo), ma anche una capacità e una versatilità maggiore. Ognuno deve saper giudicare tutte le notizie, anche in settori di cui non si occupa direttamente, per decidere cosa deve effettivamente uscire sul sito e cosa no. L’informazione in tempo reale, come si vede, ha creato una nuova professionalità che prima non c’era.

Qual è la soluzione?

La soluzione è un sistema integrato di informazione che ha anche dei contenuti a pagamento. Repubblica.it non sarà mai solo a pagamento, ma ci saranno contenuti per accedere ai quali sarà necessario pagare una simbolica cifra minima, una forma di abbonamento, che oltretutto contribuirà a riconoscere la professionalità dei giornalisti, il loro lavoro, la loro attendibilità nel fornire notizie che altrimenti sarebbero magari altrettanto reperibili online ma viziate dal circolo comunicativo (giornalismo partecipativo, citizen journalism, eccetera) tipico del web 2.0, in cui ciascun utente può produrre UGC. Molti contenuti digitali, come il giornale su ipad, ad esempio, sarà offerto a pagamento. Si adotterà un paywall sul sito, in futuro. Il tempo reale sarà sempre gratis ma pensiamo di mettere in vendita i contenuti del giornale stesso a cifre bassissime, e inferiori alle già basse cifre adottate ad esempio dal New York Times. Su ipad abbiamo sviluppato una versione di Repubblica Sera, esclusiva per questa piattaforma: una tipologia interessante di comunicazione, che è un po’ un ritorno alle forme di giornalismo del passato, con le edizioni serali, ma che è anche un prodotto innovativo, una sperimentazione. Noi abbiamo ritagliato all’interno della redazione una serie di professionalità che offrono l’evoluzione della giornata in stile Repubblica alle 7 di sera. È un prodotto che offriamo in abbonamento su ipad, per rendere questo prodotto fresco e aggiornato. C’è una grande attenzione poi proprio alla cura dell’immagine, delle foto, dell’impaginazione, nell’intento di creare un prodotto all’avanguardia, precursore magari di una serie di altri esperimenti simili.

Elettra Antognetti

Annunci

La soluzione al digital divide potrebbe arrivare dal cielo: Project Loon

giugno 25, 2013

È stato presentato ufficialmente pochi giorni fa il progetto che potrebbe rivoluzionare la vita di miliardi di persone.

Google ha infatti annunciato Project Loon, un’iniziativa che ha dell’incredibile ma che garantirebbe l’accesso a Internet a tutte quelle persone che vivono in zone rurali o remote del pianeta e dovunque le connessioni via cavo siano impedite, come ad esempio i luoghi colpiti da calamità naturali.

L’originale idea prevede l’impiego di palloni aerostatici, realizzati con una plastica sottile, del diametro di 15 metri e alimentati a energia solare, che volano nella stratosfera a circa 20 chilometri d’altezza sfruttando le correnti aeree. Essi ricevono il segnale Internet da apposite stazioni a terra e lo ritrasmettono agli utenti, che possono captarlo installando un’antenna sul tetto della propria abitazione. I palloni comunicano fra di loro e quindi, secondo Google, sarebbe possibile creare un anello di palloni volanti intorno al mondo. Ogni mongolfiera fornirebbe la connessione ad una superficie del raggio di 40 chilometri ad una velocità simile a quella delle reti 3G.

L’opera è in piena fase di sperimentazione, finora sono stati lanciati trenta palloni in Nuova Zelanda, nella regione di Canterbury, e rimangono ancora molte questioni da verificare, prima fra tutte quella di riuscire a regolare in modo sicuro le loro traiettorie dato che, sebbene continuamente monitorati e dotati di un sistema di controllo dell’altitudine, sono pur sempre in balia dei venti stratosferici.

http://

I detrattori parlano di una strategia d’immagine, di una trovata pubblicitaria che avrà vita breve, alcuni avanzano dei dubbi riguardo l’effettiva sostenibilità del progetto, altri temono addirittura lo sfruttamento di questa tecnologia a fini spionistici.

Senza dubbio si tratterà di un percorso lungo e complesso ma la disuguaglianza digitale che impedisce ai due terzi della popolazione mondiale di accedere alle nuove tecnologie, sia a causa di impedimenti di tipo tecnico (non esiste la connessione) sia di tipo economico (c’è connessione ma i costi di navigazione sono troppo elevati), verrebbe in questo modo drasticamente ridotta, se non azzerata, e potremmo finalmente considerare Internet una rete “globale” nel vero senso della parola.

L’azienda di servizi online più famosa del mondo, pur assicurando che il progetto poggia su solide basi scientifiche, sembra essere cosciente dell’audacia dell’impresa, infatti loon in inglese significa pazzo. Dopo le Google’s driverless cars, le automobili senza conducente, e i Google Glasses, gli occhiali dotati di realtà aumentata, il colosso di Mountain View punta sempre più in alto e non è un male se lo fa utilizzando un pizzico di sana follia, d’altronde solo così si vincono le sfide che sembrano impossibili.

Gisella Siri

 

 

 

I “nodi” della rete: fra cyber-guerra e Grande Fratello

giugno 11, 2013

Internet costituisce oggi, e sempre di più costituirà nel futuro, una piattaforma insostituibile e di importanza massima per l’economia e per gli equilibri politici di tutto il pianeta. Alla rete affidiamo poi una gran quantità di segreti personali di non trascurabile importanza… possiamo stare tranquilli?

Proprio attraverso la rete vengono giornalmente scambiati miliardi di dati che hanno immenso valore, e non solo per i mittenti e per i destinatari della comunicazione. Basti pensare banalmente a password di account, dati di bancomat o carte di credito, per arrivare fino a segreti industriali, documenti riservati di natura politica o militare.

Ovviamente carpire informazioni di questi generi è illegale, ma sono ingenti le  possibilità di guadagno; il giro d’affari mondiale riferibile ai crimini compiuti attraverso la rete è difficilmente quantificabile con precisione, ma si parla di miliardi di dollari. Alcune stime parlano addirittura di 300 miliardi di dollari. Si può affermare che il numero dei crimini informatici e la rilevanza di ciascuno di essi sia cresciuta, e crescerà, di pari passo con l’importanza strategica di Internet. In Italia, ad esempio, nel 2012 l’Osservatorio per la Sicurezza Nazionale ha reso noto che si è registrato un incremento dei crimini informatici del 200% e, contestualmente, il Ministero della Difesa ha fatto sapere che avrebbe aumentato il budget destinato agli apparati di difesa informatici.

Le attività illegali sulla rete non sono però messe in atto sempre per un profitto economico personale, ma spesso possono avere altri fini. Soggetti individuali o collettivi (come Anonymous) hanno messo sovente in atto veri e propri atti di “disobbedienza civile virtuale”, o hanno sottratto dati riservati per poi renderli pubblici in maniera gratuita, mossi da una spinta etica o ideologica. Aziende e governi non sono stati da meno nel comprendere le potenzialità della rete in quanto  canale di spionaggio e controllo; infatti oggi molti hacker sono assunti per i loro servizi e pagati profumatamente.

Oltre l’Atlantico il tema desta molta preoccupazione e ampio dibattito:  sono proprio di questi giorni due notizie degne di nota sul tema.

La prima riguarda il recente incontro tra il presidente USA Barack Obama e leader cinese Hu Jiintao, in cui è stato dato molto spazio alla discussione circa norme comuni in materia di sicurezza digitale. In realtà queste pacate trattative sono da considerare come un atto di diplomazia in quella che è una vera e propria cyber-guerra che contrappone la Cina agli Stati Uniti; tanto che nello scorso ottobre la situazione era già considerata così grave da far dichiarare all’allora segretario della Difesa statunitense Panetta che  il rischio fosse quello di una “Cyber Pearl Harbour”. Pare accertato che fossero oggetto delle attenzioni degli hacker arruolati dal gigante asiatico soprattutto notizie di carattere militare, come segnalato dal Wall Street Journal per quanto riguarda i progetti degli aerei da combattimento Joint Strike Fighter e F-35 Lightning 2, o dalla azienda omonima del famoso anti -virus “McAffe” in merito ad attacchi hacker a numerose società ed apparati governativi americani; fra questi  Lockeed e Martin Corporation, due importanti industrie d’ armamenti.

La seconda notizia riguarda il dibattito che si è sviluppato negli Stati Uniti circa l’utilizzo di un sistema di controllo di Internet chiamato Prism da parte dei servizi di sicurezza. L’obiettivo dei controlli erano mail, foto, login, video, chat,  e file memorizzati di cittadini stranieri e statunitensi ottenibili  grazie all’accesso diretto ai server delle varie compagnie che operano sul campo; questi miliardi di dati vengono scansionati in maniera automatica secondo un sistema di parole chiave, così da poter  sottoporre al controllo umano dati risultati sospetti. Secondo una diffusa opinione un tipo di intercettazione così indiscriminata e senza autorizzazione di alcun giudice sarebbe  una palese violazione dei diritti civili dei cittadini americani.

Per quanto ormai grazie alla rete  governi, banche e aziende facciano funzionare i propri apparati ,e navigare su internet sia pratica quotidiana per gran parte della popolazione, non si può dire che le acque siano tranquille e prive di pericoli. Questo video del sito di Repubblica ci mostra quanto sia facile reperire e mettere in funzione un programma in grado di fornirci tutti i dati sensibili di un qualunque bersaglio.

Carlo Ramoino

BENVENUTI NELL’ ERA POST-PC

novembre 9, 2012

Nel 2011 nel mondo sono stati venduti più smartphone che computer( note book e pc insieme). Con questo dato molto significativo è facile prevedere quale sarà il trend più importante per i prossimi anni.

Secondo i ricercatori di mercato più importanti del momento, nel 2016 le vendite dei nuovi telefonini, stanno diventando Smart alla velocità della lucerisulteranno triplicate rispetto a quelle del pcclassico.

Anche per i tablet il futuro appare roseo: in quattro anni le vendite dovrebbero raggiungere i valori di quelle dei computer tradizionali, anche se desktop e notebook dovrebbero mantenere un lieve vantaggio.

I dati parlano chiaro: l’era post-pc è ufficialmente iniziata e con Windows 8 Microsoft non si fa certo sfuggire l’ occasione di mettere un piede nella porta degli smartphone diffondendo un sistema operativo che finora ha riscontrato un notevole successo.

Image

  1. Nel frattempo due colossi come Goole e Apple si godono il loro grande successo. Ogni giorno nel mondo si vendono un milione di dispositivi Android e per quanto riguarda Apple le vendite sono leggendarie e in continuo aumento.

Accade tutto ciò perché ormai gli smartphone sono diventati dei computer a tutti gli effetti. Sono talmente potenti e veloci nel connettersi a internet che anche le applicazioni più pesanti girano al meglio.

Ormai fare una telefonata è diventata un’ attività secondaria!

La conseguenza di tutto ciò??? Miliardi di persone con accesso a internet 24 ore su 24. Si può solo immaginare quale sia il potenziale commerciale e culturale, naturalmente rischi inclusi.

Che lo vogliate o no, benvenuti nell’ era della mobilità!!!

Francesca De Mattei

Brand Awareness: perché l’immagine è (quasi) tutto

settembre 15, 2012

Quando parliamo di brand awareness intendiamo il grado di conoscenza del marchio tra i consumatori. Alla brand awareness è connesso un altro termine importante, la brand image. Mentre con il primo termine intendiamo la notorietà di un certo logo, il secondo riflette il giudizio complessivo espresso dagli acquirenti relativamente al marchio stesso. La due variabili formano la cosiddetta brand equity.
La costruzione della brand awareness avviene come conseguenza di quello che, nel marketing, viene chiamato buzz, ovvero l’insieme di operazioni che punta a stimolare il passaparola tra gli utenti riguardo un determinato prodotto o servizio.

La creazione della brand awareness è chiaramente uno degli obiettivi principali che ogni azienda vuole raggiungere ed è uno degli scopi della pubblicità, soprattutto in una prima fase di lancio di un nuovo prodotto: si tratta infatti di un elemento che influenza pesantemente il comportamento d’acquisto dei consumatori.

Image

È quindi fondamentale applicare questi concetti anche nel web, dal momento che oggi solo grazie ad internet è possibile incrementare il valore di un prodotto, la sua reputazione (online reputation), e ancora correggere eventuali risultati negativi. Infatti, calata bruscamente la fiducia verso i canali di marketing classici, la formazione dell’opinione pubblica non è più così dipendente dai media tradizionali: la rete è ormai l’insuperabile protagonista (capita sempre più spesso di imbattersi in un prodotto prima su internet che non in televisione) e l’utente è diventato in prima persona promotore (o annientatore!) di prodotti, opinion leader e autore/editore del web. Il senso critico aumenta, così come il livello, la quantità e la completezza delle informazioni.
Nel web lo sviluppo della brand awareness avviene di solito attraverso una buona gestione SEO (ottimizzazione sui motori di ricerca), canali e-commerce e partecipazione sui social network, e ancora attraverso campagne pubblicitarie e campagne banner su grandi portali e siti.

Tutte queste campagna generalmente prevedono la ripetizione visiva del logo dell’azienda legato al servizio/prodotto, in modo da permettere nel tempo la veloce associazione e il ricordo da parte dell’utente. L’ottimizzazione sui motori di ricerca è legata a determinate parole chiave che possono portare il prodotto in questione a scalare le SERP, ovvero i risultati della pagina del motore di ricerca. Il lavoro non si ferma qui. Dopo il lancio delle varie strategie è necessario un continuo lavoro di monitoraggio. Questa è una parte forse ancora più impegnativa, ma che non si può scansare.

In rete infatti gli utenti che scambiano le proprie opinioni su un servizio o un prodotto si sentono tutti allo stesso livello e mostrano sempre più fiducia tra di loro, perfetti sconosciuti, piuttosto che nella pubblicità sempre pronta a mostrare solo gli eccezionali pregi dell’oggetto in vendita. Privi (di solito) di secondi fini, se soddisfatti non faranno attendere i loro commenti positivi, se delusi sconsiglieranno l’acquisto, anche con toni aggressivi. È un dato di fatto: l’opinione degli altri sconosciuti consumatori ha un peso sempre più rilevante nella conclusione dell’acquisto. Proprio per questo il passaparola online deve essere positivo. Le ripercussioni per l’azienda in caso di troppi commenti negativi non deve essere mai sottovalutato, e non solo in termini di popolarità, ma proprio dal punto di vista economico.
Su internet vengono offerti molti strumenti, anche gratuiti, tutti mirati proprio al controllo dell’UGC, ossia User Generated Content (si intendono quindi tutti i contenuti nati dal basso, creati direttamente dall’utente, cioè dal fruitore, in modo autonomo e amatoriale) su social, blog, siti di opinioni et similia.

Nonostante gli strumenti messi a disposizione e la consapevolezza che, soprattutto nel campo delle vendite, “l’immagine è tutto”, pessime gestioni dell’online reputation sono sotto i nostri occhi, dall’altra parte del monitor, tutti i giorni. Valga su tutti l’episodio che ha coinvolto qualche mese fa Rtl su facebook: cancellare commenti negativi o, ancora peggio, bannare gli utenti scomodi e insoddisfatti significa non avere il controllo della situazione, non accettare il confronto e non essere in grado di esprimere le proprie ragioni. Tutte cose che i consumatori di oggi non accettano più.

Ma guardiamo l’altra faccia della medaglia: una cattiva gestione comporta perdite evidenti, una buona gestione della propria brand image invece può trasformarsi in una nuova opportunità.Costruire una valida identità online significa non solo presentare in modo corretto i proprio prodotti, ma anche poter controllare la reazione del consumatore, migliorare i servizi e difendersi da eventuali diffamazioni. Per esempio, un difetto di produzione scoperto in tempo può essere subito corretto, tamponando così le perdite economiche e facendosi perdonare dal consumatore che, se soddisfatto, certamente tornerà. Un marchio attento al giudizio dei consumatori guadagna credibilità e ha maggiori possibilità di fidelizzare il cliente. Sarà anche una banalità, ma è proprio così!

Veronica Marzolla

Perchè non si ci può improvvisare social media manager

settembre 9, 2012

Improvvisare il lavoro del Social Media Manager non è più possibile. Con l’aumento della complessità del settore e dei mezzi, delle esigenze comunicative aziendali e di quelle dell’utenza, il ruolo richiede una professionalità a 360° nella comunicazione online.
Giocare con Fb non vuol dire essere un social media manager professionista autonominato può mettere a serio rischio d’immagine. Un piano di comunicazione errato o anche solo una risposta errata a un post sulla bacheca della pagina aziendale, può scatenare un ciclone mediatico di dimensioni catastrofiche.
Ricorrere a un Social Media Manager di grande professionalità non significa solo evitare ritorni negativi e incidenti diplomatici ma anche garantire la presenza del Brand lì dove il target è presente.
È sempre più evidente, infatti, che qualsiasi tipologia di target, prima dell’acquisto passa per il web per vagliare le esperienze di consumo ed, eventualmente, per sposare l’immagine presentata dal Brand che più soddisfa le esigenze d’identificazione, ed è qui che sta la bravura del social media manager: catturare l’attenzione del target, capirne le esigenze e far passare l’immagine aziendale giusta.
Nell’immaginario comune, la figura del Social Media Manager è abbastanza fumosa, e spesso si ha la sensazione che sia una persona che passa tutto il tempo a propria disposizione online, fondamentalmente divertendosi.
Peccato che non sia così…Gestire la presenza online, su social network, di un’azienda è un lavoro decisamente complesso.
Districarsi tra profili diversi su piattaforme diverse, cambiare registro di comunicazione centrando sempre quello giusto, accattivante, comprensibile ed adatto al social in quel momento utilizzato, il tutto con l’unico obbiettivo di incrementare credibilità e utile all’azienda, è una cosa che richiede professionalità, capacità e continui pensieri e preoccupazioni.
Tra le altre cose, poi, non dobbiamo dimenticare che Internet non dorme mai, ragione per cui spesso il lavoro del Social Media Manager (che in linea di massima può essere eseguito anche da casa propria) è un lavoro che però non ha orari precisi, e non conosce ferie, per spesso si ci trova a lavorare durante le ore serali o nel fine settimana, per riuscire a mantenere costante, pertinente ed interessante il profilo da lui curato e soprattutto per garantire quel grado di interazione che viene sempre più spesso richiesto dagli utenti.
Forse, rispetto a lavori manuali e di fatica, sicuramente divertente e meno faticoso, fisicamente parlando, ma pur sempre un lavoro, e come tale, impegnativo, da non dare mai per scontato, in continua evoluzione, per cui, per essere i più bravi, non si può mai smettere di studiare…una figura professionale a tutti gli effetti non il passatempo che tutti credono e dicono di saper fare.

SEO si, SEO no: “spingono” di più gli algoritmi o i contenuti?

settembre 9, 2012

La promozione dei siti web all’interno dei motori di ricerca è un’attività fondamentale, soprattutto per le aziende, per le quali il sito internet rappresenta non solo un punto di contatto, ma soprattutto un’importante fonte di business.La grandissima maggioranza degli accessi all’interno di un sito web, infatti, proviene dai motori di ricerca. Non solo visite, dunque, ma autentico marketing, individuazione di potenziali interessati proprio a ciò che l’azienda può offrire.L’attività di posizionamento SEO (Search Engine Optimization) non è una sorta di “segreto” informatico, né tantomeno un qualcosa ottenibile con tecniche puramente meccaniche o di spai, si tratta bensì di un lavoro costante su più fronti (ottimizzazione del sito web, revisione dei codici, realizzazione di testi mirati al posizionamento, promozione del sito con comunicati stampa, scambi di link strategici, ecc.) ed ovviamente una conoscenza specifica delle tecniche di SEO. Essere un ottimo tecnico informatico ha ben poco a che vedere con il posizionamento nei motori, lavoro che sempre più spesso viene affidato alla parte comunicativa delle aziende.

Nel linguaggio comune, il termine “posizionamento” è spesso confuso con il significato del termine “indicizzazione”, ovvero il processo attraverso cui il sito è semplicemente inserito all’interno del motore, un’attività che nella maggioranza dei casi avviene in automatico. Con posizionamento, invece, si intende far “rispondere” ai primi posti del motore il sito in questione a seguito di determinate ricerche, con precise parole chiave che riguardano i prodotti ed i servizi che offre l’azienda. Inserire su Google l’esatto nome dell’azienda e vedere come prima proposta del motore il suo sito non significa assolutamente che il sito sia posizionato!Il costo di un’attività di SEO, inoltre, dipende da diversi fattori: concorrenza nel settore, necessità di ristrutturazioni all’interno del sito web, livello geografico su cui ci si intende posizionare (è possibile posizionarsi con keywords di interesse a livello locale, regionale, nazionale, o anche mondiale), proprio per questo, nessuna SEO agency seria potrebbe azzardare un prezzo senza prima studiare un preventivo ad hoc.Il servizio di posizionamento ai vertici di Google e di altri motori di ricerca è garanzia assoluta di aumento del business, ed il costante e preciso monitoraggio del sito che può garantire una web agency è garanzia di ottimi risultati anche con investimenti minimi.Poi ad un certo punto è arrivata la fatidica domanda: “SEO si SEO no?”, in termini di utilità, di costi e di sviluppo tecnologico.Ma dal 2011 questa necessità è stata messa in dubbio dall’annuncio di Google Panda che ha fatto stragi di siti ben posizionati che però sfruttavano infiniti elenchi di directory ed usavano in modo selvaggio l’article marketing. Il Panda di Google si è dimostrato tutt’altro che il mite e simpatico orsetto che eravamo abituati a considerare; sarebbe stato meglio chiamarlo Google Grizzly per quanto abbia scosso il mondo della SEO.Le agenzie di SEO erano tutte concentrate sulla tecnica e sui trucchi più o meno leciti che permettevano a siti di dubbia utilità di essere posizionati in prima pagina.Oggi, e per fortuna, l’aspetto fondamentale di ogni sito è il suo contenuto. Tuttavia concentrarsi sui contenuti è molto più difficile che fare un elenco di link; si è passati dalla quantità alla qualità, passaggio  che ha fatto traballare anche le grandi agenzie di SEO. Ad un tratto non bastavano più i soldi per comprare link, bisognava essere in grado di creare contenuto utile e ben scritto.Avere centinaia di backlink generici ha perso la sua importanza, a vantaggio di pochi link ma di qualità, ovvero posizionati in contenuti in linea con il sito linkato ed in pagine con pochi altri link verso l’esterno.Ecco quindi spuntare un concetto importante, quasi dogmatico: dal marketing tradizionale (outbound) siamo ormai passati all’inbound marketing ovvero dalle strategie per trovare clienti siamo passati alle strategie per farsi trovare dai clienti. Fanno parte dell’outbound marketing cose come la pubblicità in TV, la radio o volantini inviati a casa. Sono tutte attività che interrompono senza consenso ciò che le persone stanno facendo, come ad esempio vedere un film o ascoltare la musica. Sono azioni che si rivolgono ad un pubblico di massa con ritorni sugli investimenti non sempre misurabili.

Diversamente l’inbound marketing si basa su strategie che permettono di essere trovati dai potenziali clienti ovvero su tre concetti chiave:

  1. Contenuti (guarda un po’…);
  2. Search Engine Optimization (di nuovo la SEO?) e Social Media Optimization (SMO ovvero il futuro dell’Internet Marketing);
  3. I Social Network.

In altre parole la strategia di base (fondamentale) è scrivere contenuti di qualità, ottimizzare il sito per favorire i motori di ricerca (farsi trovare da chi cerca) ma soprattutto usare i Social Network per raccontare della nostra attività o del nostro prodotto/servizio.

Dopo il terrore scatenato dall’ingresso di Google Panda è arrivata la soluzione con Google FreshLo scopo di Google Fresh è fornire all’utente il contenuto più recente in un range di tempo sensibile.  Questo nuovo algoritmo costringe i webmaster all’aggiornamento con maggiore frequenza dei contenuti del proprio blog o sito; questo vuol dire anche essere maggiormente informati e fornire contenuti non solo qualitativamente elevanti, ma anche particolarmente pertinenti con ciò che sta accadendo relativamente all’area d’interessa del sito.

Di nuovo l’accento sui contenuti e di nuovo le tecniche SEO passano in secondo piano.Quindi la SEO è davvero morta? Forse sì, almeno la SEO che siamo abituati a pensare. Oggi la SEO si sta evolvendo sempre di più verso la SMO che è costituita da azioni sempre meno tecniche e con maggiore importanza del fattore umano.Le agenzie SEO, tutte incentrate sulla tecnica, sono seriamente in pericolo. Un bravo consulente con ottime capacità di copywriting e marketing può fare la differenza. Infatti la SMO si basa su azioni come il commentare su altri blog in modo intelligente e non invasivo (SPAM), come quello dell’aggiornamento di stato nei profili dei Social Network, creando sondaggi, contenuti che favoriscano la loro condivisione. Il consulente SMO crea (inventa) video su Youtube, condivide foto, organizza flussi RSS per favorire gli aggiornamenti e, tra le altre cose, gestisce la reputazione online (ORM).Sempre più aziende stanno comprendendo che è necessario non solo avere una presenza nei social network, ma anche gestirla in modo strategico, coinvolgendo gli utenti, coccolando i clienti, gestendo ed amplificando le relazioni, creando comunità.Finalmente siamo tornati ad una gestione SEO/SMO dove l’uomo fa la differenza, dove non è solo una questione di chi ha più soldi, ma di chi ha maggiori capacità di scrivere un testo, di comunicare un sentimento, di raccontare una storia.

Fugazzi D.

SHARING ECONOMY MANIA

agosto 2, 2012

Dopo il boom dei social network, la sharing economy diventa il vero business del  futuro: una nuova filosofia di vita che, complice l’attuale crisi, prende le distanze dalla mania dell’accumulo per passare alla condivisione.

Negli Sati Uniti, dove la sharing economy è nata, viene ovviamente già applicata a ogni tipo di bene e servizio, dal babysitting alla condivisione di case, spazi di lavoro ecc.

Lo stesso “The Week” in un articolo online di aprile 2012, la  definisce come la “nuova rivoluzione industriale”.

Vediamo alcuni esempi tra i più famosi:
Airbnb (www.airbnb.it) è una community marketplace che mette in contatto proprietari di appartamenti, case, ville, stanze ecc con viaggiatori alla ricerca di una sistemazione; è uno dei siti più famosi che ha raggiunto il record di 10 milioni di notti prenotate in 25 mila città!

La community ha regole precise da rispettare, un’assicurazione che copre i proprietari e un’applicazione I-phone con “wish list” per salvare le proprie preferenze.

Sicuramente il mondo della moda è quello che fin da subito ha dato origine allo scambio, dalla semplice bottega di rivendita di abiti usati, alla community su internet; gli esempi sono moltissimi, ma possiamo sicuramente citare “Refashioner” sito americano must per le modaiole che non buttano mai via niente e che si definisce appunto  “un’accurata community per acquistare, vendere e scambiare abiti e accessori di qualità!” Qui si possono davvero fare ottimi affari trovando il pezzo preferito e cercato da tempo o noleggiando borse e abiti per un tempo limitato.

Un esempio italiano di rilievo è quello di www.suiteatwork.it, l’ecologico guardaroba organizzato in grado di offrire un guardaroba femminile condiviso tutto l’anno: su abbonamento si possono scegliere abiti per ogni giorno che vengono scelti, indossati e riportati alla sede centrale  che si occupa di lavarli, stirarli e rimetterli a disposizione (per ora solo a Milano e Brescia).

O ancora scambio dei vestitini dei figli per le mamme eco fashion, su www.newtoyou.it  boutique di Milano.

Ma oltre ovviamente allo scambio di case, abiti, all’ancor più famoso “couchsurfing”  che permette  di trovare sistemazioni “di fortuna”, la vera rivoluzione della sharing economy è quella che riguarda i servizi: si può scambiare e condividere davvero di tutto!

Dal dogsitter, www.dogvacacy.co, alle macchine sempre più scelte a noleggio, soprattutto negli USA con http://www.zipcar.com, per arrivare alla condivisione degli spazi comuni di casa e lavoro: dal “co-housing” dove più famiglie acquistano case in complessi residenziali con servizi e aree comuni (asilo, orto, parcheggi, macchine, gruppi d’acquisto) – da citare l’esempio di Urban Village Bovisa di Milano – al “co-working” che permette di condividere uffici completamente accessoriati riducendo le spese e usufruendo di spazi comuni (www.coworkinproject.com).

Il problema fondamentale è sicuramente quello della “garanzia”, del “potersi fidare”, che ogni community cerca di rafforzare con regole precise, esclusioni dal sito per violazioni fino ad arrivare negli USA alla creazione di una sorta di “portal reputation system for internet” che funziona come database per utenti referenziati.

Il mercato si avvia cosi a un modello di peer marketplace. Sempre più spesso l’offerta di un bene proviene dal singolo, anziché da una società: è il caso di eBay che si emancipa da internet per entrare nel quotidiano e il consumatore diventa veicolo di pubblicità, non soltanto perché sceglie cosa e come acquistare, ma perché consiglia, suggerisce: non è soltanto un fenomeno di scambio materiale, quindi, ma anche e soprattutto di opinioni.

Poter accedere a beni e servizi è ormai diventato più importante che possedere e i vantaggi sono sempre più numerosi: meno costi, meno problemi e creazione di una comunità globale che condivide soprattutto una di  filosofia di base.

Luisa Gulluni

Frequenze digitali, il Far West continua

maggio 27, 2012

Da oltre trent’anni le frequenze radio-televisive sono materia di scontro politico a causa degli enormi interessi, non solo economici, che ruotano attorno ad esse. Tutto ha inizio nel 1976 quando una sentenza della Corte Costituzionale ammette la trasmissione televisiva in ambito locale, intaccando il monopolio della Rai e scatenando la corsa alle frequenze, ciò che venne definito il Far West dell’etere. Complice il vuoto legislativo in materia si afferma il più forte: Silvio Berlusconi, outsider nel campo dell’editoria, sbaraglia concorrenti del calibro di Rusconi e Mondadori e costruisce quello che diventerà il suo impero televisivo. Si assiste poi ad un lungo periodo di inerzia del legislatore fino alla prima legge organica sull’emittenza commerciale nel 1990, la legge Mammì, che tuttavia non riesce a portare ordine nel Far West delle frequenze limitandosi sostanzialmente a “fotografare l’esistente”, legalizzando il duopolio RAI-Fininvest. Si susseguono poi altre leggi di settore la Maccanico nel 1997, la legge Amato nel 2001, la Gasparri nel 2004, rinviata alle Camere da Ciampi, e la legge Gentiloni, che avrebbe dovuto eliminare le storture dovute all’abuso di posizione dominante di RAI e Mediaset, provocate dalla legge Gasparri, ma che non vide la luce a causa dell’interruzione prematura della legislatura. In mezzo anche quattro quesiti referendari e diciotto sentenze della Consulta. Fino ai giorni nostri quando il passaggio dall’analogico al digitale sembrava aver scritto finalmente la parola fine su un’anomalia tutta italiana, figlia di quell’iniziale occupazione selvaggia dell’etere. Come sappiamo, infatti, la tecnologia digitale, moltiplicando i canali disponibili, grazie a tecniche di compressione dati che permettono di occupare solo un sesto circa della larghezza di banda utilizzata per la trasmissione di un canale analogico, ha risolto il problema della penuria di frequenze, che nel vecchio regime aveva di fatto impedito l’affermarsi della concorrenza in ambito televisivo.

Sennonché proprio attorno alla liberazione dello spettro si innesca l’ennesima battaglia. Oggetto del contendere sei multiplex da dieci frequenze che il precedente Governo Berlusconi aveva deciso di assegnare gratuitamente attraverso il cosiddetto beauty contest (letteralmente concorso di bellezza), cioè agli operatori con forte presenza sul mercato nazionale ritenuti in grado di svolgere al massimo livello qualitativo sia il ruolo di operatore di rete che quello di fornitore di contenuti. Una soluzione, adottata anche in altri paesi europei, richiesta all’Italia dalla Commissione Europea per eliminare le anomalie provocate dalla legge Gasparri, responsabile secondo l’Europa, che per questo ha aperto una procedura d’infrazione nei confronti del nostro Paese, di aver traghettato il sistema televisivo dall’analogico al digitale mantenendo le posizioni dominanti; una soluzione per aprire dunque il mercato a quegli operatori in grado di rinfrescare un quadro immobile. Ma al concorso sono stati ammessi anche gli incumbent RAIe Mediaset (Sky, in polemica, si è ritirata dalla gara) oltre a Telecom Italia Media, 3 Italia, Canale Italia, Prima Tv ed Europa 7 sulla quale c’è poi da aprire una parentesi. Di fatto tutto sarebbe rimasto come prima: Rai e Mediaset avrebbero consolidato le proprie posizioni dominanti spartendosi ascolti e pubblicità, il contrario di quanto richiesto dall’Europa per chiudere la procedura d’infrazione. Da notare che Rai e Mediaset possiedono già quattro multiplex per la trasmissione digitale terrestre Dvb-T ciascuna (contro i tre di Telecom Italia Media che ne reclama uno in più), oltre ad un’ulteriore frequenza per il Dvb-H, la trasmissione televisiva sui cellulari, che, grazie alle recenti modifiche regolamentari, eventualmente possono convertire per la trasmissione digitale terrestre. In questo modo raggiungerebbero il tetto dei cinque mux fissato dall’Ue.

Il beauty contest sembrava ormai in dirittura di arrivo quando l’avvicendamento del novembre scorso a Palazzo Chigi spariglia le carte della partita. Al Ministero dello Sviluppo economico, titolare della materia frequenze, arriva Corrado Passera al posto di Paolo Romani. Il neo ministro, conscio della crisi che il Paese sta attraversando, comprende che è uno spreco regalare un bene pubblico come le frequenze. Congela perciò il beauty contest fino ad un mese fa, quando ecco il colpo di scena: un emendamento al decreto sulle semplificazioni fiscali approvato alla Camera, proprio su proposta di Passera, annulla definitivamente il concorso di bellezza. Le frequenze saranno assegnate, come avvenuto per quelle della telefonia, tramite un’asta pubblica al miglior offerente, da indire entro quattro mesi e divisa in due “pacchetti”: il primo (composto dai canali 6 e 7 VHF, 23, 25, 24, 28 UHF) sarà riservato alle emittenti televisive per un periodo di almeno 4 anni. Il secondo pacchetto, composto dai canali 54, 55, 58 e 59 UHF (frequenze a 700 MHz che saranno destinate dopo il 2015 alla banda larga mobile), sarà riservato sempre alle emittenti, ma per una durata inferiore: al massimo tre anni. Inevitabili le polemiche sollevate dal Biscione ma anche da Europa 7, da oltre 10 anni impossibilitata a trasmettere sulla frequenza regolarmente vinta a causa della posizione abusiva di Rete 4, mai migrata sul satellite come disposto dalla legge Maccanico. Di fatto l’unica ad essere penalizzata dall’annullamento del beauty contest. L’emittente, già ricorsa al Tar del Lazio visti gli impegni presi con le banche, denuncia che i veri favoriti dallo stop al concorso sono sempre RAI e Mediaset e che le polemiche di quest’ultima sarebbero strumentali. Non è vero – tuona Francesco Di Stefano, patron di Europa 7 – che RAI e Mediaset non possono partecipare all’asta: basta che non chiedano di convertire la frequenza Dvb-H e non arriveranno al tetto dei cinque mux. In realtà – è convinto Di Stefano – a Mediaset non interessano ulteriori frequenze poiché potrebbe già convertire gratuitamente il Dvb-H invece di pagarne un’altra. L’unico motivo che spingerebbe l’azienda di Cologno Monzese a partecipare all’asta sarebbe quello di arginare la temuta concorrenza di Sky (che come detto si era invece ritirata dal beauty contest).

Nel delirio dell’etere si inserisce anche il problema del coordinamento con i paesi confinanti, che l’Italia non ha effettuato. Sarà difficile mantenere le tv in banda 700 MHz fino al 2018. La Tunisia, ad esempio, utilizzerà tali frequenze per la banda larga mobile dal 2015. Alcuni canali saranno, da quel momento inutilizzabili dalle tv italiane in Sicilia e parte della Calabria. Il canale 56 sarà utilizzabile solo a Messina e ad Enna, il canale 58, uno di quelli che verrà messo all’asta, solo a Trapani.

Il caos delle frequenze televisive investe anche gli operatori della telefonia mobile. Con un’asta da circa 4 miliardi di euro Telecom, Vodafone, Wind e H3G si sono aggiudicati lo scorso settembre 24 lotti Lte (nuova generazione per i sistemi di accesso mobile a banda larga che si colloca tra le attuali tecnologie come l’Umts e quelle 4G ancora in fase di sviluppo) a 800 MHz (le più pregiate, servono a mandare il segnale lontano e a coprire aree vaste), 1200, 2000 (quest’ultimo andato deserto) e 2600 MHz, in arrivo dalle tv locali (nove frequenze a 800 MHz, dalla 61 alla 69) e  dal ministero della Difesa (2.6 GHz), da liberare entro fine 2012 secondo il termine imposto dall’ex ministro Romani. Quest’ultimo, secondo il settimanale l’Espresso, avrebbe ignorato la proposta del suo predecessore Paolo Gentiloni di utilizzare il beauty contest per restituire alcune frequenze alle tv locali, espropriate delle nove frequenze a vantaggio della telefonia, invece di far regali al duopolio Rai-Mediaset. Così sarebbe stato necessario far traslocare solo una parte delle tv locali interessate dall’esproprio, le quali avrebbero rinunciato alla guerra perché gli indennizzi (175 milioni di euro contro i 400 richiesti) sarebbero stati sufficienti, e la banda larga sarebbe partita senza intoppi. Così stando le cose, invece, la saturazione dello spazio potrebbe comportare interferenze tra tv e telefonia nelle zone in cui gli operatori lanceranno, a partire dalla seconda metà del 2012, la nuova generazione di rete mobile di cui si è detto: se non si trova una soluzione nelle zone in cui il segnale Lte sarà più forte di quello televisivo la tv non prenderà più il segnale digitale terrestre, perché entrambi utilizzano la frequenza di banda 800 MHz. Il rischio insomma è che per questo motivo venga ritardata l’evoluzione della banda larga mobile, utile a cittadini e imprese, come ricordato di recente dall’Unione Europea.

Mentre infatti gli altri Stati membri dell’UE investono sulla connettività l’Italia è tristemente ferma al palo anche a causa della spartizione del dividendo digitale tra i soliti soggetti. Questi ultimi d’altra parte continuano a investire su piattaforme di broadcasting passivo senza sfruttare a pieno le opportunità offerte dal digitale. Si pensi ad esempio ai nuovi concetti interattivi quali il T-Banking, il T-Governement e il T-Learning che consentirebbero ai telespettatori di accedere comodamente e direttamente da casa mediante il telecomando ad alcuni servizi di utilità quotidiana come la richiesta di certificati, il pagamento di bollette, la richiesta di estratti conto. Nella guerra per le frequenze a rimetterci, ancora una volta, sono gli utenti.

 

Federico Zappone

Occhi puntati su Tim Cook: l’erede di Jobs accusato di “normalità”

maggio 27, 2012

Fortune, nota rivista americana di business, punta i riflettori su un mondo a lei caro, fatto di mele sgranocchiate e amabili Ceo, dedicando copertina e articolo principale dell’ultima edizione alla figura di Tim Cook e a Apple.

Lo scorso marzo gli Editor del magazine non hanno avuto alcun dubbio nell’assegnare alla azienda di Cupertino il primo posto all’interno della classifica delle compagnie più ammirate al mondo. A convincerli avvenimenti salienti che hanno caratterizzato il 2011, come il lancio dell’iPhone 4S e dell’iPad 2, ma soprattutto il raggiungimento di una capitalizzazione di mercato da record che ammonta a 500 miliardi di dollari.

Questo mese, invece, il giornalista Adam Lashinsky firma di svariati articoli dedicati alla sfera Apple, ma soprattutto autore dell’enorme successo editoriale “Inside Apple”, esamina come stia cambiando Cupertino sotto la gestione di Tim Cook a nove mesi dalla morte di Steve Jobs.

Ma facciamo un passo indietro: Tim Cook, chi è costui? Origini modeste, figlio di un operario e di una casalinga, si laurea in ingegneria industriale all’università di Auburn (Alabama) per poi spiccare il volo verso una carriera folgorante in IBM, seguita da una breve permanenza in Compaq, fino alla chiamata di Jobs nel ’98 con il compito di ammodernare l’intero assetto produttivo e logistico di Apple. Dedito al lavoro come il suo “boss”, in poco tempo Cook nel campus di Cupertino diventa secondo solo al genio dal dolcevita nero, andando a sostituirlo la prima volta nel 2004, durante i due mesi di assenza dovuti all’intervento chirurgico subito, poi ancora nel 2009 e a inizio 2011.

Quando nell’ottobre scorso Jobs lascia questo mondo insieme alla sua creatura da miliardi di dollari tocca proprio a Cook, nominato nuovo Ceo pochi mesi prima, prendere in mano le redini della azienda, considerato ormai da tempo il più adeguato, forse l’unico, a ricoprire un tale incarico. Voci e opinioni contrastanti segnano questo storico passaggio, da alcuni visto come la fine di un’epoca, da altri la sua miglior prosecuzione. Due uomini, due figure, due leader totalmente differenti: Jobs, nato per essere protagonista, istrione destinato a calcare il palcoscenico del successo, noto per il suo carattere fortemente temperamentale; Cook, riflessivo, freddo, abituato a stare nell’ombra e a non alzare la voce.  Ma l’ex braccio destro di Jobs gioca ormai da anni un ruolo chiave nella azienda e se apparentemente la scelta di Cook come successore  desta in alcuni paura e perplessità (non ancora scomparse), attualmente i risultati ottenuti dal nuovo Ceo le rendono giustizia. Nessuno pensa che sostituire Jobs sia compito facile, per molti è un compito impossibile, ma ciò nonostante Tim Cook ha dimostrato di avere tutte le competenze per poterlo fare, o almeno di aver saputo fin’ora gestire l’eredità lasciatagli dal caro amico senza farne sentire la mancanza.

Leggendo l’ articolo di Adam Lashinsky, pubblicato su Fortune di giugno, vediamo come il business della Mela sotto la direzione del nuovo Ceo sia sensibilmente cresciuto grazie al lancio di nuovi prodotti, quali iPhone 4 e iPad 3, i due articoli Apple di maggior successo fino ad oggi. Ma per i risultati più interessanti lasciamo che siano i numeri a parlare: nel periodo di gestione Cook il valore di Apple è aumentato di 140 milioni di dollari, il fatturato annuale della compagnia ha raggiunto i 108 miliardi, spinto da un aumento dell’81% nelle vendite di iPhone e un picco del 334% in quello degli iPad; rialzi su tutta la linea a spiegazione dell’aumento del 75% delle azioni durante questo ultimo periodo.

Dal punto di vista dei risultati, dunque, Cook ha più che soddisfatto e anche oltrepassato le aspettative di Wall Street e anche gli investitori, come i dipendenti della azienda, sembrerebbero apprezzare il carattere più mite, pacato, disponibile del nuovo Ceo rispetto ai silenzi stampa di Jobs, volutamente assente da quasi tutti gli incontri pubblici che non fossero i tanto attesi keynote di lancio dei nuovi prodotti.

Un’impostazione, quella adottata da Cook, che nell’ottica di Lashinsky starebbe però trasformando la fabbrica dell’avanguardia e del rischio lungimirante, in un’azienda dall’organizzazione interna maggiormente conservativa e tradizionale, aperta e corporativa rispetto al passato: più “normale”, considerata la sua struttura precedente. Secondo la testimonianza di Max Paley, ex ingegnere dipendente per 14 anni della Apple, il volere e le decisioni della categoria da lui rappresentata, fino a poco tempo fa di fondamentale importanza nella gestione delle scelte, non sarebbero più così preminenti. Questo cambiamento, insieme alla maggior propensione di Cook alla razionalizzazione, renderebbero l’azienda un “motore esecutivo” guidato da dirigenti orientati agli affari e meno dipendenti caratterizzati da esperienza tecnica e di progettazione.

In realtà Cook sta rispettando la maggior parte della cultura aziendale unica di Apple, mettendo in atto solo alcuni cambiamenti necessari e che la maggior parte degli impiegati auspicava profondamente da tempo ma sempre rifiutati, forse per estrema ostinazione, dal suo predecessore.

Insomma, sembrerebbe un lavoro meritevole e degno di lodi quello portato avanti fino ad ora dall’ingegnere cinquantunenne, coronato da un ultimo gesto che apparentemente potrebbe stupire e portare a definirlo addirittura un filantropo. A seguito del comunicato stampa del 25 maggio con cui Apple ha ufficialmente confermato di voler pagare i dividendi aziendali già dal 1 luglio, Cook ha espresso apertamente l’intenzione di voler rinunciare alla propria parte che ammonterebbe a circa 75 milioni di dollari. Una scelta definibile onorevole, ma forse non tutti sanno che a differenza di Jobs che percepiva formalmente un dollaro l’anno di compensi, Cook incassava già uno stipendio di 900.000 dollari l’anno, salito a ben 378 milioni di dollari (di cui 900.017 di salario annuo di base, 900.000 dollari di incentivi e 376,18 milioni di dollari in azioni vincolate) con la “promozione”, aggiudicandosi così il posto di amministratore delegato più pagato d’America nel 2011, almeno per quanto concerne le entrate effettive, secondo un’inchiesta condotta dal Wall Street Journal in collaborazione con Hay Group.

Tornando in conclusione alla visione fornita da Fortune, Cook non sembrerebbe voler imitare Jobs, ma guidare Apple secondo il proprio stile, le competenze accumulate negli anni e un approccio pacato e disponibile rispetto all’idolatrato, ma innegabilmente duro e collerico Jobs. E se nella visione di Lashinsky l’azienda sta diventando più “normale”, in conformità con le tradizionali corporation statunitensi, con più riunioni e forse anche dissidi interni, innegabile è che Cook stia lavorando bene, meritandosi montagne di dollari; non dimentichiamo che a indicare Cook come suo sostituto fu proprio Jobs otto anni fa, quando decise di affidare a lui il timone della nave durante la sua prima assenza forzata e la scelta di nominarlo Ceo ad agosto, molto probabilmente, è stata solo l’ufficializzazione di una delle tante lungimiranti decisioni che hanno reso Jobs unico e inimitabile.

Dunque, chissà che lasciandoci in eredità il suo più fidato collaboratore come suo successore, pienamente consapevole di quanto fosse diverso da lui, il -non troppo- buon vecchio Steve non abbia voluto farci un ultimo regalo, allineandosi fino alla fine con la filosofia che lo contraddistingueva da sempre: stupire affidandosi al cambiamento, riuscendo a vedere oltre prima degli altri. Solo il tempo potrà dirlo con certezza. Per adesso, anche da una “iCloud” a forma di Apple, ancora una volta Steve rulez. 

Carolina Piola