Archive for aprile 2009

Google e il monopolio dell’informazione: analisi di un motore di ricerca

aprile 30, 2009

Cercando su Internet ho trovato alcune informazioni interessanti riguardo al tema affrontato oggi a lezione,ovvero il mondo dei motori di ricerca. Anche nel nostro discorso odierno l’attenzione poi è ricaduta su Google. Credo che l’articolo di Jacopo Gonzales, preso dal sito http://www.freeonline.org , offra  un valido spunto di discussione.

Sono infinite le discussioni che questo Google sta generando, da tutti i punti di vista, rendendoci spesso inobiettivi e “googleofili” per il solo gusto di esserlo. Ormai che tu legga un giornale, accenda la TV, o vada su internet, Google è sempre lì. Non solo. Google è diventato un verbo, “to google” (almeno nello slang americano) sinonimo di ricerca e di motore di ricerca (il più grande del mondo) citato e definito da vocabolari ed enciclopedie di tutto rispetto, e questo basta a spiegare quanto penetrante sia la sua presenza nelle nostre vite.
Credo che la ragione, il comune denominatore di tutto ciò, sia che Sergey Brin e Larry Page, 2 ragazzi ora poco più che trentenni, stanno rivoluzionando (se già non lo hanno fatto) l’informazione su scala mondiale ed il modo in cui questa vada concepita. E non accennano a fermarsi, in fondo perché dovrebbero farlo? Hanno iniziato in due con un “piccolo” motore di ricerca all’università di Stanford, arrivando ad avere oggi circa 4.200 dipendenti in tutto il mondo, oltre 100.000 server per gestire praticamente tutte le pagine web esistenti sul pianeta (per la cronaca abbiamo superato quota 8 miliardi di pagine), oltre al fatto che l’80% delle ricerche fatte online vengono fatte attraverso i suoi 100 ed oltre domini nazionali
Partiamo dalla Google mission, oserei dire il loro manifesto programmatico:
“La missione di Google è organizzare le informazioni a livello mondiale e renderle universalmente accessibili e fruibili”.
Affascinante senza dubbio, d’altronde un obiettivo di tale ambizione e portata non poteva che provenire da una nazione che ritiene che tutto sia possibile, e che qualunque problema possa e debba essere superato, non importa a quale costo. Ma che vuol dire nello specifico ve lo chiedete mai? E a quale prezzo questo potrebbe avvenire? E la nostra privacy? Basta pensare che Google, sia attraverso la sua interfaccia di ricerca che attraverso la sua toolbar, acquisisce informazioni sul nostro utilizzo del web (fonte http://www.google.it/intl/it/privacy.html: Google non raccoglie informazioni che permettano di identificare l’utente (come il nome e l’indirizzo di posta elettronica) a meno che non sia l’utente a fornirle esplicitamente. Google acquisisce e salva informazioni quali l’ora del giorno, il tipo di browser, la lingua utilizzata dal browser e l’indirizzo IP per ciascuna richiesta ricevuta. Tali informazioni vengono confrontate con i record a disposizione di Google e servono a fornire servizi più mirati agli utenti. Ad esempio, Google può utilizzare l’indirizzo IP o la lingua del browser per stabilire quale lingua utilizzare per la visualizzazione dei risultati delle ricerche e degli annunci pubblicitari)
Tornando al loro manifesto programmatico, sembrerebbe un concetto talmente democratico da non poter destare timori o sospetti. Eppure non è così. La missione del Googleplex non ha precedenti nella storia dell’uomo. In breve il progetto, che coinvolge editori, biblioteche ed università prestigiose, consiste nella digitalizzazione e messa online di milioni di libri, per un totale di miliardi di pagine. E’ comunque intervenuto il copyright, giusto in tempo, a frenare un processo quantomeno frettoloso. Già il fatto che per accedere a tutta questa mole di informazioni ci sia bisogno di connessioni internet o di un cellulare limita e rende meno democratica la sua accezione di universalità. Comunque sicuramente Google print è un progetto interessante, e chi lo nega?
Ma la ricerca continua anche tramite cellulare, ed ecco qui spuntare Google Mobile, tramite cui puoi accedere a quasi qualunque informazione che il noto motore abbia da offrire. Interessante, sicuramente un servizio utile, che si andrà rafforzando anche grazie alla recente acquisizione di Android (società specializzata nella realizzazione di software per disposivi mobili) da parte del colosso californiano.
E poi ci sono le mappe, quasi dimenticavo. Consiglio a chiunque non lo abbia ancora fatto, di farsi un giro del pianeta visto dai satelliti. Il servizio online si chiama Google Maps e permetterà gratuitamente di vedere in modo dettagliato praticamente qualunque città o luogo del globo. Analoga funzione svolge poi Google Earth, realizzato sulle impronte del software della Keyhole (ennesima società acquisita).  Tralasciamo anche la mancanza di concorrenza che si respira nella Silicon Valley,  dove le società che si trovano sulla rotta di interessi economici del Googleplex vengono direttamente acquisite, senza mezzi termini, e quelle che non riescono a stargli dietro chiudono direttamente bottega altre ancora direttamente rinunciano ad aprire. Potrei continuare all’infinito, ma penso che sia palese che di imperialismo e monopolio incontrollabile dell’informazione si possa parlare quando questi 2 concetti vengono associati a quel numero seguito da cento zeri.

L’articolo qui proposto fa un quadro forse troppo negativo ed opportunista di Google, devo precisare che  io, da semplice utilizzatrice  non avevo mai riflettuto sui temi proposti dall’autore dell’articolo. Il mio parere è più morbido a riguardo nel senso che io  faccio parte della statistica, ovvero è l’unico motore di ricerca che uso e le ricerche che faccio vengono soddisfatte al meglio con una percentuale altissima di attinenza. Nell’articolo è chiara l’intenzione di denunciare un monopolio che magari per così dire blocca i progetti e le ambizioni di altri motori di ricerca. L’ho proposto perchè anche se in tono polemico cmq dice delle verità; ed è giusto secondo me presentare magari un punto di vista alternativo al mio.

Allego per completezza due immagini.

cuota-buscadores3

 

visitatori_da_google

Riflessioni sul format televisivo

aprile 27, 2009

Negli ultimi anni, una delle modalità di produzione predilette sembra essere diventata quella del format, ossia l’ideazione di alcune linee-guida, potremmo dire uno schema, su cui si baserà l’ideazione del programma vero e proprio; il format, oltre all’idea originale che costituisce il programma e alla sua struttura, contiene anche una serie di suggerimenti relativi alla sua realizzazione pratica, suggerimenti che riguardano la scenografia, la collocazione del programma nel palinsesto, le caratteristiche ideali del conduttore, ecc. I diritti d’uso di questa “ossatura” vengono sempre più spesso venduti ad emittenti estere, di modo che in quasi tutti i paesi d’Europa (e non solo) gli spettatori possono assistere a un programma che è lo stesso, e tuttavia è stato adattato alla cultura ed alle esigenze dei diversi pubblici di ogni singola nazione.

Endemol Italia è la prima società di produzione televisiva indipendente ad operare nel nostro Paese.
Grazie ad un’attività in costante crescita che spazia dalla realizzazione di programmi di intrattenimento (reality show, varietà, game show e talk show) alle fiction (miniserie, soap opera e sit-com), in questi anni l’azienda si è imposta come leader nell’elaborazione di format televisivi per i principali network italiani: Rai, Mediaset e La7.

Ad oggi,  Endemol Italia produce ogni anno più di 1.500 ore di programmazione, svolgendo un’attività editoriale che spazia tra i vari generi con programmi innovativi nei modelli produttivi, nel linguaggio e nei contenuti che sono di grande impatto sul pubblico. In particolare, l’azienda ha introdotto nel nostro Paese Grande Fratello, il primo reality show trasmesso dalla televisione italiana. Chi vuol essere milionario?, invece, è stato il primo quiz di nuova generazione. Affari tuoi, infine, è il game show che ha avuto un effetto dirompente sull’access prime time.

Il format televisivo viene strutturato seguendo determinate regole ed impostazioni così riassumibili:

 punto 1: Titolo Provvisorio

 il titolo per un format TV è fondamentale, deve essere breve e accattivante, facile da comprendere e da ricordare.

 punto 2: Genere

Che tipo di format stiamo progettando? un quiz-show / game-show, un docu-reality, un reality, un talk-show o altro? E’ bene individuare subito il genere di format che stiamo scrivendo

 punto 3: Durata e Ciclo della Trasmissione

Quante puntate sono ipotizzabili? Qual’è la loro cadenza? Che durata ha la singola puntata?

 punto 4: Concept

Questa parte descrittiva è emozionale e creativa.

punto 5: Formula

E’ la parte che descrive come si svolge una puntata, ovvero cosa vedrà lo spettatore in una singola puntata.

 punto 6: Sinossi

Stessa cosa della sceneggiatura cinematografica, ovvero il riassunto massimo che si può fare di ciò che stiamo proponendo.  

punto 7: Meccanismi

Questa parte è la parte tecnica del format. Nella sezione dedicata ai meccanismi si descrive con cura e con linguaggio visivo lo svolgimento di una puntata, ovvero chi fa cosa e come, se ci sono rubriche, contributi esterni (chi li ha realizzati, quando e cosa riguardano), collegamenti,ecc.

 punto 8: Mood

Il mood è l’impostazione stilistica che gli vogliamo dare, il cosiddetto “taglio”. Questa è si una parte che dobbiamo scegliere noi, ma si deve stare attenti che sia pertinente al genere e al target al quale si riferisce.  

punto 9: Conduzione

In questa parte si possono fornire indicazioni riguardo il conduttore e la conduzione 

punto 10: Testi

Come ben saprete in TV nulla è lasciato al caso, a volte anche nei talk show le domande e le risposte sono concordate.

punto 11: Interazione con gli spettatori televisivi

Nel caso vi sia un’interazione con gli spettatori (telefonate da casa, quiz via sms o altro) usare questa parte del format per indicarne le modalità.

Questo fenomeno provoca un impoverimento degli autori italiani e della loro capacità d’autori a disposizione delle strutture TV, delle singole televisioni, utilizzate in maniere marginale e scarsamente considerate, a favore di prodotti ideativi importati dall’estero generando così un appiattimento del livello culturale.

La politica dei Format è senza dubbio da un punto di vista economico molto conveniente poiché è possibile avere molte ore di programma televisivo a basso costo rispetto ai costi di qualsiasi altro programma televisivo.

 

 

L’utilità di facebook…

aprile 25, 2009

Per tutti quelli come me, secondo cui facebook non serve a molto, è giunta l’ora di ricredersi! Almeno in parte.
Un articolo uscito su Internazionale della scorsa settimana, mostra come questo social network possa essere sfruttato in modo utile e intelligente.
Due fratelli danesi, David e Christopher Mikkelsen, hanno infatti lanciato un nuovo sito, refunite.org, destinato a diventare il motore di ricerca ufficiale dei profughi di tutto il mondo.
Trovo sia la cosa più intelligente riguardante questo nuovo mondo-facebook.
Ogni anno ci sono milioni di persone costrette a spostarsi a causa di guerre, carestie o catastrofi naturali. Spesso le familie vengono separate. E’ ovvio che esistono già molte iniziative per ricongiungere i familiari, ma questa sembra essere stata studiata appositamente anche per le nuove generazioni.
Se questo sito avrà abbastanza iscritti, l’organizzazione Mikkelsen pottrebbe fonire ai rifugiati un modo autonomo per fare le ricerche.
Per funzionare però, il sito deve farsi conoscere ed essere usato da molte persone.
I Mikkelsen si sono per questo concentrati sulla costruzione della piattaforma web e sulla raccolta di fondi per lanciare il stito. I volontari hanno tradotto la piattaforma in 23 lingue.
I due fratelli danesi hanno raccontato le diverse esperienze che hanno avuto lavorando a contatto con i rifugiati. In particolare, hanno parlato di un ragazzo afgano di diciassette anni, Mansour, che era migrato da Kabul a Peshawar, in Pakistan, all’età di dodici anni.
Della sua famiglia non aveva mai più avuto tracce. Con i Mikkelsen ha fatto parecchie ricerche, e ha scoperto che suo fratello era stato venduto come schiavo e viveva senza documenti a Stavropol, una città della Russia sudoccidentale. Ora Mansour è in contatto con lui, ma ancora non è riuscito a rintracciare il resto della famiglia.
Le difficoltà delle ricerche sono molte, ma un grande vantaggio di refunite.org è che garantisce l’anonimato dei suoi utenti, dettaglio fondamentale per chi oltrepassa un confine illegalmente. Chi si registra può riempire il suo profilo con dettagli che solo i parenti conoscono, per esempio i soprannomi dell’infanzia, le voglie sulla pelle ecc…
Tra le difficoltà del sito si segnalano l’accesso ad Internet, poichè non tutti ce l’hanno, e il numero degli iscritti: finora si sono registrate centinaia di persone. Nel mondo di internet non sono molte, ma nel mondo dei profughi si.
“Se si riuscisse a far ricongiungere quelle persone” -racconta Christopher- sarebbe un gran successo”.
E’ l’augurio più grande che vorrei fare a facebook. Dimostrerebbe anche agli scettici come me di essere un nuovo strumento utile.

Richard Stallman

aprile 23, 2009

Richard Stallman è l’ideologo del movimento di software libero, che identifica in Internet lo strumento che permette e farà in modo che la cultura occidentale possa diffondersi e arricchirsi.
Nel settembre del 1983 lanciò il progetto GNU per creare un sistema operativo libero simile a Unix di cui è il principale organizzatore e creatore. Con il lancio del Progetto GNU, il movimento del software libero prese vita e nell’Ottobre del 1985 fondò la Free Software Foundation (FSF). Fu il pioniere del concetto di copyleft ed è il maggiore autore di molte licenze copyleft compresa la GNU General Public License (GPL), la licenza per software libero più diffusa. Dalla metà degli anni novanta spende molto del suo tempo sostenendo il software libero come anche la campagna contro il software con licenza e ciò che a lui sembra una eccessiva estensione delle leggi su copyright. Stallman ha anche sviluppato un numero di parti di software usati ampiamente, compreso Emacs, la GNU Compiler Collection e la GNU Debugger.
Stallman annunciò il progetto per il sistema operativo GNU nel settembre 1983 su molte mailing list ARPAnet e USENET. Nel 1985, Stallman pubblicò il manifesto GNU, che descriveva le sue motivazioni per creare un sistema operativo libero chiamato GNU, che sarebbe stato compatibile con Unix. Il nome GNU è un acronimo ricorsivo per “GNU’s Not Unix (GNU non è Unix)”.

Poco dopo, diede vita a una corporazione no profit chiamata Free Software Foundation per impiegare programmatori di software libero e fornire un’infrastruttura legale per il movimento del software libero. Stallman è il presidente non stipendiato della FSF, un’organizzazione no-profit 501(c)(3) fondata nel Massachusetts.

Nel 1985, Stallman inventò e rese popolare il concetto di copyleft, un meccanismo legale per proteggere i diritti di modifica e redistribuzione per il software libero. Fu inizialmente implementato nella GNU Emacs General Public License, e nel 1989 il primo programma indipendente sotto licenza GPL fu rilasciato.

Da allora, gran parte del sistema GNU è stato completato. Stallman fu responsabile di aver contribuito con molti strumenti necessari, inclusi un editor di testo, un compilatore, un debugger, un build automator (un metodo automatico di compilazione da codice sorgente a codice binario). Quello che ancora mancava era il kernel. Nel 1990, membri del progetto GNU cominciarono lo sviluppo di un kernel chiamato GNU Hurd, che deve ancora raggiungere il livello di maturità richiesto per l’uso diffuso.

Nel 1991, Linus Torvalds, uno studente finlandese, usò gli strumenti di sviluppo GNU per produrre il kernel Linux. I programmi esistenti del progetto GNU furono prontamente adattati per funzionare con il kernel linux ed ora molti sorgenti usano il nome “Linux” per riferirsi al sistema operativo general-purpose risultante. Nella comunità del software libero ne è risultata una controversia sul nome da utilizzare per il nuovo sistema operativo. Stallman sostiene che non usare “GNU” sminuisce ingiustamente il valore del progetto GNU e nuoce alla sostenibilità del movimento del software libero rompendo il collegamento tra il software e la filosofia del software libero del progetto GNU.

Le influenze di Stallman sulla cultura hacker includono il nome POSIX e l’editor Emacs. Sui sistemi UNIX, la popolarità di GNU Emacs fece concorrenza all’altro editor vi, provocando una guerra fra editor. Stallman prese posizione su questo canonizzando scherzosamente se stesso come “St. IGNUcius” della Chiesa di Emacs e riconoscendo che “vi vi vi è l’ editor del diavolo”, mentre “usare una versione libera di vi non è un peccato; è una penitenza”.

Un numero di sviluppatori vide Stallman come un personaggio difficile con cui lavorare da un punto di vista politico, interpersonale o tecnico. Intorno al 1992, sviluppatori alla Lucid Inc. facendo il loro lavoro su Emacs si scontrarono con Stallman e alla fine fecero un fork sul software. Il loro fork più tardi diventò XEmacs.

Un archivio email pubblicato da Jamie Zawinski documenta le loro critiche e le risposte di Stallman. Ulrich Drepper, che Stallman aveva nominato per lavorare sul GNU libc per il Progetto GNU, pubblicò lamentele contro Stallman nelle note per la release di glibc 2.2.4. Drepper accusa Stallman di aver tentato una “scalata ostile ” del progetto, riferendosi a lui come un “maniaco del controllo e matto da legare.” Eric S. Raymond, che a volte proclama di parlare a nome di una parte dei membri del movimento open source, ha scritto molti articoli in toni aspramente critici, nei quali spiega il disaccordo del movimento con Stallman e il movimento per il software libero.

Stallman ha scritto molti saggi sulla libertà del software e dai primi anni ’90 è un attivista politico schietto a favore del movimento del software libero. I discorsi che ha regolarmente tenuto sono intitolati “Il progetto GNU e il movimento del software libero”(The GNU project and the Free Software movement”), “I pericoli dei brevetti software”(“The Dangers of Software Patents”) e “Copyright e comunità nell’era delle reti di computer”(“Copyright and Community in the age of computer networks”).

Nel 2006 e 2007, durante il diciottesimo mese della consultazione pubblica per la prima stesura della versione 3 della GNU General Public Licence, aggiunse un quarto tema per spiegare i cambiamenti proposti.

La fedele difesa di Stallman per un software libero inspirò “Virtual Richard M. Stallman” (vrms), software che analizza i pacchetti correntemente installati su un sistema Debian GNU/Linux, e riporta quelli che derivano da un albero non libero. Stallman sarebbe stato in disaccordo con parti della definizione di software libero di Debian.

Nel 1999, Stallman richiese lo sviluppo di un’enciclopedia libera on-line invitando il pubblico a contribuire con articoli.

In Venezuela, Stallman ha pronunciato discorsi pubblici e ha promosso l’adozione di software libero nella compagnia petrolifera di stato (PDVSA), nel governo municipale, e nell’esercito della nazione. Sebbene di solito sostenitore di Hugo Chávez, Stallman ha criticato alcune politiche inerenti la programmazione televisiva, i diritti per la libertà di parola e la privacy negli incontri con Chavez e nei discorsi pubblici in Venezuela. Stallman è nel Consiglio Consultivo di teleSUR, una stazione televisiva Latino-Americana.

Nell’Agosto del 2006 durante gli incontri con il governo dello stato indiano di Kerala, convinse i funzionari ad abbandonare il software proprietario, come quello di Microsoft, nelle scuole statali. Questo è sfociato in una significativa decisione di portare tutti i computer scolastici di 12.500 scuole superiori da Windows a un sistema operativo libero. Dopo incontri personali, Stallman ha ottenuto dichiarazioni positive sul movimento del software libero dall’allora presidente dell’India, Dr. A.P.J. Abdul Kalam, dal candidato alla presidenza francese nel 2007 Ségolène Royal, e dal presidente dell Ecuador Rafael Correa.

Stallman ha partecipato a proteste sui brevetti del software, DMR, e software proprietario. Protestando contro il software proprietario nell’aprile 2006, Stallman tenne un cartellone con scritto “Non comprate da ATI, nemico della vostra libertà” durante un discorso di un rappresentante dell’ATI nell’edificio dove Stallman lavora, con il risultato che fu chiamata la polizia. ATI da allora si è fusa con AMD e ha fatto piccoli passi per rendere la documentazione per il loro harware disponibile all’uso della comunità del software libero.

Una curiosità eloquente sulla radicalità delle sue posizioni politiche è il fatto che durante le elezioni politiche italiane del 2008 ha firmato, insieme ai grandi nomi della cultura e della politica internazionale (tra cui Ken Loach, Noam Chomsky, Howard Zinn, Michel Onfray, Gilbert Achcar, Daniel Bensaïd ed altri)[1], un appello al voto per il movimento politico autonomo Sinistra Critica, affermando che «Sinistra Critica è l’unico partito italiano che mi ha dato l’impressione di essere realmente dalla parte del Free Software. […] Finanziare i programmatori vuol dire investire nei propri concittadini, contrariamente alla situazione attuale, in cui non si fa altro che arricchire multinazionali d’oltreoceano».[2]

Stallman ha anche aiutato e supportato il tentativo di riportare online il progetto di una biblioteca online di spartiti musicali internazionali (International Music Score Library Project), dopo che era stata tolta il 19 ottobre 2007 in seguito a una lettera (cease and desist letter) della Universal Edition.
Stallman dà molta importanza alle parole e le etichette che la gente usa per parlare del mondo, incluse le relazioni tra il software e la libertà. Instancabilmente chiede alle persone di dire “software libero”, “GNU/Linux”, e di evitare il termine “proprietà intellettuale” o “pirateria” (legato ai computer). Le sue richieste che le persone usino certi termini, e i suoi continui sforzi per convincere la gente dell’importanza della terminologia sono fonte di regolare incomprensione e contrasto con parti della comunità per un software libero e open source.

Uno dei suoi criteri per concedere un’intervista ad un giornalista è che il giornalista accetti di usare la sua terminologia dall’inizio alla fine dell’articolo. Alcune volte ha anche richiesto ai giornalisti di leggere parti della filosofia GNU prima di un’intervista, per “motivi di efficienza”. È conosciuto per aver rifiutato interventi su alcune questioni di terminologia.

Stallman rifiuta un comune termine alternativo “open-source software” perché non fa venire in mente ciò che Stallman considera come valore del software: la libertà. Di conseguenza non informerà le persone sulle questioni della libertà, e non porterà la gente a dare valore e difendere la propria libertà. Due alternative che Stallman accetta sono “libre software” e “unfettered software” (software senza restrizioni), comunque, “free software” è il termine che chiede alle persone di usare in inglese. Per ragioni simili, sostiene il termine “software proprietario” piuttosto che “closed source software”(sorgente chiuso), quando ci si riferisce ad un software che non è libero.

Stallman chiede ripetutamente che il termine “GNU/Linux”, che pronuncia “GNU Slash Linux”, venga usato per riferirsi al sistema operativo creato dalla combinazione del sistema GNU e il kernel Linux. Stallman si riferisce a questo sistema operativo come “una variante di GNU, ed il progetto GNU è il suo principale sviluppatore”. Reclama che la connessione tra la filosofia del progetto GNU e il suo software viene rotta quando le persone si riferiscono alla combinazione semplicemente come “Linux”. A cominciare circa dal 2003, cominciò ad usare anche il termine “GNU+Linux” che pronuncia “GNU plus Linux”.

Stallman sostiene che il termine “Proprietà Intellettuale” è stato ideato per confondere le persone, e viene usato per evitare una discussione intelligente sulle specifiche di copyright, brevetti, e leggi sul marchio, rispettivamente, trattando senza distinzione aree di leggi che sono più dissimili che simili. Egli sostiene anche che riferendosi a queste leggi come leggi “di proprietà”, il termine influenza la discussione quando si pensa a come trattare queste questioni.

“Queste leggi ebbero origine separatamente, si svilupparono differentemente, coprono attività differenti, hanno regole diverse, e sollevano diverse questioni politiche pubbliche. La legge sul copyright fu creata per promuovere l’attività dello scrittore e l’arte, e tratta esaurientemente i dettagli di un lavoro di scrittore o arte. La legge sul brevetto aveva l’intenzione di incoraggiare la pubblicazione di idee, al prezzo di limitati monopoli su queste idee, un prezzo che potrebbe valer la pena di pagare in alcuni campi e non in altri. La legge sul marchio non si proponeva di promuovere alcuna attività di business, ma semplicemente di permettere agli acquirenti di conoscere cosa stavano comprando.”

Un esempio di avvertimento per evitare altra terminologia offrendo anche suggerimenti per possibili alternative, è questo ciò che emerge da una email di Stallman a una mailing list pubblica:

“Io penso che sia buona cosa per gli autori (per favore non chiamateli “creatori”, non sono dei”) chiedere denaro per le copie dei loro lavori (per favore non svalutate questi lavori chiamandoli “contenuto”) in modo da guadagnare (il termine “compenso” falsamente implica un questione di risarcire alcuni tipi di danni).”

(l’intero testo è stato preso da Wikipedia ma in numerosi altri siti ho trovato informazioni analoghe. non mi sento però di assicurare l’intera veridicità di quanto detto, anche per carenza di competenze tecniche tali da poter effettivamente verificare tutte le informazioni che vengono date)120px-heckert_gnu_white_svg                                          

   

La coperina dell'edizione inglese del libro "Free as in freedom"

La coperina dell'edizione inglese del libro "Free as in freedom"

Il logo GNU

Scaricare senza pagare è giusto o sbagliato?

aprile 21, 2009

Secondo Luca Neri, autore de “La baia dei pirati, assalto al copyright”:«I principi su cui si basa il copyright sono obsoleti, dannosi, incompatibili con il fiorire della libera comunicazione elettronica. Ergo: scaricare senza pagare – musica, film, software, videogame, libri – è non solo giusto, ma anche necessario per la democrazia».
In questo libro l’autore cerca di capire, tramite un’ inchiesta tra Italia, Usa e Svezia, come mai il fenomeno della pirateria digitale impervesi nonostante la presenza di leggi che proteggono i diritti d’autore.
Io personalmente sono grande fruitrice dei contenuti scaricabili dalla rete, lo so che quando scarico con EMule migliaia di file gratis non sono nel giusto ma, ormai la rete per come è ora strutturata,ci ha portato ad avere la pretesa di riuscire ad acquisire contenuti gratis…è una logica strana, probabilmente sbagliata ma visto che è l’unico luogo in cui si può ottenere tanto senza dare molto in cambio, giusto un contratto adsl, finchè non sarà effettivamente proibito credo che non sia lecito ma certamente furbo approfittarsene…

aprile 21, 2009

Ultimamente c’è un forte dibattito su un tema che a noi tutti interessa e di cui tutti spesso discutiamo. Ruota attorno alla domanda: pagare la rete?
Sono stati scritti due articoli in proposito che divergono nelle loro opinioni,ma che risultano essere molto interessanti.
Il primo lo scrive l’Economist,l’altro,un ex giornalista dell’Economist, Chris Anderson.
Il fattore in comune dei due articoli, è che negli ultimi anni gli utenti della rete si sono abituati ad abbuffarsi gratis: notizie, musica, email e persino connessioni a banda larga.
Tutto questo ha causato licenziamenti e domande su come e se farsi pagare i servizi.
Secondo il primo articolo che ho letto,internet viene definita una specie di bolla che poi è scoppiata.Nel senso che inizialmente le aziende regalavano servizi e contenuti online, sperando che sarebbero poi riuscite a monetizzare i milioni di utenti vendendo pubblicità. Ma poichè le cose non sono andate proprio così,le stesse aziende hanno provato altri modelli, come l’accesso a pagamento, ma raramente ha funzionato. Poi nel 2004 tutto è ricominciato con la quotazione in borsa di Google, che ha dato il via ad una nuova bolla del web 2.0. La caccia all’utente è ricominciata, sono nati MySpace, You Tube, Facebook e ora Twitter. Anche qui sono stati offerti servizi gratuiti per attirare visitatori che avrebbero prodotto ricavi pubblicitari. Ma ancora una volta ci si è resi conto che il numero delle aziende che possono mantenersi con la pubblicità su internet è esiguo.Quindi queste ultime, sono ricorse non solo ai licenziamenti, ma anche a farsi pagare per contenuti e servizi, e a farsi comprare (MySpace e You Tube per esepio, da News Corporation e da Google). Ovvio è, che le aziende hanno facilità ad accedere alla rete e ad attrarre utenti, ma quelle che nell’immediato sperano di trovare un modello redditizio, rischiano di rimanere indietro. Le conclusioni dell’Economist sono che ora come ora, la pubblicità non basta. Contenuti e servizi gratuiti sono stati un’idea interessante, ma la realtà, ci dice che prima o poi qualcuno dovrà pagare il conto.
Di diversa opinione è Anderson. Egli sostiene che non ci sono le prove che la pubblicità sia un modello fallimentare. La crisi, è vero, ha rallentato la sua espansione, ma la situazione è ancora buona. Anderson spiega che la gratuità online non riguarda solo la pubblicità. La grande novità seguita alla crisi, è stata l’arrivo del freemium (free+premium), in cui servizi e prodotti sono offerti gratis nella versione di base e a pagamento in quella avanzata. Basti pensare a Flickr e aFlickr Pro, ai giochi online e persino al sito dell’Economist.
La sua è un importante riflessione, che mette in imbarazzo, forse, il quotidiano britannico definendolo “accecato dal disprezzo”, a tal punto da non accorgersi che l’idea di offrire contenuti gratis finanziandoli con la pubblicità è vecchia di quasi un secolo. E’ alla base della radio e della tv. E della maggior parte dei siti di informazione, compresi settimanali e quotidiani.
E dato che “ciò sembra funzionare alla grande”-dice-, anche l’Economist dovrebbe provarlo!

Il Web 2.0 a servizio della politica

aprile 20, 2009

Negli anni ’30 Franklin Delano Roosevelt fu il primo presidente a stabilire una comunicazione “via etere” con i cittadini attraverso i suoi messaggi radiofonici settimanali. Negli anni ’60 la rivoluzione della tv fu interpretata abilmente da John Kennedy. Nell’ultima campagna elettorale per le presidenziali americane barack Obama ha trasferito su YouTube – e quindi sul computer – la formula delle conversazioni radiofoniche dei presidenti, con la volontà di portare alla Casa Bianca i nuovi paradigmi comunicativi sperimentati durante la campagna elettorale. L’uso di Internet e di tutti gli strumenti ad esso connessi si sono rivelati l’arma vincente a livello di risorsa per Obama. Alla base di Internet, soprattutto nella versione Web 2.0, c’è lo scambio gratuito di tempo; il tempo dei bloggers che passano ore a scambiarsi informazioni, il tempo dei volontari che alimentano l’enciclopedia virtuale Wikipedia o che caricano video su YouTube. La materia prima del Web 2.0 sono le relazioni tra persone: se il consumatore dei media tradizionali era passivo e l’internauta di prima generazione si accontentava di inviare emails, l’ultima generazione di navigatori è interamente proiettata nella dimensione della partecipazione. Si tratta innanzitutto di esprimersi: le proprie idee, i propri sogni, la propria identità. Questi new media innescano una forte dinamica collettiva, al contario dei media tradizionali, il Web 2.0 è un mezzo molto denso che coinvolge e spinge alla partecipazione. Fino a qualche anno fa la rete non veniva considerata dai politici come un mezzo efficace per le campagne elettorali, erano solo pochi outsiders quelli che vi si rivolgevano. Contrariamente all’uomo politico classico, che immagina di cambiare la società dall’alto, Obama è convinto che il cambiamento si sviluppi dal basso. Con un’impostazione del genere, era destino che l’incontro tra Obama e la tecnologia dei Social Networks producesse risultati positivi. Per costruire la piattaforma Internet, Obama ha reclutato Chris Hughes, uno dei quattro fondatori di Facebook. Hughes ha cresto un sistema che consente ai fans di Obama di autoorganizzarsi, in modo da sfruttare fino in fondo il potenziale aggregativo della rete.
Per aver sfruttato in modo formidabile tutte le potenzialità offerte dalla rete Obama potrà rimanere nella storia come il primo Web President. Per questo approccio così profondo alla tecnologia Barack Obama ha esercitato un fascino magnetico sulla generazione degli elettori più giovani. Negli Usa gli under 30 sono moltissimi, l’impennata delle nascite degli anni 80 e 90 ha creato una generazione, i cosidetti Millennials – figli del millennio – che conta circa 90 milioni di individui. Più che ad ascoltare gli altri, i Millennials sembrano impegnati a farsi sentire. Otto su dieci hanno creato un profilo personale su un sito di social networking. Il 57% produce regolarmente contenuti per Internet: scrive blog, scambia file musicali, carica video, ecc. Alla luce di questi dati alcuni osservatori l’hanno battezzata Me Generation, “la generazione più narcisista della storia moderna”. Al contario degli individui della generazione precedente, i Millennials sono fortemente proiettati verso l’esterno, abituati al gioco di squadra; sono in pratica dei narcisisti tecnologici, che legano gran parte della loro autostima al riflesso che arriva loro dagli schermi del Web 2.0, dove ciascuno può diventare una “star”; al tempo stesso costituiscono però una generazione “saggia” molto convinta della possibilità di migliorare il modo sulla base di un’azione che nasca dal basso, anzichè dall’alto. Non c’è da stupirsi quindi, di conseguenza, che la piattaforma messa a punto da Obama e dal suo staff abbia catturato la fantasia di questa generazione come non accadeva da tempo.
Ho proposto questo argomento che ho affrontato nella mia tesi perchè mi sembrava essere opportuno  visto che il tema del Web 2.0 è fondamentale nel corso e volevo portare un esempio pratico della sua applicazione.

HO UCCISO FACEBOOK

aprile 18, 2009

Vorrei iniziare il mio contributo a questo blog con una premessa: mi rendo conto della banalità del tema ma, visto che facebook è oramai uno degli argomenti più quotati in qualsiasi dibattito e in qualunque sede ho pensato fosse giusto introdurre questa tematica.
Detto ciò. Ho ucciso facebook, appunto. Mi spiego: mesi fa mi sono iscritta e per un certo periodo di tempo l’ho utilizzato per poi decidermi a premere il bottone che annullava il mio profilo. Ho premuto quel bottone con l’inquietante sensazione di autoescludermi da un certo tipo di vita sociale.
La maggior parte delle persone, degli enti, associazioni, organizzazioni, ecc… oggi utilizza questo social network per farsi conoscere e mettere in rete la propria vita. Fin qui, almeno dal mio punto di vista, tutto bene o quasi. Però (c’è sempre un però) il sistema stesso è pensato per coinvolgerti e “costringerti” a trascorrere molto tempo incollato allo schermo del tuo computer alla ricerca di nuovi amici o scuriosando, anzi spiando, le vite degli altri. Vite, però, che sono state selezionate dai diretti interessati per dare una determinata immagine di se stessi… quindi, in realtà, si ci crea un’idea rarefatta degli altri, che nulla o poco ha a che vedere con la REALTA’. Sappiamo dove sono stati in vacanza a Pasqua 2006 o nell’estate 2008, se sono single o “è complicato”, se amano spongebob, il genoa, madonna o audrey hepbourn ma non conosciamo assolutamente questa persona. La stessa iscrizione ai vari fan club non è che un’etichetta che ci mettiamo addosso per dare una certa immagine di noi stessi. Se siamo fan di Emergency significa che ci preoccupiamo degli altri e che ci interessa sapere cosa accade nel mondo con una particolare sensibilità per i più bisognosi; se poi non sappiamo neanche dove opera Emergency o chi è Gino Strada non conta… tanto siamo fan. E lo stesso discorso si estende a qualunque etichetta decidiamo di imprimerci addosso.
Per non parlare degli amici… ne avevo circa 300 mentre nel mio telefono ci saranno al massimo 60 numeri, contando i miei genitori e il servizio clienti della TIM, per poi chiedermi ogni volta che incontravo per strada un “amico virtuale” (con cui però nella realtà non ho mai parlato): “ma lo devo salutare? spero non mi veda, oppure gli sorrido e vedo cosa fa lui”…terribile!
Ovviamente, come tutta la tecnologia, facebook è uno strumento al nostro servizio, sta a noi decidere che uso farne e sicuramente non tutte le persone raggiungono livelli demenziali nel suo utilizzo. Nelle discussioni che emergono sul tema si delineano sempre due schieramenti netti: “pro-facebook” e “contro-facebook” e poi gli “indefiniti” cioè coloro che hanno facebook ma acclamano sempre a gran voce di farne un uso limitatissimo, solo per sentire i vecchi amici delle elementari… e qui la domanda sorge spontanea: ma se non lo sentivi da 10 anni eravate davvero così amici? avevi sentito così forte la sua mancanza? e poi, non è più bello, incontrare questa persona per strada, mentre fai la spesa o a una festa quando proprio non te lo aspettavi, piuttosto che vedere la sua foto, fare mente locale una trentina di secondi e premere “accetto”?
Al di là delle provocazioni, che potrebbero non avere mai fine, non siamo davvero arrivati ad un punto eccessivo, non abbiamo superato il segno? Va benissimo la tecnologia, se questa ci permette di vivere meglio, ma entro determinati limiti che non dovrebbero essere tracciati dalla giurisprudenza ma dal comune buon senso.
La tecnologia è uno strumento e , come tale, deve essere al nostro servizio, non dobbiamo essere noi a piegarci al suo incessante proseguire e progredire (?). La mia non vuole essere una condanna in toto ai social network, ma all’uso che se ne fa. Ci tenevo a ribadirlo, però quando sento parlare uno degli esponenti del “partito pro-facebook” proprio non ce la faccio a non pensare a Edward Norton in Fight Club e allora, spengo il computer e vado a fare un consistente aperitivo con un’amica, reale però..

Informazione distorta

aprile 18, 2009

Non so se si debba parlare di un qualcosa di specifico in questo blog, di un qualcosa che comunque riguardi in particolare e strettamente IMI.
Se così non è, segnalo un articolo uscito su la Repubblica del primo di aprile,firmato da Alberto Flores d’Arcais, inviato del quotidiano. Parla della performance della Biennale d’arte che si è svolta quest’anno a La Habana,Cuba e che si è trasformata in protesta contro la censura.Protagonista? Yoani Snchez.
In questi ultimi mesi si sente molto parlare di lei,blogger cubana di trentatre anni che il Times ha incluso nelle cento persone più influenti del mondo intero e alla quale Internazionale della scorsa settimana ha dedicato addirittura l’articolo di copertina.Fin qui tutto normale.
Quello che non comprendo,non solo di Repubblica,ma anche di altri quotidiani, è come mai i giornali,cartacei e ormai anche on line, manchino così tanto di approfondimento.Approfondimento nel senso stretto del termine.
Chi è stato a Cuba o chi là ci vive,sa benissimo quali sono i limiti e quali le cose buone di questo paese.Chi comprende queste due cose, è in grado di fare ragionamenti obiettivi, che vanno al di là di ogni pensiero politico.La politica viene messa da parte. Dunque leggere certe frasi, non così del tutto vere, fa pensare e riflettere davvero su una frase banalissima, che però incute sempre un certo timore: dove sta andando a finire l’informazione?e soprattutto,parlando di internet,tecnologie e varie: la situazione,date queste tre ultime,ha speranza di migliorare?

Wikipedia, limiti noti e nuovi sviluppi

aprile 16, 2009

Vorrei dare inizio alla collaborazione a questo blog segnalando un interessante riflessione sull’ enciclopedia libera e su alcune implicazioni dell’ utilizzo dei software Wiki pubblicata sul numero di aprile di Le Monde diplomatique.

L’ articolo, firmato dal ricercatore francese Mathieu O’Neil – già autore dello studio Cyberchiefs : autonomy and authority in online tribes – sottolinea come l’ apertura della produzione indipendente in rete ai non-specialisti caratteristica del Web 2.0 abbia rivoluzionato l’ idea tradizionale di competenza, con conseguenze qualche volta nefaste, ma abbia anche aperto la strada a nuove possibili forme di impegno politico.

Entrambi gli aspetti messi in luce nell’ analisi sembrano trarre origine dalla considerazione che i progetti online attuali si sviluppano in opposizione ai detentori tradizionali dell’ autorità. Come sostituire allora il classico concetto di competenza fondato su un’ identità professionale legittimata da un’ istituzione, se le informazioni vengono prodotte e veicolate indipendentemente da qualunque autorità statale o commerciale ?

O’Neil, rievocando le parole del fondatore dell’ enciclopedia libera Jimmy Wales, individua così la nuova incarnazione dell’ idea di competenza in un “processo” e non più in una persona, ovvero nell’ aggregazione di molteplici punti di vista – sempre ed immediatamente discutibili e contestabili -, insomma in quella che Wales ha definito la “saggezza della folla” : lo stesso modello di sviluppo su cui sono basati altri social media di successo.

Ma se la peer production garantisce, insieme ad un alto numero di partecipanti, un elevato livello di qualità informativa, ciò non toglie che il modello di reclutamento che dà vita a Wikipedia comporti una serie di punti deboli generati da quelle stesse caratteristiche che ne hanno decretato il successo : la questione dell’ inclusione degli articoli, innanzitutto, che sembra dipendere da criteri soggettivi e discutibili – la “rilevanza” – ; i possibili conflitti di opinione ; l’ anonimato, che apre la strada a qualsiasi manipolazione interessata o maliziosa ; i sabotaggi ; buoni ultimi, anche i possibili effetti negativi che il culto del “nobile dilettante” può produrre sul sistema dei media e degli editori istituzionali.

Isomma, conclude O’Neil, se la mancanza di rigore finisce per essere così problematica, perché non darsi, nell’ ottica di questo rinnovamento della cultura di massa, un obiettivo più politico che scientifico ? Dopotutto Wikipedia, con la capacità del proprio software di coordinare tanti entusiasmi individuali, non è che l’ interfaccia di un’ organizzazione del tutto originale in cui la flessibilità delle condizioni d’ accesso e l’ ampio margine di autonomia offerto sono in grado di motivare con successo l’ impegno dei partecipanti in progetti cooperativi emergenti.

La speranza conclusiva dell’ autore è che la scommessa di riuscire a trasferire questo modello all’ esterno della sfera digitale venga in qualche modo raccolta ; da qualcuno che abbia qualche idea, aggiungo io.