Documente Academic
Documente Profesional
Documente Cultură
1
Evoluzioni del diritto d’autore: authoring “2.0” e licenze Creative
Commons
Introduzione …………………………………………………………………………………………… 7
CAPITOLO 1
Il Web “2.0” e le nuove forme di authoring in rete
1.5 Web e Authoring: nuove forme di creazione dei contenuti in rete …………… 41
1.5.1 Esperienze di piattaforme per l’editing e la condivisione dei contenuti
sul Web .......................................................................................................... 45
1.5.2 La creazione collaborativa dei contenuti in rete: progetti e iniziative …….… 52
CAPITOLO 2
Il Web e la tutela del diritto d’autore
Copyright, Copyleft e Open Content
2
2.1 Premessa ……………………………………………………………………………………………………… 60
PARTE II - Il Copyleft
2.4 La Open Source Initiative e la relazione con il movimento Free Software…. 114
CAPITOLO 3
L’Interaction Design e l’approccio metodologico User-Centered
4
CAPITOLO 4
Prima ricognizione sull’utilizzo delle licenze Creative Commons: i questionari ai
potenziali utenti e le interviste agli esperti
4.4 L’intervista a Victor Stone, amministratore del sito CcMixter ….………………… 167
CAPITOLO 5
Web “2.0” e licenze Creative Commons. Progettazione di un tutorial a sostegno
degli utenti nell’utilizzo delle CCPL durante l’authoring in rete, secondo la
metodologia di progettazione User-Centered.
5
5.7 I requisiti dell’attività …………………………………………………………………………………… 196
5.7.1 Analisi dell’utente e dei bisogni ……………………………………………….………………… 196
5.7.2 Analisi del contesto d’uso…………………………………………………………………………… 197
5.7.3 Analisi casi d’uso………………………………………………………………………………………… 197
5.7.4 Il documento dei requisiti ……………………………………………………………….…………. 202
CAPITOLO 6
6.1 Le valutazioni con i potenziali utenti sul prototipo interattivo ………………..…. 218
Appendice……………………………………………………………………………………………….………… 231
6
Introduzione
7
più l’originale dalla copia. Questa evoluzione ha portato allo sviluppo di quella che
Lawrence Lessing, fondatore di Creative Commons, definisce remixing culture cioè la
cultura del riuso, dove tutto può essere preso, modificato, rielaborato e ripubblicato in
rete. La presa di coscienza che, con lo sviluppo del Web, gli authors sono cambiati e sono
cambiati i modi di creazione e di fruizione dei contenuti in rete, ha portato alla necessità
di approfondire la questione del diritto d’autore per capire cosa accade ai contenuti
prodotti ogni giorno da milioni di utenti, e capire se e in che modo questi contenuti
vengono tutelati.
Infatti se fino a poco tempo fa si poteva tranquillamente vivere ignorando
totalmente la disciplina del diritto d’autore ed era un argomento che interessava solo
l’industria culturale e i professionisti di questo settore, oggi non è più così perché queste
nuove forme di authoring esigono una conoscenza del diritto d’autore più ampia per
ognuno di noi, in quanto possibile autore e co-autore di contenuti in rete. La nostra
cultura però non aiuta in questo senso a divulgare la questione del diritto d’autore,
infatti il problema principale è che gran parte degli utenti delle piattaforme User-
Generated Content spesso non conosce abbastanza questa disciplina e non ha
conoscenze giuridiche così ampie per comprendere davvero cosa significano i Terms of
Service. Per questo motivo le piattaforme presenti in rete, data la grande quantità di
contenuti generati dagli utenti, hanno il dovere e il bisogno di divulgare maggiormente
la conoscenza del diritto d’autore per i propri utenti meglio di quanto già facciano oggi
con la pubblicazione dei Terms of Service. Quello che si propone di attuare questo lavoro
è quindi di sviluppare un sistema che permetta di educare i potenziali utenti di queste
piattaforme al diritto d’autore, e per fare questo forse è necessario andarli a colpire
direttamente nel momento in cui creano o riutilizzano un contenuto presente in rete,
ponendoli di fronte alla questione nel momento di maggiore suscettibilità, cioè mentre
stanno producendo qualcosa. Questo sia per accrescere la conoscenza dei propri diritti,
che per accrescere la conoscenza dei diritti degli altri utenti.
Cercheremo quindi di analizzare in profondità, nel secondo capitolo di questo
lavoro, la questione del diritto d’autore in generale, per capire meglio come la legge si
pone nei confronti delle opere d’ingegno e come tutela i lavori autoprodotti dagli utenti
alla luce dei cambiamenti apportati dall’evoluzione del Web. La legge sul diritto d’autore
(L. 633/41) infatti tutela indistintamente tutte le opere dell’ingegno che presentano
carattere di originalità e novità, quindi lo stesso tipo di tutela vale sia per l’ultima opera
8
musicale o cinematografica apparsa sul mercato che sul cortometraggio amatoriale e
sull’articolo prodotto da ognuno di noi che, per svago o per passione, si cimenta nel
tempo libero nella creazione di contenuti e decide di diffonderli in rete per avere visione
globale. La legge sul diritto d’autore è sicuramente giusta e va bene per alcune tipologie
di opere che necessitano di un tipo di tutela più completa, ma questo tipo di tutela così
restrittiva ha ancora senso in un contesto digitale come questo, dove ogni giorno milioni
di utenti producono e diffondono materiale? E quanto viene realmente rispettata?
L’idea di questo lavoro è nata dopo aver partecipato lo scorso 30 maggio 2008 al
seminario tenuto dal Dott. Giuseppe Mazziotti “Il diritto d’autore europeo nel mondo
digitale: quali prospettive per l’utilizzatore finale di contenuti?” presso l’Università di
Sassari nell’ambito dei corsi di Progettazione di Tecnologie per la Comunicazione e di
Sociologia e Tecniche dei Nuovi Media, dove sono state illustrate le licenze di diritto
d’autore Creative Commons. Le licenze Creative Commons sono delle licenze d’uso che
permettono agli autori di contenuti in rete di specificare, a chi utilizzerà la loro opera,
quali utilizzi sono concessi, una sorta di contratto con cui l’autore decide liberamente di
rinunciare ad alcuni dei diritti patrimoniali esclusivi che la legge 633/41 gli conferisce
quale autore originario dell’opera. In questo modo, chi fruisce in rete del materiale
rilasciato sotto Creative Commons, è messo al corrente degli usi che l’autore originario
ha deciso di concedere ed è tenuto a rispettare le condizioni poste dalla licenza scelta
dall’autore originario.
Abbiamo così deciso di esplorare questo fenomeno per capire come oggi le
piattaforme User-Generated Content già presenti sul Web affrontino la questione della
tutela dei lavori autoprodotti dagli utenti, se e quali di queste già utilizzino le licenze
Creative Commons e in che modo. L’analisi delle esperienze già presenti sul Web ci
permetterà di assimilarne le potenzialità e di analizzare le carenze presenti oggi sul Web,
con lo scopo di arrivare a definire un sistema che possa migliorare l’authoring negli
ambienti di creazione e condivisione di contenuti valorizzandoli con l’utilizzo delle
licenze Creative Commons, e possa così diffondere la conoscenza di queste licenze e
sensibilizzare i potenziali utenti al loro utilizzo, definendo una nuova forma di authoring
“2.0”.
Per la progettazione del nostro sistema abbiamo deciso di seguire l’approccio
metodologico User-Centered Design, mettendo in primo piano l’utente fin dall’inizio del
nostro percorso iterativo di progettazione e che ci consentirà, attraverso la
9
somministrazione di questionari esplorativi e l’osservazione empirica delle loro azioni
nello svolgere determinati compiti sui prototipi che via via sottoporremo alla loro
attenzione, di scoprire necessità e bisogni dei potenziali utenti di queste piattaforme e
delle licenze Creative Commons. Cercheremo quindi di valutare la diffusione e la
conoscenza delle licenze Creative Commons tra i potenziali utenti delle piattaforme
User-Generated Content, e di capire se e in che modo si possano sensibilizzare
maggiormente gli utenti alla questione del diritto d’autore e all’utilizzo delle licenze
open content per i loro contenuti in rete. Attraverso l’analisi delle loro reazioni e delle
loro opinioni cercheremo di individuare gli spazi aperti per la progettazione del nostro
sistema e proveremo a capire se e come sia possibile migliorare le piattaforme già
presenti in rete, valorizzandole con l’utilizzo delle licenze Creative Commons, e
provando a rendere migliore la User-Experience.
Sarà fondamentale inoltre approfondire meglio l’argomento ascoltando il parere
degli esperti che lavorano al Progetto Creative Commons Italia e di chi si occupa della
gestione delle piattaforme User-Generated Content, con lo scopo di esplorare in
profondità questi temi e capire dove andare ad agire per la realizzazione del sistema che
vogliamo progettare. Mostreremo quindi, nel quinto capitolo di questo lavoro, le varie
fasi del processo iterativo che ci porteranno alla realizzazione della nostra idea
progettuale, mostrando, passo dopo passo, l’evoluzione del ciclo di prototipi che
sottoporremo ai potenziali utenti del nostro sistema fino ad arrivare alla progettazione
del prototipo finale.
Infine, nel capitolo conclusivo, cercheremo di generalizzare i risultati emersi
dalle valutazioni dei potenziali utenti sul prototipo finale. In base a questi risultati
proveremo a ricollegarci alla classificazione delle nuove forme di authoring in rete, per
capire se e come questo nuovo sistema potrebbe modificare la produzione di contenuti
in rete, sia da un punto di vista giuridico che da un punto di vista tecnico-progettuale.
Proveremo quindi a dare una risposta al quesito che ci siamo inizialmente posti nel
primo capitolo, cioè capire se sia possibile parlare di authoring “2.0” come nuova forma
di produzione di contenuti in rete valorizzata dall’utilizzo delle licenze Creative
Commons. Cercheremo inoltre di verificare se il sistema che vogliamo progettare sia
futuribile e di dimostrare, anche con esempi pratici, come questo potrebbe essere
applicato a diverse esperienze di piattaforme User-Generated Content già presenti in
rete.
10
“Se tu hai una mela, e io ho una mela e ce le scambiamo,
allora tu ed io abbiamo sempre una mela per uno.
Ma se tu hai un’idea e io ho un’idea e ce le scambiamo,
allora abbiamo entrambi due idee”.
George Bernard Shaw
“Il solo modo per scoprire cosa piace agli utenti è ascoltarli.
Tenete gli utenti al centro del vostro progetto. Siate umili. Ascoltateli.
Perché solo loro decretano il vostro successo”.
Jacob Nielsen
11
CAPITOLO 1
Il Web “2.0” e le nuove forme di authoring in rete
12
CAPITOLO 1
Il Web “2.0” e le nuove forme di authoring in rete
1
Questo sistema fu inizialmente immaginato nei primi anni Sessanta, quando Paul Baran, della
Rand Corporation, spedì un messaggio attraverso un sistema di computer collegati fra loro e
questo sistema fu utilizzato poi durante la guerra del Vietnam per sperimentare nuovi modi di
trasmettere informazioni ai militari attraverso computer collegati in diverse locazioni. Dal 1970
ARPAnet (Advanced Research Project Agency) era stata creata per il progresso
dell’interconnessione telematica e attraverso ARPAnet e le ricerche condotte, furono sviluppate
tecnologie e protocolli che hanno permesso a Internet di diventare ciò che è oggi. Per
approfondire, Beccaria A., I pionieri della frontiera digitale: Internet dagli esordi al world wide
web, disponibile in rete all’indirizzo antonella.beccaria.org/shalom/work/storia_internet.pdf
2
Kaye, B., Medoff, N., The World Wide Web. A Mass Communication Perspective, Mayfield
Publishing Company, California, 2001, p.16.
3
Berners-Lee, T., L’architettura del nuovo Web, Feltrinelli, Milano, 2002, p. 30.
13
Essa infatti è un sistema di comunicazione bidirezionale nel quale ognuno è un
potenziale destinatario di messaggi e allo stesso tempo un potenziale emittente: il
pubblico da mero ricevente di informazioni diventa provider. Con Internet ogni persona,
con minime abilità, può reperire e inserire informazioni in qualsiasi momento perché
queste sono disponibili a chiunque in breve tempo, in modo conveniente, facile da usare
e spesso liberamente. Internet ha cambiato i modelli di fruizione dei media e lo stile di
vita di milioni di persone che oggi utilizzano il Web come fonte di intrattenimento,
informazione e comunicazione. Le persone hanno scoperto questo medium interattivo e
con esso nuovi modi di accedere alle informazioni e comunicare con gli altri.
Il World Wide Web presenta informazioni in diversi formati come testo, grafica,
video e audio, e consiste in una infinità di siti forniti da un numero indefinito di entità
connesse da un vasto labirinto di milioni di computer. Attraverso un nuovo utilizzo facile
del punta e clicca dei browser, gli utenti possono navigare senza difficoltà da sito a sito4.
La diversità e l’abbondanza di contenuti immessi nel Web è illimitata. Secondo
Kaye e Medoff5 nel 1995 i documenti disponibili sul Web erano circa 4 milioni. Nel 2000
il numero dei documenti presenti nel Web era stimato essere di circa 800 milioni.
Il Web ha cambiato il modello di comunicazione tradizionale dei mass media uno
a molti6, trasformandolo in un modello molti a molti: ognuno è produttore e ricevente,
gli individui possono ricevere e inviare messaggi personali o di massa, le informazioni
possono essere fornite e visualizzate da un pubblico di massa, o immagazzinate per
essere scelte e recuperate successivamente dagli utenti. Internet quindi è un veicolo per
la comunicazione interpersonale e l’interattività, per spedire messaggi di massa, e per
memorizzare informazioni da scegliere e recuperare. È un fenomeno di comunicazione
reale che permette diverse forme e stili di comunicazione7.
Le nuove tecnologie di Internet sono state sviluppate per permettere alle
persone di scegliere informazioni basate sulle proprie preferenze personali. In questo
senso Internet è considerato non un mass media, ma un nuovo medium interattivo: i siti
4
Kaye, B. Medoff, N., op. cit., pp. 2-3.
5
Ivi, p. 6.
6
Una fonte emittente produce e invia messaggi a molte persone che costituiscono un pubblico
omogeneo. I messaggi spediti in questo modello sono creati per attrarre e arricchire l’audience di
massa.
7
Kaye, B. Medoff, N., op. cit., p. 9.
14
Web infatti possono inviare agli utenti messaggi basati sulle proprie preferenze espresse
navigando.
Sebbene Internet esista dal 1970, l’introduzione dei browser user-friendly è stata
accompagnata dall’esplosione di utenti: tecnologicamente siamo davanti ad un media
unico, che condivide le caratteristiche dei media tradizionali ma offre vantaggi rispetto a
questi perché può essere fruito mentre si svolgono altre attività e perché le informazioni
sono archiviate per utilizzi futuri e possono essere recuperate in ogni momento.
In certi casi gli svantaggi del Web sono la non-portabilità, infatti ancora oggi non
è possibile usufruirne in tutti gli spazi, sebbene le reti wireless stiano portando il Web ad
essere più portabile nei luoghi, ma nonostante ciò alcune restrizioni continuano ad
essere applicate, giustificate da norme sulla privacy8. In Italia infatti il controverso
Decreto Pisanu sulle misure antiterrorismo, che è stato recentemente prorogato dal D.L.
207/2008 al 31 dicembre 2009, prevede che gli esercizi pubblici e privati che offrono
accesso ad Internet si registrino presso la Questura e memorizzino i dati personali degli
utenti9.
Prima dello sviluppo del Web, le informazioni in Internet erano recuperate
conducendo una serie di complicati passaggi e comandi per localizzare dati, preparare la
connessione remota e scaricare i dati in un computer locale, richiedendo una profonda
conoscenza dei comandi Internet. Era perciò un’attività riservata quasi esclusivamente ai
professionisti di questo settore fino al 1993, quando fu sviluppato il primo browser
Web10 Mosaic dagli studenti dell’università dell’Illinois, guidati da Marc Andreessen11
che ha portato l’ipertesto al World Wide Web.
8
Kaye, Medoff, op. cit. p. 10.
9
Fonte articolo di L.Gennari su www.pubblicaamministrazione.net/leggi-e-
norme/news/1529/internet-e-sicurezza-proroga-per-decreto-pisanu.html. Per approfondire i
diversi punti di vista in proposito, sono disponibili diversi articoli sul sito del centro NEXA alla
pagina http://nexa.polito.it/newsroom
10
Il browser è un software presente su una macchina client al quale spetta il compito di
interpretare le istruzioni presenti nei file ricevuti dal server e di fornirne una rappresentazione,
preoccupandosi di richiedere al Web server le risorse necessarie al completamento della pagina
(immagini, suoni, elementi multimediali) la cui presenza è specificata dal codice HTML. Oggi i
browser sono capaci di gestire una grande quantità di formati digitali, dalle pagine html e xhmtl,
a xml, css, xsl, istruzioni in javascript, immagini in formato gif, jpeg e png, file Word, Power Point,
Excell e contentui audio e video in streaming. Definizione tratta da Crevola e Gena, Web Design,
la progettazione centrata sull'utente, CittàStudi Edizioni, 2006, p. 144.
11
Nel 1994 Marc Andreessen e Jim Clark fondarono la Netscape Communication Corporation e il
browser Netscape.
15
Mosaic era progettato per permettere agli utenti di accedere e condividere
informazioni sul Web senza avere bisogno di conoscenze specifiche di programmazione.
Il Web browser Mosaic è stato il primo sistema che ha permesso agli utenti Web di
navigare facilmente da sito a sito attraverso il cosiddetto sistema punta e clicca, che
permette di interagire direttamente sulle icone o sui bottoni presenti in una pagina
Web. Dopo l’introduzione di Mosaic hanno iniziato a svilupparsi molti altri Web browser
come Netscape Navigator e Internet Explorer12.
Il World Wide Web è oggi il servizio Internet più utilizzato e conosciuto, che
mette a disposizione degli utenti uno spazio elettronico e digitale per la pubblicazione di
contenuti multimediali, oltre che un mezzo per la distribuzione di software e la fornitura
di servizi particolari sviluppati dagli stessi utenti.
Il Web è stato creato da Tim Berners-Lee, mentre era ricercatore al CERN di
Ginevra, sulla base di idee dello stesso Berners-Lee e di Robert Cailliau, e oggi gli
standard su cui è basato, in continuo sviluppo, sono mantenuti dal World Wide Web
Consortium (W3C)13.
L’idea era quella di elaborare un software per la condivisione di documentazione
scientifica in formato digitale, con il fine di migliorare la comunicazione e la
cooperazione tra i ricercatori dell'istituto, definendo degli standard e protocolli per
scambiare documenti su reti: il linguaggio HTML, l’URL e il protocollo di rete HTTP.
Questo portò Berners-Lee a scrivere negli anni Ottanta il primo programma
retiforme Enquire14, in linguaggio Pascal che lo condusse a creare qualcosa di più ampio,
che abbracciava la crescita decentrata e organizzata di idee, tecnologia e società. E qui si
colloca il Web: l’idea infatti era quella di collegare le informazioni di tutti i computer, di
programmare il proprio computer in modo da creare uno spazio in cui tutto è collegato a
tutto e che tutti i frammenti di informazione di ogni computer nel mondo fossero a
12
Kaye, Medoff, op. cit. pp. 24-25.
13
Il W3C fu annunciato nel 1994 dopo la proposta di Tim Berners-Lee di un accordo tra il MIT
(Massachusetts Institute of Technology) e il CERN. L’iscrizione era aperta a tutte le organizzazioni
commerciali e statali, profit e non-profit e oggi conta oltre 400 membri. Berners-Lee, T.,
L’architettura del nuovo Web, Feltrinelli, Milano, 2002, p. 89.
Il W3C, come si legge dalla definizione sul sito ufficiale http://www.w3.org/, sviluppa tecnologie e
linguaggi standard che garantiscono l'interoperabilità per guidare il World Wide Web fino al
massimo del suo potenziale, scegliendo dei protocolli che non intralcino le leggi o le normative
che governano l’interazione tra le persone.
14
Enquire è stato il programma che ha fatto nascere l’idea del WWW. Il nome deriva da Enquire
Within upon Everything, un volume di consigli pratici di epoca vittoriana che fece nascere a
Berners-Lee l’idea di un portale basato su un universo di informazioni. Berners-Lee, op.cit., p. 15.
16
disposizione di chiunque. In questo modo si sarebbe potuto ottenere un singolo spazio
globale dell’informazione. Ogni singolo frammento di informazione, sarebbe dovuto
essere etichettato con un indirizzo, per ordinare al computer di trovarlo, creando
associazioni tra cose apparentemente scollegate ma che in realtà avevano un rapporto,
creando così una rete di informazioni15.
Berners-Lee iniziò così a scrivere un manuale per spiegare come sarebbe stato
utile un programma di computer per memorizzare informazioni normalmente scritte
sulla carta: su Enquire si potevano scrivere pagine di informazioni, ognuna delle quali era
un nodo nel programma, una scheda. Per crearne uno nuovo bisognava effettuare un
collegamento da un nodo già esistente. Questi link apparivano come una lista delle
citazioni alla fine di una pubblicazione, quindi l’unico modo per trovare una
informazione era quello di sfogliare dalla pagina iniziale.
In pratica Enquire poteva immagazzinare dati senza usare strutture organizzative
come matrici o alberi gerarchici. La mente umana utilizza queste strutture organizzative,
ma è capace di evitarle attraverso il meccanismo delle associazioni casuali. E così faceva
Enquire: inserendo un nuovo frammento di informazione e collegandolo ad uno già
esistente, si poteva saltare rapidamente da una informazione all’altra. Enquire girava su
un computer e non su una rete, quindi i collegamenti erano di due tipi: uno interno tra
le pagine di uno stesso file, e uno esterno che saltava tra i diversi file16.
In seguito Berners-Lee immaginò di combinare i link esterni di Enquire con
l’ipertesto e con gli schemi di interconnessione, creando così nuove reti per collegare
computer distinti e tutti i nuovi sistemi sarebbero stati in grado di andare verso gli altri,
permettendo a chiunque di aggiungere nuovi nodi collegati tramite link. Il sistema
doveva essere decentrato per permettere a tutti di utilizzarlo senza dover richiedere
l’accesso. Era uno dei primi lavori in stile Internet, ma ancora i sistemi dipendevano da
un nodo centrale a cui dovevano essere collegati17.
Enquire quindi dava la possibilità di linkare documenti e database e l’ipertesto
era il formato comune per mostrarli, ma restava il problema di far comunicare computer
differenti con diversi sistemi operativi. Alla fine degli anni Ottanta negli Stati Uniti, Unix
e Internet stavano collegando Università e centri di ricerca, ma in Europa questo
15
Berners-Lee, T., L’architettura del nuovo Web, Feltrinelli, Milano, 2002, pp. 15-16.
16
Ivi, pp. 23-24.
17
Ivi, p. 28.
17
sviluppo stava incontrando resistenze, perché si stava cercando di ottenere un sistema
distinto di protocolli di rete progettato dall’ISO (Organizzazione Internazionale degli
Standard).
Trasferire informazioni restava però molto complesso per chi non era esperto di
informatica finché non fu inventata la posta elettronica, che permetteva di spedire
messaggi da una persona all’altra. Ma questi messaggi erano volatili ed era necessario
uno spazio dove l’informazione potesse esistere in modo permanente e dove potesse
essere andata a cercare: il Web, sovrapponendosi a Internet, avrebbe regalato
all’informazione questo spazio.
Negli anni Novanta, con la diffusione dei primi personal NeXT18, Berners-Lee
iniziò a programmare il sistema di ipertesti sviluppato con Enquire che possedeva una
interfaccia facile e coerente, flessibilità e altre funzioni che in seguito sarebbero arrivate
sui PC. Berners-Lee prevedeva un sistema di condivisione dei saperi tra le persone,
attraverso la realizzazione di uno spazio unico e condiviso di informazione, dove ogni
persona sarebbe stata libera di collegarsi tramite link con qualsiasi documento presente
in rete attraverso un indirizzo univoco. Il primo obiettivo fu quindi quello di realizzare un
programma che avrebbe permesso la creazione, la navigazione e l’editing di pagine di
ipertesto. Scrisse così il codice HTTP (Hyper Text Transfer Protocol), il linguaggio che
avrebbero usato i computer per comunicare in Internet, e quello di URI (Universal
Resources Identifier), lo schema per gli indirizzi dei vari documenti. Nel giro di pochi
mesi disponeva di un programma client, un browser/editor punta e clicca che aveva
chiamato World Wide Web19. Lavorò in seguito con l’HyperText Markup Language
(HTML) che definiva come formattare le pagine contenenti link ipertestuali. Il browser
avrebbe decodificato le URI, consentendo di leggere, scrivere o editare pagine Web in
HTML20.
Era una rivoluzione copernicana rispetto alla filosofia dei precedenti sistemi
informatici: indurre la gente a mettere i dati sul Web era spesso solo questione di
indurla a cambiare punto di vista, a pensare all’accesso di un utente come navigazione in
18
La NeXT fu creata da Steve Jobs, fondatore della Apple, introducendo le prima interfacce
intuitive per personal, con cartelle e mouse.
19
Berners-Lee scelse un termine utilizzato in matematica per descrivere un complesso di nodi e
maglie in cui ogni nodo può essere collegato ad un altro, e rifletteva la natura distribuita delle
persone e dei computer che il sistema poteva mettere in collegamento, offrendo la promessa di
un sistema potenzialmente globale: il World Wide Web. Op. Cit., p. 34.
20
Berners-Lee, op. cit., pp. 38-41.
18
una serie di pagine virtuali all’interno di uno spazio astratto. Gli utenti avrebbero potuto
mettere un segnalibro per tornare in un punto preciso, e seguire un collegamento
ipertestuale da un punto qualsiasi verso un altro documento. Ciò avrebbe regalato ad
ogni pagina una sensazione di continuità e di vita persistente, e avrebbe permesso di
sfruttare i meccanismi mentali che tutti utilizziamo naturalmente per ricordare luoghi e
strade. Essendo in grado di fare riferimento a tutto con la stessa facilità, il Web potrebbe
rappresentare le associazioni tra cose che possono sembrare prive di collegamento tra
di loro ma che in realtà spartiscono una qualche relazione, un compito che il cervello
umano può eseguire in modo facile e spontaneo21.
21
Ivi, p. 45.
22
Op. cit., pp.139-143.
23
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006,pp.193-194.
19
correlazioni semantiche tra pagine di domini diversi, gestire i diritti d’autore e la
proprietà intellettuale delle opere di ingegno.
Per poter lavorare insieme sul Web quindi sono necessari strumenti validi:
migliori formati per presentare l’informazione, interfacce più intuitive per editare e
cambiare l’informazione, integrazione più fluida con altri strumenti di editing Web. Per
far sì che le persone possano condividere il sapere, il Web deve essere uno spazio
universale in cui possano viaggiare tutte le informazioni senza discriminazioni e deve
quindi comprendere informazioni sia gratuite che a pagamento.
Infatti se il Web vuole rappresentare e sostenere la “ragnatela della vita”, deve
permettere alle persone di agire in modo diverso con gruppi diversi, di differenti
dimensioni e scopi e in differenti luoghi, e l’informazione deve essere in grado di varcare
anche i confini sociali. Collegandosi tra gruppi diversi infatti le persone forniscono anche
organizzazione e coerenza al mondo.
Il concetto originario del Web universale era quindi quello di uno strumento
comunicativo che aiutasse la gente nelle cose della vita reale, e che riflettesse i rapporti,
le conversazioni, l’arte e le interazioni sociali.
Ma oggi l’interazione avviene soprattutto sul Web: come afferma Berners-Lee24
«la gente usa il Web per costruire cose che non ha costruito, scritto disegnato o
comunicato in altri posti. Man mano che il Web diventa uno spazio privilegiato per tante
attività, dobbiamo anche garantire che faciliti una società giusta, concedendo accesso
paritario a tutti i soggetti».
Quello che oggi viene comunemente definito il Web “1.0”, nel 1998 iniziò ad
essere considerato un terreno di battaglia per le grandi aziende e istituzioni. Infatti
inizialmente proponeva siti monodirezionali con un flusso informativo da sito a utente,
che aveva ruolo di fruitore passivo di contenuti e servizi preconfezionati che non poteva
rielaborare o modificare25. Questo perché al Web “1.0” sono stati applicati i principi
delle barriere all’ingresso tipici dei sistemi di mercato tradizionali, costruendo
stratagemmi per mantenere gli utenti legati ad un determinato servizio26.
Il Web 1.0 -diffuso fino agli anni '90 e composto prevalentemente da siti Web
statici, senza alcuna possibilità di interazione con l'utente eccetto la normale
24
Op. cit., pp. 144-145.
25
Grivet Foiaia, L., Web 2.0 - Guida al nuovo fenomeno della Rete, HOEPLI, 2007, p.16.
26
Ivi, p.91.
20
navigazione tra le pagine, l'uso delle e-mail e dei motori di ricerca- era luogo privilegiato
che permetteva inizialmente alle grandi aziende di farsi pubblicità attraverso i cosiddetti
siti vetrina e che poi si sono allargati anche ai siti personali.
Inizialmente la ricerca delle informazioni avveniva esclusivamente attraverso il
browsing, cioè attraverso interrogazione ai motori di ricerca, che rintracciavano le
informazioni grazie alla funzione di categorizzazione attraverso tag27 creati dagli autori
dell’informazione stessa.
I siti, costruiti in linguaggio HTML, avevano una certa staticità, per cui la forma e
le informazioni contenute nel sito erano legate al linguaggio. Questo faceva sì che gli
utenti che navigavano sul Web, fossero costretti ad accedere di continuo ai siti di
maggiore interesse, creando la cosiddetta stickiness, cioè l’appiccicosità ad un sito.
Seguendo il principio del software, le applicazioni presenti sul Web venivano
rilasciate attraverso il sistema di release. La comunicazione era unidirezionale, in quanto
i contenuti e le informazioni erano create da un unico soggetto che gestiva il sito, spesso
con l’intermediazione del designer del sito stesso che aggiornava le informazioni sotto
richiesta del committente.
In seguito, intorno alla metà degli anni Novanta, lo sviluppo dei CMS (Content
Management System) -sistemi software che permettono la pubblicazione, gestione e
archiviazione di informazioni online, realizzati solitamente in linguaggio di
programmazione- hanno dato una soluzione alternativa al metodo manuale di creazione
delle pagine, aiutando i produttori di contenuti attraverso strumenti editoriali28. Questi
permettono di sveltire e facilitare l’inserimento di contenuti attraverso strumenti di
interfaccia utente, la creazione di categorie, il caricamento di file multimediali e
documenti scaricabili dagli utenti, la creazione di componenti interattive e
l’amministrazione di forum.
I CMS hanno introdotto una separazione tra contenuto e interfaccia per
permettere la semplificazione della procedura di creazione delle pagine, la diminuzione
dei costi per l’aggiornamento e la presentazione dei contenuti in formati differenti,
27
I tag (letteralmente etichette) sono delle parole chiave che possono essere inserite dagli autori
di un contenuto, per descrivere il proprio lavoro (Taxonomy), oppure, in perfetto stile Web “2.0”
possono essere realizzate dagli utenti che fruiscono del contenuto (Folksonomy).
28
Crevola, Gena, op. cit. pp.188-189.
21
permettendo agli utenti di poter gestire in modo più autonomo le informazioni, senza
intermediazione e senza conoscenze informatiche specifiche nella programmazione29.
Lo sviluppo dei sistemi CMS è stato reso possibile dai nuovi standard tecnologici
e di linguaggio condiviso, nati dalla necessità di garantire affidabilità e interoperabilità
tra i diversi strumenti e applicazioni nel Web, permettendo al Web di evolversi in siti più
dinamici e di integrare forum e blog. Inoltre, grazie ai nuovi standard come Javascript e
CSS, nascono nuove applicazioni che fanno sì che il Web somigli sempre più ad un
grande sistema operativo30.
Nel 2000 le cosiddette dot.com, aziende di servizi che fanno business in rete,
furono protagoniste negative della cosiddetta bolla finanziaria della new economy,
quando molte fallirono generando una recessione della new economy.
29
Ibidem.
30
Berners-Lee, op.cit., p. 146.
31
G. Lovink, Di Bari, V., Web 2.0, Il Sole24Ore, 2007, p. 41.
32
In particolare, sopravvissero alla bolla speculativa del 2000 Yahoo, Google e Microsoft.
33
O’Reilly, T., Cos’è il Web 2.0, Design Patterns e Modelli di Business per la prossima generazione
di software disponibile su http://www.awaredesign.eu/articles/14-Cos-Web-2-0
22
Il termine Web “2.0” si riferisce ad una attitudine alla collaborazione e
condivisione dei contenuti, resa possibile da sistemi software sviluppati per supportare
l’interazione in rete e basato sull’utilizzo del Web come piattaforma.
Il Web “2.0” segna l’evoluzione del Web da una serie collegata di dati statici ad
un ambiente globale nel quale software online, connessioni a banda larga e applicazioni
multimediali offrono contenuti più ampi e un’interazione più stretta fra gli utenti. Il
fenomeno del Web “2.0” è caratterizzato da un numero sempre crescente di utenti che
generano, condividono, distribuiscono e riutilizzano contenuti Web.
In seguito il termine Web “2.0” ha decisamente preso piede, con oltre 9,5
milioni di citazioni in Google. Ma c’è ancora un grande disaccordo circa il suo significato:
alcuni lo denigrano, considerandolo un termine di marketing, alla moda ma
insignificante, mentre altri lo accettano come nuovo standard convenzionale34.
Secondo O’Really le principali differenze tra Web “1.0” e Web “2.0”, sono
sintetizzabili nella tabella seguente:
Figura 1- Principali differenze tra Web 1.0 e Web 2.0, semplificate da Tim O’Really in Cos’è il
Web 2.0. Design Patterns e Modelli di Business per la prossima generazione di software,
articolo disponibile all’indirizzo http://www.awaredesign.eu/articles/14-Cos-Web-2-0
34
O’Really, op.cit.
23
Da ciò derivano una serie di principi base che spiegano le caratteristiche del Web
“2.0”35:
Nel definire il Web “2.0” non si può trascurare la querelle fra Berners-Lee e
O’Really. Berners-Lee infatti sostiene che il Web 2.0 non è nulla di nuovo: tutte le
componenti del Web 2.0 c’erano già alla nascita del Web e quindi si può parlare di una
naturale evoluzione dei tool e della cultura del Web verso un nuovo livello di strumenti e
di utilizzo. Il Web 1.0 infatti si basava sulla connessione tra persone, era uno spazio
interattivo.
Ma secondo O’Really quando Berners-Lee definì al CERN di Ginevra le regole del
gioco del Web, diede in pratica delle istruzioni che poi sono state assemblate insieme in
modo da creare quello che ora viene definito Web “2.0”. Inoltre è importante
considerare come l’esperienza del Web sia tutta umana e abbia poco a che fare con le
macchine e con gli automatismi: questi sono solo opportunità in più. È importante non
confondere il Web con le tecnologie: l’esperienza del Web si basa su fattori come il
tempo, i tentativi, gli errori, i desideri, le passioni36.
La nuova release del Web è creata quindi con i pezzi e le regole di prima, ma
consente di montarli in maniera diversa e integrarli in modo inaspettato. È
un’evoluzione basata sull’interconnessione di passioni, costruita su rinnovate regole
35
Di Bari, op.cit., p. 4.
36
Di Bari, op. cit., p. 5.
24
sociali. Secondo O’Really37 il Web 2.0 non rappresenta qualcosa di nuovo ma piuttosto la
più completa realizzazione del vero potenziale del Web. Per questo in seguito parleremo
più genericamente di Web.
Con il Web “2.0” nasce un nuovo modo di intendere l’utilizzo degli applicativi
informatici: oggi è possibile utilizzare i più comuni software di editing e gestione dei file
direttamente in rete, e questo ci rende più leggeri. Il vantaggio è quello di poter avere a
disposizione sempre e ovunque i nostri documenti, ma lo svantaggio è che quando si è
sconnessi i documenti sono inaccessibili. Ma questi svantaggi nel corso degli anni
probabilmente si andranno riducendo.
Per capire meglio il Web “2.0” possiamo quindi partire dai cosiddetti Web
Service, servizi Web che possono essere malleati, riutilizzati e smontati. Ogni Web
Service funziona a due livelli: un livello di superficie che è l’interfaccia utente, e un livello
profondo, che sono gli standard e i linguaggi. Al livello profondo la scelta di standard
sempre più interoperabili potrà annullare nel corso del tempo qualsiasi barriera di
comunicazione. Questo è il segreto del Web 2.0, la capacità di shakerare Web Service
diversi per offrire all’utente servizi sempre più innovativi38.
Alla base del Web quindi stanno applicazioni interconnesse che stimolano le
persone a collaborare, esprimersi e relazionarsi, senza dover avere conoscenza di
tecnologie abilitanti e rendendo la partecipazione delle persone alle attività in rete
sempre maggiore.
Si sta sviluppando inoltre un business model innovativo detto freemium, dove vi
è un livello basic del servizio fruibile in modo gratuito che consente di operare fino a un
certo limite. Per utilizzare funzionalità avanzate l’utente deve pagare un abbonamento a
consumo, come succede per esempio in Flickr.com.
Quindi si può definire il Web “2.0” come un insieme di relazioni indirizzate e
organizzate mediante strumenti tecnologici disponibili a tutti e legati fra loro39.
37
O’Reilly, T., Cos’è il Web 2.0, Design Patterns e Modelli di Business per la prossima generazione
di software su http://www.awaredesign.eu/articles/14-Cos-Web-2-0
38
Di Bari, op. cit., p. 8.
39
Ivi, pp. 11-13.
25
La componente tecnologica ha in sé anche quella sociale in quanto nel Web
“2.0” non ci si trova di fronte a nuove scoperte o nuove tecnologie, ma si assiste
all’affermazione e alla diffusione significativa nell’ambito delle comunità tecnologiche, di
sviluppatori e architetti applicativi, di tecnologie che consentono di abilitare un utilizzo
della rete incentrato sulla persona e sugli aspetti sociali. Infatti l’infrastruttura non è
cambiata, e la componente sociale -intesa come aspetto di interazione sociale- insieme
al cambiamento nell’approccio alla consultazione, al contributo e alla partecipazione sul
Web, sono possibili grazie alla diffusione di tecnologie informatiche su larga scala,
fattore abilitante della collaborazione tra utenti e della condivisione di informazioni, dati
e processi di lavoro, sia a livello culturale che professionale40.
Schematizzando, le caratteristiche del Web “2.0” possono far rifermento a
quattro elementi principali41:
1. technology
2. rich user experience
3. open culture: source, data, application, content
4. social network
40
Grivet Foiaia, L., Web 2.0 - Guida al nuovo fenomeno della Rete, HOEPLI, 2007, pp.13-14.
41
Ibidem.
26
il Web per realizzare vere e proprie applicazioni software che vengono distribuite e
utilizzate lato utente grazie alla rete, attraverso i browser42.
Infatti l’unica piattaforma applicativa distribuita finora era quella utilizzata in
locale con l’installazione sul PC dell’applicazione stessa che poteva dialogare con il
server. Il Web “1.0” proponeva -salvo eccezioni come l’home banking-, siti information
silos monodirezionali dal sito all’utente di contenuti e funzionalità, con l’utente come
fruitore passivo di contenuti preconfezionati, che non poteva rielaborare o modificare.
Oggi questi siti sono diventati applicazioni e servizi per gli utenti, basati su una
interazione bidirezionale proprio come avviene nella computing platform43.
Tecnologicamente il Web diventa una piattaforma grazie all’utilizzo di tecnologie
software come RSS e AJAX che creano sul Web una piattaforma alternativa competitiva
con i sistemi operativi tradizionali per PC, dove si possono sviluppare applicazioni e il
software diventa un servizio, e che sta facendo affermare la prassi del continuous
improvement con rilasci di nuove funzionalità senza release e senza comunicazioni, dove
è possibile condividere dati tra diverse applicazioni Web.
Oggi quindi chiunque può scrivere software e distribuirlo liberamente come
open source, dando così la possibilità ad altri sviluppatori di riutilizzarlo per realizzare
software più sofisticati. Dal lato utente, secondo la definizione di Grivet Foiaia44, il Web
diventa piattaforma perché può essere utilizzato nello stesso modo in cui si utilizzano le
applicazioni locali, diventa piattaforma per il social networking di creazione di contenuti
condivisi e di intelligenza collettiva, e diventa piattaforma per lo sviluppo di contenuti
aperti rilasciati sotto licenze Creative Commons (CCPL)45.
In pochi anni il Web è diventato una piattaforma grazie alla quale si possono
eseguire un crescente numero di attività. Il Web è passato dall’essere un fenomeno di
nicchia, di interesse per centri di ricerca e università, ad una diffusione globale. Alla
rapidità dell’innovazione tecnologica si è accompagnata l’espansione ed evoluzione dei
campi di applicazione del Web. L’accesso all’informazione online è diventato per molti
42
Ivi, p.15.
43
Grivet Foiaia, op. cit., p. 16.
44
Ibidem.
45
Creative Commons, è il nuovo tipo di copyright alcuni diritti riservati che consente agli utenti di
condividere i contenuti in rete con quel minimo di tutela necessaria a difendere il diritto
d’autore. L’esistenza di tali licenze d’uso è uno dei fattori che contribuisce al successo della
distribuzione libera dei contenuti sul Web e alla popolarità dei siti di User Generated Content,
grazie al senso di fiducia e tutela che generano negli utenti. L’argomento è affrontato in maniera
più ampia nel secondo capitolo.
27
una attività quotidiana che, anche grazie ai dispositivi di comunicazione mobile, non è
più circoscritta tra le mura domestiche o dell’ufficio. Il Web è diventato un riferimento
fondamentale per l’attività professionale e per la vita privata di milioni di persone. Il
nuovo canale di comunicazione, grazie alle sue potenzialità partecipative e inclusive, è
oggi un pilastro portante della cosiddetta società dell’informazione46.
Mentre la diffusione di Windows ha dato a Microsoft il controllo di una
piattaforma chiusa e proprietaria, il Web oggi si propone come una piattaforma nuova e
diversa, non controllata da un attore centrale ma basata su protocolli aperti e sulla
definizione di standard e modelli di sviluppo migliori.
Grazie alla diffusione della banda larga, allo sviluppo di una piattaforma Open e
alla disponibilità di community di sviluppatori che realizzano applicazioni Web sempre
più all’avanguardia, il Web diventa la nuova piattaforma dove le applicazioni non
saranno più quelle del proprietario, ma quelle dei leader di mercato come Google47che
controllano gli utenti di una piattaforma libera.
46
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006, p. 2.
47
Secondo la definizione di Grivet Foiaia, Google non è più solo un motore di ricerca ma il vero
leader di mercato per la fornitura di servizi applicativi sul Web che in futuro sostituiranno le
applicazioni in locale.
48
Crevola-Gena, op. cit., pp. 144-145.
28
applicazioni Web ricche, dotate di funzionalità e caratteristiche che le rendono simili ad
applicazioni desktop in locale.
Il più diffuso linguaggio di sviluppo per le RIA è AJAX (Asynchronous Javascript +
XML), nato nel 2005 come combinazione di linguaggi indipendenti come XHTML, CSS, e
XML, secondo i canoni standard di separazione del contenuto dalla grafica raccomandati
dal W3C49. AJAX permette di aggiornare in modo dinamico le informazioni visualizzate
all’interno di una pagina senza aggiornarla ad ogni clic e permettendo un alto grado di
interattività50.
Il sistema AJAX cerca di dissimulare il dialogo tra browser e server, facendo sì
che questo avvenga al di fuori della percezione dell’utente51 e utilizza la tecnica di
includere un programma Javascript52 nel codice HTML della pagina (XHTML) che gira sul
browser.
Gli standard quindi sono un gruppo di linguaggi per mezzo dei quali è possibile
controllare le quattro dimensioni di un contenuto Web: contenuto, struttura,
presentazione, comportamento53. Per ogni dimensione sono disponibili dei linguaggi che
vengono interpretati dai browser, che permettono che le informazioni vengano
strutturate all’interno di una pagina Web come una serie di livelli sovrapposti, ognuno
dei quali è dedicato ad un aspetto specifico della pagina.
Per quanto riguarda la struttura dell’informazione si utilizza il linguaggio HTML
(Hyper Text Markup Language), un linguaggio di marcatura che consiste in un insieme di
comandi chiamati tag grazie ai quali è possibile racchiudere le porzioni di informazione
che corrispondono ad una determinata porzione di contenuto.
Il linguaggio XML (eXtensible Markup Language), che definisce anch’esso la
struttura dell’informazione, è stato creato dal W3C come standard per la condivisione di
informazioni in rete e si riassume in un insieme di regole per la creazione di nuovi
linguaggi di marcatura. In questo senso XML è un metalinguaggio per creare nuovi
linguaggi per descrivere informazioni. Nello specifico un documento XML è un file di
testo che cerca di dotare di una struttura semantica i dati contenuti ed è ciò che
49
Grivet Foiaia, pp. 33-35.
50
Ivi, pp. 32-33.
51
Crevola-Gena, op. cit., p. 173.
52
Il linguaggio Javascript, introdotto nel 1995 da Netscape, viene utilizzato per rendere le pagine
più interattive e funzionali e come strumento per controllare il comportamento delle pagine Web
una volta che queste sono rappresentate dal browser. Crevola-Gena, op. cit., p. 170.
53
Crevola-Gena, op. cit., p. 148.
29
permette che avvenga il mashup delle applicazioni. Nel 2000 il W3C ha pubblicato come
raccomandazione ufficiale il linguaggio XHTML, cioè una riformulazione di HTML ispirata
dalle regole di XML54.
Il W3C ha ideato inoltre il linguaggio CSS (Cascading StyleSheet) per gestire la
presentazione delle pagine, definendo la veste grafica. Con il linguaggio HTML infatti
forma e struttura erano insieme e questo generava un codice pesante e spesso mal
gestito dai browser. Con il linguaggio CSS invece oggi è possibile gestire ogni aspetto
stilistico della pagina Web indipendentemente dal contenuto.
Altro standard per la presentazione dinamica e l’interazione è il DOM
(Document Object Model) che si occupa del controllo del comportamento delle pagine,
cioè della dimensione interattiva di un documento. Se opportunamente istruito il
browser può interrogare il DOM e recuperare tutte le informazioni associate ad un nodo
di informazione. Su molti nodi si possono effettuare operazioni di modifica su contenuti,
presentazione e struttura, attraverso Javascript e vincolate all’interazione messa in atto
dall’utente. Il W3C ha definito un versione standardizzata del DOM, rendendola
un’interfaccia universale per l’accesso e la manipolazione delle informazioni contenute
in un documento XML55.
54
Ivi, pp. 158-162.
55
Grivet Foiaia, op. cit., pp. 35-44.
56
Op.cit., pp. 47-50.
57
O’Really, op. cit.
30
Service such as Gmail, Google Maps, Flickr, del.icio.us, and the like may be
expected to bear a "Beta" logo for years at a time.
58
Nielsen, J., Web Usability, Apogeo, Milano, 2000, p. 25.
59
Come si legge in O’Really, l’RSS nacque nel 1997 dalla confluenza della tecnologia Really Simple
Syndication di Dave Winer, utilizzata per pubblicare gli aggiornamenti di blog, e di Rich Site
Summary di Netscape, che consentiva agli utenti di creare home page personali di Netscape con
flussi di dati aggiornati regolarmente.
60
Grivet Foiaia op. cit., p. 52.
31
I benefici apportati dalle tecnologie standard sono evidenti e riguardano una
maggiore compatibilità tra i diversi programmi di navigazione, maggiore accessibilità,
maggiore efficienza e maggiori risparmi su sviluppo e manutenzione. Tuttavia esistono
delle tecnologie ampiamente diffuse che non si basano su questi standard, e che
vengono definite tecnologie proprietarie come Macromedia Flash, i documenti PDF, le
presentazioni multimediali con PowerPoint o le tutorial Java, che garantiscono
funzionalità più interattive, ma che non sono considerate standard in quanto il browser
ha necessità di un plug-in per poter visualizzare i contenuti realizzati con queste
tecnologie, rendendo così esclusi dalla fruizione coloro che non possiedono il
componente aggiuntivo61.
Altro elemento della nuova cultura tecnologica è legato al design dei percorsi di
navigazione tra i contenuti di un sito: mentre la modalità classica d’accesso ai contenuti
avviene per categorie, oggi per cercare le informazioni non è più necessario
categorizzarle e archiviarle, ma è sufficiente attribuire loro dei tag che consentano di
ritrovarle utilizzando i motori di ricerca. Grazie alla diffusione dell’utilizzo dei tag si è
affermata nel Web “2.0” la cosiddetta folksonomy62, cioè le categorizzazioni generate
dagli utenti in modo collaborativo, che producono percorsi di navigazione dinamici
basati sui tag che si vengono a creare da parte degli utilizzatori e fruitori dei contenuti e
applicazioni, una classificazione quindi più intelligente dei contenuti63.
Secondo la definizione di Thomas Vander Wal64 la folksonomy è il risultato della
libera e personale attribuzione di tag a un’informazione o ad un contenuto presente in
rete allo scopo di poterli ritrovare. Il tagging viene realizzato all’interno di un ambiente
collettivo condiviso e aperto. La folksonomy è generata dall’atto di apporre le etichette
da parte dell’utente nel momento in cui utilizza l’informazione. Si tratta di un lavoro
collettivo di molte persone o dell’insieme di etichette attribuite da un singolo individuo
tramite diverse applicazioni. La folksonomy identifica un concetto in cui l’identità di una
informazione è legata alle annotazioni delle persone che la stanno utilizzando.
61
Crevola Gena, op. cit., pp. 183-187.
62
Come si legge in T. Vander Wal, il termine è stato coniato per differenziarsi dal precedente
sistema di classificazione dei contenuti risalente al Lotus Magellan nella seconda metà degli anni
Ottanta.
63
Grivet Foiaia, op. cit., pp. 54-55.
64
T. Vander Wal, La folksonomia e il web semantico, in V. Di Bari, (a cura di), op. cit., p. 77.
32
Questa è una importante novità rispetto alle pratiche di etichettature utilizzate
da editori e creatori di contenuti (taxonomy), grazie alla quale ora possiamo osservare il
punto di vista dell’utente che consuma, legge e utilizza una informazione o un prodotto.
Tutto ciò è realizzato con strumenti che valorizzano l’utente, i quali attraverso questo
sistema creano annotazioni in modo da poter ritrovare, riaggregare e condividere le
informazioni di cui hanno bisogno.
La folksonomy consente quindi una rapida classificazione distribuita e condivisa
dalla società, aiuta la serendipità facendo scoprire qualcosa di non cercato e semplifica
l’accesso ai contenuti65.
I Web Service e i metodi che si stanno diffondendo nel Web stanno offrendo
sempre maggiori possibilità per mixare applicazioni e servizi online e crearne di nuovi.
Nascono così i fenomeni di mashup, cioè la combinazione e integrazione tra più servizi
Web66. Secondo la definizione di John Musser67 un mashup è un applicazione online che
combina o miscela dati e servizi provenienti da due o più fonti per creare qualcosa di
nuovo. Il termine viene esteso in seguito al mondo della musica -dove descrive un
remixaggio creativo di più canzoni provenienti da artisti o generi musicali diversi-, e ai
video costruiti attraverso una miscela innovativa di più fonti. Nel Web i mashup
riguardano quindi diversi tipi di dati e servizi mescolati e riproposti insieme come
accadeva in passato con l’integrazione software e le applicazioni composite, ma i
mashup hanno un diverso approccio in quanto sono dedicati a velocizzare la
distribuzione e il riutilizzo.
Le innovazioni introdotte dal mashup rendono più ricca l’esperienza di
navigazione lato utente, e rendono più flessibile ed economica quella delle aziende. Per i
programmatori la collaborazione reciproca può essere migliorata dai mashup, perché
sono costituiti da dati e applicazioni (API) in rete e sono adatti alla collaborazione online.
Il successo dei mashup quindi deriva proprio dalla collaborazione e dalla struttura
decentralizzata e interconnessa del Web. Se le prime generazioni di software
prevedevano che questi fossero installati e gestiti, nel Web “2.0” i Saas (i software basati
65
Di Bari, op. cit., p. 21
66
Grivet Foiaia, op. cit., p. 57.
67
J. Musser, Web Service e mashup, in V. Di Bari, op. cit., p. 115.
33
su Internet) sono costantemente in funzione e sempre connessi, e anche le API si sono
trasformate da programmi locali e installati, ad applicazioni web68.
68
Ivi, p. 117.
69
Grivet Foiaia, op. cit., pp. 91-92.
70
Ibidem.
71
Ivi, op. cit., pp. 102-105.
34
di esprimersi utilizzando i media digitali e confrontarsi con gli altri pubblicando le
proprie creazioni, che verranno giudicate dal popolo del Web. Il successo di un
contenuto creativo infatti è dato dalle regole dell’ecosistema Web che premiano chi ha
più spettatori, facendo emergere chi ha merito. Questo comporta una riduzione della
qualità nella creazione di contenuti da parte di utenti non professionisti, ma è un prezzo
da pagare per la molteplicità di pensieri e per il valore partecipativo che offre il Web.
I contenuti generati dagli utenti alimentano le cosiddette piattaforme User
Generated Content: i contenuti si possono creare attraverso il contributo volontario
degli utenti come avviene su Wikipedia, oppure come sottoprodotto dell’utilizzo
dell’applicazione da parte degli utenti come Flickr, dove alla base c’è un default
pubblico.
Il termine User Generated Content (UGC) nasce nel 2005, nonostante i primi
contenuti realizzati da utenti comuni fossero già in rete sin dalla nascita del Web. Quello
che è recente e che ha portato a una vera e propria rivoluzione è il fenomeno dell’UGC
di massa, reso possibile dalla progressiva diffusione dei Web Service che abilitano
chiunque a produrre e caricare in rete i propri contributi. L’esperienza più rilevante e
anche quella più nota di UGC è quella di YouTube, che consente agli utenti di caricare,
vedere e condividere video. Il suo valore aggiunto è il coinvolgimento degli utenti, che
possono votare, commentare, e condividere i video pubblicati. Secondo una ricerca
condotta da Nielsen/NetRatings nel 2007 YouTube ha avuto oltre 20 milioni di visitatori
al mese e risulta essere il quarto sito più visitato del mondo72.
Secondo la Pew Internet & American life project73, nel 2006 solo in America 48
milioni di utenti hanno prodotto contenuti per il Web. Questo è un problema che tocca
le grandi aziende dei media e di intrattenimento, che accusano gli UGC della loro perdita
di ricavi. Infatti la diffusione degli UGC sta avendo effetto soprattutto sulla
riorganizzazione dello scenario dell’informazione e dell’intrattenimento: chi produceva e
traeva profitto dalla realizzazione di contenuti ha dovuto riposizionarsi perché sono
subentrati nuovi attori nel mercato. Così oggi alcuni content provider hanno integrato
alla creazione di contenuti tradizionali la creazione di ambienti e strumenti che
permettano l’accesso a contenuti pubblicati da utenti non professionisti. Un’esperienza
importante è quella di Current tv, che si è aperta al giornalismo partecipativo e all’UGC,
72
V. Di Bari, op. cit., p. 14.
73
Fonte V. Di Bari, op. cit., p. 18.
35
trasmettendo oggi il 30 % di contenuti generati dagli utenti mentre il 70 % è ancora di
produzione interna, anche se ha annunciato un inversione di tendenza, pagando gli
utenti che forniscono contenuti con ricompense dai 100 ai 10000 dollari74.
Con la diffusione del fenomeno degli UGC, gli utenti sono diventati prosumer,
produttori e consumatori allo stesso tempo, e molte società stanno modificando
radicalmente le proprie linee editoriali per far spazio a questa nuova tendenza
emergente. Le caratteristiche principali di questo nuovo modo di concepire la
comunicazione sono75:
- la possibilità da parte di chiunque abbia una connessione, di creare contenuti.
- la possibilità di classificare i contenuti per categorie attraverso i tag, votare, ordinare i
contenuti.
- la possibilità di replicare al contenuto con voti, commenti o con altri contenuti,
generando un feedback quantitativamente e qualitativamente mai visto prima.
La creazione online di database di contenuti aperti da parte degli utenti in
modalità pubblica o condivisa sono basati su una architettura di partecipazione. Molti
siti si basano sugli effetti rete e sulla community per generare contenuti che diventano il
vero valore di base delle community e dell’applicazione. Molti sistemi Web oggi sono
disegnati come piattaforme per favorire questo tipo di contributi condivisi e si affidano
agli utenti per creare i contenuti, modificarli e controllare la correttezza e l’affidabilità. Si
sfrutta lo spirito partecipativo degli utenti che popolano il Web, lo esplorano, lo
commentano e sono utenti attivi nel sistema read/write.
Spesso però gli utenti inseriscono contenuti come risultato del fatto che
utilizzano una applicazione per scopi personali, relazionali o auto promozionali. L’utilizzo
di queste applicazioni genera un effetto virtuoso tale che le applicazioni diventano più
interessanti man mano che gli utenti aggiungono contenuto e gli utenti da fruitori
diventano publisher ed editori delle stesse applicazioni.
74
Ibidem.
75
Ivi, pp. 18-19.
36
Indica cioè quei sistemi ideati in modo tale da favorire il contributo e la cooperazione tra
utenti nella comunità partecipativa. Questo concetto, applicabile sia all’open source che
all’open content, si basa su principi democratici, incoraggia l’utente ad aggiungere
contenuto e valore all’applicazione, spesso in un social network e attraverso l’utilizzo di
social software, e ha come sottoprodotto la creazione di UGC76.
La potenza del Web “2.0” sta quindi nella potenza delle masse: gli utenti grazie
all’unione di piccoli contributi individuali possono costruire prodotti, progetti e
comunità. Il concetto di partecipazione nel Web fatta dalla massa è reso anche dal
termine read/write. Il Web “1.0” era monodirezionale, diretto da chi controllava il
software, le applicazioni, i dati, i contenuti. Gli utenti avevano per lo più accesso alle
funzioni di read e a funzioni di write limitate e controllate. Il Web era una fonte di
informazioni, basato su una architecture of consumption.
Oggi invece il Web è bidirezionale, chiunque può essere parte attiva nella
costruzione dell’informazione, l’utente passa da audience a partecipante. Il Web diventa
una piattaforma per la partecipazione. Su queste basi si parla di UGC utilizzando
applicazioni disegnate per dare un ruolo preciso all’individuo, con funzionalità concepite
per creare un valore per gli altri. Dion Hinchcliffe ha elaborato un modello di analisi della
partecipazione degli utenti al Web77:
- primary partecipation: partecipanti primari, coloro che aggiungono contenuti al Web,
li modificano e partecipano attivamente alle attività del Web “2.0”, utilizzano i blog e le
piattaforme User-Generated Content;
-secondary partecipation: sono consumatori e lettori che occasionalmente
interagiscono con il Web e alcune applicazioni;
- passive user: utenti che si limitano a leggere il Web senza dare contributi.
Oggi in base a questo modello si può ipotizzare una distribuzione su 10 utenti di
un rapporto 1-2-7, dove 1/10 è un partecipante attivo primario, 2/10 sono partecipanti
secondari e 7/10 utenti passivi.
76
Grivet Foiaia, op. cit., p. 110.
77
Questo concetto è spiegato in Grivet Foiaia, op. cit., p. 111.
37
Secondo O’Really78 «alcuni sistemi sono progettati per incoraggiare la partecipazione.
Infatti una delle lezioni chiave dell’era del Web 2.0 è questa: gli utenti aggiungono
valore».
Per questo motivo le società che operano nel Web “2.0” impostano di default
sistemi per l’aggregazione dei dati degli utenti e per la costruzione di valore come
effetto collaterale del normale utilizzo dell'applicazione. Questi sistemi migliorano con
l’aumentare del numero di utenti. L’architettura del Web è tale che gli utenti che
perseguono i propri interessi egoistici costruiscono un valore collettivo come
conseguenza automatica. Questi progetti possono essere visti come aventi una naturale
architettura partecipativa.
Nel 1979 è stato creato Usenet il primo programma per la condivisione di
informazioni, ma solo in questi ultimi anni stiamo assistendo alla nascita di tecnologie
collaborative basate sul Web, che consentono a tutti gli utenti di creare, condividere o
prendere parte a diverse attività come la condivisione di informazioni e contenuti fino
alla creazione collettiva e alla partecipazione attiva in diverse forme di comunità. Queste
tecnologie Web “2.0” come i blog, i wiki, i social network, i tag hanno dato vita a un
nuovo mondo di partecipazione attiva79.
78
O’Reilly, T., Cos’è il Web 2.0, Design Patterns e Modelli di Business per la prossima generazione
di software su http://www.xyz.reply.it/web20
79
J. Manyika, J. Bughin, Fare business con il Web 2.0, in V. Di Bari, op. cit., p. 177.
80
Fonte http://www.mediamente.rai.it/home/bibliote/intervis/l/levy.htm#link001
38
due cose complementari, per il tramite delle nuove tecnologie, possono davvero
entrare in comunicazione l'una con l'altra, scambiare il loro sapere, cooperare.
Detto in modo assai generale, per grandi linee, è questa in fondo l'intelligenza
collettiva.
81
Grivet Foiaia, op. cit., p. 124
82
O’Reilly, T., Cos’è il Web 2.0, Design Patterns e Modelli di Business per la prossima generazione
di software su http://www.xyz.reply.it/web20
83
Grivet Foiaia, op. cit., p. 112.
84
Ivi, pp. 113-114.
39
di conoscenze con non più di 5 intermediari- è del 1929, ma oggi il social Web è in grado
di mettere in relazione individui e fa toccare con mano questa teoria85.
Il fenomeno dei social network è nato nel 1995 e rappresenta una rete sociale,
strumento condiviso che abilita e facilita le relazioni. Il focus dei social network è nella
coesione delle relazioni e nella molteplicità e versatilità di strumenti offerti per
interagire e relazionarsi86.
Secondo Kolman87 uno degli aspetti principali di un social network efficace è la
riproposizione in chiave digitale di concetti di condivisione di conoscenza, un tempo
veicolati per via familiare o amicale e oggi riabilitati dagli strumenti del Web che
permettono di recuperare un preciso processo di diffusione culturale.
Il Web “2.0” infatti vede creare una rete sociale dove si collabora, si condivide e
si creano relazioni sociali su una rete, gruppi di persone messe in relazione da legami di
conoscenza attivi e diretti, sociali. In questi sistemi tutto ruota intorno al profilo
personale, e si basa sul concetto di invito e raccomandazione, forma di marketing virale
che consente a queste applicazioni di affermarsi con costi pari a zero attivando quello
che viene definito il network effect, cioè l’effetto rete. Questo si applica sia alla
partecipazione nella community, che alla creazione di contenuti: più UGC sono presenti,
più contenuti verranno condivisi dagli utenti secondo il principio dell’emulazione e
partecipazione, che rende possibile l’effetto tribù favorito proprio dalle applicazioni
quali blog e wiki88.
In questo contesto infatti i blog rappresentano la conversazione di queste
comunità e il dialogo collettivo. I blog hanno iniziato la loro scalata a medium di massa
nel 2001, quando hanno iniziato ad essere disponibili le piattaforma gratuite di gestione
del servizio, anche se in realtà le loro origini risalgono al 1997. I blog sono nati come
mezzi di pubblicazione guidata, ma oggi sono soprattutto un ibrido tra il giornalismo on
line e il diario in rete, strutturati in discussioni in ordine cronologico, dove i visitatori
possono lasciare commenti e opinioni89.
85
Grivet Foiaia, op. cit., p. 117.
86
Di Bari, op. cit., p. 27.
87
In Di Bari, op. cit., p. 29.
88
Grivet Foiaia, op. cit., pp. 120-121.
89
Di Bari, op. cit., pp. 23-24.
40
Secondo la definizione di O’Really90 un blog non è altro che una home page
personale nel formato di un diario. La struttura dei blog crea per ogni post un URL
statico e permanente, il cosiddetto permalink91, che consente a chiunque di citarlo e
commentare anche attraverso l’utilizzo del blogroll che raccoglie i link di altri blog. Le
discussioni diventano così relazioni sociali tra i blogger, simile alla formazione
dell’opinione pubblica92.
Il termine wiki che significa “veloce” rappresenta bene l’enciclopedia Web-based
Wikipedia, basata su un software open source e nata dalla creazione collaborativa su
base volontaristica dei contenuti da parte degli utenti e presieduta dall’ente no profit
Wikimedia Foundation. Chiunque può creare fruire e gestire il contenuto, spinto dallo
spirito di censire tutto lo scibile umano.
Esperienze come Wikipedia, dove ogni voce può essere modificata da qualsiasi
utente, è un vero e proprio esperimento di fiducia e rappresenta un
cambiamento profondo nelle dinamiche della creazione dei contenuti. Anche le grandi
società di business nel Web “2.0” fanno pubblicità dei propri prodotti attraverso il
cosiddetto marketing virale, cioè dalle informazioni che gli utenti condividono. Perciò i
contributi degli utenti sono la chiave del predominio del mercato nell’era del Web 2.093.
La partecipazione attiva del popolo Web alla vita digitale ha prodotto nel mondo
delle news una serie di cambiamenti modificando il processo di newsmaking. Grazie alla
natura interattiva dei nuovi media e alla facilità di creazione di contenuti autoprodotti, è
nata una nuova forma di giornalismo, definito citizen journalism. Nel 2003 si sono
sviluppati siti di informazione che hanno iniziato ad essere visitati da milioni di utenti. A
influire positivamente è stata la percezione generalizzata che l’indipendenza del citizen
journalism dagli editori costituisse una garanzia di qualità di informazione.
I vantaggi del giornalismo partecipativo sono che l’utente non è più ricevente
passivo di informazione, ma ha le libertà di esprimere commenti, arricchire fonti e
verificare la veridicità delle notizie. I giornalisti possono così godere di feedback
immediati e i lettori diventano co-protagonisti della produzione di informazione94.
90
Op. cit.
91
Contrapposto alla stickiness del Web “1.0”.
92
Grivet Foiaia, op. cit., pp. 126-127
93
O’Really, op. cit.
94
Di Bari, op. cit., p. 26.
41
1.5 Web e Authoring: nuove forme di creazione dei contenuti in rete
Lo sviluppo e la diffusione degli standard e delle tecnologie Web hanno quindi
determinato un cambiamento delle forme di authoring in rete. In base al benchmarking
condotto in rete e all’analisi sulle diverse piattaforme Web possiamo sintetizzare che
oggi i contenuti nel web si creano sostanzialmente in tre diverse forme:
autonomamente, in modo collaborativo asincrono e in modo collaborativo sincrono.
Ognuna di queste tre forme implica diverse variabili e fattori, a seconda dei servizi e
delle applicazioni messe a disposizione dalle piattaforme Web.
Poiché lo sviluppo e l’evoluzione dei nuovi servizi e applicazioni web è
rapidissimo, anche le possibili forme di authoring in rete risultano essere un processo in
continua evoluzione. Per questo motivo la classificazione che segue può essere definita -
e deve essere letta- come una sistematizzazione possibile, soggetta a ulteriori possibili
evoluzioni e revisioni.
Per quanto riguarda la prima forma, la creazione e pubblicazione dei contenuti
avviene in maniera autonoma e individuale, e i contenuti vengono resi disponibili in rete
specialmente attraverso strumenti di social networking e piattaforme UGC
appositamente create per la condivisione. Questo significa che l’utente crea propri
contenuti e li distribuisce in rete principalmente per condividerli attraverso due
modalità: in modo “privato”, quindi attraverso i social network con cui può condividerli
con gli amici, o in modo “pubblico”, per avere visibilità globale. Questo comporta che
chiunque abbia accesso alla rete possa avere accesso a questi contenuti, prenderne
visione, riutilizzarli o creare opere nuove basate su di esse.
Le tecnologie che hanno abilitato i Web Service e le applicazioni, hanno permesso alle
piattaforme Web di aggiungere servizi addizionali che permettono oggi all’utente di
creare, distribuire e modificare facilmente materiale grazie agli strumenti di editing
disponibili online. Questi permettono di creare e lavorare direttamente in rete,
utilizzando applicazioni molto simili ai software utilizzanti normalmente in locale, spesso
con interfaccia ancora più semplice e intuitiva da utilizzare. L’editing di immagini, video
e musica è oggi possibile direttamente online, ma soprattutto è accessibile a chiunque.
Seconda forma di authoring è la creazione e pubblicazione di contenuti in modo
collaborativo attraverso piattaforme per il remix e la creazione collaborativa in maniera
asincrona. Gli utenti creano, condividono e riutilizzano in rete contenuti pre-esistenti
42
autoprodotti da altri utenti, ma non partecipando contemporaneamente alla creazione
dei nuovi materiali.
Questo avviene in esperienze come i blog o i wiki, dove gli utenti possono aggiungere e
modificare in modo indipendente informazioni pre-esistenti, che vengono così condivise
e sviluppate per la diffusione della conoscenza in modo collaborativo. Ma la creazione
collaborativa asincrona avviene anche attraverso l’utilizzo di piattaforme che offrono sia
uno spazio per la pubblicazione di contenuti che la creazione attraverso strumenti di
editing. In questo caso l’utente può creare in modo indipendente un’opera direttamente
online, ma effettuando il remix con altre già presenti in rete, e facendo il mashup tra file
audio, video e immagini e creando opere nuove basate su quelle già esistenti e
ripubblicandole in rete, garantendo così un circolo virtuoso di riutilizzo e pubblicazione
che non ha fine.
Infine terza forma di authoring è la creazione e pubblicazione dei contenuti
attraverso piattaforme che permettono la creazione collaborativa in modo sincrono tra i
vari utenti, che partecipano insieme e contemporaneamente alla creazione di nuove
opere. In questi casi non solo gli utenti sono messi in grado di creare direttamente
online e di riutilizzare e remixare contenuti prodotti da altri utenti, ma lo possono fare
simultaneamente grazie a strumenti che permettono di creare insieme opere nuove
lavorando contemporaneamente online.
Questa nuova forma di produzione collettiva sincrona è un fenomeno che in realtà è
ancora in via di sviluppo, almeno per quanto riguarda i casi studio presenti in rete. Ma è
un fenomeno che sta diventando sempre più importante grazie alla diffusione delle
connessioni veloci e all’abbassamento dei costi. È quindi la tecnologia stessa che
garantisce la collaborazione, perché gli utenti possono collaborare insieme alla creazione
di opere nuove proprio grazie alla rete che consente la libera circolazione di idee.
43
Tavola riassuntiva delle possibili forme di authoring in rete
44
protetto da copyright effettuando un blando controllo ex post, spesso affidato alla
buona volontà degli utenti di segnalare i casi di violazione di copyright.
1.5.1 Esperienze di piattaforme per l’editing e la condivisione dei contenuti sul Web
Caratteristiche peculiari del Web “2.0” sono quindi la partecipazione attiva degli
utenti, lo sviluppo dell’intelligenza collettiva e la creazione condivisa della conoscenza.
Questi fattori hanno portato negli ultimi anni allo sviluppo e alla diffusione di
ambienti collaborativi online, che permettono la partecipazione degli utenti, la creazione
e la condivisione dei contenuti, attraverso servizi addizionali che vanno spesso ad
aggiungersi ad esperienze di social networking.
Da un’analisi delle esperienze presenti in rete troviamo numerose piattaforme
per la creazione collaborativa di opere di ogni genere, dalla musica e video, alle foto e
testi. Alcune delle piattaforme prese in esame offrono agli utenti la possibilità di
licenziare le proprie opere sotto licenze libere, mentre altre affrontano la questione del
copyright soltanto attraverso la visione dei Terms of Service.
Delle piattaforme di condivisione di musica e suoni prese in esame tutte
utilizzano le licenze Creative Commons ad eccezione di DigitalMusician.net95. Questa è
una piattaforma che permette agli utenti di creare musica via web in modo sincrono con
gli altri utenti della community attraverso il virtual studio “Digital Musician Recorder”,
un software reso disponibile in modalità free. Questo permette agli utenti di lavorare
simultaneamente ad una creazione musicale, registrando il progetto musicale insieme
ad altri utenti direttamente online.
Jamendo.com96 è una comunità di musica legale, gratuita e illimitata, rilasciata
sotto licenze Creative Commons, che offre libero accesso e download di interi album di
artisti musicali. Offre un importante servizio agli utenti che è la possibilità di applicare
direttamente le CCPL al proprio album attraverso un apposito step durante l’upload
stesso, permettendo di scegliere in modo autonomo la licenza che più si addice
all’artista. Il sito infatti è dedicato solo a lavori rilasciati sotto CCPL, perciò non permette
di effettuare l’upload di album senza l’adozione di una delle CCPL disponibili. Un limite è
rappresentato dal fatto che il materiale viene prodotto solo offline, non vi è infatti come
servizio aggiuntivo la possibilità di creare i lavori online attraverso sistemi di editor.
95
www.digitalmusician.net
96
www.jamendo.com
45
Altro interessante sito di condivisione di musica è Beatpick97, che offre la
possibilità ai musicisti di effettuare l’upload delle proprie creazioni musicali, che devono
essere rilasciate sotto CCPL per permettere agli altri utenti di condividerle e riutilizzarle
per progetti personali come video, film e remix con altri brani musicali, attraverso un
sistema di acquisto dei diritti d’uso commerciale delle opere che danno la possibilità agli
autori di guadagnare il 50% dalla vendita delle proprie opere.
Musikethos98 vuole promuovere le creazioni e interpretazioni musicali degli
artisti dell’Associazione Musica Etica che vogliono proporsi al pubblico internazionale
distribuendo gratuitamente al pubblico registrazioni non reperibili nel mercato
discografico, attraverso l’uso delle CCPL. Questo per incoraggiare l’esecuzione di musica
dal vivo e distribuire generi di musica classica e jazz, scavalcando l’intermediazione delle
case discografiche e diffondere musica in pubblico dominio per scadenza del diritto
d’autore.
CcMixter99 è un progetto targato Creative Commons e nasce come community
musicale che offre come servizio agli utenti la possibilità di remixare musica sotto licenza
Creative Commons, interagendo e facendo mashup con suoni campionari presenti nel
sito stesso. Gli utenti possono così remixare, campionare e creare mashup, scaricando
dal sito i campioni e reinserendoli sul sito, per permettere agli altri utenti di riutilizzarli
per crearne di nuovi. La piattaforma non prevede però la possibilità diretta per l’utente
di creare i propri remix direttamente online attraverso strumenti di file editing, ma
consente solo il download dei file e il successivo upload dopo aver effettuato il remix
offline sul proprio computer.
Soundclick100 è un social network musicale che offre il servizio di
autopromozione degli utenti che fanno parte della community. Unisce così musicisti e
semplici appassionati grazie all’utilizzo delle CCPL per permettere di ascoltare e scaricare
gratuitamente i brani caricati sulla piattaforma o decidere se dare un contributo agli
artisti. Il servizio permette agli utenti di creare pagine personalizzate con una playlist dei
brani preferiti da condividere con gli altri utenti e che permette la collaborazione a
distanza tra gli utenti. Offre inoltre la possibilità agli ascoltatori di creare una radio
97
www.beatpick.com
98
www.musikethos.org
99
www.ccmixter.org
100
www.soundclick.com
46
personalizzata con i propri brani preferiti. Non offre però come servizio il remix dei
brani.
Due dei siti presi in esame, oltre all’interazione e alla collaborazione tra utenti
offrono un ulteriore servizio di Web radio: Opsound101 è un esperimento
dell’applicazione del modello free software alla musica e ai suoni che offre come servizio
ai musicisti la condivisione e il remix dei propri lavori utilizzando le CCPL. Un servizio
aggiuntivo è proprio la Web radio in streaming delle musiche create col remix dei suoni
e musiche offerte dal sito.
Altro esempio di sito che offre questo tipo di servizio è TheFreesoundProject102,
un database collaborativo di suoni campionari, rumori ed effetti rilasciati sotto licenza
Creative Commons Sampling Plus specifica per il remix dei sample musicali. Il sito offre
un servizio radio come esperimento sulla collaborazione e interazione sociale nel
campionamento di creazioni musicali, attraverso un interfaccia editor che permette di
mettere insieme brevi creazioni usando i campioni di suoni presenti nel database del
sito. Gli utenti possono così avere un luogo di incontro con la community per interagire
con le creazioni degli altri utenti e crearne insieme di nuove.
Sempre per quanto riguarda i servizi musicali, sono sempre di più le Web label
che si stanno sviluppando in rete come Magnatune103 che nasce con l’obiettivo di
trovare un modo per gestire un etichetta record nel Web con lo scopo di perseguire gli
interessi sia degli artisti che dei consumatori. Magnatune offre infatti agli artisti la
possibilità di stipulare contratti dando loro il 50% di ogni guadagno derivato dalla
vendita dei propri lavori. Inoltre tutti gli utenti possono gratuitamente ascoltare in
streaming ogni file audio prima di decidere se acquistarlo scegliendo il prezzo. Altra
Netlabel italiana è Anomolo104, che produce e distribuisce gratuitamente musica di alto
livello artistico rilasciata sotto licenze cc che, al contrario di quanto avviene su
Magnatune, non può essere venduta e non può generare profitto perché si persegue il
fine di riportare la cultura musicale alla sua funzione di mezzo di espressione libera e
condivisibile fuori dai vincoli del mercato discografico e del diritto d’autore. Homework
101
www.opsound.org
102
www.freesound.org
103
www.magnatune.com
104
www.anomolo.com
47
Records105 è un'etichetta per creare un network aperto di musica e idee in un continuo
interscambio, raccogliendo brani rilasciati con licenza Creative Commons Music Sharing.
Dall’analisi delle licenze utilizzate in queste piattaforme prese in esame, quelle
maggiormente utilizzate per la condivisione musicale sembrano essere le By-Non
Commercial, seguite solitamente dalle licenze By-Share Alike. Due siti (The
freesoundproject e CcMixter) utilizzano le licenze Sampling Plus e uno (Musikethos)
anche musica in Public Domain. Solo tre dei siti esaminati utilizzano le licenze Non opere
derivate (Jamendo, Musikethos e Homeworkrecord).
Ma la creazione e condivisione di contenuti non riguarda solo la musica. Infatti si
sono sviluppate sempre più rapidamente piattaforme per la condivisione di immagini e
video attraverso la diffusione di importanti strumenti di social networking che si sono
pian piano evoluti offrendo sempre maggiori servizi per gli utenti.
Uno dei più conosciuti e utilizzati siti di photosharing è Flickr.com106 che, grazie
all’integrazione di nuovi servizi è diventato una community virtuale con forum di
discussione e collaborazione e gruppi tematici. Il sito offre la possibilità di pubblicare e
scaricare materiale come foto e video e la modifica delle immagini caricate attraverso
l’editor di fotoritocco online Picnic, che permette di modificare le immagini
direttamente online. Un ulteriore servizio aggiuntivo è la possibilità di licenziare le foto
pubblicate con le licenze Creative Commons, ma accedendo da un’apposita area nella
barra dei menu e non direttamente in upload come avviene invece in Jamendo.com.
Questo potrebbe essere uno dei fattori che influenza negativamente l’utilizzo
delle licenze da parte dei potenziali utenti perché risulta un passaggio distaccato
dall’upload. Come confermato anche dal Prof. De Martin107 «è sicuramente vero che è
più come uno step finale che a certi può sfuggire completamente, però è più un
miglioramento tecnico del workflow dire “lo integriamo meglio, te lo rendiamo più
evidente e più presente”. (…) e l’utente sarebbe più sensibile che esiste questo aspetto e
lo prenderebbe maggiormente in considerazione».
Infatti chi non conosce queste licenze non le applica, potrebbe farlo interagendo
col sito ma non risulta un procedimento automatico per l’utente. È interessante vedere
come attraverso il monitoraggio del forum presente su Flickr, siano parecchi gli
105
www.homeworkrecords.net
106
www.flickr.com
107
Intervista del 10 dicembre al Prof. J.C. De Martin, responsabile italiano di Creative Commons e
co-direttore del centro NEXA su Internet & Societa' Politecnico di Torino.
48
argomenti di discussione che riguardano l’utilizzo delle CCPL, soprattutto per quanto
riguarda la scelta fra una licenza piuttosto che un’altra, come si fa ad applicarle ai propri
lavori e spiegazioni più generali su cosa è e cosa comporta, fattore che denota che per
molti utenti ancora non sono molto chiare.
Altro sito di photosharing è Photobucket108 che offre come servizio la
condivisione di immagini e video. La visualizzazione però non avviene per forza
all’interno del portale ma permette il mashup con altre piattaforme di condivisione e
social networking tra cui Facebook e MySpace. La piattaforma offre come servizio anche
un tool di editing e fotoritocco con il quale l’utente può pubblicare le proprie immagini e
lavorarci sopra direttamente on line prima di caricarle sul sito, la possibilità di creare
slideshow con le immagini e remixare con musica video e transizioni. Un grosso limite, a
mio avviso, è che il sito non utilizza le licenze Creative Commons per salvaguardare i
contenuti prodotti dagli utenti.
Importanti iniziative riguardano poi la creazione e il remix di video on line: Total
Recut109 fornisce risorse online e opportunità di social networking per appassionati e
creatori di video remix, ritagli e mashup. I servizi che offre oltre alla visualizzazione in
streaming, l’upload dei propri lavori e il download del materiale rilasciato sotto CCPL o in
pubblico dominio da riutilizzare per il remix, sono brevi video che remixano da fonti
diverse in un nuovo modo per creare diverse interpretazioni e significati alternativi. Il
sito offre un importante servizio agli utenti che è l’editor video online Kaltura.
Questa è la prima piattaforma open source di creazione di video, interazione e
collaborazione direttamente online senza bisogno di software dedicato. L’interfaccia è
molto semplice da utilizzare e permette di uploadare video sia dal proprio pc che da siti
tra cui Internet Archive, YouTube e ovviamente dal sito stesso Total Recut, per creare un
mashup di file video e audio per crearne di nuovi da condividere con gli altri utenti.
L’editor permette di tagliare parti di video e manipolarle, aggiungere transizioni, testi e
tracce audio proprio come nei veri programmi di editor video che si utilizzano
solitamente in locale, ma tutto in questo caso avviene on line. Inoltre quando l’utente
effettua l’upload di tracce audio da remixare con i video, può sfogliare direttamente dai
più conosciuti siti di condivisione di musica legale tra i quali Jamendo e Ccmixter.
108
photobucket.com
109
www.totalrecut.com
49
Il Web “2.0” diventa quindi come un grande sistema operativo dove tutto ciò
che prima era possibile solo attraverso l’utilizzo di software di editor da parte di utenti
più esperti, ora diventa accessibile a chiunque direttamente on line senza bisogno di
installare niente sul proprio computer e senza avere bisogno di competenze tecniche
specifiche.
Altro importante esempio in rete di creazione collaborativa fra utenti è Eyespot,
una remixing community di video musicali online, che offre come servizio agli utenti
quello di poter mixare video immagini e musica sotto CCPL-Attribuzione direttamente
online attraverso un apposita interfaccia editor facile e intuitiva, simile ai più classici dei
programmi editor video e creare così contenuti personalizzati da condividere con gli altri
utenti, che possono essere a loro volta remixati e riutilizzati per crearne di nuovi. Il
servizio è totalmente gratuito e fruibile direttamente via Web senza l’installazione di
alcun software. Nel sito sono presenti video musicali già rilasciati da remixare a proprio
piacere, tra cui video di artisti famosi, che permettono agli utenti di decidere la
sequenza degli spezzoni di video da frammentare e remixare insieme per creare una
quantità illimitata di possibilità e di alternative diverse.
Altre esperienze di creazione collaborativa di contenuti online sono Jumpcut110
che offre come servizio la possibilità di fare video editing online utilizzando contenuti
propri o di altri utenti da caricare dal proprio pc o da altre piattaforme e Motionbox111,
un servizio di editing Web-based che gestisce filmati personali realizzati anche da
cellulare o videocamera da condividere con persone lontane e che da la possibilità di
non rendere pubblici questi video, ma farli visualizzare solo a chi fa parte del proprio
gruppo privato. Si basa quindi su un sistema di condivisione solo dei video personali e
non di quelli degli altri utenti attraverso un tool di editing e publishing on line. Il servizio
offre la possibilità di salvare poi sul proprio pc il proprio lavoro dopo l’editing. Entrambi
non utilizzano le licenze Creative Commons per la salvaguardia dei contenuti
autoprodotti dagli utenti.
Ourmedia112 invece offre come servizio la gestione di un account per tutti gli
utenti che vogliono condividere materiale personale autoprodotto come file video e
audio sotto licenze d’uso non restrittive, e ripubblicare questi contenuti sul proprio blog
110
www.jumpcut.com
111
www.motionbox.com
112
www.ourmedia.com
50
personale. Molto importante è la partnership con Internet Archive, Creative Commons e
Spinexpress. La piattaforma si basa sull’editor Ourmedia Publisher, software
multipiattaforma che facilità l'upload diretto e l'inserimento delle CCPL.
Internet Archive113 è una no profit che è stata fondata per costituire una grande
biblioteca Internet con lo scopo di offrire un accesso permanente ai materiali e alle
collezioni digitali per ricercatori, storici e studenti. Infatti, attraverso il lavoro di
selezione, indicizzazione e inserimento dati, Internet Archive sta cercando di rendere i
materiali navigabili e consultabili in modo organizzato per i cittadini del futuro, dando
loro la possibilità di vedere non solo il presente ma anche il passato della rete. Il sito
contiene file video, audio, testi, immagini e pagine Web rilasciate sotto CCPL o in
pubblico dominio.
Le licenze maggiormente utilizzate tra i siti presi in esame sono quelle Non
commercial e Share Alike. Due dei siti analizzati (Internet Archive e Total Recut)
utilizzano anche le licenze Public Domain, mentre solo Ourmedia offre varie licenze a
scelta dell’utente. Nessuno dei siti utilizza le licenze Creative Commons-Non Opere
Derivate.
Si sta diffondendo inoltre in rete la possibilità di gestire lavori d’ufficio come
presentazioni multimediali direttamente on line, come avviene su Empressr114, un
servizio che permette di creare e condividere presentazioni Web e slideshow
direttamente on line attraverso un tool editing e Thumbstacks115, un tool Web-based
che permette la creazione di vere e proprie diapositive stile PowerPoint direttamente
dal browser. Entrambe le piattaforme non utilizzano comunque alcun tipo di licenza per
salvaguardare i lavori autoprodotti e remixati dagli utenti, dando per scontato che una
volta all’interno della community l’utente non utilizzi materiale protetto da copyright e
permetta agli altri utenti l’uso e la condivisione dei lavori da esso prodotti.
Un’altra community di condivisione di presentazioni è Slideshare116 che offre
come servizio quello di pubblicare e condividere le proprie slide effettuate con i
maggiori strumenti di presentazione ma ha un grande limite in quanto la presentazione
viene creata offline e solo dopo caricata sul sito, che immediatamente la converte in un
file Flash, visibile allo stesso modo su qualunque piattaforma. Il sito offre la possibilità di
113
www.archive.org
114
www.empressr.com
115
www.thumbstacks.com
116
www.slideshare.net
51
licenziare le presentazioni sotto CCPL, ma questo può avvenire solo una volta che si è
effettuato l’upload del materiale, entrando in una pagina apposita dove si può
effettuare l’editing della propria presentazione e scegliere quindi eventualmente la
licenza da applicare, decidendo se impostare sempre quel tipo di licenza scelto a tutti i
lavori che si pubblicheranno in seguito o cambiarlo a proprio piacere di volta in volta.
117
Il sito è disponibile all’indirizzo http://it.youtube.com/symphony
118
Il comunicato stampa del 12 Novembre 2008 di presentazione dell’iniziativa è integralmente
disponibile in rete all’indirizzo
http://www.google.it/press/pressrel/20081202_symphony_orchestra.html
52
Basti pensare all’esperienza della Blender Foundation, un’organizzazione
indipendente e no profit che ha come scopo quello di stabilire servizi per gli utenti attivi
e gli sviluppatori di Blender, software open source di grafica e animazione 3D, migliorare
i propri software sotto licenza GNU e dare alla comunità internet accesso libero alla
tecnologia 3D. Il progetto fa capo a sette sviluppatori che hanno lavorato insieme per
creare i cortometraggi animati Elephants Dream e Big Buck Bunny119 distribuiti sotto
licenza Creative Commons con lo scopo di offrire agli utenti un grande servizio che è
quello di fornire contenuti per imparare ad utilizzare il software o per migliorarlo
riutilizzando il codice sorgente che viene rilasciato open.
Un altro interessante progetto-documentario collaborativo è
120
OpenSourceCinema , nato con l’obiettivo di creare un film sul copyright nell’era
digitale. Il progetto si basa sulla ricerca dell’incrocio tra cultura e creatività, esplorando
come il copyright sia stato messo sottosopra con il file sharing, il mashup e la creazione e
distribuzione di materiale in rete. La tecnologia digitale infatti ha amplificato la richiesta
di materiale open source. Per facilitare la collaborazione on line fra gli utenti il progetto
prevede un servizio aggiuntivo chiamato Wikifilm dove l’utente può scrivere il copione in
stile wiki e invitare gli altri a partecipare modificando e remixando il materiale prodotto
e ricreandone di nuovi. L’utente ha così ruolo attivo nel modellare il film, suggerendo e
modificando la trama e realizzando mashup delle scene.
Importanti progetti riguardano quindi non solo il remix collaborativo di video o
musica, ma si diffonde in rete anche un altro genere di work in progress, come Romanzo
Totale121. Questo è un progetto collaborativo per la realizzazione di un romanzo che
verrà rilasciato in copyleft122, che offre all’utente la possibilità di creare infinite
alternative di narrazione, basato su una struttura open del romanzo e sul mashup di
diverse voci narrative. L’obiettivo è mettere in rete l’inizio di un racconto e invitare i
lettori a continuare la storia in base alle proprie ispirazioni per realizzare diverse
alternative. Gli utenti possono così prendere spunto, modificare e riscrivere i racconti
pubblicati dagli altri utenti che partecipano al progetto.
119
I cortometraggi sono visibili in rete sul sito della Blender Foundation all’indirizzo
http://www.blender.org/blenderorg/blender-foundation
120
www.opensourcecinema.org
121
www.romanzototale.it
122
Il tema del Copyleft è affrontato nella parte II del secondo capitolo.
53
O.design123 invece ha l’obiettivo di socializzare saperi e condividere teorie, offre
il servizio di progettare collettivamente attraverso un metodo che generi opere in
relazione alla loro connettività. Vuole creare un punto di incontro fra giovani designer e
il mondo dell’industria offrendo un modello alternativo di condivisione dei saperi.
Interessanti sono inoltre le iniziative e i concorsi come Freeimage124, il primo
concorso internazionale dedicato al cinema libero. L’obiettivo è quello di favorire la
libera circolazione della cultura e fruibilità, promozione e condivisione dei saperi. Il
servizio che offre è quello di ricreare un laboratorio per i videomakers che dedicano la
propria creatività al cinema open source, di confrontarsi in un contesto interamente
dedicato alla creatività e alle nuove tecnologie open source. I lavori infatti devono
essere realizzati interamente con l’impiego di tecnologie open source o con software
libero e rilasciati sotto licenza Creative Commons che permetta il remix e la condivisione
dei lavori. Altro importante evento realizzato dall’Associazione Culturale In prospettiva,
è il Copyleftfestival125 di Arezzo, festival interamente dedicato alla filosofia del copyleft.
Si tratta di un concorso per cortometraggi dedicato a lavori rilasciati sotto licenza
Creative Commons e vuole essere una promozione e incontro tra artisti favorevoli alla
libera diffusione della produzione creativa.
Lo sviluppo e la diffusione di tutte queste piattaforma e progetti collaborativi
denotano un avvicinamento sempre più massiccio delle aziende che operano sul web al
fenomeno delle licenze libere per la tutela dei contenuti autoprodotti dagli utenti in
rete.
È interessante inoltre vedere come attraverso il monitoraggio dei forum di
discussione e delle FAQ presenti sui siti che utilizzano le CCPL tra cui Flickr o Jamendo,
siano parecchi gli argomenti di discussione che riguardano l’utilizzo di queste licenze. Le
domande più frequenti riguardano soprattutto la scelta fra una licenza piuttosto che
un’altra, come si fa ad applicarle ai propri lavori e le modalità di applicazione sui vari siti
e spiegazioni più generali su cosa è e cosa comporta l’adozione delle licenze, fattore che
denota come per molti utenti il loro utilizzo non sia ancora molto chiaro. Altre domande
riguardano la differenza fra la SIAE e CCPL, molti ancora non hanno le idee chiare sulla
differenza tra copyright e copyleft e cosa comporta il loro utilizzo e hanno dubbi circa la
123
www.odesigncommunity.com
124
www.freeimagefestival.org
125
www.copyleftfestival.net
54
possibilità di sfruttamento economico delle opere rilasciate sotto licenze Creative
Commons.
1.6 Il ruolo dell’utente “2.0” e la gestione dei diritti d’autore sui contenuti
autoprodotti: proposta di un authoring “2.0”
Come abbiamo visto il ruolo dell’utente non è più quello di mero fruitore passivo
di contenuti preconfezionati dall’industria culturale, ma ha assunto negli ultimi anni un
ruolo sempre più attivo nella catena di produzione, creando autonomamente opere
proprie grazie alla digitalizzazione e alle possibilità offerte dal Web di distribuzione e
condivisione di questi contenuti, e oggi di produzione attraverso gli strumenti di editing
online che le piattaforme Web mettono sempre più spesso a disposizione come servizio
addizionale.
L’utente, grazie a questi servizi e allo sviluppo di interfacce sempre più facili da
utilizzare e che garantiscono una rich user experience sempre più simile alle applicazioni
che tradizionalmente girano in locale, è diventato prosumer, produttore e consumatore
di informazioni e contenuti Web.
Il ruolo sempre più importante che hanno assunto le persone nella creazione e
condivisione dei contenuti in rete ha portato nel gennaio 2007 il Time126 a dedicare la
prima copertina dell’anno a un insolito personaggio: You. You è ognuno di noi che in
questi anni ha utilizzato il Web e contribuito così alla sua crescita in termini di contenuti
e partecipazione. Il riconoscimento reale del Time va in realtà attribuito allo strumento
che permette l’emergere delle individualità: il Web “2.0”, prerequisito del fenomeno di
persone che si esprimono e si relazionano in modo nuovo127.
Per avere un panorama più ampio degli utenti “2.0” e di come utilizzino le
piattaforme Web per la creazione, la collaborazione e la diffusione dei contenuti
autoprodotti, abbiamo somministrato in rete un questionario esplorativo128 che ha
permesso di estendere la conoscenza degli utenti sulle abitudini di utilizzo del Web, degli
strumenti di creazione collaborativa e delle licenze Creative Commons.
126
http://www.time.com/time/magazine/article/0,9171,1569514,00.html
127
Di Bari, op. cit., p.2.
128
Il questionario è stato somministrato in rete principalmente sui siti Facebook.com, Flickr.com,
Jamendo.com, Nonsolonews.it, Google Groups, attraverso il blog
http://ricercasucreativecommons.wordpress.com dal 13/11/2008 fino ad oggi. Le percentuali
sono riferite al campione rilevato di 38 risposte al questionario.
55
Dai risultati è emerso che il 30% degli intervistati ha utilizzato in rete
piattaforme che consentono l’editing online per la creazione e il remix di contenuti. Di
questi il 33% ha utilizzato piattaforme per la creazione e il remix di musica come
Freesound e CcMixter e il 44% strumenti di editing che permettono il fotoritocco online
come PicNic.
Il 42% degli intervistati ha affermato di essere incoraggiato ad utilizzare questi
sistemi di creazione dei contenuti in rete per la maggiore autonomia che danno nella
creazione dell’informazione stessa, e il 30% perché sostiene essere una buona
opportunità di diffusione della conoscenza. Il 27% afferma invece di avvalersi di questi
strumenti per la loro facilità di utilizzo.
Questo consente di tracciare un profilo più definito del potenziale utente Web: è
sì un autore attivo nel processo di creazione e condivisione di contenuti, ma è sempre
più incoraggiato in questo dalla diffusione di servizi che abilitano la creazione
collaborativa e il remix dei contenuti, permettendo di modificare e rielaborare materiale
pre-esistente e diffondere la conoscenza attraverso strumenti di editing online, facili da
utilizzare come i software che normalmente si utilizzano in locale, ma che essendo
online consentono il mashup di contenuti e informazioni, garantendo la massima
diffusione dei contenuti e la massima collaborazione tra gli utenti.
Come sostiene Lovink129, Lawrence Lessing, Tim O’Really e Joe Ito mettono
enfasi sul diritto di remixare il flusso di contenuti e mettono attenzione nei confronti dei
giovani dilettanti che vogliono divertirsi in rete. Bisogna escogitare nuovi modi in cui
l’informazione possa fluire liberamente da un luogo all’altro, da persona a persona.
L’informazione e la cultura devono costituire una risorsa prodotta e utilizzata in modo
collaborativo, piuttosto che essere controllata da proprietari particolari. Le persone
dovrebbero essere libere di appropriarsi dell’informazione come vogliono in base ai loro
bisogni e desideri, e non dover essere costrette a consumare prodotti standardizzati
imposti dall’industria culturale.
Elemento fondamentale del Web è quindi la creazione collaborativa e la
condivisione delle informazioni tra gli utenti. Questo porta a rafforzare il concetto di
fiducia tra gli utenti che mettono in rete i frutti della propria creatività, che potrebbe
essere rafforzata attraverso l’utilizzo delle licenze d’uso, che permettono agli autori di
129
Saggio di Lovink, in Di Bari, op. cit., p. 47.
56
esplicitare gli utilizzi che si possono fare sulle proprie opere pur garantendo alcune
libertà per gli altri utenti, che possono così riutilizzare materiale pre-esistente in rete ma
senza ledere i diritti d’autore di terzi.
L’utilizzo di questo tipo di licenze d'uso porta ad affrontare un aspetto non
trascurabile nell’attuale panorama di condivisione e creazione collaborativa tipica del
Web, ossia che occorre ripensare e ridefinire il concetto di authoring in rete.
Infatti se questa caratteristica fondamentale del Web ha portato allo sviluppo di
piattaforme appositamente create per favorire la cosiddetta remixing culture,
agevolando il lavoro collaborativo in un processo definito work in progress -dove le
opere non sono mai finite ma ruotano attorno a un concetto di continuo miglioramento
del lavoro- e ha favorito la diffusione di strumenti di editing on line come servizi
aggiuntivi di queste piattaforme -permettendo al Web di avvicinarsi sempre
maggiormente all’idea di piattaforma e andando così a sovrapporsi ai sistemi operativi
che lavorano solo in locale, garantendo agli utenti maggiore visibilità e possibilità di
condivisione con gli altri, che possono esprimere commenti, votare, remixare e creare
opere nuove dalle nostre-, è necessario rielaborare il concetto di authoring in rete, che
potrebbe essere valorizzato proprio dall’utilizzo delle CCPL.
Infatti se sono milioni i contenuti autoprodotti dagli utenti ogni giorno e
distribuiti utilizzando gli strumenti di editing online attraverso questi ambienti
collaborativi, dove vengono fruiti e riutilizzati per creare opere nuove basate su di esse,
grazie alla partecipazione di più persone alla creazione della stessa, si dovrebbe
divulgare maggiormente la conoscenza del diritto d’autore tra gli utenti di queste
piattaforme. Questo potrebbe aiutare a sensibilizzarli all’utilizzo delle CCPL, attraverso
dei meccanismi che permettano di ridefinire il concetto di authoring in rete: l’authoring
“2.0” come nuovo modo di concepire la creazione dei contenuti in rete, attraverso la
partecipazione collaborativa degli utenti nella creazione dei contenuti e agevolata
dall’utilizzo degli strumenti di editing online, ma nel rispetto e nella consapevolezza
dell’importanza della tutela del diritto d’autore per le opere autoprodotte dagli utenti in
rete.
57
Per far questo però è necessario avere chiari i principi base del copyright e del
diritto d’autore perché, come affermato anche dal Prof. De Martin130, se fino a qualche
anno fa si poteva vivere ignorando l’esistenza del copyright oggi non è più possibile
perché ognuno può creare, distribuire e riutilizzare materiale pre-esistente in rete per
creare opere nuove.
È fondamentale quindi che gli utenti siano informati prima di tutto sui principi
del diritto d’autore, per poi comprendere appieno la modularità, le potenzialità e i limiti
delle licenze libere.
130
Intervista del 10 dicembre al Prof. J.C. De Martin, responsabile italiano di Creative Commons e
co-direttore del centro NEXA su Internet & Societa' Politecnico di Torino.
58
CAPITOLO 2
Il Web e la tutela del diritto d’autore
Copyright, Copyleft e Open content
59
CAPITOLO 2
Il Web e la tutela del diritto d’autore
Copyright, Copyleft e Open content
131
Morelli Marcello, La comunicazione in rete. Sicurezza, privacy, copyright in Internet: soluzioni
tecniche e giuridiche, Franco Angeli, Milano, 1999, p. 126.
132
Ibidem.
60
diffusione delle opere dell’ingegno: oggi un’opera in formato digitale è fruibile
istantaneamente in ogni parte del mondo, senza intermediazioni e con costi ormai pari a
zero133.
In un ambiente in continua evoluzione come il Web, dove cambiano
rapidamente le forme di creazione e fruizione di contenuti e che consentono sempre
maggiormente la possibilità di authoring direttamente online e attraverso ambienti che
permettono la creazione collaborativa dei contenuti, è indispensabile affrontare la
questione del copyright che, in alcuni casi, diventa un ostacolo alla libera circolazione del
sapere.
Una delle questioni più affascinanti è infatti lo scontro tra la tutela della
proprietà intellettuale e l’uso creativo di semilavori prodotti da altri. Il digitale infatti
rende difficile riconoscere l’originale dalla copia, rende identico il prodotto pubblicato a
quello consumato, rende facili e immediati i montaggi e i remix tra opere di provenienza
differente. L’opera intellettuale infatti non nasce in isolamento, ma anzi si muove
proprio dai semilavori di altri utenti-autori, proponendo assemblaggi nuovi e
arricchendoli di nuovi significati. Proprio per questa facilità di riproduzione e
appropriazione sembra ancora più necessario predisporre una legislazione intransigente
a protezione della proprietà intellettuale134.
Oggi la rete sembra dar corpo a pratiche che sono sempre esistite e che
costituiscono l’oggetto di quello che chiamiamo creatività, che ci contraddistinguono in
quanto esseri umani. Secondo Tomasello, che ha ipotizzato che alla base della
evoluzione cumulativa della cultura vi sia il dispositivo da lui chiamato ratchet effect, una
volta raggiunto un certo artefatto, esso è soggetto soltanto a successive modifiche, ma
non si torna più indietro. Tale processo è spiegabile attraverso i meccanismi di
appropriazione e di apprendimento imitativo che, essendo di natura selettiva, lasciano
ampi gradi di libertà per modifiche e integrazioni dell’artefatto culturale135.
Affrontando un discorso complesso come quello del copyright in rete, è
necessario darne innanzitutto una definizione e affrontare gli aspetti che ruotano
133
Definizione tratta da Aliprandi S., Capire il Copyright: Percorso guidato nel diritto d’autore, Ed.
PrimaOra, Lodi, 2007, p. 36.
134
Soro, A., (a cura di) Human Computer Interaction Fondamenti e Prospettive, Polimetrica
International Scientific Publisher, Monza, 2008, p.35.
135
In Luigi Anolli, Origini ed evoluzione della cultura, pubblicazione su Giornale Italiano di
Psicologia, 2006, disponibile su http://www.cescom.info/anolli/Anolli%202006-
articolo%20bersaglio.pdf, p.27.
61
intorno ad esso, partendo dalle radici storiche fino ad arrivare alle normative più recenti
che lo disciplinano. Infatti in Europa sono state emanate diverse direttive comunitarie
che hanno tracciato alcuni indirizzi di riforma del diritto d’autore, che spesso sono
andate a rinforzare i diritti dei titolari, limitando però alcune libertà fondamentali degli
utenti.
La riforma del diritto d’autore dovrebbe essere supportata dalla presa di
coscienza che -con la multimedialità, Internet e la telematica- i soggetti giuridici sono
cambiati e che ad essi non si può applicare la disciplina preesistente, né immaginare di
poter varare una legislazione nazionale che non tenga conto della realtà mutante dovuta
allo sviluppo delle tecnologie dell’informazione136.
136
Morelli, op. cit., p. 127.
137
Copyright And `The Exclusive Right' Of Authors, Journal of Intellectual Property, Vol. 1, No.1,
1993, articolo di L. Ray Patterson su http://www.lawsch.uga.edu/jipl/old/vol1/patterson.html
62
ne acquisiva il copyright, cioè il diritto esclusivo sugli altri editori di pubblicarla. La
corporazione degli editori esercitava quindi funzioni di polizia privata, dedita al profitto e
al controllo da parte del governo. Il copyright perciò nasce come diritto dell’editore e
non dell’autore.
Sul finire del XVII secolo però l’imporsi di idee liberali nella società frenò le
politiche censorie e causò la fine del monopolio degli editori. Temendo una
liberalizzazione della stampa e la concorrenza da parte di stampatori indipendenti ed
autori, gli editori fecero leva sul Parlamento. Partendo dal principio per cui gli autori non
disponessero dei mezzi per distribuire e stampare le proprie opere, gli editori
mantennero i privilegi acquisiti chiedendo l’attribuzione agli autori dei diritto di
proprietà sulle opere prodotte, con la clausola che questa proprietà potesse essere
trasferita a terzi tramite contratto. Da questo momento in poi gli editori non avrebbero
più generato profitto dalla censura sulle opere, ma dal trasferimento dei diritti
sottoscritti dagli autori, necessario per la pubblicazione delle opere.
Nel 1710 venne emanata la prima norma moderna sul copyright, lo Statuto di
Anna: gli autori, che fino ad allora non avevano detenuto alcun diritto di proprietà,
ottennero il potere di bloccare la diffusione delle proprie opere, mentre gli editori
incrementarono i profitti grazie alla cessione -fondamentalmente obbligatoria per
ottenere stampa e distribuzione- da parte degli autori di vari diritti sulle opere. Lo
Statuto di Anna ancora oggi viene referenziato come il momento in cui gli autori
ricevettero finalmente la protezione che meritavano da tempo, ma interpretarlo come
una vittoria degli autori contrasta sia con il comune buon senso che con i fatti storici.
Infatti gli autori, che non avevano mai beneficiato del copyright, non vedevano nessuna
ragione di chiedere improvvisamente il potere di evitare la diffusione delle proprie
opere, e non lo fecero138.
Il rafforzamento successivo dei diritti d’autore su pressione delle corporazioni
generò gradualmente il declino di altre forme di sostentamento per gli autori, legando
maggiormente l’autore al profitto dell’editore.
Successivamente, a partire dalla legislazione francese post-rivoluzionaria, anche
la Francia adotta il Droit d’auteur, un diritto soggettivo che si basa su una considerazione
138
Drahos, P., Information Feudalism: Who Owns the Knowledge Economy?, John Braithwaite
Earthscan, 2002.
63
di ordine prima morale –cioè la protezione della personalità e dell’integrità del pensiero
dell’autore-, e poi economico – cioè il diritto dell’autore a essere remunerato per lo
sforzo compiuto139.
In seguito, a partire dal 1836 con il Codice Civile Albertino in Sardegna fino ad
arrivare al resto dell’Europa, si emanarono legislazioni per l’istituzione del copyright o
del diritto d’autore, tutte con ispirazioni maggiormente democratiche rispetto a quella
anglosassone. Così, il 9 settembre 1886 fu costituita l’Unione Internazionale di Berna,
per coordinare il riconoscimento reciproco del diritto d’autore tra le nazioni aderenti,
ancora oggi in vigore.
139
Seminario G. Mazziotti del 30 Maggio 2008 all’Università di Sassari.
140
Si riporta la definizione tratta da R. Stallman, R., Software Libero, Pensiero Libero, Stampa
Alternativa, Viterbo, 2003, pp. 114-115.
64
La Costituzione statunitense autorizza l’assegnazione dei poteri di copyright agli
autori che tipicamente li cedono agli editori. Generalmente spetta a questi ultimi e non
agli autori, l’esercizio di tali poteri per trarne la maggior parte dei benefici, pur se agli
autori ne viene riservata una piccola parte. Ne consegue che normalmente sono gli
editori a spingere per l’incremento dei poteri conferiti dal copyright141.
Il contratto di copyright pone quindi il pubblico al primo posto: il beneficio per il
lettore è un fine in quanto tale; i benefici per gli editori non rappresentano altro che un
mezzo per il raggiungimento di quel fine. Gli interessi dei lettori e quelli degli editori
sono qualitativamente diseguali nelle rispettive priorità. Secondo Stallman142, il primo
passo verso un’errata interpretazione sugli obiettivi del copyright consiste nell’elevare
gli interessi degli editori al medesimo livello di importanza di quelli dei lettori.
Si dice spesso che la legislazione statunitense sul copyright mira al
raggiungimento di un equilibrio tra gli interessi degli editori e quelli dei lettori. I
sostenitori di questa interpretazione la presentano come una riproposizione delle
posizioni di partenza affermate nella costituzione, ritenendolo l’equivalente del
contratto sul copyright. Ma l’idea di equilibrio dà per scontato che gli interessi di editori
e lettori differiscano per importanza soltanto a livello quantitativo, rispetto a quanto
peso va assegnato a tali interessi e in quali circostanze questi vadano applicati. Allo
scopo di inquadrare la questione in un simile contesto, spesso si ricorre al concetto di
partecipazione equa: in tal modo si assegna il medesimo livello d’importanza a ciascun
tipo di interesse per quanto concerne le decisioni sulle procedure applicative. Questo
scenario ripudia la distinzione qualitativa tra gli interessi degli editori e quelli dei lettori
che è alla radice della partecipazione del governo nelle trattative contrattuali sul
copyright.
Le conseguenze di una simile alterazione della situazione appaiono di ampia
portata, perché la grande protezione del pubblico inclusa nel contratto di copyright,
secondo cui i privilegi concessi agli autori e agli editori possono trovare giustificazione
soltanto in nome dei lettori, viene ripudiata dall’interpretazione del raggiungimento di
un equilibrio. Poiché l’interesse degli editori è considerato un fine in se stesso, può
motivarne i privilegi sul copyright; in altre parole il concetto di equilibrio sostiene che i
141
Stallman, op. cit., p. 116.
142
Ibidem
65
privilegi possano trovare giustificazione in nome di qualche soggetto che non sia il
pubblico.
A livello pratico la conseguenza di tale concetto di equilibrio consiste nel
ribaltare l’onere di motivare i cambiamenti da apportare alle legislazioni in materia. Il
contratto sul copyright impegna gli editori a convincere i lettori nel cedere loro
determinate libertà. Praticamente l’idea di equilibrio capovolge quest’onere perché in
genere non esiste alcun dubbio che gli editori trarranno beneficio dai privilegi aggiuntivi.
Così, a meno che non venga provato un danno ai lettori, si può concludere che agli
editori vada garantito qualsiasi privilegio richiesto. L’idea del raggiungimento di un
equilibrio tra editori e lettori va respinta, in quanto nega a questi ultimi la priorità cui
hanno diritto143.
Under the laws of the United States (and of European countries, through the Berne
Convention, and of members of the World Trade Organization through the WTO Agreement
on Trade-Related Aspects of Intellectual Property Rights), copyright is automatically attached
to every novel expression of an idea, whether through text, sounds, or imagery. For
example, a drawing of a dog made on a café napkin is copyrighted simultaneously with its
creation and is the sole property of its creator. (…) This drawing cannot be copied, displayed,
or otherwise commercially exploited by any person other than the creator for the life of the
copyright. Among other things, no person other than the creator has the right under
copyright law to create “derivative works”—works that depend upon or develop from the
original, copyrighted work. In the United States, the period protected by copyright is very
long indeed: the life of the creator plus 70 years, or in the case of works made “for hire” or
by creators who are not identified, 95 years from the date of publication or 120 years from
the date of creation, whichever is shorter. This does not mean, of course, that the creator of
this drawing has a monopoly on the depiction of dogs. Copyright law does not protect any
144
particular idea. Rather, copyright protects only the expression of that idea .
Negli Stati Uniti quindi le protezioni del copyright sono soggette a una delle più
importanti limitazioni: il tempo. I termini di protezione delle opere dell’ingegno sono
stati estesi da 50 a 70 anni dal Copyright Term Extension Act del 1998 che hanno
emendato il Titolo XVII del U.S. Code.
Il copyright statunitense non necessita di registrazione per essere legalmente
effettivo, perché nasce quando l’opera viene creata. Comunque, l’utilizzo di un
avvertimento di copyright, allerta i potenziali utenti che l’opera è sotto la protezione del
143
Stallman, p.118, op.cit.
144
Brano tratto da A. M. St. Laurent, Understanding Open Source and Free Software Licensing,
Ed. O’Really, 2004
66
copyright. La protezione del copyright sull’autore di un’opera è soggetta a due
importanti limitazioni: la dottrina del work for hire e il fair use145.
Il copyright tipico degli ordinamenti giuridici di matrice anglo-americana -i
cosiddetti sistemi di common law- è nato quindi con lo scopo di promuovere l’industria
culturale e tutelare prima di tutto l’interesse di editori e produttori che investono sulla
commercializzazione dell’opera. Già dalle origini dunque si poteva intravedere la
separazione fra sistemi di Copyright anglosassone e statunitense e sistemi di Droit
d’auteur europei.
Il diritto d’autore infatti nasce in risposta a specifiche esigenze dettate da nuovi
fenomeni economici e culturali: la ragione economica -come incentivazione della
creazione di opere dell’ingegno-, e quella culturale -come massima diffusione e fruibilità
da parte del pubblico delle opere protette dal diritto d’autore. In modo quasi unanime
quindi giuristi ed economisti iniziarono a parlare del diritto d’autore e del copyright
come forma di incentivo della creatività e di sviluppo culturale146.
Concedendo questi nuovi diritti ad autori ed editori, si attribuiva un valore
economico alla produzione culturale, di modo che questi soggetti fossero incentivati a
continuare nella loro attività, potendone fare fonte di remunerazione147.
E questo incentivo alla creatività veniva concretizzato, a seconda dei sistemi
giuridici di riferimento, o attribuendo maggiori prerogative all’editore -nei sistemi di
common law anglosassoni- oppure attribuendo maggiori prerogative all’autore -nei
sistemi di civil law europei.
Lo strumento giuridico con cui si è attuato questo incentivo alle creatività e allo
sviluppo culturale è legato al concetto di diritto esclusivo che indica la possibilità di
145
A tal proposito si esprime St. Laurent, (op. cit., p. 7) “Works that are made “for hire” are made
by an employee in the scope of his or her employment by another, including those that are
specially commissioned for use in another work or as a supplement to another work, such as a
translation. Works that are created “for hire” are still subject to copyright protection, under the
same terms as described above, but the copyright belongs to the employer of the creator, or the
person who commissioned the work, not the creator. The doctrine of fair use defines certain uses
of copyrighted material as non-infringing. “Fair use” allows persons other than the creator to
make certain limited uses of the copyrighted material for purposes of commenting upon or
criticizing the work, reporting, or teaching related to the copyrighted material.
146
Aliprandi S., Capire il Copyright: Percorso guidato nel diritto d’autore, Ed. PrimaOra, Lodi,
2007, p.32
147
Tale impostazione fu chiara fin dall'inizio, infatti già lo Statuto di Anna era intitolato “An act for
encouragement of learning” (Un editto per l'incoraggiamento dell'apprendimento).
67
escludere terzi dall’esercizio di un diritto, che può essere dunque esercitato
esclusivamente dal soggetto titolare.
Nel caso di beni immateriali come le opere dell’ingegno, non è però così
naturale assicurarsi l’utilizzo in via esclusiva: l’unica via è appunto quella del diritto. È il
diritto cioè a stabilire chi ha il potere di dettare le regole per lo sfruttamento di una
determinata opera, in quali limiti queste regole devono essere rispettate dagli utenti e
quali sono le sanzioni per la violazione di queste regole. Un autore deve quindi
necessariamente far leva sugli strumenti che la legge gli attribuisce in quanto autore
dell’opera, per esercitare un controllo sulla sua fruizione da parte degli utenti.
Il meccanismo dell’esclusiva è in un certo senso la base di tutto il sistema del
diritto d’autore. E’ proprio attraverso la cessione dei diritti esclusivi che si compone
l’intero tessuto dei rapporti contrattuali sull’utilizzo e lo sfruttamento economico
dell’opera. Assodato il principio per cui l’ossatura ideale del diritto d’autore è di natura
privata-contrattuale, non è difficile intuire come le regole del gioco siano spesso stabilite
dagli accordi fra i soggetti in gioco.
Si sono così formati nel corso degli anni particolari equilibri basati sui rapporti di
forza degli operatori del sistema, per cui spesso si parla di “potere contrattuale”. E’
normalmente il soggetto dotato di maggiore potere contrattuale a dettare le concrete
regole del gioco. Ad esempio, l’autore emergente dovrà per forza di cose adattarsi alla
prassi contrattuale di un grande editore con cui vuole pubblicare il suo libro; come
d’altro canto l’autore affermato potrà avanzare le sue esigenze anche nei confronti di
grandi editori, i quali sono disposti a compromessi pur di ottenere l’esclusiva su un
nuovo libro di sicuro successo.
Questo ordine concettuale maturato in due secoli ha iniziato a vacillare nel giro
di pochi anni per l’avvento delle nuove tecnologie informatiche e della comunicazione
telematica: se fino a qualche anno fa non c’era dubbio sulla necessità dell’intervento di
un soggetto imprenditoriale come l’editore che si occupasse concretamente di realizzare
e diffondere copie dell’opera attraverso i tradizionali canali di distribuzione, ora questa
certezza non è più così fondata148.
148
Aliprandi S., op. cit., pp.34-35.
68
2.4 Le direttive europee e la situazione italiana
Il 10 dicembre 1997 la Commissione delle comunità europee inviava al
Parlamento europeo e al Consiglio, la proposta di direttiva su taluni aspetti del diritto
d’autore e dei diritti connessi nella società dell’informazione COM (97) 628 def. –
97/0359 (COD). Nella proposta venivano sottolineate da un lato le nuove possibilità di
creare e sfruttare la proprietà intellettuale a livello mondiale quale elemento propulsore
dello sviluppo economico e culturale dei diversi Paesi, e dall’altro il fatto che la sempre
maggiore disponibilità di opere protette online potesse accrescere i rischi di pirateria,
che già si stava diffondendo soprattutto per opere dell’ingegno come il software e il
materiale audio e video149.
La commissione nella sua relazione osservava come le nuove tecnologie hanno
già aumentato notevolmente lo sfruttamento di opere letterarie, musicali e audiovisive e
quindi le differenze esistenti in materia legislativa fra i vari stati membri avranno effetti
ancora più significativi.
Ulteriori disparità potrebbero insorgere se gli Stati membri adeguassero
unilateralmente le proprie leggi agli sviluppi tecnologici. Di qui la possibile conseguenza
che i titolari dei diritti e i loro intermediari potrebbero esitare nell’autorizzare
l’utilizzazione commerciale delle loro opere online, almeno negli stati membri che non
garantiscono una tutela o dispongono di una tutela poco efficace. Tutto questo
potrebbe creare numerosi ostacoli al sano svilupparsi della società dell’informazione in
Europa. Nasce quindi la necessità di una ulteriore armonizzazione della tutela del diritto
d’autore e dei diritti ad esso collegati, con l’obiettivo di garantire un effettivo mercato
interno per i prodotti e i servizi tutelati da tale diritti.
Gli aspetti su cui la commissione aveva soffermato l’attenzione erano quelli che
consentivano Il diritto di riproduzione, il diritto di comunicazione al pubblico e le misure
tecnologiche per la gestione dei diritti. La direttiva europea naturalmente non poteva
prescindere dalla necessità di tener conto dell’esigenza di concordare a livello
internazionale gli standard minimi di tutela, partendo da tre importanti accordi
multilaterali già sottoscritti: la Convenzione di Berna per la protezione delle opere
letterarie e artistiche, la Convenzione di Roma relativa alla protezione degli artisti,
interpreti ed esecutori, dei produttori di fonogrammi e degli organismi di
149
Morelli, op.cit., pp.130-131.
69
radiodiffusione, e l’accordo sugli aspetti dei diritti di proprietà intellettuale attinenti al
commercio (Accordo TRIPs150), cui vanno aggiunti i due trattati in materia di proprietà
intellettuale dell’OMPI (Organizzazione Mondiale per la Proprietà intellettuale o WIPO)
sottoscritti nel 1996 con il consenso di oltre 100 Paesi151.
Nel 2004 il Parlamento europeo è intervenuto in materia di copyright con la
cosiddetta direttiva Ipred1 con importanti emendamenti152 a difesa degli utenti. Ha poi
emanato nel 2007 una seconda direttiva, a maggiore tutela dei detentori di diritti
d’autore, la direttiva Ipred2153, che mira a modificare la direttiva 2004/48/CE sui diritti di
proprietà intellettuale.
150
Gli accordi TRIPs (Trade Related Aspects of Intellectual Property Rights) sulla proprietà
intellettuale, pilastro costitutivo della WTO (World Trade Organization), hanno introdotto
standard ampi per la definizione e la tutela della P.I. Si tratta solo di una delle varie norme
internazionali adottate negli ultimi anni in riferimento alla tutela della proprietà intellettuale, tra
cui figurano la dir. europea del 1991 sulla protezione del software e quella del 1996 sulle banche
dati, i due trattati WIPO adottati nel 1996, il DMCA digital Millenium Copyright Act e il Sonny
Bono Copyright Term Extension Act, entrambi del 1998. Sulla base di tali documenti, i diritti di
proprietà intellettuale, prima validi solo per i beni industriali, sono stati estesi ad altre categorie
di prodotti.
151
Morelli, op.cit., pp.130-131.
152
Il Parlamento europeo ha proposto una serie di emendamenti. Con uno, in particolare, sulla
base del fair use prima esistente solo nel diritto americano, si stabilisce che la riproduzione in
copie o su supporto audio o con qualsiasi altro mezzo, a fini di critica, recensione, informazione,
insegnamento, studio o ricerca, non sia qualificato come reato.
153
La Direttiva IPRED2, detta "Ip Enforcement", è stata recepita in Italia a maggio 2007 e
introduce diverse misure a maggiore tutela dei detentori di diritti d'autore. In particolare, obbliga
gli Internet Service Provider a fornire i dati personali degli utenti in caso di contestazione da parte
dei detentori dei diritti.
70
gli utenti, l’ISP- ed è molto difficile individuare le responsabilità dal punto di vista della
tutela del diritto d’autore.
Altro fattore da tenere in considerazione nel momento in cui si affrontano
queste problematiche sulla tutela del diritto d’autore in rete è che la rapidità con cui la
tecnologia evolve non consente di poter disporre di norme legislative in grado di seguire
passo per passo questa evoluzione. Non si può perciò pensare ad un adeguamento
continuo del corpus delle leggi alle esigenze dettate dalle continue innovazioni tecniche
e tecnologiche che cambiano lo scenario della nostra epoca. L’unico modo per far fronte
a queste nuove realtà di Internet e della multimedialità in rete, è quello di operare per
analogia a partire dalle normative già esistenti e vedere come esse ci forniscano
elementi sufficienti per un primo approccio al problema della tutela dei diritti di coloro
che producono materiali e li pubblicano nel Web per la loro fruizione da parte di un
pubblico ampio, sia per chi immette in rete opere create da persone diverse154.
Le leggi fondamentali cui occorre fare riferimento per quanto riguarda
l’ordinamento italiano sono:
1. La Convenzione di Berna per la protezione delle opere letterarie ed artistiche, la
più antica delle normative per quanto riguarda il diritto d’autore, firmata il 9
settembre 1886155. La Convenzione di Berna all’art. 1 stabilisce che «i paesi ai
quali essa si applica, costituiscono una Unione per la protezione dei diritti degli
autori per quanto riguarda le loro opere letterarie e artistiche», e il successivo
art. 2 chiarisce che «l’espressione opere letterarie e artistiche includerà tutta
produzione in campo letterario, scientifico e artistico, qualunque sia il modo o la
forma della sua espressione». Il dettagliato elenco che segue questa definizione
delle opere per le quali la Convenzione di Berna si applica, prende in
considerazione quelle forme di espressione esistenti nel momento della sua
stesura e dei successivi aggiornamenti, e comprendono anche molti degli
artefatti multimediali attuali156.
2. La legge n. 633 del 22 aprile 1941 sulla protezione del diritto d’autore e di diritti
connessi al suo esercizio. Questa legge prende in considerazione -al capo I del
154
Morelli, op.cit., pp.132.
155
Successivamente è stata più volte rivista e aggiornata: a Parigi nel 1896, a Berlino nel 1908, di
nuovo a Berna nel 1914, a Roma nel 1928, a Bruxelles nel 1948, a Stoccolma nel 1967 e infine di
nuovo a Parigi nel 1974, ed emendata il 2 ottobre 1979.
156
Morelli, op.cit., pp.133.
71
Titolo I- le opere dell’ingegno che rientrano nel campo della letteratura, delle
arti figurative, della musica, dell’architettura, del teatro, della cinematografia.
Non vengono prese in esame le modalità secondo le quali queste opere sono
realizzate.
157
In Italia, il primo riconoscimento di tale tipo di diritto si ha intorno al 1800, seguito poi da un
testo unico nel 1882, sostituito nel 1925 dalla Legge Rocco e poi, nel 1941, dalla Legge 633 sul
Diritto d'Autore, che è ancora il testo normativo di riferimento.
158
Principalmente si ricordano il D.Lgs. n. 518/1992 (Attuazione della direttiva 91/250/CEE
relativa alla tutela giuridica per i programmi per elaboratore), D. Lgs. n. 154/1997 (Attuazione
della Direttiva 93/98/CE concernente l'armonizzazione della durata di protezione del diritto
d'autore e di alcuni diritti connessi), D. Lgs. n. 169/1999 (Attuazione della Direttiva 96/9/CE
relativa alla tutela giuridica delle banche dati), Legge 248/2000 (Nuove norme di tutela del diritto
d'autore), D. Lgs. n. 95/2001 (Attuazione della direttiva 98/71/CE relativa alla protezione giuridica
dei disegni e dei modelli), D. Lgs. n. 68/2003 (Attuazione della direttiva 2001/29/CE
sull'armonizzazione di taluni aspetti del diritto d'autore e dei diritti connessi nella società
dell'informazione), D. Lgs. n. 140/2006 (Attuazione della direttiva 2004/48/CE sul rispetto dei
diritti di proprietà intellettuale). Aliprandi, Capire il copyright, P.25
159
Il testo integrale della L. 633/41 è disponibile su http://www.interlex.it/testi/l41_633.htm
160
Il brevetto, secondo la definizione di Wikipedia, è un titolo giuridico con il quale viene
conferito un monopolio temporaneo di sfruttamento di un'invenzione in un territorio e per un
72
il titolo originario dell’acquisto del diritto di autore è costituito dalla creazione dell’opera,
quale particolare espressione del lavoro intellettuale.
L’autore quindi acquisisce il complesso dei diritti sull’opera con la semplice
creazione della stessa161 e non è necessaria alcuna registrazione presso enti come la
SIAE162 per acquisire tutti i diritti previsti dalla legge. Nonostante ciò la legge 633 del
1941 prescrive all’art. 105 l’onere di depositare una copia dell’opera in un apposito
ufficio istituito presso la presidenza del Consiglio, ma all’art 106 precisa che l’omissione
di tale formalità non pregiudica l’acquisto e l’esercizio del diritto d’autore.
In realtà i problemi possono sorgere nel momento in cui si richieda prova della
paternità dell’opera e del momento della sua creazione, allo scopo di difendersi da
eventuali pretese di terzi che vantino la paternità sull’opera stessa. Perciò quello di cui
deve preoccuparsi l’autore di un’opera per poter esercitare i suoi diritti, è riuscire a
dimostrare di possedere legittimamente un esemplare dell’opera in una data anteriore a
quella di qualunque altro pretendente dei diritti su di essa. I metodi per provare
l’esistenza di un’opera in una data certa sono diversi163: pubblicarla in un giornale o una
rivista, depositarla presso enti pubblici tenuti a protocollare e registrare alcuni tipi di
documenti, depositarla presso un apposito ufficio della SIAE o presso altri enti
specializzati, depositarla presso un notaio, fare in modo che vi venga apposto un timbro
postale.
Uno dei requisiti fondamentali per l’applicazione della tutela di diritto d’autore
ad opere dell’ingegno è il carattere creativo, che tradizionalmente si articola in due
164
Aliprandi, Capire il copyright, op. cit., p. 47.
165
Questo principio è codificato anche nell'art. 9, n. 2 dei TRIPs, dove si legge che la protezione
del diritto d'autore copre le espressioni e non le idee, i procedimenti, i metodi di funzionamento o i
concetti matematici in quanto tali”, e segna il confine fra diritto d'autore e tutela brevettuale: il
brevetto infatti mira a tutelare una soluzione innovativa passibile di applicazione industriale, al
contrario del diritto d'autore che tutela la forma espressiva dell'opera. Aliprandi, op.cit., p.49.
74
- le opere fotografiche e quelle espresse con procedimento analogo a quello
della fotografia;
- i programmi per elaboratore, in qualsiasi forma espressi purché originali quale
risultato di creazione intellettuale dell’autore;
- le banche di dati intese come raccolte di opere, dati o altri elementi
indipendenti sistematicamente o metodicamente disposti ed individualmente accessibili
mediante mezzi elettronici o in altro modo;
- le opere del disegno industriale che presentino di per sé carattere creativo e
valore artistico.
Esistono poi categorie di opere non facilmente definibili poiché presentano
contemporaneamente gli aspetti tipici di altre tipologie di opere: si pensi a tutte quelle
forme di creatività rese possibili dalle nuove tecnologie informatiche e telematiche, per
le quali si usa spesso la dicitura ampia di opere multimediali166.
La legge 633/41 evidenzia poi all’art.3 le opere collettive, cioè quelle costituite
dalla riunione di opere o di parti di opere, che hanno carattere di creazione autonoma,
come risultato della scelta e del coordinamento ad un determinato fine letterario,
scientifico [...] o artistico, all’art. 4 protegge le elaborazioni di carattere creativo
dell’opera quali le traduzioni in altra lingua, le trasformazioni da una in altra forma
letteraria od artistica, le modificazioni ed aggiunte che costituiscono un rifacimento
sostanziale dell’opera originaria, gli adattamenti, le riduzioni, i compendi, le variazioni
non costituenti opera originale , cioè tutte quelle attività di rielaborazione di un’opera
già esistente che danno un apporto creativo rilevante e indipendente, le cosiddette
opere derivate. All’art. 10 inoltre si fa riferimento alle opere create con il contributo
indistinguibile ed inscindibile di più persone dove il diritto d’autore appartiene in comune
a tutti i co-autori secondo le disposizioni che regolano la comunione, quindi le parti
indivise assumono per legge uguale valore, l’opera non può essere pubblicata,
modificata o utilizzata in forma diversa da quella della prima pubblicazione senza il
consenso di tutti i co-autori e la difesa del diritto morale può essere esercitata
individualmente da ogni coautore.
166
Aliprandi, Capire il copyright, op.cit., p.51.
75
2.5 I diritti dell’autore: diritti patrimoniali e diritti morali
La legge italiana sul diritto d’autore suddivide i diritti spettanti all’autore di
un’opera dell’ingegno in diritti di tipo patrimoniale e diritti di tipo morale.
Il diritto patrimoniale è originariamente dell’autore, il quale può cederlo -dietro
compenso o gratuitamente- ad un altro soggetto. Il diritto morale invece è strettamente
legato alla persona dell’autore ed è inalienabile. Una volta estinto il diritto d’autore,
l’opera diviene di pubblico dominio ed è liberamente utilizzabile da chiunque, anche a
fini economici, purché sia rispettato il diritto morale alla titolarità artistica.
Il funzionamento del diritto d’autore è basato quindi sull’attribuzione di un
valore economico e commerciale allo sfruttamento di un’opera dell’ingegno, strutturato
su una fitta gamma di diritti di tipo patrimoniale che la legge attribuisce all’autore o ad
altri soggetti.
Questi diritti nell’ordinamento italiano sono chiamati diritti di utilizzazione
economica e si comportano come diritti esclusivi. Essi sono regolamentati dal Capo III
della legge 633/1941167 e sono principalmente: il diritto esclusivo di riprodurre,
trascrivere, eseguire, rappresentare o comunicare al pubblico, pubblicare, distribuire,
tradurre, elaborare e modificare, dare in prestito e autorizzare il noleggio della propria
opera.
La durata dei diritti di utilizzazione economica è indicata dall’art. 25 della legge
633/41, che afferma che i diritti di utilizzazione economica dell’opera durano tutta la vita
dell’autore e sino al termine del settantesimo anno solare dopo la sua morte168.
Per le opere in comunione, quelle cioè in cui ci sono più autori e i contributi dei
diversi autori sono indistinguibili, la durata dei diritti di utilizzazione economica spettanti
a ciascuno dei coautori si determina sulla vita del coautore che muore per ultimo; diversa
invece la disciplina per le opere collettive dove i contributi dei vari autori siano
distinguibili e scindibili, l’art. 26, comma 2, stabilisce che la durata dei diritti di
utilizzazione economica spettante ad ogni collaboratore si determina sulla vita di ciascun
autore. Infine, l’art. 27 detta la disciplina per il caso delle opere orfane o anonime, in cui
non è direttamente identificabile l’autore titolare dei diritti, dove la durata dei diritti
167
Artt. 12-19 della legge 633/41.
168
Questa è la regola generale -riconosciuta anche a livello internazionale- come modificata dalla
riforma del 1996: nel testo originario della legge infatti, il termine era di cinquant'anni dalla
morte dell'autore.
76
patrimoniali è di settant’anni a partire dalla prima pubblicazione, salvo il caso in cui
l’autore si riveli prima e a cui in tal caso si applica il termine previsto dall’art. 25.
Oltre ai diritti di tipo patrimoniale esistono anche i cosiddetti diritti morali
attinenti alla sfera più personale dell’autore, al quale si riconosce che l’opera d’ingegno
da lui creata porta con sé anche un valore aggiunto rispetto al mero sfruttamento
economico della stessa: un valore di tipo morale appunto, legato al rispetto dell’onore e
della reputazione dell’autore, anche al di là della sua morte e al di là della durata dei
diritti patrimoniali.
Si tratta di diritti perpetui che dopo la morte dell’autore vengono gestiti dagli
eredi, incedibili e indisponibili; per cui essi sorgono in capo all’autore automaticamente
con la creazione dell’opera come avviene per i diritti patrimoniali, con la differenza che
l’autore non può in alcun modo liberarsene. Negli ordinamenti giuridici in cui esistono
tali diritti, l’autore può mantenere comunque un certo controllo sull’opera, anche nel
caso in cui abbia ceduto i diritti di sfruttamento economico169.
I diritti morali d’autore tutelati dalla L. 633/41 sono il diritto a rivendicare la
paternità dell’opera, il diritto di opporsi a deformazioni o mutilazioni dell’opera che siano
di pregiudizio all’onore e alla reputazione dell’autore e il diritto di ritirare l’opera dal
commercio per gravi ragioni morali.
169
Aliprandi, Capire il copyright, op.cit., p. 56.
170
Artt. da 65 a 71 decies L. 633/41.
77
“Utilizzazioni libere”, è stato riformato interamente nel 2003 con il nuovo titolo
“Eccezioni e limitazioni”.
Le utilizzazioni libere per le quali è previsto un compenso per l’autore
comprendono le fotocopie, le riproduzioni analoghe alle fotocopie per uso personale
con mezzi “non idonei allo spaccio o diffusione dell’opera nel pubblico”, la riproduzione
privata ad uso personale e il prestito effettuato dalle biblioteche pubbliche. Sono inoltre
utilizzazioni libere il riassunto, la citazione o la riproduzione di brani o di parti di opere e
la loro comunicazione al pubblico per uso di critica e discussione purché non a scopo
commerciale, la riproduzione e comunicazione al pubblico per disabili, le riproduzioni e
comunicazioni di opere attraverso terminali posti in istituti di ricerca e istruzione, la
parodia, la vendita di supporti contenenti un’opera dell’ingegno dopo la sua legittima
acquisizione (questo non vale per i beni digitali “intangibili”, come i downloads musicali).
Il Capo V dedica poi una sezione al fenomeno delle riproduzioni private ad uso
personale di opere protette, ovvero a tutte le attività di duplicazione di supporti audio,
video, multimediali, siano essi digitali o analogici, destinate ad un uso prettamente
domestico e privato.
La disciplina delle libere utilizzazioni è complicata perché, dopo aver fissato il
principio generale di libera riproduzione per uso personale senza scopo di lucro, la legge
pone una serie di limiti all’esercizio di questa facoltà, fra cui principalmente: il divieto di
effettuare le copie aggirando eventuali misure tecnologiche di protezione, ovvero quei
sistemi anti-copia che alcuni produttori inseriscono nei supporti audio e video, l’obbligo
di versare un equo compenso a favore di autori, produttori e interpreti delle opere audio
e video che sono riprodotte privatamente, che viene automaticamente prelevato come
una specie di sovrapprezzo su tutte le apparecchiature (masterizzatori, videoregistratori,
lettori digitali etc.) e su tutti i supporti (cd, dvd, hard-disk.); questo compenso è dovuto
da chi fabbrica o importa nel territorio dello Stato tali apparecchi e supporti, con la
diretta conseguenza di un aumento dei prezzi a danno dei consumatori finali; infine, il
compenso è corrisposto alla S.I.A.E., la quale dovrebbe ripartire i guadagni raccolti ai
soggetti interessati (produttori, autori, interpreti).
Per concludere si può dire che sulla base di queste leggi, per estensione, quanto
contenuto oggi nel Web può considerarsi ragionevolmente tutelato dall’attuale
legislazione, tenendo presente il fatto che tutto ciò che è presente in rete –con o senza
78
esplicita indicazione di copyright- non è res nullius, bensì ha un autore e un titolare dei
diritti relativi171.
171
Morelli, op.cit., p. 134.
172
Aliprandi, Capire il copyright, op.cit., p. 61.
173
Glorioso, A.- Mazziotti, G., Alcune riflessioni sulle licenze Creative Commons e i diritti connessi
degli artisti interpreti ed esecutori, dei produttori di fonogrammi e degli organismi di diffusione
radiotelevisiva, in “Il diritto di autore”, Rivista trimestrale della Società Italiana degli Autori ed
Editori, Vol. 79 (2) PP. 163 Giuffrè Editore, Milano, Aprile-giugno 2008, pp.140-141.
79
L’ordinamento italiano riconosce agli artisti interpreti o esecutori diritti esclusivi
sulle loro prestazioni artistiche tra i quali il diritto esclusivo di autorizzare la fissazione, la
riproduzione, la messa a disposizione del pubblico, il noleggio e la distribuzione delle
loro prestazioni artistiche. La durata di questi diritti è di cinquant’anni dalla prima
esecuzione o rappresentazione. L’artista interprete o esecutore ha inoltre alcuni diritti
morali a tutela del proprio onore e reputazione e diritto a equo compenso.
La legge 633 riconosce ai produttori di fonogrammi una serie di diritti esclusivi
che vigono per 50 anni a partire dalla fissazione del fonogramma o dalla sua prima
forma di utilizzazione economica. Il produttore di fonogrammi ha il diritto di autorizzare
la riproduzione, la distribuzione, il noleggio e la messa a disposizione del pubblico dei
fonogrammi di cui ha curato l’incisione e la realizzazione; la durata di questi diritti è di
cinquant’anni dall’avvenuta incisione fonografica su supporto.
Si riconosce inoltre agli Organismi di diffusione radiotelevisiva il diritto esclusivo
di autorizzare la fissazione, la riproduzione, la ritrasmissione e la messa a disposizione
del pubblico delle proprie emissioni e trasmissioni relativi all’utilizzo delle loro emissioni,
con durata di 50 anni dal primo atto di emissione174.
174
Ivi, p. 142.
175
Aliprandi, Capire il copyright, op.cit, p. 71.
80
In Italia questo ruolo è ricoperto dalla Società Italiana Autori ed Editori (SIAE),
ente di diritto pubblico cui la legge 633/41 all’art. 103 attribuisce in via esclusiva due
funzioni principali:
- intermediazione per l’esercizio di diritti d’autore e diritti connessi: rappresenta
cioè gli autori nella tutela dei propri diritti;
- tenuta dei pubblici registri inerenti a formalità relative ai diritti degli autori. Il
registro fa fede dell’esistenza di un’opera e della sua pubblicazione ma la
registrazione non è obbligatoria.
Questo significa che per legge nessun altro ente pubblico o privato può svolgere
le stesse funzioni. Da ciò deriva in sostanza che l’autore che voglia vedere tutelati i suoi
interessi ad un certo livello e con certe garanzie non può far altro che affidarsi alla
S.I.A.E.
Si crea così una situazione di monopolio, che, se da un lato garantisce unità e
coordinamento nella gestione, dall’altro spesso tende ad appiattire ed uniformare
eccessivamente le situazioni. I soggetti interessati possono demandare la tutela alla SIAE
in due forme: l’iscrizione e il mandato.
L’ordinamento italiano ha nel tempo attribuito alla SIAE sempre maggiori
compiti relativi in generale al controllo di varie attività attinenti alla sfera del diritto
d’autore. In particolare tale ampliamento di attribuzioni è stato dettato dalla Legge 248
del 2000176 che ha introdotto nella legge 633/41 l’art. 182 bis con l’elenco delle nuove
competenze177, dando alla SIAE un ruolo più forte e irrigidendo ulteriormente la
situazione di monopolio e di standardizzazione178.
176
La legge 248 del 2000 "Nuove norme di tutela del diritto d'autore" ha portato agli artt. 171,
171-bis, ter e quater della legge 633/41, nuove prescrizioni e soprattutto sanzioni civili e penali
più pesanti per chi duplica software, fotocopia intere opere, acquista falsi, utilizza o mette in
circolazione dispositivi per l’aggiramento della protezione dei programmi o delle smart card per
la decrittazione di canali televisivi.
177
L’art. 182 bis prevede la vigilanza: sull'attività di riproduzione e duplicazione con qualsiasi
procedimento, su supporto audiovisivo, fonografico e qualsiasi altro supporto nonché su impianti
di utilizzazione in pubblico, via etere e via cavo, nonché sull'attività di diffusione radiotelevisiva
con qualsiasi mezzo effettuata; sulla proiezione in sale cinematografiche di opere e registrazioni
tutelate dalla normativa sul diritto d'autore e sui diritti connessi al suo esercizio; sulla
distribuzione, la vendita, il noleggio, l'emissione e l'utilizzazione in qualsiasi forma dei supporti di
cui a); sui centri di riproduzione pubblici o privati, i quali utilizzano nel proprio ambito o mettono
a disposizione di terzi, anche gratuitamente, apparecchi per fotocopia, xerocopia o analogo
sistema di riproduzione; sull'attività di fabbricazione, importazione e distribuzione degli
apparecchi e dei supporti di cui all'art. 71-septies. Per svolgere tale compito, l'Autorità per le
81
La legge però non impone all’autore o agli aventi diritto l’obbligo di affidarsi a
questi enti, stabilendo al comma 4 dell’art. 180 della Legge 248 del 2000 che tale
esclusività di poteri agli enti non pregiudica la facoltà spettante all’autore, ai suoi
successori o agli aventi causa, di esercitare direttamente i diritti loro riconosciuti da
questa legge.
2.8.1 Proposta di direttiva sull’estensione dei termini di protezione dei diritti connessi:
giustificazioni della Commissione Europea e critiche
Il 16 luglio 2008 la Commissione delle Comunità Europee ha presentato una
proposta di direttiva179 per la modifica della dir. 2006/116/CE180 concernente la durata di
protezione del diritto d’autore e di alcuni diritti connessi, finalizzata all’estensione dei
termini di protezione dei diritti connessi al diritto d’autore dei cosiddetti produttori di
fonogrammi le case discografiche e degli artisti interpreti ed esecutori (AIE).
Attualmente il termine della tutela è di cinquant’anni decorrente dalla prima
registrazione o fissazione su supporto materiale e dalla prima l’esecuzione. Secondo la
proposta di direttiva il termine andrebbe esteso a 95 anni.
La Commissione giustifica questa proposta di estensione attribuendole tre
principali funzioni181:
- La prima di carattere previdenziale, infatti una tutela più estesa nel tempo
consentirebbe agli artisti e agli interpreti –specialmente quelli che non ricevono
royalties periodiche182 dalle case discografiche, i cosiddetti musicisti di sessione-
di continuare per più tempo a ricevere ricavi dalla propria attività creativa nel
momento di maggiore vulnerabilità economica della loro vita, cioè quando
hanno ormai concluso tale attività creativa. La proposta contiene anche alcune
misura di accompagnamento come l’istituzione di un fondo per i musicisti di
garanzie nelle comunicazioni può conferire funzioni ispettive a propri funzionari ed agire in
coordinamento con gli ispettori della SIAE.
178
Aliprandi, Capire il copyright, pp. 75-77.
179
Maggiori approfondimenti sulla proposta di direttiva della Commissione è disponibile
all’indirizzo http://www.edri.org/edrigram/number6.15/extension-copyright-performers
180
Il testo integrale della direttiva 2006/116/CE del Parlamento europeo e del Consiglio
concernente la durata di protezione del diritto d’autore e di alcuni diritti connessi è consultabile
su http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2006:372:0012:0018:IT:PDF
181
Si riporta qui il materiale relativo all’incontro della serie “I mercoledì di Nexa” del 10 dicembre
2008 presso il centro NEXA su Internet e Società del Politecnico di Torino. Il comunicato è
disponibile all’indirizzo http://nexa.polito.it/direttivafonogrammi
182
Le royalties sono i premi che gli artisti ricevono periodicamente e che rispecchiano
l’andamento e il successo delle loro opere nel tempo.
82
sessione e l’introduzione di clausole use it or lose it nei contratti stipulati tra AIE
da una parte e PF dall’altra.
- La seconda funzione sarebbe incentivante, in quanto una tutela più estesa
equivarrebbe a maggiori aspettative di guadagno e questo, secondo la
Commissione, dovrebbe incentivare maggiormente gli artisti a intraprendere
l’attività creativa e i produttori a investire maggiormente in essa.
- Infine la terza funzione si potrebbe definire di carattere protezionistico, poiché
la concessione di un diritto connesso più esteso nel tempo -nell’ottica della
Commissione- potrebbe evitare un abbandono nel mercato musicale europeo a
favore di quello americano, a cui oggi è accordata una tutela più lunga e se
questa differenza di durata dovesse persistere, ci sarebbe il rischio che molti
interpreti si legassero alle case di produzione americane, le quali
aumenterebbero così le loro produzioni e i profitti.
183
La Commissione Europea ha pubblicato un libro verde sul copyright nell’economia della
conoscenza, sottolineando la necessità di promuovere la libera circolazione della conoscenza e
dell’innovazione come quinta libertà. Lo scopo del Green Paper è promuovere il dibattito su come
la conoscenza possa essere diffusa in ambiente digitale. Il testo integrale è disponibile su
http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=COM:2008:0466:FIN:IT:PDF
184
A tal proposito si veda il documento di riferimento alla pagina
http://nexa.polito.it/sites/nexa.polito.it/files/Presa%20di%20posizione%20NEXA%20Direttiva%2
0Fonogrammi%2016dic2008.pdf
83
base prevedendo ad esempio delle norme inderogabili che riservino una quota minima
dei proventi agli artisti interpreti ed esecutori (diritto ad equo compenso).
Per quanto riguarda la seconda funzione di incentivo alla creatività, la proposta
sembra essere più un prostrarsi agli interessi di un singolo gruppo come l’industria
multinazionale, in quanto l’estensione dei termini di protezione sembra essere
vantaggiosa perlopiù per i titolari dei diritti e non per l’innovazione e la cultura. Appare
inaccettabile quindi che questa posizione venga presentata dalla Commissione come
una crociata a favore degli AIE con la finalità di riequilibrare il trattamento accordato
all’interprete a quello ben più favorevole accordato all’autore, dato che in realtà gli AIE
da questa proposta non traggono che benefici minimi e che comunque offrono un
contributo importante ma non parificabile a quello degli autori. Se la proposta non è in
grado quindi di apprestare idonea remunerazione agli AIE, non fornisce neppure alcun
incentivo all’investimento dei PF. Inoltre bisogna considerare che i PF e AIE hanno già
ottenuto un diritto esclusivo sulla messa a disposizione interattiva delle opere registrate
e fissate, ma ciò non significa che l’industria discografica debba ulteriormente estendere
i propri diritti anche sotto il profilo della durata temporale e poter avanzare pretese
anche per un periodo nel quale, stando all’attuale regime tutte le prerogative
dovrebbero tornare in capo ai soli autori.
Per quanto riguarda invece la terza funzione, cioè le finalità di protezione delle
case discografiche europee nei confronti di quelle americane che hanno di recente
beneficiato di un simile prolungamento dei termini, bisognerebbe considerare che nel
campo della proprietà intellettuale vale il principio del Trattamento Nazionale185. Quindi
nella situazione attuale le case discografiche europee non hanno nessuno svantaggio
rispetto a quelle americane: esse sono trattate negli USA come i loro concorrenti
americani, e questi sono trattati in Europa come le case discografiche europee. Quindi,
essendo la maggior parte delle majors tutte americane, i benefici derivanti
dall’estensione europea dei termini di protezione affluirebbero ad imprese americane
ma i costi sarebbero in realtà pagati dai consumatori europei186.
185
In base a questo lo stesso trattamento che viene accordato ai soggetti nazionali è esteso
automaticamente anche ai soggetti degli altri Stati.
186
Materiale relativo all’incontro della serie “I mercoledì di Nexa” del 10 dicembre 2008 presso il
centro NEXA su Internet e Società del Politecnico di Torino. Il comunicato è disponibile
all’indirizzo http://nexa.polito.it/direttivafonogrammi
84
Inoltre il passaggio da 50 a 95 anni di tutela non sembra poter avere alcun
effetto frenante ulteriore rispetto alla situazione attuale, nei confronti dei fenomeni di
distribuzione illegale della musica, salvo che non si voglia proporzionare la pena alla
durata residua della protezione.
Infine, come sostengono gli esperti del centro NEXA, la scadenza dei diritti
potrebbe rappresentare un’occasione per l’affermazione di modalità di offerta a costi
ridotti, dato che ci sarebbe solo una categoria di titolari di diritti con cui fare i conti. Oggi
le majors cercano di trarre sempre maggior profitto da prodotti editoriali spesso di bassa
qualità che vengono imposti al pubblico attraverso la pubblicità e i media, ma che
deludono velocemente, incrementando la vendita di opere più datate ma maggiormente
apprezzate. Inoltre l’offerta di artisti liberi che mettono a disposizione le loro opere
gratuitamente in rete ha un successo crescente. I due settori potrebbero incontrarsi con
offerte di streaming e distribuzione digitale innovative, sempre che l’estensione dei
termini di tutela non passi. E questo è uno dei motivi per cui l’industria discografica si
stia battendo a favore dell’estensione dei termini.
187
Mazziotti, G., EU Digital Copyright and The End User, Springer, 2008, p. 3.
85
La necessità di un copyright management è giustificata dai titolari dei diritti
d’autore con la facilità con cui possono essere riprodotte le informazioni presenti in rete
per creare copie non autorizzate, il cui utilizzo rischia di sfuggire a qualunque forma di
controllo. Per combattere la copia illegale i titolari dei diritti introducono dei sistemi
tecnologici di protezione, che assicurino il rispetto dei privilegi e dei diritti riconosciuti
dalla legge sul diritto d’autore. Essi infatti sostengono che, dove il diritto d’autore sia
effettivamente applicato, ciò può concorrere a creare il clima adatto perché i produttori
di informazioni siano maggiormente disposti a continuare a pubblicare materiale in
rete188.
I divieti per gli utenti, imposti dal diritto d’autore, possono essere fatti rispettare
attraverso il potenziamento dell’attività della polizia postale sulle reti di comunicazione,
il coinvolgimento degli ISP in attività di controllo, la creazione di strumenti processuali
più snelli ed efficaci per combattere la contraffazione, l’apposizione di misure
tecnologiche di protezione come i Digital Rights Management da parte dell’industria
direttamente sui contenuti digitali189.
L’espressione Digital Rights Management (DRM) inizia ad essere utilizzata dalla
metà degli anni ‘90 in contemporanea alla diffusione del Web e denota sistemi
tecnologici in grado di definire, gestire, tutelare e accompagnare le regole di accesso e di
utilizzo su contenuti digitali in rete190.
Già negli anni Ottanta si cominciavano a sperimentare queste nuove tecnologie
per i software, ma solo con l’aumento della diffusione delle opere nel Web, grazie anche
alla crescita delle reti p2p, le case di produzione e distribuzione hanno iniziato ad
attivare sistemi DRM sui propri supporti.
L’applicazione di tali sistemi digitali per controllare o impedire la realizzazione di
copie di opere dell’ingegno, consiste in soluzioni tecnologiche di base che i produttori di
opere protette applicano ai loro lavori per da rendere impossibile o difficile la
188
Morelli, pp. 127-129, op.cit.
189
Seminario di G. Mazziotti Il diritto d’autore europeo nel mondo digitale: quali prospettive per
l’utilizzatore finale di contenuti? del 30 Maggio 2008 presso l’Università di Sassari.
190
Caso, R., Digital Right Management, Il commercio delle informazioni digitali tra contratto e
diritto d’autore, CEDAM, Padova, 2004, p.10.
86
realizzazione di copie191, tra cui la crittografia che permette di controllare l’accesso al
formato originario del contenuto digitale ed ogni possibile utilizzo del contenuto stesso.
Tra queste misure di protezione rientrano anche i cd non copiabili, che però
spesso hanno difficoltà ad essere letti da alcuni apparecchi, e i file musicali che possono
essere ascoltati solo sugli iPod e non su altri apparecchi di marche diverse anche se il
proprietario resta lo stesso e ha acquistato la musica in modo legale pagando i diritti.
In sostanza quindi chi utilizza i DRM è in grado di predeterminare e controllare
chi, dove, come e quando potrà fruire dell’informazione. Questo potere di controllo ha
attratto soprattutto le multinazionali dell’intrattenimento come la musica e il cinema,
titolari di copyright su opere dell’ingegno, che hanno così spostato l’attenzione dal
potenziamento del diritto di esclusiva d’autore, a strumenti legislativi utili a legittimare e
proteggere l’impiego e la diffusione di tecnologie per l’espressione di regole di accesso e
utilizzo di contenuti digitali192.
Il sistema di DRM può consentire molteplici forme di fruizione con o senza
pagamento di moneta. Ad esempio, nel caso di distribuzione di file musicali, il sistema
potrebbe gestire al meglio sia l’acquisizione da parte di privati di brani scaricabili per un
utilizzo limitato senza pagamento di moneta, sia l’acquisizione da parte di altri soggetti
degli stessi brani per un utilizzo più ampio e contro pagamento di un prezzo.
Le limitazioni all’utilizzo di un’opera digitale possono riguardare la durata di
utilizzazione di un’opera per un periodo limitato, il numero delle volte che si può
usufruire di un’opera scaricata e i soggetti a cui è possibile distribuire il contenuto
digitale.
E’ evidente quanto questi sistemi abbiano una grossa rilevanza per il diritto
d’autore: attraverso questi sistemi infatti è possibile contrassegnare in modo indelebile
l’opera e in questo modo controllarne la sua diffusione e il suo utilizzo da parte degli
utenti.
191
Al riguardo si esprime Aliprandi (Capire il copyright, p.98) sostenendo che ciò ovviamente
incide in modo indifferenziato anche sui casi in cui la copia sia legittima: primo fra tutti il caso
della singola copia ad uso privato che chi ha acquistato legalmente un supporto audio, video,
software, ha il diritto di realizzare. Tuttavia la legge è piuttosto chiara, stabilendo all'art. 71 sexies
che la copia privata è consentita, ma nel rispetto di questi sistemi eventualmente applicati dal
detentore dei diritti. Questi sistemi vengono chiamati dalla legge italiana “Misure tecnologiche di
protezione” e la loro applicazione è disciplinata dall'articolo 102 quater LDA.
192
Caso, R., (a cura di), Digital Right Management, problemi teorici e prospettive applicative, Atti
del Convegno tenuto presso la Facoltà di Giurisprudenza di Trento, 2008, pp.8-9.
87
Infatti l’utilizzo dei sistemi di DRM può diventare una minaccia perché in grado
di controllare il comportamento dell’utente generando minacce per la libertà di
espressione e la privacy193. Inoltre collide con la disciplina delle eccezioni del copyright e
può risultare una restrizione delle legittime opportunità di libertà confinando il ruolo
dell’utente a mero consumatore finale.
Con questi sistemi le majors vogliono trasformare la rete da dispositivo di
comunicazione, libertà e relazione in un dispositivo commerciale, rendendo il web una
piattaforma per la distribuzione di opere digitali pagate dagli utenti per ogni utilizzo.
Queste misure tecnologiche vengono respinte dagli utenti perché ne limitano le libertà,
frenando in questo modo anche il mercato digitale, tanto che i grandi distributori di
musica in rete negli ultimi anni hanno deciso di rinunciare in parte a queste misure,
cercando maggiore appoggio sia tra gli ISP che dai governi che stanno emanando leggi
sempre più restrittive che rendono la rete meno libera.
193
N. Lucchi, in Caso, R., (a cura di), Digital Right Management, problemi teorici e prospettive
applicative, Atti del Convegno tenuto presso la Facoltà di Giurisprudenza di Trento, 2008, p.128.
194
La World Intellectual Property Organization (WIPO) è una organizzazione internazionale con
sede a Ginevra creata nel 1967, con lo scopo di incoraggiare l'attività creativa e promuovere l’uso
e la protezione della proprietà intellettuale nel mondo. Il WIPO è una delle 16 agenzie
specializzate del sistema delle Nazioni Unite, amministra 23 trattati internazionali aventi ad
oggetto differenti aspetti della protezione della proprietà intellettuale e conta 183 Stati Membri.
Molte delle leggi che in Europa e in Italia regolano e limitano il mondo digitale sono il risultato
diretto di due trattati elaborati dal WIPO -il WCT (Wipo Copyright Treaty) e il WPPT (Wipo
Performances and Phonograms Treaty)-, come ad esempio la dir. 2001/29/CE e l’annesso obbligo
per gli stati membri dell’UE di implementare gli strumenti legislativi volti a sanzionare
l’aggiramento delle “misure tecniche di protezione” (Technical Protection Measures –TMP). Voci
critiche hanno segnalato come le pratiche correnti all'interno del WIPO non solo non tenessero
conto delle differenze tra paesi avanzati e paesi in via di sviluppo, ma anzi contribuissero ad
aumentare tale divario con atteggiamenti e atti normativi fortemente sperequativi. L'accordo di
cooperazione tra WIPO e l'Organizzazione Mondiale del Commercio (OMP-nota anche come
World Trade Organization, WTO), incentrata sull'Accordo TRIPs (Trade-Related Aspects of
Intellectual Property Rights - sugli Aspetti Legati al Commercio dei Diritti di Proprietà
Intellettuale) non ha fatto altro che dare maggior forza a tali voci. A. Glorioso articolo Un'agenda
per lo sviluppo: battaglia al WIPO su http://punto-informatico.it/1108177/PI/News/un-agenda-
sviluppo-battaglia-al-wipo.aspx
195
La Digital Millennium Copyright Act (DMCA) è un'estensione della legge sul copyright degli
Stati Uniti approvata all'unanimità il 14 maggio 1998, che criminalizza la produzione e la
88
del Consiglio, sull’armonizzazione di taluni aspetti del diritto d’autore e dei diritti
connessi nella società dell’informazione, dando protezione giuridica alle misure
tecnologiche-, i DRM hanno ricevuto sostegno giuridico aprendo la strada ad una forma
di autotutela estremamente pervasiva nell’ambito della proprietà intellettuale196.
Infatti, in conseguenza della rivoluzione digitale, gli Stati Uniti e l’Unione
Europea hanno ridisegnato il volto delle leggi sui diritti sulle opere dell’ingegno.
La tendenza legislativa statunitense ha come ultimo esito l’emanazione
nell’ottobre del 1998 del Digital Millennium Copyright Act (DMCA). Oltre a prevedere
esenzioni di responsabilità a favore degli ISP e a porre disposizioni a tutela dei sistemi di
gestione sulle informazioni relative al regime dei diritti di copyright, il DMCA ha inserito
nel titolo 17 dell’USC la sezione 1201, che proibisce l’elusione delle misure tecnologiche
usate dai titolari di copyright e vieta lo sviluppo e la distribuzione di tecnologie
progettate allo scopo di eludere misure tecnologiche usate dai titolari di copyright per
proteggere le proprie opere. Ma il legislatore statunitense è andato ben oltre il mandato
del WCT del 1996, disegnando una disciplina restrittiva e accompagnata anche da severe
sanzioni penali, destinata a diventare una tra le più criticate degli ultimi decenni.
A questa regolamentazione delle misure tecnologiche corrisponde una serie di
eccezioni che riguardano le biblioteche, gli archivi e le istituzioni didattiche senza scopo
di lucro, l’attività giudiziaria, quella di intelligence ed altre attività governative, la
decompilazione del software, la ricerca sulla crittografia, la protezione dei minori
dall’accesso a materiali disponibili su Internet, la tutela della privacy rispetto
all’identificazione personale, i test sulla sicurezza informatica, le trasmissioni
radiotelevisive. Il DMCA non impone tuttavia l’adozione di standard tecnologici al fine di
conformarsi alla disciplina delle misure tecnologiche.
In Europa la direttiva 2001/29/CE del Parlamento europeo e del Consiglio -
relativa all’armonizzazione di taluni aspetti del diritto d’autore e dei diritti connessi nella
società dell’informazione- dedica alcune norme alle misure tecnologiche di protezione,
per poi accennare alla loro attuazione da parte dello Stato italiano197.
diffusione delle tecnologie da parte di utenti che aggirano i metodi tecnici di copia-limitazione,
rendendo tutte le forme dei software illegali.
196
Rossato in Caso, R., (a cura di), Digital Right Management, problemi teorici e prospettive
applicative, Atti del Convegno tenuto presso la Facoltà di Giurisprudenza di Trento, 2008, p. 181.
197
Caso, op. cit., p. 158.
89
La direttiva 2001/29/CE nasce con un duplice scopo: uno interno e uno esterno
agli obiettivi previsti dal trattato CE198. Il primo scopo consisteva nell’affrontare certe
questioni chiave in tema di diritto d’autore, già individuate dalla commissione europea
nel Green Paper del 1995 e riguardanti sia il mondo analogico che digitale: i criteri
d’individuazione della legge applicabile ai fatti giuridici della telematica -quindi violazioni
di copy-, l’oggetto e l’estensione dei diritti di utilizzazione economica delle opere, i diritti
morali degli autori, la gestione collettiva dei diritti e le misure tecnologiche di
protezione. Il secondo scopo era l’adeguamento del diritto comunitario alle disposizioni
contenute nei due trattati WIPO del 1996 per preparare il terreno a una ratifica
congiunta da parte degli USA e UE. Per raggiungere tale scopo sarebbe stato sufficiente
copiare le disposizioni dei 2 trattati e inserirle in una direttiva, ma non è stato così.
La Direttiva europea 2001/29 attribuisce ai titolari di copyright un potere di
controllo dell’accesso e degli usi di un’opera protetta in formato digitale. Tale potere è
attribuito indirettamente all’art. 6 che prevede un divieto assoluto di aggiramento di
dispositivi antiaccesso e anticopia. Non solo è vietata la manomissione o elusione da
parte del singolo utente di tali dispositivi, ma è vietata anche la fabbricazione e
commercializzazione di tecnologie che ne permettano o facilitino la manomissione o
elusione.
Questo potere di controllo fa sì che la protezione del copyright assuma nel
digitale una struttura del tutto nuova rispetto al passato scenario analogico, che per
tutelare i titolari dei diritti protetti, concepisce la barriera eretta dalle misure
tecnologiche di protezione come limite dominicale invalicabile. Ciò fa sì che risulti
comunque illecita la condotta di un utente che superi tale limite per fruire di
un’utilizzazione prevista dalla legge come immune dall’esclusiva e quindi lecita199.
A tali diritti/divieti la direttiva comunitaria 29 del 2001 accosta all’art. 5 un
elenco di eccezioni e limitazioni ai diritti esclusivi di riproduzione, comunicazione al
pubblico e distribuzione, che dovrebbero coesistere con la tutela tecnologica
dell’accesso alle opere purché “siano privi di rilevo economico proprio ed eseguiti
all’unico scopo di consentire la trasmissione in rete tra terzi con l’intervento di un
198
Mazziotti, G., Il diritto d’autore comunitario nel nuovo ambiente digitale-Riproduzione
riservata, diritto d’accesso ed eccezioni all’esclusiva all’ombra della Direttiva 2001/29/CE , p. 12.
199
Mazziotti, G., Monopoli elettronici e utilizzazioni libere nel diritto d’autore comunitario, p. 22.
90
intermediario o un utilizzo legittimo di un’opera o di altri materiali” 200. Queste eccezioni
in realtà sembrano non essere però facilmente attuabili nel digitale, in quanto
attribuendo un monopolio ai titolari dei diritti nell’uso di misure tecnologiche di
protezione fanno sì che questi le applichino indistintamente anche nei casi leciti previsti
dalla legge.
Così come nel DMCA, anche nella dir. 29/2001 si è andati oltre il mandato della
WIPO per porre regole che intendono rafforzare in misura notevole il sistema dei diritti
sulle opere dell’ingegno e sugli altri materiali protetti. Tuttavia, pur tenendo presenti le
differenze di struttura tra DMCA e dir. 2001/29/CE, si può dire che la regolamentazione
delle misure tecnologiche di protezione201 contenuta nella direttiva sembra risultare più
restrittiva, cioè maggiormente favorevole agli interessi dei titolari dei contenuti.
Utilizzando le parole di Philippe Agrain possiamo quindi affermare che:
Si è dunque estesa la durata del copyright sino a ricomprendervi entità di cui non è
stata effettuata quasi nessuna registrazione, sonora o visiva che sia, strappandole
così al dominio pubblico. Si sono ristretti e ribattezzati come “eccezioni” i legittimi
e fondamentali diritti di utilizzo dei documenti – fra gli altri, il diritto di citazione, la
cui riduzione a mera finzione è stato oggetto di grandi sforzi nel settore dei media
come in quello della televisione. Abbiamo accettato di sacralizzare la difesa delle
restrizioni a tal punto che il recepimento della direttiva 2001/29 permetterà a
dispositivi tecnologici di decidere al posto dei giudici il livello a cui tali diritti devono
202
essere garantiti .
Per concludere Agrain afferma come la comparsa di due testi come il DMCA e la
dir. 2001/29/CE possono essere considerate come un’offensiva, le cui prime tappe si
sono sviluppate in clandestinità203:
200
Ivi, pp. 8-13.
201
L’art. 6 della direttiva 2001/29/CE definisce misure tecnologiche le tecnologie, dispositivi e
componenti che impediscono o limitano atti su opere protette, non autorizzati dal titolare dei
diritti d’autore.
202
Aigrain P., Causa Comune, Stampa Alternativa/Nuovi Equilibri, 2007 p. 73.
203
Aigrain P., Ivi, p. 90.
91
queste informazioni sono state legittimamente acquisite da uno di essi: si è deciso
che solo i gruppi editoriali avrebbero tratto profitto dalla capacità di riprodurre e di
distribuire l’informazione.
Criminalizzando gli atti senza scopo di lucro, rafforzando il carattere assoluto dei
diritti di proprietà e confidando in dispositivi tecnici e industriali, regolandone i
parametri per determinare l’estensione dei diritti d’uso, questi testi tentano di
imporre a ogni costo la scarsità dell’informazione. Intendono obbligare ciascuno a
scegliere tra l’accesso ai contenuti gestiti dai grandi gruppi e la promessa dei beni
comuni. Si potrà senza dubbio (se qualche nuovo sviluppo legislativo non lo
impedirà) scegliere di accedere ai contenuti liberamente condivisi e di utilizzare il
software libero che lo consente.
204
Lessing, L., Free Culture How Big Media Uses Technology and The Law To Lock Down Culture
and Control Creativity, Apogeo, 2005, p. 7.
205
Ivi, p. 16.
92
Questo viene giustificato come elemento necessario a tutela della creatività
commerciale, ma non è un protezionismo che tutela gli artisti, ma tutela certe forme di
attività commerciali: le grandi aziende, minacciate dalla potenzialità di Internet di
cambiare il modo in cui viene create e distribuita la cultura commerciale e non-
commerciale, si sono infatti alleate nell’indurre i legislatori a usare la legge per
proteggerle.
A tal proposito è necessario porre l’accento sulla differenza tra gli utilizzi
trasformativi di un’opera e quelli non trasformativi206. La distinzione tra questi due tipi di
utilizzo copre sia le opere tradizionali come i film, i libri e la musica, che le nuove
modalità di espressione nate dalla diffusione del digitale e del web. Gli utilizzi
trasformativi sono quelli che permettono agli utenti di creare nuove opere,
incorporando e remixando opere pre-esistenti, che possono essere utilizzate per scopi
quali l’insegnamento, la critica e la ricerca. L’opportunità per i nuovi autori di costruire
opere derivate da materiale pre-esistente protetto da copyright, è in teoria assicurato da
alcune eccezioni previste dalla legge sul copyright (come il fair use), che cercano di
bilanciare gli interessi dei titolari di diritti con i benefici sociali e culturali che derivano
dalla creazione e dalla distribuzione delle opere derivanti.
206
Si veda a tal proposito G. Mazziotti, EU Digital Copyright and The End User, Springer, 2008, pp.
7-8.
207
Ivi, p. 9.
208
Ivi, pp. 7-10.
93
quando entriamo in una biblioteca e sfogliamo un libro o una rivista per esempio-, nel
mondo digitale è soggetto al controllo della legge, anche attraverso i già menzionati
sistemi DRM.
Così oggi i contenuti prodotti da centinaia di milioni di utenti e immessi nel web
sono protetti di default per legge come l’ultima opera cinematografica o musicale
immessa nel mercato, quindi col massimo di protezione. Questo tipo di tutela
tradizionale era infatti pensata per un mondo dove chi produceva contenuti era un
professionista.
Non essendo possibile una legislazione che riesca a stare al passo con i continui
e rapidi cambiamenti del Web, per poter agire subito diversi progetti, tra i quali si è
distinto Creative Commons, propongono di basarci sulle regole del copyright senza
modificarne la struttura normativa, seguendo il successo del software libero. Possiamo
utilizzare il diritto d’autore con giudizio, rinunciando ad alcuni diritti che la legge
concede per rilasciarli in maniera più libera.
Secondo Lessing209 la tecnologia digitale ha ridotto il costo della creazione e ha
cambiato l’orizzonte delle opportunità per tutti coloro che vogliono creare qualcosa di
nuovo. Ma questa opportunità non è solo per coloro che vorrebbero creare qualcosa di
completamente nuovo :
Pensate alla pubblicità della Apple che invitava i consumatori a fare qualcosa di più
del semplice consumare: “Rip, Mix, Burn. Dopotutto, è la tua musica”. La Apple
naturalmente vuole vendere computer. Eppure questa pubblicità tocca un ideale
profondamente radicato nella nostra storia. Perché la tecnologia che la Apple
vende, potrebbe consentire a questa generazione di fare con la nostra cultura
quello che le vecchie generazioni passata hanno fin dall’inizio del consorzio umano:
appropriarsi di ciò che è la nostra cultura. To rip it: copiarla. To mix it: rielaborarla
in qualunque modo l’utente voglia. To burn it: pubblicarla e renderla visibile da
altri.
209
Lessing, L., The Future Of Ideas, The Fate Of The Commons In A Connected World, Random
House Inc., New York, 2001, pp. 14-15.
210
A tal proposito di veda la definizione di G. Mazziotti in EU Digital Copyright and The End User,
pp. 4-5.
94
Le nuove tecnologie hanno moltiplicato le possibilità di interazione con l’opera
protetta dando luogo a quella che è stata mirabilmente definita come Remixing Culture,
una cultura del riuso, dell’assemblaggio di componenti provenienti da diverse fonti. Gli
utenti sono oggi in grado di creare film remixati, nuove forma musicali, nuove forma di
narrazione e scrittura e, grazie a Internet, di condividere questa creatività con altri.
Questa cultura necessita di beni comuni211 cui attingere per poter esprimere
tutte le sue potenzialità e la cui presenza in ambienti digitali è indispensabile. Ma la
conseguenza di questa nuova cultura è il rischio di violare il copyright tradizionale con
atti trasformativi non autorizzati su opere digitali pre-esistenti protette.
In questi casi di creazione collaborativa e remix in rete «il diritto d’autore ci dice
che se l’utente produce qualcosa che è originale e che non deriva da altri lavori, la legge
sul diritto d’autore tutela questo contributo. Sin quando si tratta di contributi
abbastanza ampi non si hanno particolari problemi, ma il problema si pone quando -
come nel caso di Wikipedia- abbiamo migliaia di persone che fanno piccoli interventi e
che contribuiscono quindi al risultato complessivo. Il diritto d’autore con queste “micro
aggiunte” e con queste “micro modifiche” si trova ad avere dei problemi perché sono una
granularità più piccola di quella normalmente pensata per il diritto d’autore. Però vale il
principio fondamentale per cui chi contribuisce a qualcosa di originale è tutelato dal
diritto d’autore per quel singolo contributo»212.
Interessante è la proposta del prof. Marco Ricolfi213 di passare al copyright 2.0:
infatti il copyright “1.0” -cioè la protezione tradizionale delle opere dell’ingegno- non è
più in linea con i bisogni della società digitale. La proposta è quella di modificare il
default alla base, cioè di default la condivisione in rete dovrebbe essere libera, a meno
che l’autore non chieda esplicitamente una tutela maggiore. In questo caso, se un
autore desidera una protezione più intensa come il copyright “1.0”- dovrebbe fare una
211
Secondo la definizione di Lessing i commons (beni comuni) sono una risorsa posseduta in
comune da una data comunità. I commons sono una risorsa cui chiunque, all’interno di questa
comunità, ha diritto senza dover chiedere il permesso di utilizzo a nessun altro. Queste risorse in
comune sono libere di essere prese da altri, altre sono libere anche se c’è un prezzo da pagare. In
entrambi i casi la caratteristica essenziale è che l'accesso alla risorsa non sia condizionato dal
permesso di qualcun altro. Op.cit., p.20.
212
Intervista del 10 dicembre al Prof. J.C. De Martin, responsabile italiano di Creative Commons e
co-direttore del centro NEXA su Internet & Societa' Politecnico di Torino.
213
Il Prof. Marco Ricolfi, è coordinatore giuridico di Creative Commons Italia , direttore del
Master Wipo-Unito sulla proprietà intellettuale e co-direttore di Nexa, il centro di ricerca su
Internet e Società del Politecnico di Torino.
95
formale domanda, che gli verrebbe concessa per esempio per 14 anni, potenzialmente
rinnovabili ma comunque limitati.
L’obiettivo di questa proposta non è la distruzione del copyright tradizionale,
che in molti casi è valido, ma ci dovrebbe essere una alternativa nel web come il
copyright “2.0”, cioè dare credito all’autore di un’opera solo riconoscendogli la
paternità. Questa attribuzione potrebbe essere più adatta ai protagonisti della
produzione e distribuzione di opere digitali nel web, e sarebbe un copyright più nuovo e
flessibile che dovrebbe operare di default in rete. In questo modo, non solo si
risolverebbe il problema delle opere orfane in rete214, ma soprattutto si libererebbe un
numero straordinario di opere, pur mantenendo in alcuni casi il sistema di protezione
tradizionale gli autori che lo desiderano.
Insomma la società dell’informazione sta andando sempre più verso un nuovo
modo di intendere il copyright in rete, specialmente in ambienti nei quali creatività e
collaborazione si fondono insieme per dar luce a nuove forme di cultura.
2.11 Il diritto d’autore per particolari tipologie di opere: la tutela del software
Il diritto d’autore, come abbiamo visto, è nato originariamente come fenomeno
rivolto al mondo dell’editoria, ma nel tempo si è esteso ad altre tipologie di opere
dell’ingegno, fino ad arrivare oggi a comprendere categorie di opere innovative come il
software, le banche dati e i contenuti generati dagli utenti. Questo ha comportato una
applicazione dei principi classici del diritto d’autore sempre più problematica, che ha
richiesto alcuni aggiustamenti nell’assetto normativo215.
Seguendo l’evoluzione storica della scienza informatica, l’idea di una tutela
giuridica sul software216 non si è affatto affermata in modo graduale e parallelo rispetto
allo sviluppo e alla diffusione del software stesso, ma la scelta è stata determinata dai
214
Le opera orfane sono considerate come “works whose rightholders cannot be identified or, if
they can be identified, cannot be located. This may be very important content, as in the case of a
great part of movies, silent or otherwise, created until the half of last century; sometimes the
inclusion of the orphan content may be indispensable for the creation of a multi-component,
derivative work.” M. Ricolfi, Copyright Policy for digital libraries in the context of the i2010
strategy, pubblicazione integralmente consultabile in rete all’indirizzo cms.communia-
project.eu/communiafiles/conf2008p_Copyright_Policy_for_digital_libraries_in_the_context_of_
the_i2010_strategy.pdf
215
Aliprandi, op.cit., p. 81.
216
Secondo la definizione del WIPO il software è espressione di un insieme organizzato e
strutturato di istruzioni in qualsiasi forma o su qualunque supporto capace, direttamente o
indirettamente, di far eseguire o far ottenere una funzione o un compito o far ottenere un
risultato particolare per mezzo di un sistema di elaborazione elettronica dell’informazione.
96
crescenti interessi economici che necessariamente si andavano a formare attorno al
mercato del software. Fu in questo contesto di notevoli e intricati interessi economici
che il legislatore statunitense nel 1980 fece la necessaria scelta di stabilire dall’alto quale
disciplina applicare al software, ossia la tutela per mezzo di copyright approvando il
Software Copyright Act che emendava il precedente Copyright Act del 1976217.
Sin da subito si presentò il problema dell’inquadramento giuridico del software
in due diverse categorie:
- il software come invenzione industriale e quindi tutelabile alla stregua del
brevetto (art. 2585 c.c. e d.lgs. 30/2005);
- il software come opera dell’ingegno di carattere creativo e quindi tutelata dal
diritto d’autore o copyright (art. 2575 c.c. e L. 633/1941).
La differenza tra questi due diversi tipi di tutela possibili riguarda la nascita dei
diritti e ciò che vanno a tutelare: nel brevetto infatti i diritti in capo all’autore sorgono
nel momento in cui viene conseguito il brevetto, normalmente attraverso una
registrazione presso l’Ufficio Italiano Brevetti e Marchi che verifica i requisiti, il carattere
di industrialità dell’invenzione e la non contrarietà alle leggi. La durata della tutela è
ventennale ma può prescriversi anche anteriormente qualora il titolare non rinnovi il
brevetto e se entro 3 anni dalla registrazione l’invenzione non è stata conclusa. Inoltre il
brevetto protegge il contenuto dell’idea inventiva.
Al contrario nel diritto d’autore i diritti sorgono nel momento di creazione
dell’opera di ingegno, e protegge la forma espressiva a prescindere dal contenuto.
Alcune delle differenze principali tra brevetto e diritto d’autore sono elencate da
Stallman218:
- Il copyright concerne i dettagli dell’espressione di un’opera ma non copre alcuna
idea. I brevetti riguardano soltanto le idee e il loro utilizzo.
- Il copyright è automatico. I brevetti vengono concessi dal relativo ufficio in
risposta a un’apposita richiesta.
217
Il Copyright Act è uno statuto limitato alla legislazione sul copyright degli Stati Uniti ed è la
base primaria per la legge sul copyright. Il Copyright Act spiega i diritti basilari del copyright,
codifica la dottrina del fair use (uso consentito), ed ha esteso la durata del copyright a 70 anni
dalla morte del creatore e a 95 anni se appartenente ad una impresa.
218
Op. cit., p. 148.
97
- I brevetti sono molto onerosi. In realtà le spese degli avvocati per la stesura della
richiesta sono perfino più esose della domanda stessa. Normalmente occorrono
alcuni anni prima che la richiesta venga presa in considerazione, anche se i vari
uffici brevetti lavorano in maniera estremamente lenta nell’esame delle
domande.
- La durata del copyright è tremendamente lunga. In alcuni casi si arriva anche a
150 anni. I brevetti durano invece 20 anni, periodo breve rispetto alla vita
umana ma comunque eccessivo per i ritmi di un settore come quello del
software.
- Il copyright copre unicamente la copia. Se qualcuno scrive un romanzo che si
scopre essere identico parola per parola a un’altra opera, potendo al contempo
dimostrare di non averlo mai visto, ciò rappresenterebbe un ottima difesa
contro ogni accusa di infrazione al copyright.
- Un brevetto è un monopolio assoluto sull’utilizzo di un’idea. Anche potendo
dimostrare di aver avuto quell’idea per conto proprio, ciò sarebbe del tutto
irrilevante se quell’idea è già stata brevettata da qualcun altro.
98
Ciò che è tutelato è il software effettivamente realizzato, non le idee o le
tecniche che ne sono alla base, come indicato all’art. 2 numero 8 che stabilisce che
restano esclusi dalla tutela accordata dalla presente legge le idee e i principi che stanno
alla base delle sue interfacce. Il termine programma comprende anche il materiale
preparatorio per la progettazione del programma stesso.
I diritti assicurati dal d.lgs 518/92 (art.64 bis) per quanto attiene alla protezione
del software sono quelli di effettuare o autorizzare219:
- La riproduzione permanente o temporanea, totale o parziale del programma per
elaboratore con qualsiasi mezzo o in qualsiasi forma. Nella misura in cui
operazioni quali il caricamento, la visualizzazione, l’esecuzione, la trasmissione o
la memorizzazione del programma per l’elaboratore richiedano una
riproduzione , anche tali operazioni sono soggette all’autorizzazione del titolare
dei diritti.
- La traduzione, l’adattamento, la trasformazione e ogni altra modificazione del
programma per elaboratore, nonché la riproduzione dell’opera che ne risulti,
senza pregiudizio dei diritti di chi modifica il programma.
- Qualsiasi forma di distribuzione al pubblico, compresa la locazione del
programma per elaboratore originale o di copie dello stesso. La prima vendita di
una copia del programma nella comunità economica europea da parte del
titolare dei diritti o con il suo consenso, esaurisce il diritto di distribuzione di
detta copia all’interno della comunità, ad eccezione del diritto di controllare
l’ulteriore locazione del programma o di una copia dello stesso.
Le sanzioni per chi duplichi software a scopo di lucro sono disciplinate dall’art.
171 bis che integra la legge 633 del 41 e stabilisce che chiunque duplichi abusivamente a
scopo di lucro programmi per elaboratore o, ai medesimi fini, e sapendo che si tratta di
copie non autorizzate, importa, distribuisce, vende, detiene a scopo commerciale, o
concede in locazione i medesimi programmi è soggetto alla pena della reclusione da tre
mesi a tre anni.
Anche se non mancano gli strumenti giuridici che tutelino il diritto d’autore nel
campo del software, non c’è ancora una effettiva presa di coscienza della realtà che il
d.lgs 518/92 ha disegnato con l’aggiornamento della legge 633 del 41. È tuttora elevato
219
Morelli, op. cit., p. 136.
99
il grado di superficialità con cui si trascura il fatto che il software , come qualunque altra
opera dell’ingegno, è soggetto a precise norma che tutelano i diritti di coloro che ne
sono stati gli autori. Non ci si è resi conto cioè della rilevanza non solo etica, ma anche
giuridica di qualsiasi azione volta a violare il diritto d’autore sancito oggi per legge,
anche se la violazione possa non avere scopo di lucro o non immediati o esplicitamente
dichiarati tali. Altro aspetto opportuno da sottolineare è quello che la tutela del diritto
d’autore si estende anche al software integrato nell’hardware in quanto il d.lgs 518 parla
di programmi in qualunque forma. Naturalmente la legge si applica non solo alle
organizzazioni pubbliche e private, ma anche ai privati220.
L’art. 5 del D. Lgs. 518/92 introduce la possibilità di creare copie per studiare e
comprendere i meccanismi che ne hanno determinato la creazione qualora egli compia
tali atti durante operazioni di caricamento, visualizzazione, esecuzione, trasmissione o
memorizzazione del programma che egli ha il diritto di eseguire; la copia di riserva
qualora tale copia sia necessaria per l’uso; la copia per la decompilazione del
programma221, ma solo al fine di permettere l’interoperabilità del software con altri
programmi.
Altro intervento normativo successivo al d.lgs. 518/92 è stato il DPCM 244 del 94
che precisa le modalità di tenuta del Registro Pubblico Speciale dei Programmi per
Elaboratore, tenuto presso la Sezione Opere Letterarie e ed Arti Figurative della
Direzione Generale della SIAE.
Esistono inoltre alcuni casi di esclusione ai fini del bollino tra i quali i programmi
distribuiti gratuitamente con il consenso del titolare dei diritti, i programmi acquisiti
mediante download e installati sul computer dell’utente se detti programmi non
vengono fissati su un supporto a fini di profitto, esclusa la copia personale di back-up e i
programmi destinati all’ausilio di persone disabili.
2.12 Il copyright nel Web “2.0”: social networking e user generated contents
Recentemente con lo sviluppo del Web 2.0 per indicare genericamente una
sorta di “seconda generazione” di Internet che ha creato un nuovo modo con cui gli
220
Morelli, op. cit., pp. 137-138.
221
Con la decompilazione viene ricostruito il codice sorgente di un software a partire da un file
eseguibile. Il diritto di decompilazione è un'eccezione al diritto d'autore che lo rende lecito, in
alcuni casi precisi, a chiunque decompili un programma per crearne un altro indipendente da
utilizzare congiuntamente al software decompilato.
100
utenti vivono e percepiscono le nuove potenzialità derivanti dall’interconnessione
telematica, ci si riferisce ad un nuovo livello e ad una nuova efficacia con cui
l’interconnessione telematica incide sulla società.
Per prima cosa, l’interconnessione non è più solo riservato a chi ha una certa
padronanza del computer; si sta realizzando infatti una sempre crescente integrazione e
convergenza tecnologica, grazie alla quale è possibile accedere a risorse di rete in vari
modi: con il cellulare, con la tv interattiva, con il navigatore satellitare.
Ciò sta portando un consolidato radicamento culturale di questi fenomeni,
rendendo la società contemporanea ormai assuefatta all’idea di una costante possibilità
di accesso alle informazioni e all’idea di reciproca condivisione delle conoscenze. I
sociologi chiamano questo nuovo fenomeno social networking.
Tutto questo ha anche forti riflessi sul mondo del diritto d’autore, sia per la
questione della non percezione da parte degli utenti-autori di illiceità di comportamenti,
sia per una nuova concezione della diffusione dei contenuti creativi.
Come abbiamo visto nel precedente capitolo si sono diffuse le piattaforme user
generated contents, cioè di “contenuti generati dagli utenti”, in riferimento a tutte le
opere create e diffuse in rete da utenti non professionisti, ma che spesso possono
raggiungere livelli di qualità e utilizzabilità molto elevati; si parla invece di open contents
in riferimento a tutti quei contenuti che sono distribuiti in un regime di diritto d’autore
più elastico (copyleft, ad esempio) e in cui l’autore incoraggia esplicitamente la copia, la
diffusione e la modifica dell’opera.
Le difficoltà maggiori a livello giuridico si incontrano nel lato soggettivo della
loro analisi, dato che non è sempre agevole risalire alla paternità dell’opera e
soprattutto a quale porzione di opera si colleghi la paternità; a questo si aggiunge che
l’opera è un continuo work in progress, a volte con aggiornamenti a distanza di pochi
minuti. A causa di queste caratteristiche queste opere si prestano particolarmente
all’applicazione di licenze di tipo copyleft/opencontent: pensiamo al fenomeno
dell’enciclopedia libera Wikipedia222.
Nel gennaio 2001, Larry Sanger, Ben Kovitz e Jimbo Wales hanno lanciato un
progetto con l’obiettivo di creare un’enciclopedia online a contenuto libero, redatta in
modo collaborativo da volontari, alla quale ognuno potesse accedere liberamente e
222
www.wikipedia.org
101
gratuitamente e consentisse a tutti il riutilizzo e la modifica degli articoli, a condizione
che questi stessi articoli rimanessero liberamente accessibili, utilizzabili e modificabili223.
Ad oggi Wikipedia è disponibile in più di 200 lingue e conta in totale oltre un milione e
mezzo di pagine e 527.417 pagine di contenuti scritte in italiano da oltre un milione di
utenti224.
Si sono dunque creati due mondi contraddittori, come spiega Aigrain in questo
225
passo :
223
Aigrain P., Causa Comune, Stampa Alternativa-Nuovi Equilibri, 2007, p. 9.
224
Fonte http://it.wikipedia.org/wiki/Speciale:Statistiche
225
Aigrain P., op. cit., p. 13.
226
Capire il copyright, p. 102.
102
oggi invece condividere i propri lavori in rete è ritenuto un modo per farne accrescere il
valore sociale e culturale, la creatività non è più ritenuta un bene privato dell’autore e si
è sviluppata la creazione di opere multimediali che, attraverso l’interattività permettono
all’utente di non essere più un fruitore passivo che subisce l’opera ma un soggetto
attivo227. Si sta quindi verificando un paradossale ritorno al passato, alla cultura non-
commerciale.
Non sono da dimenticare anche realtà comunicative sempre più diffuse come i
forum e i blog dove i singoli utenti scambiano e diffondono informazioni e opere
dell’ingegno, che hanno poi portato allo sviluppo delle community.
227
Ivi, p. 88.
228
Ivi, p. 90.
103
cosiddetto Decreto Urbani229 il quale ha inserito nella legge 633/41 due specifiche
norme penali. Addirittura in Francia si è arrivati ad adottare una legge che permette agli
ISP di bloccare l’abbonamento agli utenti che condividono materiale protetto da
copyright in rete.
Secondo Lessing230, punto chiave della pirateria che la legge cerca di reprimere è
l’utilizzo che sottrae all’autore il suo profitto. Bisogna quindi stabilire fino a che punto la
condivisione p2p provochi danni, infatti la violazione di copyright esiste in certi casi, ma
non in tutti. E anche nei casi di violazione è necessario calcolare i danni effettivi causati
ai detentori del copyright. Chi utilizza il file sharing condivide contenuti di tipo diverso
che si possono suddividere in quattro categorie:
229
In Italia il Decreto Urbani, prima di essere modificato dopo un anno di vita, prevedeva il
carcere anche per chi scaricava e distribuiva materiale protetto pur senza scopo di lucro.
230
Lessing, L., Free Culture How Big Media Uses Technology and The Law To Lock Down Culture
and Control Creativity, Apogeo, 2005, pp. 35-36.
104
Quindi l’impatto negativo del file sharing dipende fondamentalmente da quanto risulta
dannosa per il titolare dei diritti.
Bisognerebbe quindi trovare un giusto bilanciamento tra il far fruttare al
massimo le straordinarie potenzialità di Internet come strumento di incremento e
diffusione della cultura, e dall’altra, come tutelare i legittimi interessi degli autori titolari
dei diritti. Una strada è quella dei sistemi forfettari di compenso: già con le musicassette
e le videocassette la musica trasmessa via radio poteva essere registrata e i titolari dei
diritti venivano compensati con una quota del prezzo di vendita dei supporti. Per quanto
riguarda il Web e i modi in cui dovrebbe avvenire questo compenso bisognerà rispettare
le convenzioni internazionali, da quella di Berna del 1886 ai TRIPs del 1994 alle direttive
europee. E quindi la soluzione potrà essere strutturata come licenza a pagamento
globale o come licenza collettiva, come proposto anche da Philippe Aigrain231:
Le montant de la redevance s’établirait donc dans une fourchette allant de 2 à 7 €
par mois pour chaque foyer abonné au haut-débit aujourd’hui. Si l’on prend en
compte la redevance pour copie privée (acquittée pour l’essentiel par les mêmes
foyers), le montant mensuel de la contribution à la création se situerait entre 3 et
7,5 €. Quelle que soit l’issue du débat sur son montant et une éventuelle
modulation sociale sur conditions de revenus, la faisabilité et l’acceptabilité
économique de la redevance ne fait pas de doute.
231
Aigrain, P., Internet et Création, Ed. In Libro Veritas, France, 2008, p. 59.
105
PARTE II –Il Copyleft
2.1 Il movimento Copyleft
L’intreccio fra Information Technology e la questione del diritto d’autore non è
più solo oggetto di attenzione da parte del mondo dell’editoria e degli autori. Oggi
anche della società deve oggi confrontarsi con tematiche di cui fino ad ieri si poteva
ignorare l’esistenza, come quella del diritto d’autore in rete.
Il diritto d’autore si basa su una serie di norme alle quali i soggetti coinvolti nella
meccanismo di produzione culturale devono fare riferimento. Queste norme hanno lo
scopo di tracciare i confini entro cui si può esplicare la libertà contrattuale dei privati. È
all’interno di questo spazio ideale che vive e si muove il fenomeno del copyleft.
Come abbiamo visto, nel tempo il diritto d’autore ha consolidato alcuni modelli
standardizzati dove l’autore cede in blocco tutti i suoi diritti ad un soggetto editoriale,
che poi produce e mette in commercio l’opera applicando una tutela totale dei diritti,
che si riassume nelle classica dicitura Tutti i diritti riservati.
Ma questa non è una regola imposta per legge, bensì solo una prassi consolidata
dal mercato. Gli ideatori e i promotori del copyleft hanno agito proprio su questo,
proponendo una prassi alternativa a quella tradizionale: un modello più elastico, meno
standardizzato che si sposa meglio al nuovo contesto della comunicazione digitale e
telematica di oggi. Un sistema quindi disintermediato di gestione dei diritti sulle opere di
ingegno, capace di innescare un circolo virtuoso di creatività e condivisione delle
conoscenze.
Con il termine copyleft, si indica un fenomeno giuridico nato negli anni Ottanta
fra gli sviluppatori informatici del progetto GNU, i quali si scambiavano supporti
contenenti software libero, scrivendoci sopra la dicitura “Copyleft All right reversed”,
cioè “Copyleft Tutti i diritti rovesciati”, come storpiatura alla dicitura tradizionale All
right reserved e aggiungendo il simbolo del copyright “C”, ma ribaltato232.
Il copyleft non indica una forma di rifiuto o alternativa del copyright, ma un
modello alternativo di gestione dei diritti d’autore233. Il termine copyleft nasce da un
duplice gioco di parole. Da un lato abbiamo copyleft come versione ribaltata di
232
. Ancora oggi questo simbolo viene utilizzato per indicare il copyleft.
233
Aliprandi S., Teoria e pratica del copyleft guida all’uso delle licenze open content, NDA Press,
2006, p. 10.
106
copyright, dove left è sinistra e right è destra; dall’altro lato abbiamo invece left come
participio passato di to leave nel senso di “lasciare, permettere” e quindi letteralmente
sarebbe “permesso di copia”.
La nascita e la diffusione del modello copyleft sono strettamente legate alla
rivoluzione avvenuta nel mondo delle comunicazioni con l’avvento dell’informatica e
della telematica, che ha ridisegnato gli equilibri fra i soggetti operanti nel mondo della
comunicazione e della creatività. Fino a qualche decennio fa era impossibile ad esempio
pensare che un autore scrivesse un libro e che fosse lui stesso a diffonderlo al pubblico.
Era necessaria l’intermediazione di un soggetto professionale come l’editore che
si occupasse di supervisionare la redazione dell’opera, di finanziare la realizzazione di
copie cartacee della stessa e di mettere tali beni materiali a disposizione del pubblico e
quindi sul mercato234.
Per comprendere il funzionamento del copyleft è necessario avere chiari i
principi del diritto d’autore, perché il meccanismo del copyleft si basa sul diritto d’autore
e non va in contraddizione con esso: con il modello copyleft infatti l’autore dell’opera
sceglie di usare gli strumenti del diritto d’autore per liberare la diffusione della sua
opera, piuttosto che per controllarla.
Quando un autore crea un opera originale, automaticamente diventa titolare di
una serie di diritti esclusivi su di essa. A questo punto sta a lui la scelta: fare un contratto
di cessione dei diritti con un soggetto imprenditoriale, che li utilizzerà per produrre e
distribuire l’opera -secondo il modello tradizionale-, oppure decidere lui stesso come
regolamentare l’uso della sua opera da parte del pubblico –secondo il modello copyleft-,
in una sorta di autogestione del diritto d’autore. L’autore che sceglie il modello copyleft
deve accompagnare la sua opera con un documento in cui spiega dettagliatamente quali
usi si possono fare con essa e a quali condizioni: questo documento è chiamato licenza
d’uso.
Il copyleft è nato come metodo generale per realizzare un programma di
software libero e richiedere che anche tutte le versioni modificate e ampliate dello
stesso rientrino sotto il software libero e vengano rilasciate allo stesso modo.
234
Aliprandi, Teoria e pratica del copyleft guida all’uso delle licenze open content, p. 11.
107
2.2 Il free software e il progetto GNU
Quando si parla di free software si fa riferimento alla versione più pura tracciata
da Richard Stallman235 e dagli attivisti del progetto GNU, i quali hanno fondato la Free
Software Foundation, ente no profit per la promozione e divulgazione dei progetti in
materia di informatica libera. L’approccio di Stallman è stato quello di inventare una
licenza che rappresentasse pienamente la loro idea di software libero e incoraggiasse il
più possibile il suo sviluppo: la GNU GPL (General Public License) utilizzata per la
stragrande maggioranza dei progetti software libero.
La creazione di un movimento per il software libero in seguito ha aperto la
strada a tutta una serie di progetti basati sulla filosofia della libertà per gli utenti, estesa
poi anche ai contenuti creativi.
Nella storia della Information Technology, tutte le società produttrici di
hardware fornivano, assieme all’hardware della macchina, i software in grado di
svolgere le funzioni di base. Questi programmi erano scritti in un linguaggio specifico
che permetteva che funzionassero solo in quella specifica macchina. I laboratori Bell
realizzarono però il sistema operativo UNIX (Uniprogrammed Computer System),
progettato per risultare indipendente dalla specifica macchina su cui era stato
inizialmente scritto e distribuito provvisto dei codici sorgente. Questo permise di portare
il sistema operativo UNIX su piattaforme diverse da quelle usate dai laboratori Bell e ne
causò una rapidissima diffusione fra le comunità dei ricercatori e degli sviluppatori.
Inoltre la disponibilità dei sorgenti permetteva a chiunque di contribuire al
miglioramento delle funzioni del sistema operativo. Si formò così una comunità di
sviluppatori volontari, soprattutto nell’ambiente universitario che contribuì, in modo
che collaborativo, alla crescita di UNIX.
Questa situazione è descritta da Stallman, che scrive 236:
235
Richard M. Stallman è riconosciuto come il pioniere della cultura della libera condivisione delle
conoscenze e come il primo porta-voce della comunità di sviluppo di software libero. Per primo
ha avuto la geniale intuizione di creare un nuovo modello di gestione dei diritti d’autore che va
sotto il nome di copyleft. Artefice del Progetto GNU e fondatore della Free Software Foundation,
è anche autore di numerosi saggi tutti rilasciati con un permesso di copia letterale.
236
Software libero, pensiero libero, GNU Press, 2002, p. 11.
108
quanto i computer, proprio come condividere le ricette è antico come l’arte
culinaria. Ma noi lo facevamo più di chiunque altro (…) Non chiamavamo il nostro
software software libero, poiché questa espressione ancora non esisteva, ma
proprio di questo si trattava. Ogni volta che persone di altre università o aziende
volevano convertire il nostro programma per adattarlo al proprio sistema e
utilizzarlo, gliene davamo volentieri il permesso. Se si notava qualcuno usare un
programma sconosciuto e interessante, gli si poteva chiedere di vederne il
sorgente, in modo da poterlo leggere, modificare o cannibalizzare alcune parti per
creare un nuovo programma.
Nel 1984 la proprietà dei laboratori UNIX passò alla AT&T, che iniziò a chiedere
delle royalty, ma soprattutto mise un freno alla libera distribuzione dei sorgenti. In
seguito nacquero diversi sistemi operativi proprietari basati sul sistema UNIX, che
portarono la comunità di programmatori, formatasi spontaneamente in quegli anni, a
trovarsi impossibilitata a continuare a lavorare.
Fu allora che Richard Stallman sentì la necessità di un modello di sviluppo simile
a quello di UNIX degli anni Settanta, decidendo così nel 1985 di fondare la Free Software
Foundation (FSF), un’organizzazione senza scopo di lucro per lo sviluppo di versioni
libere del sistema UNIX.
Così Stallman iniziò a progettare lo sviluppo di un sistema operativo libero dove
gli hacker237 potessero cooperare, e scelse di rendere il sistema compatibile con UNIX,
perché fosse portabile e perché gli utenti di UNIX potessero passare facilmente ad esso.
Per il progetto fu scelto il nome GNU, come acronimo ricorsivo che significa GNU’s Not
Unix238.
I due progetti Unix e GNU condividono alcuni valori e obiettivi comuni, ma
quello di Richard Stallman ha una portata differente: l’obiettivo di Stallman è stato
costruire l’insieme degli strumenti software di uso generale, unitamente alla garanzia
che questi strumenti fossero e restassero disponibili in un regime proprio dei beni
comuni.
Furono necessari otto anni perché questo progetto raggiungesse l’obiettivo,
sotto la forma di un sistema operativo completo formato da strumenti GNU uniti al
kernel239 Linux, sviluppato da Linus Torvalds240. Nel 1992 la combinazione di Linux con il
237
Per approfondire si veda il saggio di Eric S. Raymond, Breve storia sugli hacker, in Open
Sources: voci dalla rivoluzione Open Source, Apogeo, Milano, 1999.
238
Stallman, op.cit., p. 16.
239
Il kernel costituisce il nucleo di un sistema operativo. Si tratta di un software avente il compito
di fornire ai processi in esecuzione sull'elaboratore un accesso sicuro e controllato all'hardware.
Dato che possono esserne eseguiti simultaneamente più di uno, il kernel ha anche la
109
sistema GNU ancora non completo, produsse un sistema operativo libero completo, il
sistema operativo GNU/Linux. Grazie a Linux oggi possiamo utilizzare una versione del
sistema GNU241.
Stallman arriva a definire i diritti degli utenti e le loro condizioni di fruizione
dell’opera posizionandosi interamente nell’ambito del diritto d’autore, così come
definito dalla convenzione di Berna del 1886. Secondo Stallman I diritti sono universali e
non presuppongono alcun accordo preliminare tra le parti: l’utente che non rispetta le
condizioni della licenza non può dire di aver ricevuto il permesso di utilizzo ed è dunque
perseguibile per violazione di copyright. Stallman etichettò questo utilizzo del copyright
per fondare a contrario i beni comuni copyleft. Secondo la definizione di Stallman242, un
programma è software libero se:
243
Stallman, op.cit. p. 17.
244
Ivi, p. 137.
111
2.3 Principali licenze d’uso sul modello copyleft
2.3.1 La GNU GPL
La prima licenza copyleft è la GNU GPL (General Public License), nata quando il
sistema GNU divenne completo con l’introduzione del kernel Linux, per costituire un
documento legale che precisasse le condizioni ed i diritti connessi con la distribuzione
del sistema GNU/Linux. Essa rappresenta uno degli esempi più puri di copyleft poiché tra
le condizioni imposte dalla licenza c’è la cosiddetta clausola di persistenza, che impone
agli utenti che creano un’opera derivata da una pre-esistente, di rilasciare la nuova
opera con la stessa licenza di quella precedente mantenendo così il regime di copyleft
all’infinito.
Come ogni licenza copyleft, la GPL da un lato concede una serie di libertà,
dall’altro pone alcune condizioni. Le quattro libertà fondamentali definite da Stallman
caratteristiche del software libero sono:
- Libertà di eseguire il programma per qualunque scopo;
- Libertà di studiare il programma e adattarlo alle proprie esigenze;
- Libertà di ridistribuire copie per aiutare il prossimo;
- Libertà di migliorare il programma e distribuire i miglioramenti a beneficio della
comunità.
112
molto diffuso è la GNU FDL (Free Documentation Licence). Nata nel 2000 sempre con il
progetto GNU, la GNU FDL è una forma di copyleft creata per essere applicata alla
documentazione software per l’utilizzo di manuali, libri di testo o altri documenti per
garantire a chiunque l’effettiva libertà di copiare e ridistribuire tali materiali con o senza
modifiche, sia a livello commerciale che non commerciale. Questa licenza è stato in
seguito applicata a molte altre opere di tipo testuale tra le quali l’enciclopedia libera
Wikipedia, uno dei più affascinanti fenomeni del mondo copyleft245.
Secondo la definizione di Stallman246 la documentazione libera, come il software
libero, è una questione di libertà e non di prezzo. Il criterio per definire libero un manuale
è lo stesso che per definire libero un programma: si tratta di offrire certe libertà a tutti gli
utenti. Deve essere quindi permessa la redistribuzione in modo che il manuale possa
accompagnare ogni copia del programma. Un altro aspetto importante è autorizzare la
modifica: non è essenziale permettere alle persone di modificare articoli e libri che
descrivono il nostro punto di vista di un altro soggetto, ma è fondamentale per la
documentazione dei programmi liberi. Infatti chi modifica un programma deve
necessariamente essere messo in grado di modificare anche il manuale d’uso attraverso
un’apposita licenza come la GNU FDL, perché in caso contrario non vengono soddisfatti i
bisogni della comunità.
Oggi, dopo più di vent’anni dalla diffusione di questo nuovo modello di gestione
dei diritti, esso ha iniziato realmente a cambiare le prospettive del concetto di proprietà
intellettuale, soprattutto negli ultimi anni con il boom della comunicazione digitale e
telematica. Dal 2001 è stato avviato un altro importante progetto che mirava a portare
questo modello innovativo di gestione dei diritti a tutti i tipi di opere creative,
integrandolo con degli strumenti tecnologici per una maggiore diffusione delle licenze
nel contesto digitale: il progetto Creative Commons e le sue licenze.
245
Aliprandi, op. cit., p.139.
246
Stallman, op. cit., pp. 37-38.
113
proprietario, tutelando al tempo stesso la comunità del Software Libero da abusi da
parte delle stesse.
La GNU LGPL viene applicata ad alcune librerie GNU, ma non a tutte. Fino al
1999 questa licenza era chiamata GNU Library GPL, ma ne è stato in seguito modificato il
nome perché questo incoraggiava gli sviluppatori a usarla con maggior frequenza di
quanto avessero dovuto. La GNU Library GPL è tuttora disponibile in formato HTML e
testo pur essendo stata superata dalla LGPL247.
La LGPL permette l’uso delle librerie da parte di software proprietario. Questa
eccezione è stata creata perché rendere disponibile la libreria C di GNU solo per i
programmi liberi non avrebbe dato nessun vantaggio a tali programmi liberi, ma
avrebbe solo disincentivato l’uso della libreria. Quando una libreria svolge una funzione
particolare che può aiutare a scrivere certi tipi di programmi, distribuirla sotto GPL
limitandone quindi l’uso ai soli programmi liberi, è un modo per aiutare altri autori di
software libero, dando loro un vantaggio nei confronti del software proprietario248.
La LGPL stabilisce quindi il copyleft sul singolo file di codice sorgente, ma non
sull’intero software. Questo comporta che, per esempio, del software rilasciato sotto
licenza LGPL può essere incluso liberamente in un’applicazione licenziata sotto
condizioni proprietarie, a patto che le modifiche apportate al codice sorgente del
software stesso vengano rese pubbliche; tutti gli altri file dell’applicazione possono
essere rilasciati con licenza proprietaria e senza codice sorgente libero.
247
Aliprandi, op.cit. p.138.
248
Stallman, op.cit., p. 28.
114
questione etica della libertà quanto su un aspetto tecnico: quello della disponibilità del
codice sorgente249.
Il termine open source è stato quindi rapidamente associato ad una filosofia
diversa, che si basa su valori diversi e perfino un criterio diverso in base al quale le
licenze diventano accettabili. Come sostiene Stallman250 «oggi il movimento del Software
Libero e il movimento dell’Open Source sono due movimenti diversi con punti di vista e
obiettivi diversi, anche se lavorano insieme su alcuni progetti concreti».
Secondo la definizione di Stallman la differenza fondamentale fra i due
movimenti sta nei loro valori: per il movimento open source, il fatto che il software
debba essere open source o meno è solo un problema pratico, non un problema etico.
L’open source quindi è una metodologia di sviluppo, il software libero è un movimento
di carattere sociale.
Se la GPL è la licenza proposta come modello dalla Free Software Foundation,
diverso è l’approccio della OSI (Open Source Iniziative) che non ha scelto di proporre un
modello di licenza di riferimento, ma ha redatto un decalogo con i requisiti che una
licenza deve avere per essere considerata a tutti gli effetti open source. Questo
documento è chiamato OSD (Open Source Definition). Di conseguenza ogni progetto
software sottoposto al vaglio della OSI e la cui licenza corrisponde ai requisiti della OSD,
riceve il benestare della OSI e l’apposizione del marchio OSI Certified.
Open Source non significa solo accesso al codice sorgente. Infatti i termini di
distribuzione di un programma Open Source devono rispondere ai seguenti criteri251:
1. Ridistribuzione libera
2. Codice sorgente
3. Opere derivate
4. Integrità del codice sorgente dell’autore
5. Nessuna discriminazione contro persone o gruppi
6. Nessuna discriminazione di settori
7. Distribuzione della licenza
249
R. Stallman, saggio Il Progetto GNU, tratto da Open Sources: voci dalla rivoluzione Open
Source, Apogeo, Milano, 1999, p. 77.
250
Op. cit., p. 78.
251
Questa è la definizione che da B. Perens nel saggio The Open Source Definition, in Open
Sources: voci dalla rivoluzione Open Source, Apogeo, Milano, 1999, disponibile anche in rete
all’indirizzo http://www.apogeonline.com/openpress/libri/545/bruceper.html
115
8. La licenza non deve essere specifica a un prodotto
9. La licenza non deve contaminare altro software
10. Licenze esemplari
Sul sito ufficiale della OSI252, sono elencate tutte le licenze che hanno ricevuto
l’apposizione della certificazione OSI e si può notare come gran parte di queste licenze
coincida con quelle contenute nell’elenco sul sito della FSF. Ciò conferma il fatto che,
nella maggior parte dei casi, si ha a che fare con lo stesso fenomeno, ma spesso è solo
una questione di scelta terminologica e di affiliazione ad una specifica organizzazione o
progetto.
Il nuovo termine Open Source ha subito riscosso un certo successo, tanto che
spesso si parla genericamente di open source per indicare tutto il fenomeno
dell’informatica libera e condivisa. Di recente è stato però coniato da Rishab Ghosh il
termine FLOSS253 (Free Libre Open Source Software) che indica contemporaneamente e
universalmente il software libero e l’open source, senza cadere in fraintendimenti ed
imprecisioni.
Secondo la definizione di Stallman254 il movimento del free software e quello
open source sono come due partiti politici all’interno della comunità del software libero.
La relazione tra i due movimenti è che essi sono in disaccordo sui principi di base, ma
sono d’accordo sugli aspetti pratici. Possono perciò lavorare insieme a progetti specifici
e non si considerano nemici: il nemico è il software proprietario.
Allo stesso tempo però non vogliono però essere confusi: Stallman riconosce che
gli attivisti dell’OSI hanno contribuito alla loro comunità, ma sottolinea «siamo noi che
abbiamo creato questa comunità e vogliamo che si sappia. Vogliamo che quello che
abbiamo realizzato sia associato con i nostri valori e la nostra filosofia, non con i loro».
La definizione ufficiale di software open source come pubblicata dalla Open
Source Iniziative, effettivamente si avvicina molto alla definizione di software libero. Ma
per certi aspetti è un po’ più ampia: il significato ovvio di software open source è che il
252
www.opensource.org
253
Il termine FLOSS è nato con lo scopo di non estraniare né la filosofia del free software né
quella dell'open source. Si sperava che il termine semplificasse i rapporti tra i due movimenti e ne
stimolasse la cooperazione. Infatti Stallman, fondatore del movimento Free Software ha
pubblicamente raccomandato l'uso di questo termine per coloro che preferiscono mantenersi
neutrali.
254
Software Libero, Pensiero Libero, p. 79.
116
codice sorgente è aperto all’utente. Questa espressione è meno forte di software libero
perché include sia il software libero, che il software semi-libero e qualche software
proprietario. Questo significato di open source non è quello inteso dai suoi sostenitori
ovviamente: questa ambiguità fa sì che la maggior parte delle persone fraintenda il vero
significato.
La spiegazione che fornisce Stallman255 è che il termine free software è più
semplice, mentre il significato di Open Source è ambiguo perché la definizione più ovvia
è in realtà quella sbagliata. A questo riguardo è interessante la lettura di un articolo di
Joe Barr, Live and let license256, dove spiega in maniera molto chiara il significato di open
source257:
If you’re ever confused by, or mixed up the terms, "open source" and
"free software," this is for you (…). Let’s talk first
about open source. When you hear this term, do not think license.
Think development methodology. Think of source code that is widely
available. Source code that can be both viewed and changed by just
about anyone who wants to bother. That is the essence of open
source. It is "open" as opposed to "closed." It is not hidden away
in a vault like the recipe for Coca Cola, or the source code for
Windows.
Molta gente crede che lo spirito del software libero e del progetto GNU sia che
non si debba far pagare per distribuire copie del software o che si debba far pagare solo
il minimo per coprire le spese. In realtà il progetto GNU incoraggia chi ridistribuisce
software libero a far pagare quanto ritiene giusto. Il termine free infatti ha due legittimi
significati: può riferirsi sia alla libertà sia la prezzo. Quando si parla di free software si
parla di libertà e non di prezzo, cioè significa che l’utente è libero di eseguire il
programma, modificarlo e ridistribuirlo con o senza modifiche. I programmi liberi sono
talvolta distribuiti gratuitamente e talvolta ad un prezzo consistente. Spesso lo stesso
programma è disponibile in entrambe le modalità in posti diversi. Il programma è libero
indipendentemente dal prezzo, perché gli utenti sono liberi di utilizzarlo. Spesso
programmi non liberi vengono venduti a un alto prezzo, ma talvolta un negozio fornisce
copie senza farle pagare: questo non lo rende comunque un software libero. Prezzo o
255
Ivi, p. 81.
256
Joe Barr, è stato giornalista e writer per il SourceForge.net, Linux.com e IT Manager's Journal.
257
L’articolo è disponibile integralmente in rete all’indirizzo
http://www.itworld.com/LWD010523vcontrol4
117
non prezzo, il programma non è libero perché gli utenti non hanno libertà258. Anche qui
possiamo fare riferimento all’articolo di J. Barr, dove spiega il suo punto di vista sul free
software:
Now let’s talk about free software. When you hear this term, don’t
think development methodology, or price, think liberty. You may
have heard the mantra "free as in speech, not free as in beer" used
to explain free software. That’s because the first thing people
usually associate with free is its price. So when they hear the
term free software they think "Oh, cool. It’s not going to cost me
anything." That may or may not be true, but it has nothing to do
with what makes free software free.
258
Stallman, op.cit., p. 92.
259
A tal proposito si veda il saggio di Perens, op.cit., p.69.
118
PARTE III –L’Open Content: il progetto Creative Commons
2.1 Creative Commons
Alla fine degli anni Novanta con la diffusione delle tecnologie digitali e del Web,
dopo l’affermazione del software libero e la nascita del movimento copyleft, hanno
iniziato a conoscere una vera esplosione i beni comuni e i meccanismi di cooperazione. Il
concetto è chiaramente spiegato da Philippe Aigrain in questo passo del libro Causa
Comune260:
L’artista creatore solitario che, senza interagire con altri, elabora un’opera finita la
cui irruzione improvvisa sulla piazza pubblica è manifestazione di un genio unico:
questa rappresentazione non ha mai corrisposto al vero. (…) Il riconoscimento di
una dimensione collettiva nella creazione non toglie nulla alla singolarità
individuale dell’espressione artistica, ci ricorda che l’individuo si esprime a partire
da una base di interazione la cui sostanza fornisce la materia prima delle opere. I
nuovi tipi di interazione interpersonale, resi possibili dagli odierni mezzi tecnici,
sottendono un nuovo insieme di movimenti artistici che contestano in modo
radicale la separazione fra creatore e fruitore di un’opera, il carattere finito delle
opere, la loro riconducibilità al singolo individuo.
Ogni giorno migliaia di persone usano il Web per condividere i propri lavori,
ricevere commenti e rielaborare materiali pre-esistenti. Il digitale infatti consente il
remix della cultura, consente di rimescolare in maniera innovativa elementi pre-
esistenti, campionare in modo nuovo e impensato, e rielaborare opere.
Gli utenti oggi possono creare e distribuire autonomamente le proprie opere
senza intermediazione, sono diventati prosumer261, cioè allo stesso tempo produttori e
consumatori di contenuti.
Come abbiamo visto, il modello di copyright tradizionale è stato messo in
discussione in ambito informatico, fino ad arrivare a trovare un modello alternativo di
gestione dei diritti d’autore come il copyleft, realizzato attraverso l’applicazione di
innovative licenze d’uso. Questo modello di licenze si è poi esteso ad altri tipi di opere
dell’ingegno: infatti fra la fine degli anni Novanta e l’inizio del nuovo millennio sono stati
attivati alcuni progetti che hanno proposto licenze appositamente pensate per le opere
creative in generale. È in questo nuovo contesto che si inserisce il progetto Creative
Commons.
260
Aigrain P., Causa Comune, Stampa Alternativa-Nuovi Equilibri, 2007, p.84.
261
Questo termine è stato introdotto negli anni Ottanta da A. Toffler, ma il concetto era già stato
elaborato da M. McLuhan e B. Nevitt nel 1972.
119
Creative Commons è un ente no profit statunitense fondata nel 2001 da un
gruppo multidisciplinare composto da giuristi, tecnologi e attivisti volontari della
Stanford University della California e capitanati da Lawrence Lessing262, e ha come scopo
quello di estendere il modello copyleft anche a tutti gli altri campi della creatività. Di
fronte alla percezione di una eccessiva e pericolosa estensione dell’ampiezza e della
durata del copyright nei confronti delle opere espresse in forma digitale, Creative
Commons propone come soluzione la redazione e diffusione delle licenze CCPL, curando
inoltre tutta una serie di servizi integrati, utili alla corretta applicazione e alla diffusione
di queste licenze263.
Una delle caratteristiche principali delle CCPL è data dalla loro modularità e
componibilità. Ferma in ogni caso l’autorizzazione per l’utente a riprodurre, comunicare
al pubblico, rappresentare, recitare, esporre in pubblico l’opera concessa in licenza,
l’autore ha la possibilità di disciplinare tale autorizzazione attivando o meno le quattro
opzioni di licenza.
Il progetto Creative Commons oggi è molto articolato e si è diffuso in circa
cinquanta Paesi. Obiettivo principale del progetto è promuovere un dibattito a livello
globale sui nuovi modelli di gestione del diritto d’autore e diffondere strumenti giuridici
e tecnologici che permettano l’affermazione di un modello “alcuni diritti riservati” nella
distribuzione di prodotti culturali.
I promotori e sostenitori del progetto pensarono fin da subito di organizzarsi in
ente non-profit -la Creative Commons Corporation- a cui ricondurre le attività divulgative
legate al progetto e per poter anche raccogliere fondi.
I progetti di localizzazione a livello internazionale delle licenze e degli altri
strumenti rientranti nel progetto Creative Commons vengono monitorati solitamente da
gruppi di lavoro informali che fanno capo direttamente ai coordinatori di Creative
Commons Corporation e si appoggiano a istituti universitari e centri di ricerca che
prendono la denominazione di Affiliate Insitutions. La filosofia del progetto Creative
Commons si pone in una posizione intermedia fra il modello “tutti i diritti riservati”
262
Lawrence Lessig è professore di legge alla Stanford Law School e fondatore dello Stanford
Center for Internet and Society) e di Creative Commons.
263
Glorioso, A.- Mazziotti, G., Alcune riflessioni sulle licenze Creative Commons e i diritti connessi
degli artisti interpreti ed esecutori, dei produttori di fonogrammi e degli organismi di diffusione
radiotelevisiva, in “Il diritto di autore”, Rivista trimestrale della Società Italiana degli Autori ed
Editori, Vol. 79 (2) PP. 163 Giuffrè Editore, Milano, Aprile-giugno 2008, pp. 134-135.
120
tipico del copyright tradizionale e il modello “nessun diritto riservato” tipico del pubblico
dominio integrale264.
L’economista Garret Hardin nel 1968 pubblicò un interessante articolo intitolato
The tragedy of the commons (cioè “La tragedia dei beni comuni”), nel quale esponeva la
sua interpretazione sui beni comuni265, sostenendo che essi sono destinati sempre a un
triste destino. Al contrario Lessig266 sostiene che, nel caso di beni come i prodotti della
creatività e dell’ingegno umano, questo problema non sussiste poiché ogni creazione
aumenta il suo valore sociale quante più sono le persone che ne possono beneficiare;
inoltre queste sono risorse che non sono soggette a deperimento né a scarsità, poiché la
creatività umana non ha limiti. Dunque si può parlare di una comedy of the commons,
dove i beni comuni in questione sono beni comuni creativi, appunto dei Creative
Commons.
Creative Commons non è un alternativa agli enti di gestione dei diritti d’autore
come la SIAE per quanto riguarda l’ordinamento italiano. Creative Commons si muove in
un piano diverso rispetto alla SIAE, lasciando al creatore di un’opera la possibilità di
scegliere quali utilizzi liberi rilasciare della propria opera e sotto quali condizioni,
garantendo le libertà sia agli autori titolari dei diritti che agli utenti. Inoltre non offre
consulenza legale, perché come si legge sul sito ufficiale Creative Commons267 «non
siamo uno studio legale. Offriamo esclusivamente della documentazione e degli
strumenti gratuiti che permettono agli autori di valutare, scegliere e applicare
autonomamente una licenza ad una propria opera. Non siamo in grado di offrire servizi
personalizzati e, in ogni caso, l’offerta di tali servizi non rientra nella nostra missione».
264
Aliprandi, Creative Commons: manuale operativo. Guida all’uso delle licenze e degli altri
strumenti CC, Stampa Alternativa, 2008, pp. 19-20.
265
Hardin definisce beni comuni «quelli che sono proprietà di nessuno, ma di cui tutti possono
beneficiare».
266
Lessing, The future of ideas, op.cit., pp. 33-36.
267
http://www.creativecommons.it
121
altri ordinamenti giuridici. Tale progetto di adattamento non poteva, per ovvi motivi,
avere forma centralizzata: sin dal principio Creative Commons si è avvalsa dell’aiuto e
della collaborazione, su base gratuita e volontaria, di organizzazioni e persone in
possesso delle conoscenze e dell’esperienza necessarie allo scopo. Ad oggi le CCPL sono
state adattate in 44 ordinamenti giuridici, e presto lo saranno in altre 9 giurisdizioni,
mentre in altri 9 stati hanno avuto luogo contatti preliminari con potenziali gruppi di
lavoro nazionali.
Ogni nuova versione delle CCPL è prima introdotta dalla casa madre statunitense
ed è poi adottata dai gruppi di lavoro nazionali. L’introduzione della versione 3.0 è stata
preceduta da un dibattito pubblico in cui si è esplicitamente richiesta e raccolta
l’opinione di singoli e di membri di altri progetti268.
Tutti i progetti nazionali Creative Commons si articolano in due sezioni: una è
rivolta agli aspetti giuridici relativi alla traduzione, all’adattamento e alla esplicazione
delle licenze, mentre l’altra sezione è rivolta agli aspetti tecnico-informatici relativi all’
attivazione di soluzioni tecnologiche che sfruttino le risorse rilasciate sotto CCPL. Il
progetto si occupa anche della sensibilizzazione e promozione della filosofia di Creative
Commons, organizzando eventi, gestendo liste di discussione e forum on line e
realizzando materiale divulgativo.
Ovviamente, per garantire che le licenze siano compatibili con i diversi
ordinamenti giuridici, Creative Commons ha cercato di effettuare sin dall’inizio un’opera
di localizzazione delle licenze delegata alle varie Affiliate Institutions e monitorata
dall’ente centrale statunitense. In tal modo, le licenze CCPL dei vari paesi non sono delle
mere traduzioni delle licenze originarie, ma dei documenti sostanzialmente
indipendenti, ispirati e adattati al diritto d’autore dei vari Stati.
In Italia tale compito è stato svolto da un gruppo di giuristi capitanati dal prof.
Marco Ricolfi del Dipartimento di Scienze Giuridiche dell’Università di Torino.
Il progetto Creative Commons Italia fa capo a due Affiliate Institutions: il
Dipartimento di Studi Giuridici dell’Università di Torino per quanto riguarda gli aspetti
legali e l’IEIIT-CNR (Istituto di Elettronica e di Ingegneria dell’Informazione e delle
Telecomunicazioni) di Torino per quanto riguarda gli aspetti tecnico-informatici269. Il
268
Glorioso-Mazziotti, op. cit. pp. 137-138.
269
Come si legge in Glorioso e Mazziotti (op. cit.) l’IEIIT-CNR ha prestato opera di consulenza e
assistenza sugli aspetti informatici delle CCPL, soprattutto per quanto riguarda la possibilità di
122
Project Lead è stato fino al gennaio 2005 il Prof. Marco Ricolfi e successivamente il ruolo
di coordinatore è passato al Prof. Juan Carlos De Martin270 del Dipartimento di
Automatica e Informatica, che si occupa di guidare le attività sia a livello di ricerca
tecnologica che di promozione e diffusione.
Nel 2003 il Prof. Ricolfi e il Prof. De Martin insieme al gruppo di lavoro di
volontari che hanno contribuito alla stesura delle CCPL, hanno iniziato a lavorare al
porting271 delle licenze cercando il più possibile di non stravolgere il testo delle licenze
originali, compiendo interventi di adattamento solo dove fosse strettamente necessario
per preservare il senso e gli effetti delle varie clausole. Il lavoro si è protratto fra il
novembre 2003 (inaugurazione del progetto italiano Creative Commons) e il dicembre
2004, quando a Torino sono state presentate ufficialmente le licenze italiane272.
Sempre nel 2004 sono state fatte due giornate di studio alla Fondazione Agnelli
su CyberLaw -quindi Internet, tecnologia e legge-, nel 2005 è stato ospitato l’Internet
Law Program di Harvard del Berkman Center e man mano sono state create diverse
iniziative che han fatto sì che Creative Commons Italia continuasse la collaborazione con
Harvard. Per questo motivo, per rendere sostenibili certe attività è stato necessario dare
vita a qualcosa di più strutturale e alla fine del 2006 è stato creato NEXA, un centro di
ricerca multidisciplinare accademico su Internet e società, legato al Politecnico di Torino.
All’interno di NEXA adesso ruotano il progetto Creative Commons Italia, il progetto
SeLiLi e il progetto europeo COMMUNIA273.
È nata così la serie di incontri “I mercoledi di NEXA”, un incontro pubblico che si
svolge il secondo mercoledì di ogni mese, dove il gruppo di lavoro NEXA composto da
ricercatori, docenti e attivisti incontra chiunque sia interessato a parlare di Internet e dei
identificare in modo automatico le condizioni d’uso delle licenze, grazie all’utilizzo dei metadati
inseriti all’interno della rappresentazione digitale di un’opera.
270
Il Prof. J.C. De Martin è responsabile italiano di Creative Commons e co-direttore del centro
NEXA su Internet & Società del Politecnico di Torino.
271
Nel concetto di porting delle licenze si racchiude non solo la traduzione delle licenze nelle
varie lingue, ma anche l’adattamento ai diversi ordinamenti giuridici.
272
Ad oggi la versione delle CCPL disponibile per l’ordinamento giuridico italiano è la 2.5.
273
Il progetto COMMUNIA è un progetto finanziato dall’Unione Europea che durerà fino ad
agosto 2010. Si tratta di una rete di 41 membri che ha ricevuto dalla Commissione Europea il
mandato di studiare il ruolo del Pubblico Dominio in senso lato, quindi le opere rilasciate sotto
Creative Commons, il pubblico dominio in senso scientifico educativo, e le opere orfane. La
Commissione Europea chiede a questa rete di suggerire alla cambiamenti di policies che
favoriscano il pubblico dominio in Europa, quindi la proposta di direttive a modifiche di norme o
regolamenti. L’ambizione di questa rete è di provare a dare voce al pubblico dominio che è
importante per motivi economici, sociali, culturali, politici, educativi.
123
diversi aspetti che ruotano intorno ad esso. Questi incontri hanno l’obiettivo di rendere
più trasparente il lavoro del centro NEXA e di attrarre persone nuove che vogliano
collaborare.
È importante inoltre sottolineare come i due versanti SIAE e Creative Commons
si stiano incontrando: infatti il 23 dicembre 2008 è stata ufficializzata la costituzione del
Gruppo di Lavoro Giuridico misto, composto da rappresentanti della SIAE e da esponenti
del gruppo di lavoro Creative Commons Italia. Il Gruppo di Lavoro Giuridico misto,
svolgerà uno studio approfondito per dare la possibilità agli autori che hanno optato per
il rilascio delle proprie opere con licenze libere, riservandosi gli usi commerciali, di
affidare alla SIAE la raccolta e distribuzione dei relativi profitti274.
274
Fonte http://www.creativecommons.it
275
Definizione tratta da Aliprandi, S., Creative Commons: manuale operativo. Guida all’uso delle
licenze e degli altri strumenti CC, Stampa Alternativa, 2008, p. 27.
276
Glorioso-Mazziotti, op. cit., p. 134.
124
Ogni licenza richiede che chiunque utilizzi l’opera277:
- ottenga il permesso dell’autore per fare una qualsiasi delle cose che ha scelto di
limitare, come ad esempio gli usi commerciali o la creazione di opere derivate;
- mantenga l’indicazione di diritto d’autore intatta su tutte le copie dell’opera, in modo
tale che sia sempre chiaramente individuabile chi è il titolare dei diritti e qual è il tipo di
licenza da lui scelto;
- faccia un link alla licenza dalle copie dell’opera;
- non alteri i termini della licenza, violando così i diritti dell’autore;
- non usi mezzi tecnologici per impedire ad altri di esercitare uno qualsiasi degli usi
consentiti dalla legge: le CCPL infatti non consentono l’applicazione dei sistemi di digital
rights management (DRM).
Ogni licenza permette che gli utilizzatori, a patto che rispettino le condizioni
d’utilizzo rilasciate dall’autore, facciano copie dell’opera, distribuiscano, comunichino al
pubblico, rappresentino, eseguano, recitino o espongano l’opera in pubblico e cambino
il formato dell’opera.
Le licenze Creative Commons si strutturano in due parti278:
1. La prima parte in cui si indicano le libertà che l’autore vuole concedere sulla sua
opera.
2. La seconda parte che chiarisce a quali condizioni è possibile utilizzare l’opera.
Per quanto riguarda la prima parte, cioè le libertà concesse, possiamo dire che
tutte le licenze Creative Commons permettono la copia e la distribuzione dell’opera.
Solo alcune delle CCPL invece, consentono anche la modifica dell’opera.
Per quanto riguarda la seconda parte invece, dove si indicano le condizioni per
l’utilizzo dell’opera, essa è articolata in quattro clausole base che l’autore può
combinare per ottenere la licenza che meglio soddisfi le sue esigenze. Queste sono:
277
Fonte http://www.creativecommons.it/Licenze/Spiegazione
278
Aliprandi, Creative Commons: manuale operativo. Guida all’uso delle licenze e degli altri
strumenti CC, p.35.
125
Questa clausola è presente di default in tutte le licenze Creative Commons a partire dalla
versione statunitense 2.0, dopo che è stato constatato che la maggior parte degli
utilizzatori delle CCPL non sembrava voler rinunciare alla prerogativa di essere
riconosciuti come autori dell’opera licenziata. Il problema non si è posto nel corso
dell’adattamento delle licenze all’ordinamento italiano, essendo il diritto alla paternità
un diritto morale irrinunciabile279.
1. Attribution
2. Attribution-Share Alike
279
Glorioso-Mazziotti, op.cit., pp. 135-136.
280
Ibidem.
281
Aliprandi, Teoria e pratica del copyleft guida all’uso delle licenze open content, p.55.
126
3 Attribution-No Derivative Works
4. Attribution-Non Commercial
282
Aliprandi, Creative Commons: manuale operativo. Guida all’uso delle licenze e degli altri
strumenti CC, p. 31
283
I metadati sono delle informazioni aggiuntive nascoste che si possono allegare ai file digitali,
visualizzabili solo grazie ad alcuni procedimenti informatici.
127
incorporare le licenze all’interno del file in modo indissolubile e riconoscibile ai principali
motori di ricerca, che hanno sviluppato degli appositi strumenti di rilevazione284.
Oltre alle sei licenze generiche, Creative Commons ha predisposto altre due
licenze specifiche per le opere musicali, pensate per coloro che vogliono consentire un
particolare utilizzo della propria opera, cioè quello del sampling. Per sampling si intende
l’estrazione di piccoli campioni di un’opera e la loro duplicazione e messa in sequenza
per la realizzazione di un’altra opera. L’applicazione più classica è quella in campo
musicale, con l’estrazione di piccole parti sonore di opere pre-esistenti da cui realizzare
basi musicali per nuovi brani.
Queste licenze sono la Sampling Plus e la Sampling Plus Non Commercial, che
permettono agli utenti di copiare e trasformare parti di un’opera per qualsiasi scopo che
non sia la pubblicità e proibiscono la copia e la distribuzione dell’intera opera. Inoltre ha
predisposto una ulteriore licenza, la Share Music, rivolta ai musicisti che vogliono
diffondere legalmente la propria musica tramite il Web e le reti di filesharing,
consentendo ai fan di scaricarla e condividerla, ma proteggendola da utilizzi per scopi
commerciali e dal remix di ogni genere.
284
Motori di ricerca come Google e Yahoo, hanno esteso nella Ricerca Avanzata la possibilità di
ricerca di contenuti liberi.
285
Aliprandi, Creative Commons: manuale operativo. Guida all’uso delle licenze e degli altri
strumenti CC, pp. 40-41.
128
Domain Dedication con la quale gli autori potevano volontariamente rilasciare un’opera
in regime di pubblico dominio.
Oltre a ciò Creative Commons cura alcuni progetti come CcMixter, una
piattaforma di condivisione musicale che permette di scaricare, remixare e condividere
musica sotto licenza Creative Commons.
Inoltre Creative Commons sviluppa tutta una serie di tools che consentono di
integrare le CCPL all’interno di siti web e blog come CcHost o WpLicense, facilitando la
loro applicazione286.
286
Tutti i progetti e le applicazioni sono consultabili sul sito ufficiale Creative Commons alla
pagina http://creativecommons.org/projects
287
Aliprandi, Creative Commons: manuale operativo. Guida all’uso delle licenze e degli altri
strumenti CC, p. 44.
288
Questa definizione è spiegata nelle FAQ presenti sul sito ufficiale Creative Commons Italia,
disponibili in rete all’indirizzo http://www.creativecommons.it/node/607#10
129
persone, è necessario assicurarsi di avere un esplicito permesso di applicare una licenza
Creative Commons all’opera finale. È necessario quindi far sì che l’autore, che spesso
non ha nozioni giuridiche di base, si ponga dall’inizio il problema di acquisire la
disponibilità di tutti i diritti necessari alla concessione della licenza, sotto CCPL,
dell’opera289.
Secondo Glorioso e Mazziotti290 per far sì che il licenziante verifichi da subito la
propria disponibilità di tutti i diritti necessari alla concessione in licenza di una specifica
opera, si possono ipotizzare due strategie. La prima strategia consiste nella realizzazione
di linee guida291 che dovrebbero evidenziare con chiarezza la necessità per il licenziante
di assicurarsi l’autorizzazione a compiere atti che rientrano nell’oggetto di tutti i diritti
insistenti sull’opera licenziata, inclusi quelli connessi. Inoltre attraverso l’utilizzo del
meccanismo guidato via web, anche se è solo opzionale al fine dell’utilizzo di una licenza
CC, si potrebbe pubblicare una nota esplicativa che avverta l’utente della necessità di
verificare la disponibilità di tutti i diritti necessari alla concessione in licenza di un’opera,
che dovrebbe essere redatta con molta cura per evitare che un eccessivo allarmismo sui
rischi che la pubblicazione di un’opera comporta, scoraggi la diffusione di opere
d’ingegno. Il rischio delle linee guida è che siano interpretate dai potenziali fruitori delle
CCPL come strumenti interpretativi più affidabili e significativi di quanto non vogliano
essere o come veri e propri pareri legali che in realtà non sono, e non come consigli292.
La seconda strategia si potrebbe realizzare inserendo all’interno del testo di
ciascuna CCPL, una esplicita dichiarazione di responsabilità del licenziante relativa alla
disponibilità di tutti i diritti licenziati. Questa aggiunta cambierebbe la definizione stessa
di licenziante, che diventerebbe “l’individuo o l’ente che, verificata sotto la propria
responsabilità la piena disponibilità di tutti i diritti qui licenziati, offre l’opera secondo i
termini e le condizioni della presente licenza”293.
Questo potrebbe essere realizzabile a livello progettuale ripensando e
ridefinendo il concetto di authoring in rete, valorizzato dall’utilizzo delle CCPL: per far sì
289
Glorioso, A.- Mazziotti, G., Alcune riflessioni sulle licenze Creative Commons e i diritti connessi
degli artisti interpreti ed esecutori, dei produttori di fonogrammi e degli organismi di diffusione
radiotelevisiva, in “Il diritto di autore”, Rivista trimestrale della Società Italiana degli Autori ed
Editori, Vol. 79 (2) PP. 163 Giuffrè Editore, Milano, Aprile-giugno 2008, p.144.
290
Ivi, pp. 150-155.
291
Le cosiddette FAQ, cioè elenchi di domande e risposte poste più frequentemente dagli utenti,
sono disponibili da dicembre 2008 sul sito italiano Creative Commons.
292
Glorioso-Mazziotti, op.cit., pp.151-152.
293
Al riguardo si veda la pubblicazione di Mazziotti e Glorioso, op. cit., p. 152.
130
che gli utenti siano più sensibilizzati ad un utilizzo più consapevole delle CCPL, si
potrebbe rendere questo meccanismo educativo non troppo formale, in modo che
venga letto come un consiglio che viene dato al potenziale utente, senza entrare nei
dettagli strettamente giuridici. Al riguardo si esprime anche J.C. De Martin294
confermando come questa fase educativa non debba essere troppo tecnica e troppo
pesante per evitare un rifiuto da parte del potenziale utente ma viceversa non può
neanche essere ignorato perché si rischia che gli utenti, magari anche in buona fede,
violino un diritto di altri ed è necessario perciò trovare un giusto bilanciamento tra i due.
Questa sorta di educazione dei potenziali utenti delle CCPL al diritto d’autore in
rete potrebbe essere attuata attraverso un tutorial da integrare nelle piattaforme che si
occupano di creazione collaborativa e condivisione di contenuti, che permetta agli autori
di scegliere da subito in che modo preferisce che la propria opera venga distribuita,
scegliendo tra il copyright tradizionale, quindi riservandosi tutti i diritti, o decidendo di
applicare il modello alcuni diritti riservati, tipico delle licenze copyleft e, nello specifico,
delle CCPL. Questa scelta da parte dell’utente-autore dovrebbe essere resa più
consapevole, spiegando in maniera chiara e rapida ciò che comporta la scelta di un
modello rispetto all’altro. Una volta scelto il modello di gestione dei diritti più adatto a
soddisfare le proprie esigenze, in questo caso prendiamo l’esempio che scelga il modello
copyleft, l’utente-autore dovrebbe essere consigliato, attraverso un opportuno
avvertimento, su quali siano i diritti di cui deve verificare la disponibilità, prima di
applicare una CCPL al proprio lavoro. Questo meccanismo sarebbe realizzabile con degli
advices che comunichino in modo informale quali sono questi diritti, aiutando l’utente a
non cadere inconsapevolmente nella violazione dei diritti di terzi.
294
Intervista al Prof. De Martin del 10 dicembre 2008.
131
segnalarlo esplicitamente. Per applicare una CCPL alla propria opera digitale basta
utilizzare un’avvertenza in cui si indica chi è il titolare dell’opera e quali utilizzi liberi ha
concesso per la sua opera. Questo si può fare attraverso il sito ufficiale di Creative
Commons295 dove sono disponibili informazioni specifiche e dettagliate per
l’applicazione delle licenze, tra cui un semplice procedimento guidato che pone al
potenziale utente alcune domande per capire quale delle sei licenze è più adatta alle sue
esigenze296.
Le CCPL si inseriscono nella disciplina del diritto d’autore rendendola più human
readeble e machine readeble per i motori di ricerca. Infatti una volta che l’opera è
pubblicata sotto CCPL, viene identificata da una serie di metadati che consentono ai
motori di ricerca di ritrovarla rapidamente attraverso parole chiave297.
Il Web “2.0” ha fatto nascere diverse piattaforme che offrono la possibilità
all’utente di creare contenuti, pubblicarli e licenziare il proprio lavoro sotto CCPL,
cercando di semplificarne l’applicazione con un meccanismo intuitivo e rapido per poter
scegliere le licenze. Una volta effettuato l’upload e il licensing, i file inseriti in questi
saranno contraddistinti dal disclaimer che richiama alla licenza scelta.
Tra questi, siti come Internet Archive, Jamendo.com e Flickr.com offrono servizi
che permettono di applicare una CCPL attraverso meccanismi guidati in upload.
Jamendo.com, ad esempio, permette l’upload solo di opere rilasciate sotto CCPL, ma i
lavori possono essere creati solo offline, mentre Flickr.com permette l’eventuale scelta
delle licenze solo dopo che il contenuto è già stato pubblicato in rete, facendo
inizialmente cadere di default l’opera in regime di copyright.
È importante sottolineare che le licenze Creative Commons possono essere
applicate anche a lavori offline attraverso l’installazione di appositi plugin messi a
disposizione dai produttori di software. Infatti ad esempio, come ci ha spiegato il Prof.
J.C. De Martin298, Office ha realizzato un plugin per aggiungere Creative Commons alla
barra dei menù dei programmi di elaborazione testi, presentazioni multimediali e fogli di
295
Si veda il sito http://www.creativecommons.it
296
Aliprandi, Creative Commons: Manuale Operativo, p. 55.
297
All’indirizzo http://search.creativecommons.org si trova il motore di ricerca realizzato da
Creative Commons per la ricerca di opere rilasciate sotto CCPL.
298
Intervista al Prof. J.C. De Martin del 10 dicembre 2008 presso il centro NEXA.
132
calcolo, che può essere scaricato e installato nel proprio pacchetto Office299. Il plugin
permette all’utente di scegliere e aggiungere automaticamente una delle sei licenze
Creative Commons nella pagine del documento che l’utente sta creando, segnalando
così a coloro che prenderanno visione dei documenti che questi sono rilasciati sotto
licenza Creative Commons.
Le CCPL quindi favoriscono la nascita di nuovi progetti creativi basati sul riutilizzo
del materiale creativo di terzi, contribuendo così alla diffusione della cultura. Ci troviamo
così di fronte a una nuova era, quella che Lessing definisce Remixing Culture300: i
contenuti si creano online e collettivamente, gli utenti collaborano per migliorare i
propri lavori. Questo potrebbe diventare il nuovo modo di essere delle giovani
generazioni che utilizzano il web per la creazione e condivisione di contenuti, e che forse
in futuro saranno in grado di creare grandi opere con gli strumenti a loro disposizione,
ma nel rispetto dei diritti degli altri autori e di quelli degli utenti attraverso un utilizzo
più consapevole del web e delle licenze.
299
Il plugin che permette di aggiungere in Office 2003, XP e 2007 un pulsante per la scelta delle
licenze Creative Commons è scaricabile in rete sul sito ufficiale di Microsoft all’indirizzo
http://www.microsoft.com/downloads/details.aspx?FamilyId=113B53DD-1CC0-4FBE-9E1D-
B91D07C76504&displaylang=en. Una soluzione di questo tipo è stata adottata anche per chi
utilizza Open Office. Si può seguire il procedimento guidato per l’applicazione del plugin di Open
Office direttamente sul sito ufficiale Creative Commons, disponibile in rete alla pagina
http://wiki.creativecommons.org/OpenOfficeOrg_Addin
300
Lessing, L., Remix: Making Art and Commerce Thrive in the Hybrid Economy, The Penguin
Press, United States of America, 2008.
133
CAPITOLO 3
L’Interaction Design e l’approccio metodologico User-Centered
134
CAPITOLO 3
L’Interaction Design e l’approccio metodologico User-Centered
301
S. Bagnara , S. Pozzi, Fondamenti, Storia e Tendenze dell'HCI, in Soro, A., (a cura di), Human
Computer Interaction Fondamenti e Prospettive, Polimetrica International Scientific Publisher,
Monza, 2008, pp. 17-18.
135
comprensione delle interazioni tra i soggetti umani e le altre componenti di un sistema,
e la professione che applica teorie, principi, dati e metodi per progettare con la finalità
di accrescere il benessere dei soggetti umani e le prestazioni complessive del sistema.
Gli ergonomi contribuiscono alla progettazione e alla valutazione di compiti,
funzioni, prodotti, ambienti e sistemi in modo da renderli compatibili alle esigenze, alle
capacità e ai limiti delle persone. La disciplina non ha l’obiettivo di studiare i singoli
elementi presi separatamente, ma l’interazione tra gli elementi di un sistema inclusi gli
esseri umani. Tale studio si alimenta naturalmente di conoscenze specialistiche sui vari
elementi come l’ingegneria delle parti software e hardware e la psicologia degli esseri
umani.
Ciò che distingue l’HCI dall’ergonomia in generale è una diversa enfasi sui vari
aspetti dell’interazione uomo-sistema. L’ergonomia tradizionale si è infatti indirizzata
principalmente sugli aspetti fisici, quali la compatibilità tra caratteristiche fisiche umane
e caratteristiche della macchina, mettendo in luce anche situazioni di assoluta
incompatibilità fisica, come quella dell’uomo costretto a muoversi per lavorare in spazi
impossibili e a compiere dei movimenti innaturali per interagire con la macchina302.
Con lo sviluppo del cognitivismo e la nascita dei primi calcolatori, l’enfasi degli
studi ergonomici passa dalle caratteristiche fisiche della macchina, agli elementi di
interfaccia, che consentono all’uomo di operare un adeguato controllo del sistema. La
parte fisica dell’interazione uomo-macchina passa in secondo piano, mentre diventano
più importanti gli aspetti di controllo e presa di decisioni, ovvero la compatibilità tra la
macchina, il sistema cognitivo umano e gli aspetti socio-culturali. L’interfaccia diventa
sempre più complessa e di dimensioni sempre più predominanti rispetto al motore della
macchina, a volte anche per la necessità di porre l’operatore a debita distanza dal
processo lavorativo.
L’evoluzione dei calcolatori e la loro presenza sempre più pervasiva negli
ambienti di lavoro hanno quindi portato alla nascita vera e propria dell’HCI, che sempre
di più diventa una disciplina indipendente più che una branca dell’ergonomia cognitiva.
Dal 1970 in poi assistiamo inoltre alla crescita della cosiddetta società della conoscenza,
caratterizzata da un’alta omogeneità tra ambiente di lavoro e di vita, da una continua e
302
S. Bagnara , S. Pozzi, op. cit., p. 19.
136
rapida trasformazione del lavoro, da una diffusa informatizzazione e presenza di
automazione nei luoghi del lavoro fisico303.
Trattandosi di una disciplina applicata all’interazione tra l’uomo e un artefatto
tecnologico, l’HCI ha progressivamente spostato la sua attenzione in parallelo al
progredire del computer. Di pari passo, la conoscenza dell’effettivo funzionamento della
macchina diventa sempre meno indispensabile per interagirvi, dal momento che
l’interfaccia si occupa di tradurre le azioni dell’utente in input per i circuiti del computer.
Si è passati così da utenti iperspecializzati come gli ingegneri elettronici o i
programmatori, ad un’utenza indistinta che utilizza il computer sul lavoro ma anche nel
tempo libero. Negli anni Novanta il computer diventa sempre più uno strumento
utilizzato primariamente per comunicare e l’HCI si trova a rendere conto di tutte le
interazioni sociali che da esso vengono mediate. L’HCI compie così in pochi decenni una
transizione che porta il suo campo di applicazione dall’interno del calcolatore verso lo
spazio sociale304.
L’ergonomia ha una visione del lavoro come fatica e il suo obiettivo è stato
perciò la riduzione della fatica del lavoro. Poiché nella società industriale il lavoro si
realizza con le macchine, il lavoro viene attribuito alla macchina, perché è
nell’interazione con questa che insorge la fatica. Nella visione tradizionale, infatti,
l’interazione uomo-macchina è vista come luogo di origine della patologia da lavoro.
Questa visione diventa meno totalizzante nell’ultimo periodo, quando l’HCI si trova a
dover affrontare ambiti di applicazione non solo lavorativi, ma anche di tempo libero e
svago. La disciplina deve quindi progressivamente operare un salto dal concetto di
bisogni a quello di desideri, progettando non più solo per correggere difetti
dell’interazione, ma per soddisfare o creare esperienze appaganti.
L’HCI non può più limitarsi a valutare l’interazione in termini funzionali di
efficacia, efficienza, sicurezza, e usabilità ma deve integrare anche dimensioni soggettive
relative all’esperienza d’uso305. Secondo De Angeli306 infatti la qualità dell’interazione si
basa su due concetti chiave: l’usabilità e l’esperienza utente, che richiedono diversi
approcci di valutazione.
303
S. Bagnara , S. Pozzi, op. cit., p. 20.
304
Ivi, p. 21.
305
Ivi, p. 24.
306
A. De Angeli, Misure di Qualità: Dall’Usabilità all’Esperienza dell’Utente, in Soro (a cura di), op.
cit., pp. 183-185.
137
Negli ultimi vent’anni la qualità interattiva dei sistemi è stata definita user
friendly o usabilità. Secondo la definizione di Nielsen l’usabilità è un aspetto
dell’accettabilità di un sistema, cioè la sua capacità di soddisfare i bisogni degli utenti.
Essa si basa su cinque attributi: la facilità di apprendimento, l’efficienza nell’utilizzo, la
facilità di ricordo, la sicurezza e robustezza all’errore e la soddisfazione soggettiva.
Gli standard ISO riassumono questa definizione di Nielsen espandendola al
contesto d’uso, definendo l’usabilità come l’efficacia, l’efficienza e la soddisfazione con
cui gli utenti raggiungono determinati obiettivi in un ambiente ben definito. Viene data
cioè grande importanza a tutti quegli attributi che possono influenzare la misurazione
dell’usabilità, quali le caratteristiche degli utenti, del compito e dell’ambiente che si sta
utilizzando nell’interazione.
I parametri dell’usabilità tradizionali definiscono la qualità interattiva di un
prodotto come l’assenza di problemi. Questo concetto viene però messo in discussione
dall’approccio User Experience (UX) cioè dall’esperienza utente, che descrive la reazione
psicologica dell’utente di fronte all’interazione con strumenti interattivi. Per l’UX la
qualità di un sistema interattivo è un valore aggiunto che un sistema offre agli utenti per
soddisfare bisogni fondamentali.
Per valutare l’esperienza utente ci si basa sulle reazioni soggettive all’interazione
quali il divertimento derivato dall’utilizzo del sistema, la piacevolezza estetica, la
motivazione, la gratificazione, l’emozione, l’identificazione sociale e l’autoaffermazione.
L’esperienza utente viene quindi considerata come la misura della qualità interattiva di
un sistema, basata dall’insieme di risposte comportamentali e psicologiche indotte
dall’interazione con i sistemi informatici.
Si può quindi affermare, come sostiene De Angeli307, che l’UX è un’estensione
del concetto di usabilità, a cui si aggiunge la gratificazione dell’utente derivata dalla
dimensione unica e personale dell’esperienza interattiva che è soggettiva, varia da
persona a persona, è influenzata dal contesto d’uso, dalle motivazioni, dalla cultura,
dalla personalità e dal prodotto interattivo.
Le tecnologie sono ancora in larga parte difficili da utilizzare e spesso generano
esperienze di frustrazione più che di appagamento. La conseguenza di questo problema
è una bassa alfabetizzazione digitale e l’HCI deve contribuire a rendere l’alfabetizzazione
307
Op. cit., p. 189.
138
digitale un compito più semplice. Una delle dinamiche più rilevanti nella storia dell’HCI è
stata sicuramente lo spostarsi degli sforzi di progettazione dalla parti interne del
computer all’interfaccia, fino ad arrivare allo spazio sociale. Le tecnologie servono
sempre di più per veicolare interazioni sociali, e non per gli scopi iniziali di potenza di
calcolo308.
Come affermano Bagnara e Pozzi309, nel 1996 si contavano circa 250.000 siti
web, quasi tutti read-only dove i contenuti erano pubblicati da autori ben determinati.
Dall’altro lato si avevano circa 45.000.000 di utenti, le cui attività tipiche erano la ricerca
e la navigazione. Nel 2006 i siti erano già diventati 80.000.000, ma la differenza più
rilevante risiede nel fatto che questi siti sono in gran parte read-write. Si stima che oggi
un terzo dei contenuti presenti in rete -pari a circa un miliardo- siano generati dagli
utenti che creano, condividono e arricchiscono materiali pre-esistenti.
La digitalizzazione permette quindi alle persone di partecipare alle tre categorie
di attività quali la pubblicazione, la distribuzione e il consumo che tendono a confondersi
l’un l’altra e possono essere svolte da uno stesso utente, dove prima la separazione dei
ruoli era netta. Questo spostamento dei ruoli è stato accompagnato nell’HCI da una
rifocalizzazione del significato di progettazione di prodotti e tecnologie usabili, centrate
sull’utente.
Infatti se prima l’usabilità di un sito web si giudicava dalla facilità di navigazione,
oggi una piattaforma Web centrata sull’utente deve supportare anche la creazione dei
contenuti generati dagli stessi utenti. I contenuti digitali sono rimodellabili e per loro
natura non si configurano mai come definitivi: infatti conservano la plasmabilità che
consente ad altri utenti di appropriarsene, apportarvi modifiche e rimetterli in rete. Un
sito usabile diventa quindi un sito che crea valore non perché l’utente riesca a trovare
l’informazione giusta, ma perché spinge gli utenti a contribuire alla creazione di un
contenuto comune. Più i contenuti sono malleabili da più persone, più è facile che
vengano utilizzati senza regole: i meccanismi più efficaci per controllare questo tipo di
degenerazioni sono ancora quelli collettivi310. Infatti come abbiamo visto, la maggior
parte delle piattaforme User Generated Content si affida spesso agli utenti per il
controllo del materiale che viene pubblicato, generando un meccanismo di
308
Ivi, p. 26.
309
Op. cit., pp. 33-34
310
Ibidem.
139
autocontrollo interno da parte della comunità stessa. Bisogna perciò capire se questo
tipo di autocontrollo interno sia sufficiente a garantire il rispetto delle regole interne e
delle norme del diritto d’autore in rete, perché spesso vengono creati e pubblicati in
rete lavori che non rispettano i principi base del diritto d’autore.
L’utilizzo sempre maggiore delle applicazioni informatiche richiede una
progettazione che sappia tenere conto dei vari possibili contesti d'uso, degli obiettivi
degli utenti e delle nuove tecnologie di interazione. L'informatica perciò, diventa sempre
più una disciplina interattiva e orientata alla comunicazione con gli utenti.
311
R. Polillo, Introduzione all’Ingegneria dell’Usabilità, in Soro, A., (a cura di), Human Computer
Interaction Fondamenti e Prospettive, Polimetrica International Scientific Publisher, Monza, 2008,
p. 177.
312
Saffer, D., Il design dell’Interazione, Paravia Bruno Mondadori Editore, Milano, 2007, p. 2.
140
comunicazione, né informatica: era qualcosa di diverso, che derivava da quelle stesse
discipline e che metteva in comunicazione le persone attraverso i prodotti che usavano.
Moggridge chiamò questa nuova pratica Interaction Design313.
La diffusione di Internet negli anni Novanta e la sempre più diffusa
digitalizzazione e inclusione di microprocessori nelle macchine ha fatto sì che gli oggetti
d’uso quotidiano iniziassero a non essere più familiari. Sebbene l’interaction design
abbia radici interdisciplinari, essa si può definire come l’arte di facilitare le interazioni fra
esseri umani attraverso prodotti e servizi, ma riguarda anche le interazioni fra esseri
umani e i prodotti con un microprocessore che sono capaci di percepire e rispondere
agli esseri umani. Essendo più un arte applicata che una scienza l’interaction design deve
ancora pervenire a regole solide che possano essere dimostrate con metodi scientifici e
che siano vere in tutti i casi, nonostante ciò negli ultimi tre decenni sono emerse delle
best practices314.
L’interaction design risolve problemi che si manifestano in particolari contesti e
in particolari circostanze. Per fare un esempio, come spiega Saffer, il web browser
Mosaic315 era un ottimo esempio di interaction design quando fu concepito, ma oggi non
lo si utilizzerebbe nel proprio computer.
L’interaction Design coinvolge diversi metodi e metodologie nei suoi compiti, e
attualmente si è sviluppata una metodologia di design realmente centrata sull’utente, in
cui si fa ricerca e si provano i prodotti con gli utenti.
L’utilità dell’interaction design è evidente nella sua applicazione a problemi reali
e il suo scopo è aiutare la comunicazione e l’interazione fra gli esseri umani o tra un
essere umano e un’entità artificiale come il computer316.
Quando le persone comunicano attraverso qualcosa come un blog hanno
bisogno di prodotti e servizi disegnati per fornire una esperienza ottimale che faciliti
l’interazione e questi prodotti sono il terreno fertile su cui l’interaction design cresce e si
sviluppa anche grazie a internet, al Wi-FI e a tutte le altre tecnologie. Questi prodotti
non richiedono sempre la presenza di uno schermo di pc, ma possono essere digitali,
analogici, fisici o incorporei o una combinazione di tutto ciò.
313
Saffer, op. cit., p. 2.
314
Ivi, p. 4.
315
Mosaic fu il primo web browser che ha permesso agli utenti di navigare fra siti attraverso il
sistema punta e clicca.
316
Saffer, D., op. cit., pp. 5-6.
141
Dato che la tecnologia cambia rapidamente l’interaction design non si dovrebbe
allineare ad alcun mezzo o tecnologia in particolare. Essa si occupa del comportamento
di prodotti e servizi e di come questi funzionano, la sua funzione è quella di stabilire
connessioni fra le persone attraverso questi prodotti, non connettersi al prodotto
stesso317.
La prima generazione di computer fu il risultato dell’ingegneria e gli esseri umani
dovevano adattarsi ad usarli, parlando il linguaggio delle macchine. Negli anni Sessanta
gli ingegneri iniziarono a focalizzarsi sulle persone escogitando nuovi metodi di input e
aggiungendo pannelli di controllo al frontale dei pc consentendo l’input attraverso una
serie di interruttori318. Negli anni Settanta designer, programmatori e ingegneri
introdussero le interfacce a linea di comando e software specifici, le aziende iniziarono a
disegnare computer per le persone non esperte di informatica, finché la Apple
introdusse l’interfaccia grafica per un pubblico di massa.
Mentre avvenivano gli sviluppi in campo informatico crescevano anche altre
discipline che diedero poi forma all’interaction design. Ingegneri e designer industriali
come Dreyfuss crearono il nuovo campo dei fattori umani o ergonomia, che si
focalizzava sul design di prodotti per gruppi differenziati di persone. Il campo
dell’ergonomia si concentrò sulla produttività e sicurezza dei lavoratori determinando i
modi migliori di svolgere i compiti. La psicologia cognitiva, basata sull’apprendimento e
sulla capacità umana di risolvere i problemi visse una nuova giovinezza.
L’era dell’interaction design come disciplina formale ebbe inizio durante gli anni
Novanta con lo sviluppo del Web, che ha permesso a chiunque di pubblicare facilmente
documenti ipertestuali accessibili in modo globale e che ha portato in primo piano la
necessità di un migliore interaction design319.
Ingegneri e designer iniziarono ad inserire sensori e microprocessori sempre più
piccoli, economici e potenti in oggetti che non venivano considerati computer come le
auto e gli elettrodomestici, e improvvisamente questi oggetti mostrarono
comportamenti precedentemente impossibili. Altre tecnologie facilitarono l’interazione
fra persone nel mondo dell’intrattenimento come i videogiochi, i giochi multiplayer su
computer e le console.
317
Ibidem
318
Ivi, p. 11.
319
Ivi, p. 13.
142
Con il maturare di Internet maturarono anche le tecnologie che le davano vita:
dalla fine degli anni Novanta Internet inizia ad essere utilizzata non solo per fruire di
contenuti, ma anche per fare nuove amicizie, condividere contenuti, vendere oggetti.
Internet fornisce diversi modi nuovi di comunicare fra cui le messaggerie istantanee e il
VoIP (Voice Over IP), diventa una piattaforma per applicazioni che possono
avvantaggiarsi delle numerose caratteristiche di Internet, e lo sviluppo delle connessioni
a banda larga e delle reti wireless stanno via via cambiando le interazioni e i luoghi in cui
queste avvengono320.
L’interaction design è un campo giovane che sta ancora definendo se stesso e
trovando il suo posto fra discipline sorelle come l’information arhitecture, il design della
comunicazione (grafico), il design industriale, lo user-experience design, lo user-interface
engineering la human-computer interaction, la usability engineering e i fattori umani
(ergonomia). Queste discipline sono separate ma si sovrappongono molto, e la maggior
parte di esse sta sotto l’ombrello dello user-experience design, la disciplina che guarda a
tutti gli aspetti dell’incontro tra utente e prodotto o servizio.
320
Ivi, p. 14.
143
L’interaction design prova ad alleviare alcuni fastidi che nascono quando le cose
non vanno per il verso giusto, accertandosi che i servizi e i prodotti con cui le persone
hanno a che fare abbiano senso, siano usabili e utili, e siano coinvolgenti e divertenti,
rimuovendo quei piccoli problemi della vita di cui spesso non conosciamo l’esistenza. Ma
si occupa anche di facilitare le interazioni tra le persone in modo migliore, più ricco e
profondo, trovando nuove modalità di connessione tra gli esseri umani e rendendo così
il mondo un posto migliore per viverci321.
I progetti normalmente hanno inizio partendo dall’assunto che una cosa non
funziona, oppure perché non esiste. Una volta che un progetto viene lanciato, esistono
diversi metodi e strumenti per intervenire tra i quali lo User Centered Design322.
321
Saffer, op. cit., p. 19.
322
Ivi, p. 24.
323
Ivi p. 31.
324
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006, p. 82.
144
Il concetto di UCD è stato introdotto da Henry Dreyfuss nel 1995325 e ha radici
nel design industriale, nell’ergonomia e nella convinzione che i designer debbano
provare ad adattare i prodotti alle persone invece che le persone ai prodotti.
Nella progettazione si parte da un esame della situazione attuale, per
riconoscerne i difetti o i limiti e, sulla base delle possibilità offerte dalla tecnologia, si
progetta la situazione futura. Progettare è quindi un’attività di natura sia intellettuale
che pratica: non basta una visione del futuro desiderato, ma occorre anche definire tutti
i dettagli che ne permetteranno la realizzazione.
In informatica, il termine progettare viene spesso usato per ricomprendere non
soltanto le attività di progettazione in senso proprio, ma anche la successiva
realizzazione. Così, per progetto non si intende solo il risultato della progettazione,
come sarebbe corretto, ma anche tutte le attività connesse allo sviluppo di un sistema,
dalla progettazione alla sua realizzazione concreta326.
La progettazione di sistemi usabili richiede un drastico cambiamento di
mentalità rispetto all’approccio di progettazione tradizionale.
Nella progettazione tradizionale infatti l’oggetto principale dell’attenzione è il
sistema da progettare, partendo dalla definizione dei suoi requisiti funzionali, cioè dalla
identificazione delle funzionalità che esso deve fornire all’utente. Queste vengono
descritte in dettaglio in un documento di specifiche funzionali, a partire dal quale il
sistema viene progettato e quindi realizzato. In questo approccio, l’utente del sistema ha
un ruolo marginale: il progettista concentra la sua attenzione sulle funzionalità e sugli
aspetti tecnici connessi alla loro realizzazione, per arrivare a soddisfare le specifiche.
Se l’obiettivo è la progettazione di un sistema usabile, questo approccio non
funziona. Il progettista infatti dovrà porre la sua attenzione innanzitutto sull’utente e
dovrà studiarne le caratteristiche, le abitudini e le necessità in relazione all’uso del
sistema. Dovrà pre-configurare i vari contesti in cui il sistema verrà utilizzato, e i suoi
diversi casi d’uso e dovrà analizzare in dettaglio i compiti che l’utente svolgerà con il
sistema. Secondo questo approccio, il compito del progettista non sarà più
semplicemente quello di progettare le funzioni del sistema, ma quello di progettare
325
Come spiega Saffer, il metodo User-Centered fu reso popolare nel libro Designing for People.
326
R. Polillo, Introduzione all’Ingegneria dell’Usabilità, in Soro, A., (a cura di), Human Computer
Interaction Fondamenti e Prospettive, Polimetrica International Scientific Publisher, Monza, 2008,
pp. 116-117.
145
l’interazione fra il sistema e il suo utente. Si parla così di interaction design e, per
sottolineare che il punto di partenza è l’utente, di progettazione centrata sull’utente327.
L’UCD è un approccio alla progettazione che produce risultati completamente
diversi da quelli ottenuti con l’approccio tradizionale. In particolare, questo approccio è
fondamentale nella progettazione degli oggetti interattivi che hanno una significativa
componente software, perché in questi casi vi è il rischio di creare complessità inutili328.
Infatti i sistemi odierni sono sempre più complessi e l’interazione non è più
soltanto quella fisica, quindi la postura, lo sforzo o l’illuminazione -considerata dalla
ergonomia tradizionale-, ma è soprattutto di tipo cognitivo. L’ergonomia diventa quindi
ergonomia cognitiva, e il compito dell’interaction designer è anche quello di conoscere e
assecondare i meccanismi cognitivi coinvolti nell’interazione utente-sistema, in modo
che ne risultino sistemi gradevoli e facili da usare.
Secondo Polillo329 System-Centered Design e User-Centered Design non
dovrebbero essere considerati due approcci alternativi, fra i quali scegliere a seconda
delle situazioni. User centered design può essere considerato un approccio più maturo,
che ricomprende al suo interno le problematiche tecniche del System Centered Design,
ma le inserisce in un contesto più ampio, che permette di comprendere in modo molto
più approfondito le finalità del sistema. Si possono così collocare le attività di
progettazione a differenti livelli di maturità:
327
Ivi, pp. 118-119.
328
Ivi, p. 121
329
R. Polillo, Introduzione all’Ingegneria dell’Usabilità, in Soro, A., (a cura di), Human Computer
Interaction Fondamenti e Prospettive, Polimetrica International Scientific Publisher, Monza, 2008,
p. 123.
146
sulla completezza delle funzionalità offerte, e sulla corretta esecuzione delle loro
prestazioni. È il livello di maturità della progettazione centrata sul sistema.
3. Terzo livello: il prodotto è facile da imparare e da usare. Questo è il livello
della progettazione centrata sull’utente. Non solo il prodotto funziona e offre tutte le
funzioni richieste dagli utenti, ma le organizza in modo adeguato rispetto alle tipologie e
alle necessità dei suoi utenti, nei diversi contesti d’uso.
4. Quarto livello: il prodotto è invisibile durante l’uso. Il prodotto funziona,
fornisce tutte le funzioni richieste, è usabile e, inoltre, il suo uso si integra in modo così
armonico e poco intrusivo con i compiti che ci aiuta ad eseguire che, mentre lo usiamo,
non ci accorgiamo di usarlo. In altre parole, ci permette di concentrarci sul compito e
non sullo strumento che diventa, per così dire, invisibile.
330
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006, p. 82.
147
3. modello di progettazione e sviluppo iterativo per prototipi successivi (Gould &
Lewis);
331
R. Polillo, op. cit.,p. 125.
332
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006, p. 89.
148
seguente solo quando la fase precedente era completata e i suoi prodotti approvati for-
malmente dal committente333.
Si pensava cioè che in un processo ordinato non si dovesse mai retrocedere. Per
descrivere questo processo viene usata di solito la metafora della cascata (waterfall
model): come in una cascata l’acqua scorre soltanto verso il basso e non torna mai
indietro, così dalla fase iniziale di un progetto si arriva, passo passo, al rilascio del
sistema senza ritornare mai sui passi precedenti. Questa impostazione sembra molto
sensata: per costruire qualcosa bisogna prima decidere che cosa si vuole ottenere e
descriverlo dettagliatamente, poi si passerà alla sua realizzazione, quindi al collaudo
finale e alla consegna.
Ma ci si accorse presto che non funzionava sempre così: nella pratica, in nessun
progetto reale, anche se ben gestito, le cose procedevano in maniera così semplice e
lineare. Era spesso necessario ritornare sui propri passi, per rivedere e modificare
decisioni già prese, anche se erano state inizialmente ritenute consolidate. Le cause
potevano essere molteplici: il committente, in fase avanzata di realizzazione, richiedeva
delle varianti che modificavano le specifiche già approvate, oppure i progettisti
scoprivano difficoltà tecniche inattese, che consigliavano di cambiare rotta, o ancora
nella fase di rilascio del sistema i primi utenti segnalavano delle difficoltà nell’uso che
non erano state previste da nessuno e richiedevano cambiamenti consistenti.
Tutti questi rifacimenti, non previsti nella pianificazione iniziale, producevano
inoltre considerevoli costi aggiuntivi. Per molto tempo queste difficoltà furono imputate
a una cattiva conduzione dei progetti perché si pensava che fosse compito di un buon
capo progetto tenere a freno le richieste dei committenti e degli utenti e far loro
comprendere l’importanza di controllare accuratamente le specifiche e di accettare che,
una volta approvate, queste dovessero essere considerate congelate fino al rilascio del
sistema.
Con la maturazione della disciplina dell’ingegneria del software, si capì che le
cose non funzionavano, perché non possono funzionare così. Ci si rese conto che nessun
sistema complesso può essere realizzato con il modello della cascata, perché è
impossibile specificarne tutti gli aspetti all’inizio e poi realizzarlo senza modificare nulla,
sia a livello pratico che teorico-concettuale. Dal punto di vista pratico, è molto difficile
333
R. Polillo, op.cit., pp. 129-130.
149
prevedere sulla carta tutti gli aspetti di un sistema complesso che non esiste ancora. Si
può tentare di farlo, ma inevitabilmente non si possono anticipare tutti i problemi che si
incontreranno durante la realizzazione, per risolvere i quali potremo essere costretti a
cambiare rotta334.
C’è anche un motivo più profondo, di natura teorico-concettuale, che fa sì che il
modello a cascata non possa funzionare: ogni nuovo strumento cambia i bisogni del suo
utilizzatore e genera nuovi bisogni, che suggeriscono modifiche non previste allo
strumento stesso. In altre parole, per soddisfare le nostre necessità, produciamo
strumenti che, a loro volta, generano nuovi bisogni. Costruiamo allora nuovi strumenti, o
modifichiamo quelli già disponibili, in un ciclo evolutivo infinito, al quale è stato dato il
nome di task-artifact cycle335.
Quando si definiscono i requisiti di un prodotto che non esiste ancora e che si
vuole realizzare, si tiene conto di determinati bisogni insoddisfatti. Per ottenere questo
risultato, si progetta il prodotto ipotizzando dei probabili scenari d’uso e realizzando
quelle funzioni che, nelle nostre ipotesi, sembrano necessarie. Ma non si potrà mai
essere certi di avere immaginato correttamente come gli utenti utilizzeranno
effettivamente il sistema negli specifici contesti d’uso e come questo modificherà i loro
bisogni. Per verificare la correttezza delle ipotesi iniziali, è necessario prima realizzare il
prodotto, farlo testare agli utenti e osservare come lo utilizzeranno effettivamente, nelle
diverse specifiche situazioni. Ci si potrà allora accorgere che gli scenari immaginati
corrispondono quasi, ma non completamente, all’uso effettivo. Ma soprattutto potrà
capitare che l’interazione fra utente e prodotto faccia nascere nuovi bisogni, in modi
imprevisti. Tutto questo suggerirà di modificare il prodotto: senza queste modifiche, gli
utenti non saranno soddisfatti. Non è possibile valutare completamente l’adeguatezza
dello strumento ai suoi utenti, prima che questi lo usino effettivamente.
Ecco perché il modello a cascata tradizionale non può funzionare. Esso prevede
che gli utenti siano coinvolti nel processo solo in due momenti: all’inizio -per contribuire
a requisiti e specifiche-, e alla fine dopo il rilascio.
334
Roberto Polillo, op. cit., pp. 131-132.
335
Ivi, p. 133.
150
Figura 3 - Processo di progettazione e sviluppo tradizionale secondo il modello a cascata,
mostrato in Soro, (a cura di), Human Computer Interaction, p. 130.
336
R. Polillo, op. cit., p. 133.
337
Il primo prototipo sarà, in genere, piuttosto rudimentale: in molti casi, soltanto un mock-up
con il quale effettuare un primo confronto con gli utenti e con il committente. Al giro successivo,
sulla base di questo confronto, apporteremo le necessarie modifiche ai requisiti e al progetto, e
realizzeremo un secondo prototipo più evoluto.
151
d’uso diventano parte integrante del processo di progettazione. Ovviamente, nelle varie
iterazioni, le diverse attività avranno pesi diversi. Per esempio, al primo giro, dopo avere
specificato i requisiti, ci si concentrerà sulle attività di progettazione, mentre le attività
di realizzazione del primo prototipo richiederanno sforzi limitati. All’avanzare del
progetto lo sforzo complessivo si sposta progressivamente dalle fasi iniziali del ciclo
tradizionale -requisiti e progettazione-, alle fasi finali -test e rilascio 338.
Il processo di progettazione per prototipi successivi è il modello
concettualmente corretto per la realizzazione di sistemi complessi: il prodotto si vede
anche se in modo parziale fin dall’inizio e viene perfezionato in modo incrementale per
aggiustamenti successivi, le scelte effettuate possono essere sperimentate
anticipatamente e si possono scartare quelle sbagliate.
Questo modello iterativo può essere perfezionato in vari modi: nell’ambito
dell’ingegneria della usabilità assume particolare importanza la descrizione che ne dà lo
standard ISO 13407, che ha lo scopo di fornire una guida alle attività di progettazione
centrata sull’utente lungo il ciclo di vita dei sistemi interattivi basati su computer. Il
numero di prototipi e delle iterazioni da realizzare varia dal tipo di sistema che si deve
realizzare, per esempio, nel caso dei siti web di medie dimensioni, si rivela molto utile
organizzare il progetto in cinque successive macro-fasi di prototipazione, ciascuna
finalizzata alla produzione di un prototipo destinato a valutare specifici obiettivi, e
339
cioè :
- Primo prototipo (prototipo di navigazione): ha lo scopo di consolidare la struttura
informativa e di navigazione del sito.
- Secondo prototipo (prototipo di comunicazione): ha lo scopo di consolidare
l’impostazione grafica del sito e tutti gli aspetti relativi alla comunicazione.
- Terzo prototipo (prototipo funzionale): ha lo scopo di consolidare le funzioni interattive
del sito.
- Quarto prototipo (prototipo editoriale): ha lo scopo di consolidare i contenuti
informativi e la eventuale base dati del sito.
- Quinto prototipo (prototipo finale): ha lo scopo di valutare le prestazioni di
funzionamento del sito nell’ambiente di produzione finale.
338
R. Polillo, op. cit., p. 135.
339
Ivi, p. 137.
152
Figura 4 - Processo di progettazione e sviluppo per prototipi successivi, mostrato in Soro, (a
cura di), Human Computer Interaction, p. 134.
153
Per definire i requisiti che dovrà avere il sistema che si sta progettando è
necessario innanzitutto avere una chiara visione delle esperienze già presenti di artefatti
simili o affini al prodotto che vogliamo realizzare, che permetterà di cogliere le best
practices del web e sviluppare il nuovo progetto evolvendo servizi preesistenti che
presentano carenze o che sono deficitari.
È fondamentale quindi avere ben chiari gli obiettivi del progetto che si vuole
realizzare, cosa si vuole analizzare, dove si vuole intervenire e quali risultati si vogliono
raggiungere. Bisogna perciò capire quali attività stiamo analizzando, attraverso l’analisi
comparativa e il benchmarking delle esperienze già presenti in rete e avere una chiara
visione di quali sono gli strumenti che supportano l’attività, attraverso l’utilizzo degli
scenari. Inoltre è fondamentale avere una chiara visione di quali contenuti sono veicolati
dall’attività e chi sono gli attori che stiamo analizzando e che interagiranno con il nostro
prodotto.
Per approfondire la conoscenza dei potenziali utenti del nostro sistema sarà
necessario coinvolgere gli utenti da subito attraverso questionari e valutazioni sui
sistemi già presenti in rete. Questo ci permetterà di avere una visone più chiara degli
obiettivi e delle motivazioni che spingono i nostri potenziali ad utilizzare le piattaforme
user-generated content per creare e condividere contenuti e per capire la loro
percezione sul tema del diritto d’autore in rete e sulla conoscenza delle licenze open
content. In questo modo potremo procedere nell’analisi dei requisiti che il nostro
sistema dovrà possedere, andando a migliorare gli ambienti di creazione e condivisione
di contenuti già presenti in rete e la qualità dell’interazione utente-sistema attraverso le
opinioni dei potenziali utenti del nostro sistema e l’osservazione empirica delle loro
azioni nel svolgere determinati compiti richiesti.
Sarà fondamentale inoltre approfondire l’argomento delle tutela dei lavori
autoprodotti dagli utenti nelle piattaforme User-Generated Content, attraverso le
opinioni e i punti di vista degli esperti coinvolti in questo scenario. Questo ci permetterà
di analizzare più in profondità alcuni aspetti utili ad una maggiore comprensione delle
licenze Creative Commons e del loro utilizzo in rete.
154
CAPITOLO 4
Prima ricognizione sull’utilizzo delle licenze Creative Commons: i questionari ai
potenziali utenti e le interviste agli esperti
155
CAPITOLO 4
Prima ricognizione sull’utilizzo delle licenze Creative Commons: i questionari ai
potenziali utenti e le interviste agli esperti
4.1 Premessa
L’obiettivo di questa tesi è valutare la diffusione dell’uso delle CCPL e di come
queste influenzino l’attività di creazione di contenuti in rete, con particolare riguardo
agli ambienti collaborativi e di remix di contenuti. Scopo di questa valutazione è capire
come uno strumento giuridico come le licenze Creative Commons, possa contribuire a
dar luogo a nuove forme per la creazione collaborativa e il remix dei contenuti in rete, e
quindi capire se e come cambia la nozione di authoring con l’utilizzo delle CCPL.
L’obiettivo finale è quello di arrivare a definire un formato che serva a migliorare
esperienze di creazione collaborativa e remix di contenuti in rete valorizzati dall'utilizzo
di queste licenze, rendendo la conoscenza e la scelta delle CCPL più integrata nel flusso
di lavoro –quindi anche simultaneamente all’editing- e spieghi come agire nella scelta
della licenza più opportuna da applicare al proprio lavoro, rendendola un procedimento
più consapevole per l’utente.
Per questo è stato necessario un approccio metodologico alla comprensione del
fenomeno e alla conoscenza degli utenti che utilizzano la rete. Lo studio e l’analisi
effettuati sulle piattaforme per la creazione e condivisione di contenuti340 hanno messo
in evidenza caratteristiche comuni e criticità nelle esperienze già presenti in rete,
rivelando punti di forza e problematiche che necessitano di un ulteriore
approfondimento.
Per quanto riguarda i punti di forza emersi, è importante prendere atto che si
sta diffondendo sempre maggiormente la possibilità di authoring direttamente in rete
attraverso strumenti di editing collaborativo per la condivisione e il remix dei contenuti,
reso possibile dall’aumento delle piattaforme che permettono la creazione collaborativa
dei contenuti direttamente online.
Ognuno di noi oggi può creare, distribuire, riutilizzare contenuti pre-esistenti in
rete e ripubblicarli grazie a questi nuovi servizi che rendono facile e intuitiva per tutti la
catena di creazione e produzione di contenuti. Questa nuova Remixing culture ha
340
L’analisi dettagliata delle piattaforme prese in esame è disponibile nel primo capitolo e la
tavola comparativa in Appendice.
156
favorito l’aumento dei concorsi e dei progetti collaborativi dedicati a lavori rilasciati
sotto licenze non restrittive come il Copyleft Festival, il Video Remix Challenge 2008, e
dei progetti collaborativi come Opensourcecinema, Freeimagefestival, Romanzo Totale e
O.design.
Generalizzando, possiamo riassumere che le criticità rilevanti emerse da questa
ricognizione sul Web sono che molte delle piattaforme prese in esame, pur offrendo
come servizio addizionale l’editing e la creazione collaborativa e il remix, non utilizzano
le licenze libere come le CCPL per tutelare i lavori autoprodotti dagli utenti; tra queste ci
sono delle interessanti esperienze come Jamendo.com che permette l’applicazione
diretta delle CCPL al proprio lavoro attraverso un apposito step durante l’upload del
materiale, che permette di scegliere in modo autonomo e automatico la licenza. Un
limite è rappresentato però dal fatto che il materiale da pubblicare viene prodotto
offline, non vi è infatti possibilità di creare i lavori online attraverso editor, né in modo
indipendente né attraverso la collaborazione con gli altri utenti; altra interessante
esperienza è quella di Flickr.com che offre come servizio la possibilità di licenziare le foto
con le CCPL, che possono essere scelte dall’utente, ma solo accedendo in un’apposita
area del menu e non direttamente in upload.
Inoltre attraverso il monitoraggio dei forum di discussione e delle FAQ presenti
sui diversi siti che utilizzano le CCPL -tra cui Flickr o Jamendo o CcMixter-, si può
osservare come siano parecchi gli argomenti di discussione che riguardano la
conoscenza e l’utilizzo delle CCPL.
Tutto questo ha portato a riflettere sulla tutela dei contenuti autoprodotti dagli
utenti e riflettere sulla necessità di ripensare e ridefinire il concetto di copyright e di
authoring in rete.
Dai risultati emersi dalla ricognizione effettuata in rete è nata così l’esigenza di
approfondire il tema dell’utilizzo delle CCPL per valorizzare l’authoring collaborativo e il
remix in rete, con l’obiettivo di trovare un metodo efficace per promuovere e diffondere
le licenze Creative Commons: lo scopo è capire se si potrebbero avere maggiori risultati
positivi nella diffusione di queste licenze negli ambienti collaborativi, per esempio
migliorando il workflow attraverso un tutorial che metta in evidenza la questione dei
diritti d’autore e le licenze Creative Commons e che spieghi per step come agire per la
scelta delle licenze direttamente già durante l’editing, e capire se questo formato si
potrebbe integrare a esperienze già presenti in rete, andando a migliorarle.
157
Per questo motivo è stata fondamentale e necessaria la raccolta delle opinioni
degli utenti. Questa metodologia, usata per conoscere il punto di vista degli utenti di un
sistema, è uno strumento utile per far emergere problematiche spesso non considerate
inizialmente dai progettisti. Le opinioni degli utenti possono essere raccolte in diverse
fasi della progettazione: all’inizio per definire i punti chiave dello sviluppo del sistema,
nella fase dell’implementazione quando si testano i prototipi, e nella fase finale per
raccogliere le reazioni degli utenti e la loro soddisfazione in risposta al reale utilizzo del
sistema.
Uno dei metodi di raccolta delle opinioni degli utenti sono i questionari, usati per
raccogliere informazioni soggettive degli utenti e per avere spunti per la progettazione
del sistema, attraverso i dati risultanti dal questionario341.
In base alla ricognizione effettuata sul Web abbiamo quindi deciso di compiere
una ricerca, attraverso un questionario esplorativo online che ha permesso di estendere
la conoscenza degli utenti sulle abitudini di utilizzo del Web, degli strumenti di creazione
collaborativa e delle licenze Creative Commons, per capire se le conoscono, se le
utilizzano e la loro percezione su di esse.
Per la costruzione del questionario abbiamo utilizzato Google Docs and
Spreadsheet, un’applicazione online gratuita sviluppata da Google che permette di
creare documenti e fogli di calcolo online direttamente dal browser e condividerli con
altri utenti in rete, e che include i risultati già in diagrammi.
Per cogliere le esigenze di un target più ampio e definire meglio i profili dei
potenziali utenti interessanti da approfondire ai fini del progetto, il questionario è stato
somministrato in rete principalmente sui siti Facebook.com, Flickr.com, Jamendo.com,
Nonsolonews.it, Google Groups, attraverso il blog
ricercasucreativecommons.wordpress.com appositamente creato per questo scopo, in
rete dal 13 Novembre 2008 fino ad oggi.
Nel blog sono stati introdotti gli obiettivi della tesi e lo scopo del questionario
che l’utente stava andando a compilare, nonché i link agli esempi delle piattaforme
menzionate all’interno del questionario, per permettere agli utenti interessati di
341
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006, pp. 293-294.
158
accedervi più facilmente. In generale sono state formulate delle domande a risposta
multipla che riguardavano:
- la conoscenza e l’utilizzo degli strumenti Web “2.0” di creazione e di editing online;
- l’interesse verso il tema del diritto d’autore in rete;
- la conoscenza di Creative Commons e delle CCPL, e il loro utilizzo;
Per verificare l’usabilità e la correttezza, il questionario è stato fatto inizialmente
testare da tre utenti che hanno fatto emergere alcune criticità che sono state corrette
prima della pubblicazione definitiva in rete.
342
Le percentuali sono riferite al campione rilevato di 38 risposte al questionario.
159
mostrano quindi una divisione abbastanza equilibrata negli intervistati, tra chi non
conosce Creative Commons Italia e chi invece è informato del lavoro svolto dal gruppo.
Il 57% degli intervistati ammette di non conoscere i concorsi e le iniziative
dedicate ai lavori rilasciati sotto CCPL suggeriti nel questionario. I più conosciuti dal 22%
degli intervistati risultano comunque essere il Copyleft Festival di Arezzo, e per il 14% il
concorso Corti in Creative Commons.
Per quanto riguarda la conoscenza delle CCPL e il loro utilizzo, il 49% degli
intervistati ha affermato di aver sentito parlare di queste licenze ma di non avere le idee
chiare su di esse. Solo il 16% ha dichiarato di non averne mai sentito parlare.
Il 54% degli intervistati ha affermato però di non averle mai utilizzate, mentre il
24% dichiara di averle applicate ai propri lavori in rete. Il 29 % di questi ha affermato che
le licenze maggiormente utilizzate sono state le Attribution-Share Alike, mentre le
Attribution-No Derivative Works, le Sampling Plus e il Pubblico Dominio dai dati emersi
risultano essere quelle meno utilizzate con lo 0% di utilizzo.
Il 28% degli intervistati ha affermato di avere utilizzato le CCPL maggiormente
per licenziare musica o suoni e solo il 6% per i video. Il 22% ha dichiarato di averle
utilizzate per licenziare presentazioni multimediali, l’11% per le immagini e il 17% per
testi e siti Web.
Il 76 % sostiene inoltre che sarebbe importante utilizzare sempre le CCPL per la
creazione di contenuti in rete e solo il 16% afferma che -anche se le CCPL fossero più
diffuse- gli utenti continuerebbero comunque a riutilizzare materiale in rete senza
riconoscerne la paternità e ledendo così i diritti dell’autore.
Questi ultimi dati mostrano un potenziale atteggiamento positivo degli utenti
verso un utilizzo più coscienzioso dei contenuti in rete, un dato da non sottovalutare
perché riguarda un segmento dei potenziali utenti che potrebbero essere interessati ad
una maggiore educazione al diritto d’autore e all’utilizzo delle CCPL.
Il 69% degli intervistati sostiene che un accesso più immediato e più chiaro
all’applicazione delle CCPL potrebbe incoraggiarne maggiormente l’utilizzo, ma che
bisognerebbe comunque fare una promozione migliore in rete di queste licenze.
Il 39% di coloro che hanno utilizzato le CCPL ha affermato di aver trovato sempre
il procedimento di applicazione guidato molto chiaro, ma comunque il 42% ammette di
avere qualche dubbio sulla differenza di utilizzo tra una licenza e l’altra.
160
I dubbi riguardano, per il 29% degli utenti intervistati, l’utilizzo della licenza
Sampling Plus e per il 25% la possibilità di guadagnare dal proprio lavoro applicando la
licenza Attribution-Non-Commercial. Il 17% afferma inoltre di avere dei dubbi su cosa si
intende per opere derivative e un altro 17% su cosa si intende con la licenza Share Alike.
Solo il 4% afferma di avere dubbi sull’applicazione delle licenze ai propri lavori essendo
già iscritto alla SIAE. Inoltre l’8% non ha chiaro se le CCPL si possano applicare solo
online o anche per i lavori offline. Questi ultimi dati dimostrano che l’attuale
procedimento guidato di applicazione delle CCPL- presente sia sul sito ufficiale CC che in
altre piattaforme di condivisione- è valido ma allo stesso tempo forse non riesce a
risolvere in maniera adeguata i dubbi che un potenziale utente potrebbe riscontrare al
momento della scelta delle licenze.
Questo problema emerso dal questionario va ad aggiungersi alle criticità sul
meccanismo di applicazione delle licenze già emerse dal benchmarking effettuato in
rete, che ha mostrato come l’applicazione delle CCPL avviene spesso in un passaggio
separato dall’editing e dall’upload dei contenuti, vincolando l’utente ad entrare in
un’apposita area del menu per licenziare la propria opera, ma solo in una fase successiva
e finale.
343
L’avvocato Giuseppe Mazziotti è autore di numerose pubblicazioni in materia di diritto
comunitario, proprietà intellettuale, diritto dell'informazione e diritto della concorrenza e
membro del gruppo di lavoro di Creative Commons ed è consulente del Servizio Licenze Libere
(SeLiLi), entrambi istituiti presso il Dipartimento di Informatica e Telematica del Politecnico di
Torino.
344
Il Prof. J.C. De Martin è responsabile italiano di Creative Commons e co-direttore del centro
NEXA su Internet & Società del Politecnico di Torino.
161
lavoro Creative Commons Italia, che oggi fa capo al centro di ricerca NEXA su Internet e
Società del Politecnico di Torino.
Interessante è stato l’incontro relativo alla serie “I mercoledì di Nexa” 345 a cui ho
avuto il piacere e la fortuna di poter assistere, che mi ha permesso di approfondire e
reperire materiale su alcuni aspetti giuridici riguardanti la disciplina del diritto d’autore e
dei diritti connessi e mi ha dato modo di osservare come si muove il gruppo di lavoro
Creative Commons Italia, proponendo un tema all’ordine del giorno e discutendone con
tutti i partecipanti che contribuiscono attivamente con le proprie posizioni.
Fondamentale è stato l’incontro con il Prof. De Martin, che si è reso disponibile a
rispondere alle mie domande e a fornirmi preziose informazioni per approfondire la mia
conoscenza su Creative Commons. L’intervista con il Prof. De Martin ha inoltre dato
nuovi spunti di riflessione che hanno portato ad approfondire e ad esplorare altri punti
di vista sulla mia domanda di ricerca e a trovare la giusta direzione per lo sviluppo del
lavoro.
Sono state innanzitutto presentate al Prof. De Martin alcune delle criticità
emerse dalla ricognizione delle esperienze già presenti in rete, mostrando come a livello
tecnico e progettuale sia emerso che in alcune delle piattaforme il processo di authoring
risulti distaccato da quello di applicazione delle licenze, vincolando così l’utente ad
entrare in un’apposita area del menu per licenziare la propria opera solo
successivamente all’upload.
Questo aspetto potrebbe essere un potenziale fattore che influenza
negativamente l’utilizzo delle licenze da parte dei potenziali utenti, come ha confermato
anche il Prof. De Martin durante l’intervista, riconoscendo come «uno step finale di
questo tipo possa sfuggire completamente a certi utenti» e come «sia però più un
miglioramento tecnico del workflow dire “lo integriamo meglio, lo rendiamo più
evidente e più presente”».
Il fatto che il 49% degli utenti abbia sostenuto di aver sentito parlare di queste
licenze ma di non avere le idee chiare su di esse e che il 39% degli intervistati abbia
345
L’incontro si è svolto a Torino il 10 Dicembre 2008 presso il centro di ricerca Nexa su Internet e
Società del Politecnico di Torino, sul tema relativo alla proposta di direttiva sull’estensione dei
termini di protezione dei diritti connessi dei produttori di fonogrammi e degli artisti interpreti ed
esecutori. È stato inoltre presentato il libro del Dott. Giuseppe Mazziotti EU Digital Copyright and
The End User, Springer, 2008. Il comunicato e il documento di approfondimento relativo
all’incontro sono disponibili in rete all’indirizzo http://nexa.polito.it/direttivafonogrammi
162
affermato di aver trovato sempre il procedimento di applicazione delle licenze molto
chiaro, dimostra come l’attuale metodo di applicazione delle CCPL- presente sia sul sito
ufficiale CC che in altre piattaforme di condivisione- sia valido ed efficace, ma il fatto che
comunque il 42% abbia ammesso di avere dubbi sulla differenza di utilizzo di una licenza
piuttosto che un’altra, significa che allo stesso tempo forse questo meccanismo non
riesce a risolvere adeguatamente i dubbi che un potenziale utente potrebbe riscontrare
al momento della scelta delle licenze.
Da qui nasce l’esigenza di trovare un metodo progettuale che possa a risolvere i
dubbi che un potenziale utente potrebbe riscontrare al momento della scelta delle CCPL
mentre lavora in rete.
Il 69% degli intervistati ha sostenuto inoltre che un accesso più immediato e più
chiaro all’applicazione delle CCPL potrebbe incoraggiarne maggiormente l’utilizzo, ma
che bisognerebbe comunque fare una promozione migliore in rete di queste licenze.
Questo pone il problema di capire quale sia il metodo migliore per poter
pubblicizzare maggiormente queste licenze e sensibilizzarne così l’utilizzo da parte dei
potenziali utenti, allo scopo di trovare una soluzione progettuale a questo problema.
Secondo il Prof. De Martin «per una maggiore pubblicità si potrebbero utilizzare i
canali classici della pubblicità, ma non abbiamo chiaramente gli strumenti per farlo, non
abbiamo risorse per mettere annunci pubblicitari sui siti, banner, adwork di google ecc…
e quindi si può soltanto continuare come abbiamo fatto fin adesso con passaparola,
imitazione, non vedo grandi possibilità alternative. Oppure un’altra possibilità potrebbe
essere una pubblicità indiretta, nel momento in cui ci fossero dei casi eclatanti, che so la
RAI o un grande editore che adottasse queste cose e le pubblicizzasse, allora avremmo
una pubblicità indiretta».
Il problema quindi è quello di cercare di raggiungere una più ampia fetta di
potenziali utenti, trovando un metodo che riesca a sensibilizzare più di una pubblicità
generica e a costi minori. Questo si potrebbe attuare andando ad agire direttamente
sull’utente effettuando un miglioramento tecnico del workflow che integri meglio e
renda più evidente all’utente questo aspetto.
Questo «miglioramento tecnico che integri meglio e renda più evidente questo
aspetto all’utente direttamente nel dominio applicativo e quindi mentre sta creando
qualcosa», come confermato dal Prof. De Martin, «sarebbe più efficace di una pubblicità
163
generica in rete rivolta a tutti e a nessuno perché sarebbe rivolta esplicitamente alle
persone interessate a pubblicare. Quindi questo sarebbe sicuramente molto meglio».
Tra i dati emersi dal questionario inoltre, i più rilevanti ai fini progettuali hanno
mostrato come il 76% degli intervistati abbia sostenuto che sarebbe importante
utilizzare sempre le CCPL per la creazione di contenuti in rete mentre solo il 16% ha
affermato che -anche se le CCPL fossero più diffuse- gli utenti continuerebbero
comunque a riutilizzare materiale in rete senza riconoscerne la paternità e ledendo i
diritti dell’autore.
Il tema dei diritti d’autore in rete sembra quindi non essere sottovalutato
totalmente dagli utenti: infatti il 53% degli intervistati si trova d’accordo con
l’affermazione posta, secondo la quale il poco controllo dei materiali pubblicati in rete
può essere la causa di una maggiore pubblicazione di materiale lesivo del diritto
d’autore in rete e il 33% degli intervistati ha affermato che con una maggiore tutela sui
contenuti autoprodotti dagli utenti si potrebbe scoraggiare la creazione e il riutilizzo di
materiale lesivo del diritto d’autore, soprattutto in siti come YouTube.
Questo atteggiamento positivo da parte degli utenti verso un utilizzo più
coscienzioso dei contenuti in rete, è un dato da non sottovalutare perché riguarda un
importante segmento di potenziali utenti che potrebbero essere interessati ad una
maggiore educazione al diritto d’autore e all’utilizzo delle CCPL.
Infatti, come ha affermato anche il Prof. De Martin durante l’intervista, «sino ad
adesso la maggior parte delle persone poteva vivere la sua intera vita ignorando
sostanzialmente l’esistenza del copyright». Ma oggi con lo sviluppo del Web la situazione
è cambiata ed è necessaria la conoscenza dei principi di base del diritto d’autore, che
potrebbero essere già insegnati nelle scuole. Infatti «il vero ostacolo non è tanto
spiegare le licenze perché spiegare le licenze è banale, se uno sa già cos’è il diritto
d’autore- ma è spiegare il diritto d’autore».
Per cui il vero ostacolo da superare è educare al diritto d’autore, che è un fatto
nuovo nella nostra cultura ma che non può più essere sottovalutato.
In un contesto come questo quindi, dove regna l’autoproduzione e
pubblicazione dei contenuti in rete, non essendo quindi più possibile per i cittadini
ignorare i principi base del diritto d’autore, è necessario capire se si possa insegnare il
diritto d’autore e l’uso delle licenze libere in rete e in che modo.
164
In realtà, secondo il Prof. De Martin, per spiegare il diritto d’autore sono
necessarie delle risorse come quelle che hanno la SIAE o i grandi editori. Creative
Commons cerca di educare al diritto d’autore con le risorse di un progetto volontario, e
lo fa distribuendo strumenti tecnici che si basano sul diritto d’autore, ma non solo.
Creative Commons infatti è un’opera educativa, un processo continuo di discussione che
avviene attraverso incontri, articoli e festival.
Naturalmente più aumentano i contenuti autoprodotti dagli utenti in rete, più
aumenta il numero di potenziali utenti delle licenze libere. Questo porta alla necessità di
diffondere maggiormente la conoscenza delle CCPL e aumenta la necessità di
informazioni più precise da parte degli utenti sul loro utilizzo.
Quest’opera educativa è portata avanti anche da SeLiLi346, progetto del centro di
ricerca NEXA, del Politecnico di Torino e dell’Assessorato all’Innovazione della Regione
Piemonte. L’obiettivo di SeLiLi è quello di fornire servizi informativi e consulenza legale,
tecnologica ed economica sul diritto d’autore e sulle licenze libere. Questo per
incoraggiare e sostenere l’utilizzo delle licenze di diritto d’autore ispirate alla
condivisione del sapere e delle conoscenze.
È importante inoltre sottolineare come Creative Commons abbia lanciato nel
Settembre 2008 una ricerca347 per esplorare la differenza tra l’uso commerciale e non
commerciale dei contenuti, per capire come questi usi siano concepiti dalle community.
Infatti vista la crescita del numero di opere rilasciati sotto CCPL348, Creative Commons
vuole provvedere a dare informazioni aggiuntive ai creatori riguardo il contesto nel
quale la clausola Non-Commercial può favorire o impedire le loro intenzioni, con
riguardo ai lavori che scelgono di condividere in rete. Creative Commons vuole essere
sicura che gli utenti capiscano chiaramente questo. L’obiettivo della ricerca è anche
quello di contribuire ad una migliore comprensione di alcune complessità sulla
distribuzione digitale dei contenuti349.
A questo proposito, parlando di educazione al diritto d’autore, possiamo
aggiungere la questione dei diritti connessi: come abbiamo visto nel secondo capitolo,
346
http://selili.polito.it
347
http://creativecommons.org/press-releases/entry/9554
348
Come si legge nel comunicato stampa del 18 settembre 2008, disponibile sul sito ufficiale
Creative Commons all’indirizzo http://creativecommons.org/press-releases/entry/9554, oggi le
opere presenti in rete rilasciate sotto licenza Creative Commons sono circa 130 milioni.
349
La ricerca al momento della stesura di questo lavoro (Febbraio 2009) è ancora in corso.
165
Glorioso e Mazziotti350, per sensibilizzare maggiormente i potenziali utenti delle CCPL
sulla necessità di assicurarsi la disponibilità di tutti i diritti sull’opera licenziata,
propongono di inserire un avvertimento che faccia tener conto al licenziante che non
siano violati i diritti di terze parti ma senza entrare nei dettagli giuridici nel modulo di
selezione delle CCPL in rete.
Come ha confermato durante l’intervista il Prof. De Martin, questa fase
educativa sarebbe essenziale per un potenziale utente delle CCPL, ma non dovrebbe
essere troppo tecnica né troppo pesante per evitare che questo si infastidisca durante la
creazione del contenuto, ma il tema dei diritti è un problema che non si dovrebbe
neanche nascondere per evitarlo, perciò bisognerebbe trovare un giusto bilanciamento.
Questa educazione al diritto d’autore si potrebbe quindi inizialmente migliorare
attraverso la progettazione un tutorial che renda la conoscenza dei principi base del
diritto d’autore e la scelta delle CCPL più integrata nel flusso di lavoro -quindi
simultaneamente all’editing- e che spieghi attraverso opportuni avvertimenti e aiuti
guida sia tecnici che giuridici, come agire nella scelta della licenza più opportuna da
applicare al proprio lavoro, rendendola un procedimento più consapevole per l’utente.
Un miglioramento del workflow potrebbe quindi sensibilizzare maggiormente i
potenziali utenti all’utilizzo delle licenze libere per i lavori autoprodotti, perché come ha
confermato il Prof. De Martin in questo modo «l’utente sarebbe più sensibile che esiste
questo aspetto e lo prenderebbe maggiormente in considerazione».
Da questo però è scaturita una domanda importante e non sottovalutabile da
parte del Prof. De Martin, che ha infatti sostenuto che «sarebbe interessante parlare con
chi ha fatto le cose già esistenti, per chiedergli perché non l’ha fatto. Perché magari
qualcuno ritiene che l’argomento dei diritti interessa poco o che rischia di distrarre dalla
cosa principale… sarebbe interessante capire perché non è stato già fatto quello che dice
lei, capisce? Ma non perché quello che dice lei non sia auspicabile, ma perché magari ci
sono delle obiezioni, magari ci han provato e hanno rinunciato perché gli utenti si
infastidiscono a questo step aggiuntivo… Però ovviamente dal punto di vista Creative
Commons sono d’accordo, sarebbe una cosa opportuna farlo».
350
Glorioso, A.- Mazziotti, G., Alcune riflessioni sulle licenze creative commons e i diritti connessi
degli artisti interpreti ed esecutori, dei produttori di fonogrammi e degli organismi di diffusione
radiotelevisiva, in “Il diritto di autore”, Rivista trimestrale della Società Italiana degli Autori ed
Editori, Vol. 79 (2) Giuffrè Editore, Milano, Aprile-Giugno 2008.
166
Questa affermazione del Prof. De Martin ci ha dato un nuovo spunto di
riflessione per affrontare il problema, quello della necessità di avere un parere più
tecnico in proposito. Per questo è stato contattato via e-mail Victor Stone,
amministratore del sito CcMixter.
351
O’Reilly, T., Cos’è il Web 2.0. Design Patterns e Modelli di Business per la prossima
generazione di software disponibile su http://www.awaredesign.eu/articles/14-Cos-Web-2-0
352
V. Di Bari, op. cit., p. 13.
353
http://creativecommons.org/weblog/entry/12757
167
permettere di effettuare il download e la condivisione del proprio lavoro sotto licenze
Creative Commons. Il test è stato lanciato con la partnership di Stanford, Duke, UC
Berkeley, UCLA e UCTV. Come si legge nel comunicato stampa pubblicato anche sul blog
ufficiale di YouTube354:
We are always looking for ways to make it easier for you to find, watch, and share
videos. Many of you have told us that you wanted to take your favorite videos
offline. So we’ve started working with a few partners who want their videos shared
universally and even enjoyed away from an Internet connection.
Many video creators on YouTube want their work to be seen far and wide. They
don’t mind sharing their work, provided that they get the proper credit.
Using Creative Commons licenses, we’re giving our partners and community more
choices to make that happen. Creative Commons licenses permit people to reuse
downloaded content under certain conditions.
Un’altra iniziativa che sta prendendo piede in rete è quella che vede la
possibilità di integrare le licenze Creative Commons all’interno del popolare social
network Facebook355 portata avanti proprio da uno dei gruppi presenti all’interno del
social network356. Infatti attualmente, come si legge sulle Condizioni d’uso della
piattaforma, quando l’utente carica un contenuto su Facebook concede alla Società la
licenza di utilizzare, copiare, eseguire, esporre in pubblico, riformattare estrarre e
distribuire questi contenuto per qualunque scopo commerciale, pubblicitario sul sito o su
canali collegati al sito il proprio lavoro e di mostrarlo nella piattaforma, analogamente a
quanto avviene su YouTube. Come si legge sul sito ufficiale Creative Commons quello
che non è chiaro su Facebook è cosa esattamente gli altri possano fare con ciò che
l’utente pubblica. Qualcuno potrebbe non essere d’accordo che gli altri per esempio
riutilizzino o condividano le immagini caricate e Creative Commons può aiutare in
questo caso gli utenti a specificare gli utilizzi che si vogliono concedere agli altri.
Come abbiamo visto precedentemente, altre esperienze di piattaforme di
creazione e condivisione di contenuti offrono già come servizio addizionale la possibilità
di applicare licenze opencontent, ma spesso vincolano l’utente a scegliere
eventualmente di applicare le CCPL entrando in un’apposita area del menu.
Questo fa sì che il processo di authoring risulti totalmente separato dal processo
di applicazione delle licenze, e che l’utente che non conosce le CCPL non sia incoraggiato
354
http://www.youtube.com/blog?entry=Mp1pWVLh3_Y
355
Per approfondire questo argomento è possibile visitare il sito ufficiale Creative Commons
all’indirizzo http://wiki.creativecommons.org/Facebook_CC_Integration/BoRR/BasicInfo
356
È possibile visitare il gruppo su Facebook all’indirizzo
http://www.facebook.com/group.php?gid=55178542061
168
e sensibilizzato ad applicarle. Infatti l’unico modo che l’utente ha di venire a conoscenza
di queste licenze è quello di interagire col sito, partecipando alle discussioni sul forum o
iscrivendosi ai gruppi tematici presenti sul sito. In questo caso l’utente più curioso
potrebbe decidere di cercare maggiori informazioni sul sito esplorando le diverse voci
presenti nel menu e scegliendo l’opzione Creative Commons, ma -come ha anche
confermato il Prof. De Martin- uno step finale di questo tipo ad alcuni utenti può
sfuggire completamente.
La necessità è quindi quella di migliorare il workflow di questi ambienti per la
creazione collaborativa e il riutilizzo dei contenuti in rete, rendendo la questione dei
diritti d’autore e la possibilità di scegliere Creative Commons più visibile e più integrata
nel flusso di lavoro.
In base al suggerimento del Prof. De Martin, per capire in che modo si potrebbe
integrare un tutorial che mantenga viva e presente la questione dei diritti d’autore
all’interno di un ambiente collaborativo in rete e che garantisca un continuous learning
process sull’uso delle CCPL, è stato contattato via e-mail Victor Stone, amministratore
del sito CcMixter. Dopo avergli brevemente spiegato gli obiettivi della tesi e come
CcMixter sia uno dei casi studio presi in esame, abbiamo chiesto a Stone un parere
tecnico sulla possibilità di integrare un tutorial che permettesse agli utenti di rendere
l’applicazione delle CCPL più integrata nel flusso di lavoro, permettendo la scelta e
l’applicazione delle licenze simultaneamente al processo di creazione, con avvertimenti
e aiuti-guida sia tecnici che giuridici. Inoltre, poiché ai fini progettuali è fondamentale
capire se sia mai stata pensata una soluzione di questo tipo, abbiamo chiesto a Victor
Stone se, in caso affermativo, siano stati riscontrati eventuali problemi derivanti da
un’applicazione di questo genere e quali.
Victor Stone ha spiegato come «Musician (…) just want to make music. Anything
the makes them more productive, makes their music better or spreads the
word (publicity) is what we use as criteria for what features to add
to the site. We try to make all the legal stuff as transparent as possible and focus on the
music».
Questo ha dato una ulteriore conferma all’idea base che sembra accompagnare
queste piattaforme di creazione collaborativa di contenuti in rete, cioè quella di rendere
più produttivi gli utenti, migliorare le loro prestazioni artistiche e pubblicizzare questi
lavori su larga scala, fornendo agli utenti il materiale legale nel modo più trasparente
169
possibile -e quindi attraverso FAQ e Terms of service- ma l’obiettivo principale resta
quello di mantenere l’utente concentrato sulla produzione del contenuto.
Questo concetto è spiegato anche da O’Really357, che spiega come la protezione
della proprietà intellettuale limiti il riutilizzo e impedisca la sperimentazione. Infatti,
come abbiamo visto, sono ancora parecchie le piattaforme di condivisione e remix dei
contenuti che non utilizzano licenze opencontent per la tutela dei lavori autoprodotti
dagli utenti, pur offrendo importanti servizi come l’editing collaborativo e il remix dei
video direttamente online attraverso applicazioni web-based.
Ma poiché oggi i benefici vengono proprio dalla creazione collaborativa è
necessario limitare le barriere all’adozione, progettare per l’hackability e la remixability,
seguire gli standard e utilizzare le licenze con meno restrizioni possibili. Questo è un
elemento di fondamentale importanza da tenere conto ai fini progettuali, perché è
necessario integrare questo learning process in un contesto dove l’obiettivo principale è
e resta quello di creare e condividere in modo globale i contenuti, garantendo la
produttività degli utenti.
Alla luce di quanto emerso dalle opinioni degli utenti nel questionario,
dall’intervista al Prof. De Martin e a Victor Stone, nasce l’esigenza di rispondere ad
alcuni bisogni fondamentali:
1. divulgare la conoscenza del diritto d’autore in rete, spiegando i principi base del
copyright e la tutela dei propri diritti e di quelli dei terzi durante il flusso di lavoro;
357
Cos’è il Web 2.0. Design Patterns e Modelli di Business per la prossima generazione di software
disponibile su http://www.xyz.reply.it/Web20/
170
5. garantire una pubblicità delle licenze Creative Commons in rete più mirata e non
generica.
Questi bisogni emersi necessitano ora di una analisi più approfondita che
permetta di trovare una soluzione progettuale adeguata, che possa garantire una
soluzione efficace ad ognuno di questi bisogni.
Questo sarà possibile attraverso le valutazioni di usabilità da parte degli utenti,
secondo un criterio user centered -cioè centrato sull’utente- che fornisca ulteriori spunti
di riflessione per modificare e migliorare la realizzazione del sistema. Infatti, secondo
questo approccio metodologico, è fondamentale mettere da subito in primo piano i
bisogni e le caratteristiche degli utenti, analizzando i compiti che dovranno svolgere con
il sistema e valutando ripetutamente il prototipo e le nuove soluzioni proposte,
ricavando suggerimenti dall’osservazione empirica delle performance degli utenti358.
358
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006, p. 291.
171
CAPITOLO 5
172
CAPITOLO 5
Web “2.0” e licenze Creative Commons. Progettazione di un tutorial a sostegno
degli utenti nell’utilizzo delle CCPL durante l’authoring in rete, secondo la
metodologia di progettazione User-Centered.
5.1 Premessa
L’analisi dei risultati del questionario esplorativo somministrato in rete ai
potenziali utenti delle licenze Creative Commons ha portato alla luce bisogni e necessità
degli utenti riguardo al tema del diritto d’autore, e hanno permesso di conoscere e
capire le esigenze dei potenziali utenti delle piattaforme User Generated Content. Questi
risultati, insieme alle considerazioni e agli spunti di riflessione che hanno apportato le
interviste agli esperti J.C. De Martin e Victor Stone, hanno portato all’idea di trovare una
soluzione tecnologica che possa migliorare il workflow delle piattaforme di creazione e
condivisione di contenuti già presenti in rete.
L’idea progettuale è quella di sviluppare uno strumento a sostegno dell’utente,
che promuova una strategia di apprendimento del diritto d’autore in rete e che
sensibilizzi e diffonda l’utilizzo delle licenze Creative Commons in tutte le fasi del flusso
di creazione dei contenuti in rete.
Per arrivare a definire questo strumento seguiremo l’approccio metodologico
user-centered dell’interaction design, che ci permetterà di determinare i requisiti del
sistema attraverso le varie fasi che prevede tale metodologia, prendendo in
considerazione l’utente sin dal principio. Ci concentreremo quindi sulla qualità
interattiva del nostro sistema, prendendo in considerazione le teorie principali sui
concetti chiave di usabilità e esperienza utente. Infatti alla luce di quanto emerso nella
fase di ricerca condotta finora, avvalorata dalle opinioni degli esperti a cui ci siamo
rivolti per avere un parere più tecnico, è nata l’esigenza di progettare un sistema che,
partendo dall’analisi dei bisogni e delle necessità degli utenti, sia usabile per gli utenti a
livello interattivo, ma che renda anche l’interazione gratificante e soddisfacente per
l’utente.
Seguendo l’approccio metodologico user-centered design, in questo capitolo
mostreremo le varie fasi che affronteremo per l’analisi dei requisiti del sistema che
vogliamo progettare. Inoltre, attraverso l’analisi delle teorie e delle tendenze di ricerca
sulla qualità dell’interazione, cercheremo di sviluppare il nostro sistema anche in base ai
173
principi dell’approccio User-Experience, che ci permetterà di valutare la qualità
interattiva del nostro sistema in base all’esperienza utente, studiando le reazioni
soggettive dei potenziali utenti del nostro sistema quali il divertimento derivato
dall’utilizzo, la gratificazione, la piacevolezza estetica, le reazioni emozionali e
l’autoaffermazione.
- piattaforme user generated content che offrono servizi addizionali quali l’editing on
line;
- piattaforme user generated content che offrono la possibilità di licenziare i contenuti
autoprodotti dagli utenti sotto licenze libere.
359
La ricognizione delle esperienze in rete, analizzate caso per caso, è presente nel primo
capitolo.
360
Roberto Polillo, op. cit., p. 148.
361
La tabella comparativa delle piattaforme Web analizzate è disponibile in Appendice.
174
attraverso l’utilizzo di appositi strumenti messi a disposizione dalle piattaforme come
servizi addizionali e in base alla possibilità di effettuare remix di contenuti di ogni
genere. È importante sottolineare che tutte e tre le piattaforme prese in esame offrono
già la possibilità di licenziare i lavori sotto CCPL. Su queste tre piattaforme si è proceduto
quindi ad un esame più approfondito, per cercare punti di forza e debolezze che
potessero essere di aiuto nell’analisi dell’attività e nella formulazione dei requisiti del
nuovo sistema.
4. Foto pubblicata.
362
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006, p. 297.
175
4.2.1 Cliccare sotto l’immagine o Entrare nel menu Esplora
4. Remixarlo offline
176
5. Rientrare sul sito
6. Cliccare su Upload
178
utilizzato l’editor di fotoritocco con facilità. Nel momento in cui gli è stato chiesto di
andare avanti e decidere in che modo rilasciare la foto pubblicata si sono ritrovati
spaesati, infatti non avevano pensato a questa possibilità. Per loro il compito da svolgere
poteva essere terminato con la pubblicazione dell’immagine in rete. A quel punto, sotto
suggerimento, hanno iniziato a navigare nel menù per cercare informazioni e dopo varie
prove hanno trovato all’interno del menù Esplora la voce Creative Commons.
Incoraggiati a proseguire sono andati avanti nel procedimento ma senza capire
veramente cosa stavano facendo.
Successivamente gli utenti sono stati invitati a ripercorrere il flusso di lavoro
svolto e ad indicare in quali momenti, secondo il loro parere, sarebbe stato utile e
necessario avere maggiori informazioni sul tema dei diritti e sulla possibilità di scegliere
Creative Commons. Gli utenti hanno suggerito che avrebbero trovato più sensato essere
informati di questa possibilità di scelta già durante l’upload, ad esempio quando
l’utente, per impostare il tipo di privacy da attribuire all’immagine, è chiamato a
scegliere tra il default pubblico e privato. La stessa cosa è stata avvertita dagli utenti
quando si utilizza l’editor di fotoritocco online PicNik, perché né durante il flusso di
lavoro né durante il salvataggio dell’immagine sono stati informati di questa possibilità.
Secondo gli utenti che si sono sottoposti alle valutazioni infatti, se non si fa presente
questo aspetto dei diritti e non lo si informa esplicitamente, l’utente non si pone il
problema. Gli utenti hanno inoltre suggerito che bisognerebbe dare più informazioni
aggiuntive anche in seguito magari con dei banner, oppure hanno suggerito di poter
essere messi al corrente di questa questione ad esempio in seguito alla pubblicazione,
quando tornano nella pagina personale.
2. Nel caso di CcMixter gli utenti si sono trovati spaesati nella navigazione del
sito, hanno cercato maggiori informazioni navigando, ma con scarsi risultati. Hanno
compreso di poter ascoltare e scaricare brani rilasciati sotto licenze libere e di poterli
riutilizzare liberamente senza violare il copyright.
3. Nel caso di Total Recut è stato chiesto agli utenti di interagire con la
piattaforma allo scopo di creare un remix video con altri file utilizzando l’editor offerto
dal sito stesso. Quando hanno provato a caricare un video dal pc che stavano
utilizzando, non hanno trovato difficoltà e hanno accolto con piacere il fatto di poter
179
caricare materiale anche da altre piattaforme web. Nella fase finale di caricamento
alcuni utenti hanno cliccato automaticamente l’avviso apparso sulla finestra di lavoro
che avvertiva di non violare le condizioni d’uso del sito e che il materiale che stavano
caricando veniva licenziato sotto CCPL, senza leggere le condizioni d’uso. Altri utenti
trovandosi di fronte all’avviso non hanno portato a termine l’upload.
363
Secondo Cooper, esperto di interazione uomo-macchina, un personaggio è una descrizione
testuale di finzione di un ipotetico utilizzatore di un sito web o di un prodotto interattivo, un
utente modello rappresentativo di una classe di utilizzatori che condividono analoghe strategie di
comportamento e con obiettivi simili. Questo metodo consente di incorporare nel progetto le
conoscenze acquisite sui potenziali utilizzatori del nostro sistema attraverso le metodologie di
raccolta dati come i questionari, l’osservazione sul campo, le interviste e i focus group, in modo
da ottenere una guida efficace nel corso del design del prodotto. Il metodo dei personaggi
rappresenta un concetto centrale dell’approccio metodologico di progettazione Goal-Directed
Design, per il quale è fondamentale che il prodotto interattivo sia costruito in funzione dei reali
obiettivi degli utilizzatori.
364
Secondo la definizione di Crevola e Gena, (op. cit., pp. 10-14) i personaggi primari sono coloro
per i quali il sistema verrà progettato, i personaggi secondari sono coloro che saranno soddisfatti
dall’interfaccia realizzata ma che richiedono aggiustamenti e funzionalità aggiuntive, i personaggi
supplementari coloro che sono interessati ma non diretti utilizzatori del sistema, e i personaggi
negativi coloro che non utilizzeranno mai l’interfaccia.
180
5.5.1 Scheda Personaggio Primario
Antonella, 27 anni
Studentessa post-laurea
Personaggio primario
Antonella ha 27 anni e per motivi studio vive per alcuni periodi in città
diverse. Ha una grande passione per la fotografia, anche se per ora è solo
una attività amatoriale. Non ha grande dimestichezza con il pc, ma negli ultimi tempi
utilizza spesso la rete connettendosi con una Internet Key, soprattutto i social network
come Facebook, con cui si tiene in contatto con i suoi amici e condivide con loro le sue
foto. Ultimamente, proprio grazie a un amico, ha iniziato ad avvicinarsi anche ad altre
piattaforme di photosharing in rete, dove ha scoperto di poter condividere le sue foto
più artistiche con altri utenti che come lei amano la fotografia.
Non ha mai pensato di rilasciare le sue foto in modo libero in rete, perché non
conosce le licenze Creative Commons.
Un tutorial che la informasse dell’esistenza delle licenze Creative Commons
sarebbe molto utile per lei, perché la metterebbe a conoscenza di queste licenze e
l’aiuterebbe nel processo di apprendimento sull’utilizzo e applicazione di queste licenze.
Luca, 29 anni
Web Designer
Personaggio secondario
Luca vive a Sassari, ha 29 anni e realizza siti web per aziende e privati.
Ha sempre avuto una grande passione per la musica, che ha coltivato
suonando fino a qualche anno fa in un gruppo. Passa molte ore al giorno davanti al
computer per lavoro, ma nel tempo libero si diverte a creare musica con alcuni software
di editing come Reason, che spesso utilizza come file musicali nei siti che crea per le
aziende. Naviga in rete per molte ore al giorno dal suo portatile attraverso un router Wi-
FI e ha scoperto da poco che esistono diverse piattaforme che permettono la
181
condivisione e il remix di musica, e vorrebbe iniziare a farne parte per condividere la sua
musica con altri utenti che hanno la sua stessa passione.
Navigando in rete ha sentito parlare delle licenze Creative Commons, ma non le
ha mai applicate alla sua musica. Crede però che sia fondamentale un minimo di tutela
sui lavori autoprodotti dagli utenti in rete e vorrebbe imparare a conoscerle meglio e ad
applicarle anche alle sue creazioni musicali.
Potrebbe quindi interagire con il tutorial per ricevere maggiori informazioni sulle
CCPL e imparare ad utilizzarle magari direttamente mentre utilizza le piattaforme di
condivisione.
Francesca, 25 anni
Neo-laureata
Personaggio negativo
182
affrontato efficacemente e che la conoscenza di queste licenze non sia molto chiara per
chi si avvicina per la prima volta al mondo Creative Commons. Avrebbe gradito un
sistema che l’avesse aiutata da subito a conoscere questo mondo e a farne parte, per
questo trova che un tutorial integrato in questi ambienti collaborativi potrebbe essere
utile per tutti coloro che creano, diffondono e riutilizzano in rete contenuti.
365
Uno scenario d’uso è una narrazione di una possibile storia dell’uso del sistema da parte di
uno specifico utente. Descrive cioè come un personaggio interagirebbe con il prodotto per
portare a termine determinati compiti. Esso contiene in forma narrativa la sequenza di azioni che
dovrebbe essere portata a termine per raggiungere un determinato obiettivo. Ciò che rende
importanti gli scenari è la presenza delle informazioni qualitative che si possiedono grazie al
personaggio costruito in base alla ricerca effettuata sugli utenti. Gli scenari possono essere
classificati in scenari dell’attività, quando descrivono attività esistenti, o in scenari di envisioning
quando si immaginano nuove attività, documentando passo per passo le azioni compiute dagli
utenti.
183
“Luca ha creato un brano musicale che vorrebbe remixare con altri file creati da altri
utenti come lui, per creare un’opera nuova. Ha paura però di utilizzare altri brani in rete
per evitare problemi sui diritti. Decide così di provare ad utilizzare il sito CcMixter, che
utilizza le licenze Creative Commons, potendo così scegliere tra uno dei brani già
presenti sulla piattaforma e rilasciati con licenze d’uso libere. Decide così prima di tutto
di caricare anche il suo brano così che anche gli altri possano riutilizzarlo nei propri
remix.
Entra quindi sul sito CcMixter, crea il proprio account e clicca sul pulsante Submit
Samples. Compila la schermata che gli si apre per effettuare l’upload del proprio brano,
scegliendo il file, attribuendogli dei Tags che lo descrivano e dandogli un nome e una
descrizione:
A questo punto deve scegliere una licenza libera da attribuire al suo brano. Deve
scegliere obbligatoriamente tra due licenze: la Attribution o la Attribution-Non
Commercial. Luca non conosce benissimo queste licenze, ne ha sentito solo parlare e
non sa cosa comporta l’utilizzo di una licenza di una piuttosto che un’altra e quale sia
quella più adatta a lui. È costretto quindi a cercare in rete informazioni maggiori sulle
licenze che lo aiutino a capire meglio:
184
Decide in seguito di rilasciare il suo brano con licenza Attribution per permettere a
chiunque di riutilizzarlo dovendo solo attribuirgli la paternità. Adesso può scegliere i
brani già presenti sul sito per il remix. Entra così sul pulsante Remixes e naviga tra i
diversi brani presenti sul sito:
185
Può decidere di ascoltare i brani in streaming per scegliere quelli che preferisce per il
remix:
Una volta deciso quale brano è adatto al suo remix lo può scaricare sul proprio Pc
cliccando sul pulsante Download:
Luca cerca sul sito se c’è la possibilità di utilizzare un software di editing online per
lavorare sul brano che ha scelto, ma si accorge che deve lavorare offline. È costretto così
ad uscire dal sito e aprire il suo programma di editing audio Reeson e lavorare in locale.
Una volta terminato il remix dei brani, rientra sul sito CcMixter per caricare il nuovo file
remixato ed effettua il login:
186
Ed ora può caricare il brano cliccando su Submit Remix:
Compila la schermata che gli appare, dove deve indicare quale brano ha utilizzato per il
remix, scegliere un nome, attribuire dei Tags e descrivere il nuovo brano. Non gli viene
chiesto di scegliere una licenza per il nuovo brano perché va in automatico nella licenza
presente sul brano remixato”.
Dallo scenario emerge che in una remixing community come CcMixter, l’utente non ha la
possibilità di creare la musica direttamente online attraverso un apposito strumento di
editing, per cui l’utente è costretto a lavorare offline e rientrare in seguito sul sito per
caricare i lavori. Pur essendo un progetto Creative Commons, non viene spiegato in
maniera più dettagliata l’utilizzo delle licenze. È dato quasi per scontato che l’utente
abbia già delle conoscenze approfondite sulle licenze e sul loro utilizzo.
187
5.6.2 Scenario dell’attività su Flickr.com
Titolo: Condividere foto su Flickr.com e renderle disponibili per il riutilizzo in rete sotto
CCPL
Obiettivo: L’utente deve portare a termine il processo di creazione e condivisione delle
proprie immagini e rilasciarle sotto CCPL.
Attori coinvolti nell'attività: Antonella, 27 anni, appassionata di fotografia
Descrizione attività:
“Antonella vuole condividere in rete le sue foto e ha deciso di farlo con Flickr.com Entra
così sul sito Flickr e crea un proprio Account. Una volta creato l’Account, può caricare le
sue foto sul sito. Clicca su Carica foto e sceglie le foto dal suo Pc:
Dopo aver scelto le immagini da caricare, procede con l’upload. Una volta terminato, le
immagini caricate da Antonella vanno in automatico in default Pubblico perché lo spirito
di Flickr è quello di condividere con tutti le proprie immagini. Per questo Antonella ha
scelto Flickr per condividere le sue immagini: avere visibilità e dare a tutti la possibilità
di riutilizzarle:
188
Può aggiungere Tag e descrizioni e salvare le foto su Flickr. A questo punto può decidere
di utilizzare l’editor di fotoritocco online PicNik che Flickr mette gratuitamente a
disposizione dei propri utenti:
189
Con PicNik può così tagliare, modificare la luminosità delle sue immagini o aggiungere
effetti proprio come avviene nei più comuni software di editing in locale:
Dopo aver modificato la sua foto con PicNik, Antonella può procedere alla pubblicazione
su Flickr:
190
decidere di applicare una licenza libera, per consentire agli altri di riutilizzare la sua
immagine per altri lavori.
Per fare questo dovrebbe navigare il menu Esplora e scegliere la voce Creative Commons
oppure cliccare sotto l’immagine:
La pagina che si apre mostra una panoramica di immagini presenti su Flickr rilasciate
sotto CCPL e una breve spiegazione delle licenze. In fondo trova la il link su cui cliccare
per procedere all’applicazione della licenza alla sua foto:
191
Antonella potrebbe scegliere la licenza che preferisce applicare alla sua foto, che
verrebbe in seguito applicata di default a tutte le immagini che pubblicherà in futuro”.
Si apre il software di editing online Kaltura che permette di lavorare sul filmato
direttamente online. Francesca clicca sul pulsante Clips Library per procedere alla
produzione del filmato:
193
Si apre così l’interfaccia di Kaltura, simile ai più tradizionali programmi di video editing
che si utilizzano in locale. Sono presenti già diversi fotogrammi da utilizzare per il remix.
Clicca sul pulsante Add More per caricare su Kaltura il suo filmato da remixare con quelli
pubblicati da altri utenti in rete.
Qui può scegliere il tipo di file da caricare (video, foto e audio) e decidere di sfogliare il
file da caricare dal proprio Pc o da una delle piattaforme di condivisione elencate nel
riquadro a sinistra:
194
Una volta caricati sull’editor i file deve attribuire titolo e tag che descrivano il filmato:
Al termine dell’upload un avviso allerta Francesca di non violare i Terms of Use di Total
Recut e che il file caricato sarà sotto licenza Creative Commons Attribution-Share Alike.
Un link collega alla pagina dei Terms of Use e del Common Deed della licenza:
Francesca accetta le condizioni d’uso senza leggerle e preme OK. Può così procedere al
remix tra il suo file e gli altri presenti su Kaltura e pubblicarlo su Total Recut, remixando
insieme i suoni e i video creati da altri con il suo per crearne uno nuovo”.
Dallo scenario emerge come nella piattaforma di video sharing Total Recut si offrano
servizi addizionali importanti come la possibilità di editing direttamente online
195
attraverso l’editor Kaltura, che consente di effettuare il remix dei propri video con quelli
creati da terzi e di mixarli con file musicali presi direttamente da altre piattaforme di
condivisione che utilizzano licenze d’uso libere tra cui CcMixter. È importante la scelta di
apporre un avviso durante la fase finale del caricamento del materiale su Kaltura,
tuttavia risulta l’unico avvertimento sulla questione dei diritti d’autore, ricordando
all’utente di non violare le condizioni d’uso del sito e che il materiale caricato sarà
licenziato sotto CCPL. Il link che riporta alla pagina dei Terms of Use e quello che
rimanda al Common Deed della licenza non aiutano però l’utente a approfondire la
conoscenza delle licenze, anche perché si trova obbligato alla scelta di una licenza pre-
definita. Inoltre la possibilità di caricare file da altre piattaforme di condivisione è molto
utile, ma c’è il rischio che venga caricato materiale altrui da piattaforme come YouTube
senza avere i diritti su esso. Anche in questo caso non è presente alcun tipo di
avvertimento sulla possibilità di ledere diritti dei terzi.
197
Adesso che abbiamo individuato le task che i nostri potenziali utenti dovranno
essere in grado di compiere con il nuovo sistema che stiamo andando a progettare,
possiamo disporli in modo razionale secondo le connessioni logiche, cioè mostrando i
flussi di compiti del sistema che vogliamo progettare. Questo aiuterà a far prendere
forma al nostro sistema, suggerendo l’ordine delle azioni che il sistema dovrà
permettere e mostrando quando e come gli utenti potranno eseguire determinate
azioni366.
1. L’utente entra sul sito Flickr.com per pubblicare e condividere una immagine.
3. Caricata l’immagine, l’utente deve impostare la privacy e scegliere tra default pubblico
e privato:
3.1 il sistema chiede all’utente quali diritti vuole attribuire alla propria opera. L’utente
può decidere di cliccare il link e accedere così al tutorial, otterrà informazioni aggiuntive
sui due modelli di tutela: tutti i diritti riservati e alcuni diritti riservati. Potrà visionare le
spiegazioni che il tutorial fornisce e andare avanti nel learning process fino alla scelta del
modello e della licenza, o fermarsi prima e scegliere di chiudere e andare avanti nel
workflow; se l’utente non clicca il link questo non interferisce nel flusso di lavoro, ma
l’avviso resta presente nelle successive fasi del workflow.
4. L’utente deve scegliere di salvare l’immagine o modificarla con l’editor online PicNik:
4.1 se decidere di utilizzare PicNik, mentre è davanti all’interfaccia dell’editor per
lavorare alle modifiche sull’immagine, il sistema chiede all’utente quali diritti vuole
attribuire all’opera e dei link correlati informano l’utente sulla possibilità di scegliere
Creative Commons. Gli avvisi non invadono l’area di lavoro, restano presenti
nell’interfaccia ma senza interrompere il flusso di lavoro. Questo per restare presente
366
Saffer, D., Il design dell’Interazione, Paravia Bruno Mondadori Editore, Milano, 2007, pp. 104-
108.
198
durante tutto il processo di authoring e permettere all’utente di decidere se e quando
vuole avere informazioni aggiuntive. L’utente potrà infatti decidere se cliccare il link e
iniziare il learning process o continuare a lavorare alle modifiche sull’immagine.
Flow is the state in which people are so involved in an activity that nothing else
seems to matter; the experience itself is so enjoyable that people will do it even at
great cost for the sheer sake of doing it.
367
Csikszentmihalyi, M., Flow. The Psychology of Optimal Experience, HarperCollins Publishers,
1990, p. 4.
199
totale, la chiarezza della meta da raggiungere, un ottimale senso di controllo e il totale
coinvolgimento nell’attività che si sta svolgendo. Esso si svela in base ad alcuni indizi
come l’elevato coinvolgimento e passione, il controllo della situazione, la focalizzazione
dell'attenzione, l’assenza di paura, ansia, stress e sovreccitazione da un lato, e di noia,
rilassatezza e sovra controllo dall’altro, il piacere per l'attività stessa, l’alterata
percezione dello scorrere del tempo e l’ assenza di auto-osservazione giudicante.
Figura 8 - Diagramma del Flow basato sul lavoro di Csikszentmihalyi, in Saffer, op. cit., p. 161.
368
Norman, D., Il computer invisibile:la tecnologia migliore è quella che non si vede, Apogeo,
Milano, 2000.
200
strutturato di tecnologie, scegliendo tra le soluzioni già offerte dalla tecnologia quelle
con performance eccellenti e facili da usare. L’obiettivo è quindi quello di individuare
una soluzione tecnologica che produca valore per l’utente, ponendo l’utente al centro
dell’intera progettazione e garantendo un esperienza utente gratificante.
Per capire i bisogni reali del potenziale utente Norman369, suggerisce che il primo
compito è quello di determinare cosa il prodotto potrebbe essere, studiando la
prospettiva utente. Se si sta cercando di migliorare un prodotto già esistente è
necessario innanzitutto osservare come gli utenti utilizzano il prodotto già esistente.
L’analisi di questa osservazione empirica serve a concepire nuove idee, che devono poi
essere messe in atto attraverso l’utilizzo di mock-up e simulazioni interattive con gli
utenti, allo scopo di testare le loro reazioni con il nuovo prodotto. Le loro reazioni infatti
sono un feedback fondamentale per raffinare il prototipo.
Norman inoltre fa riferimento alle cinque regole per la comunicazione tra essere
umano e artefatto tecnologico:
1. mantenere le cose semplici: infatti le persone hanno difficoltà con tutto ciò che è
complicato, perciò è necessario fornire brevi messaggi in linguaggio semplice.
2. dare alle persone un modello concettuale: aiutare gli utenti dando loro un modello
che gli spieghi cosa stanno facendo e che li guidi attraverso un sistema di comunicazione
naturale.
3. fornire all’utente delle ragioni: le persone non si fidano, non basta spiegargli un
concetto, ma è fondamentale lasciarglielo fare.
4.portare gli utenti a pensare che hanno il controllo delle azioni che stanno svolgendo.
5. rassicurare gli utenti continuamente.
Poiché la rassicurazione è un bisogno umano emozionale, un modo di rendere le
persone meno ansiose mentre stanno svolgendo un compito, quando interagiscono con
il sistema è necessario che capiscano che le azioni che stanno svolgendo sono quelle
giuste e che non cadano in situazioni di ansia. Questo concetto può essere ricollegato
alla teoria di Csikszentmihalyi sul Flow perché in questo senso è di fondamentale
importanza trovare il giusto equilibrio tra il rassicurare e il non annoiare l’utente,
rassicurando l’utente a livello subconscio e non interrompendo il pensiero conscio.
369
Norman, D., The Design of Future Things, Apogeo, 2008, p. 184.
201
Con le applicazioni intelligenti è possibile automatizzare parzialmente le azioni,
facendo in modo che utente e sistema conoscano e capiscano cosa l’altro sta facendo. Il
metodo più appropriato per fornire una interazione armoniosa tra utente e sistema è
quello di migliorare la coordinazione e cooperazione tra le parti, attraverso una
progettazione che permetta al sistema di capire quando è importante che esegua
un’azione e quando no, attraverso le valutazioni sugli utenti che permettono di cogliere i
momenti migliori in cui dare l’informazione aggiuntiva.
Con il design adattivo il sistema si adegua alla vita e all’ambiente dell’utente
come se fosse stato costruito apposta per lui. Seguendo le linee guida per i prodotti
adattivi ideate da Evenson e Rheinfrank370, il sistema che vogliamo progettare dovrà
quindi:
1. Fare in modo che le azioni dell’utente e i cambiamenti nell’applicazione
sembrino progettati proprio per quel particolare utente;
2. Suggerire all’utente un percorso di navigazione alternativo, ma integrato nel
flusso di lavoro pre-esistente;
3. Incuriosire e stimolare i potenziali utenti ad imparare a gestire i propri diritti
direttamente mentre lavorano, aiutandoli a combinare insieme il comprendere con il
fare;
4. Lasciare che l’utente percepisca il sistema vivo, rendendo trasparente il modo
di operare;
5. Aiutare l’utente a stabilire connessioni con la questione del diritto d’autore in
rete e quindi con gli altri utenti;
6. Far tuffare i potenziali utenti nell’esperienza, così che non distinguano la
differenza tra sé stessi e il dispositivo.
370
Questo concetto è spiegato in Saffer, D., Il design dell’Interazione, Pearson Education Italia,
Paravia Bruno Mondadori Editore, Milano, 2007, p. 162.
202
1. Denominazione: Educazione al diritto d’autore
Descrizione del requisito: il tutorial dovrà divulgare la conoscenza del diritto d’autore in
rete, spiegando all’utente i principi base del copyright e la tutela dei propri diritti e di
quelli dei terzi, attraverso advices e avvertimenti.
Motivazione: questo requisito risponde alla necessità di educare l’utente al diritto
d’autore nelle piattaforme User Generated Content
Sorgente: valutazioni utenti, intervista al Prof. J.C De Martin
Utenti a cui si rivolge: in generale a tutti gli utenti che creano, condividono e riutilizzano
contenuti in rete.
3. Denominazione: Modularità
Descrizione del requisito: il tutorial dovrà spiegare per step il diritto d’autore e l’utilizzo
delle licenze Creative Commons, per questo dovrà essere navigabile al suo interno
attraverso un menu interattivo che permetta all’utente di saltare fra i diversi moduli e
scegliere di prendere visione degli argomenti anche all’interno del tutorial.
Motivazione: poiché il tutorial dovrà garantire un processo di apprendimento continuo
delle licenze, è necessario che sia flessibile e modulare per permettere agli utenti di
approfondire le informazioni presenti in qualsiasi momento, quindi non solo attraverso
le domande contestuali ma anche attraverso la navigazione interna del tutorial. In
questo senso un menu di navigazione interno, che permetta all’utente di fruire dei
contenuti in maniera più flessibile e di poter scegliere in modo più autonomo il percorso
di navigazione più adatto alle proprie esigenze, potrebbe essere una possibile soluzione
progettuale.
203
Sorgente: valutazioni di usabilità sui potenziali utenti
Utenti a cui si rivolge: potenziali utenti delle piattaforme User-Generated Content.
5. Denominazione: Equilibrio
Descrizione del requisito: il tutorial non deve interrompere il flusso di lavoro
dell’utente, quindi deve essere presente ma non invasivo durante il processo di
authoring in rete.
Motivazione: poiché l’obiettivo delle piattaforme di creazione collaborativa, riutilizzo e
condivisione dei contenuti è quello di rendere più produttivi gli utenti, rendere migliori
le proprie creazioni e diffonderle in rete, necessità di trovare il giusto equilibrio tra il
processo di authoring e la presenza del tutorial
Sorgente: intervista J.C. De Martin, intervista a Victor Stone di CcMixter
Utenti a cui si rivolge: potenziali utenti che creano e condividono in rete i propri
contenuti
204
Motivazione: trovare il modo più efficace di pubblicizzare e diffondere la conoscenza e
l’utilizzo delle CCPL, andando a colpire direttamente l’utente nel campo applicativo, cioè
mentre sta creando e riutilizzando contenuti in rete.
Sorgente: benchmarking, valutazioni utenti, Intervista De Martin
Utenti a cui si rivolge: potenziali utenti CCPL che utilizzano le piattaforme di
condivisione e creazione collaborativa in rete.
205
procedimento guidato di applicazione delle licenze per garantire un’applicazione più
diretta delle licenze.
In accordo con i bisogni degli utenti, il learning process potrà continuare o essere
terminato dall’utente in qualsiasi momento interagendo nello spazio di lavoro.
Un filmato avvertirà inoltre l’utente, prima di scegliere una delle licenze, di
verificare la disponibilità di tutti i diritti necessari a licenziare l’opera sotto CCPL.
Caratteristica del sistema infatti sarà che gli avvisi appariranno autonomamente ogni
volta che l’utente può avere bisogno di utilizzarne le potenzialità, quindi nelle diverse
fasi del processo di authoring, e il tutorial potrà essere richiamato dall’utente in qualsiasi
momento, creando uno spazio di interazione tra utente e sistema.
L’obiettivo del tutorial non sarà solo quello di fornire contenuti e informazioni,
ma servirà per fornire ai potenziali utenti l’interiorizzazione di una metodologia di
apprendimento che garantisca loro un’autonoma capacità di giudizio nella scelta del tipo
di tutela da attribuire alla propria opera e nella scelta della licenza più adatta alle
proprie esigenze.
È fondamentale che il tutorial sia realizzato in maniera tale da non risultare
troppo serio e formale per non scoraggiarne la visione da parte degli utenti, ma dovrà
riuscire a catturare la loro attenzione assorbendoli in un processo di apprendimento che
dovrà risultare comunque sempre in linea con l’obiettivo principale della loro presenza
nella piattaforma, quindi la creazione del contenuto.
Per questo motivo abbiamo esplorato il Web alla ricerca di concept che
potessero essere utili al nostro scopo. I tutorial sulle licenze Creative Commons presenti
in rete sono diversi371, ma uno in particolare può essere utile ai fini del nostro progetto.
È infatti disponibile in rete sul sito ufficiale Creative Commons372 l’animazione “Diventa
Creativo”, un tutorial realizzato con la tecnologia flash e basato sul racconto di un
possibile caso di applicazione delle licenze Creative Commons.
Abbiamo fatto prendere visione del tutorial ad alcuni potenziali utenti per capire
se le informazioni presentate nel tutorial fossero utili e capire se i contenuti presentati
371
Sono disponibili delle video lezioni curate da Simone Aliprandi in collaborazione con il Comune
di Modena e l’assessorato alle Politiche Giovanili alla pagina http://www.copyleft-
italia.it/videolezioni/cc/index.htm e diverse animazioni sul sito ufficiale Creative Commons alla
pagina http://creativecommons.org/videos/
372
La traduzione in italiano dell’animazione Diventa Creativo è disponibile in rete sul sito ufficiale
Creative Commons Italia all’indirizzo http://www.creativecommons.it/DiventaCreativo
206
in questo modo risultino efficaci e comprensibili ad un ampio pubblico. Dalle valutazioni
è emerso che un tutorial realizzato in questo modo risulta sicuramente interessante da
visualizzare e i contenuti restano più impressi nella mente del fruitore. Gli utenti sono
stati invitati a dare una loro opinione sui contenuti del tutorial per capire se i concetti
espressi nell’animazione fossero stati sufficienti a colmare gli eventuali dubbi riguardo
Creative Commons e le licenze.
Gli utenti hanno dimostrato di aver compreso dal tutorial le differenze tra
Copyright e Creative Commons e di come questi due modelli non siano in conflitto,
hanno compreso di come le licenze possano aiutare la condivisione e il riutilizzo di
contenuti in rete. Gli utenti sono rimasti piacevolmente colpiti dall’animazione che
hanno trovato divertente e interessante da seguire, affermando come un tutorial
animato di questo tipo sia più comunicativo e riesca a restare più impresso nella mente
di chi lo fruisce.
Tuttavia dalle opinioni spontanee espresse dagli utenti, sono emerse alcune
debolezze dal punto di vista contenutistico. Infatti gli utenti hanno riscontrato come non
siano spiegate in modo esaustivo le licenze, non sono riusciti a comprendere quante
sono e quali sono, e la differenza tra una licenza e l’altra. Inoltre alcuni utenti hanno
affermato di avere capito che le licenze sono utilizzabili solo dai professionisti e non da
tutti i potenziali creatori di contenuti in rete.
Per questo motivo, vista l’esigenza di una maggiore chiarezza nella
comprensione delle licenze e delle loro modularità, proveremo a definire il nostro
tutorial prendendo liberamente spunto dall’animazione “Diventa Creativo” per quanto
riguarda l’aspetto grafico e comunicativo, e andando a trovare una soluzione efficace
che integri meglio la spiegazione delle licenze e la loro modularità durante il processo di
authoring in rete.
373
Lo standard ISO 13407 “Human-centred design processes for interactive systems” è lo
standard che recepisce il processo di progettazione “user centered”, che deve essere
207
di un prodotto o di un sistema, o di una sua parte, che, anche se in qualche modo
limitata, possa essere utilizzata a scopo di valutazione». Questo significa che un
prototipo non deve necessariamente essere un sistema funzionante, e spesso può
essere utile anche un semplice modello finto o mock-up. Secondo la definizione di
Polillo374 un prototipo è quindi un modello approssimato o parziale del sistema che
vogliamo sviluppare, realizzato allo scopo di valutarne determinate caratteristiche.
È stato così preso in esame come caso studio Flickr.com perché tra le
piattaforme analizzate è risultata essere una delle più complete per lo sviluppo del
nostro sistema, offrendo come servizio addizionale la possibilità di editing direttamente
online e offrendo già la possibilità di scegliere Creative Commons attraverso il
meccanismo guidato.
Per documentare inizialmente le caratteristiche visive del sistema che stiamo
andando a progettare, è stato inizialmente costruito un prototipo cartaceo da mostrare
agli utenti, per capire in quali momenti del flusso di lavoro, secondo la loro opinione,
sarebbe stato più utile ricevere le informazioni aggiuntive sul tema dei diritti e su
Creative Commons. Sono stati così stampati gli screenshot delle pagine principali di
Flickr, seguendo il flusso di azioni che un utente deve compiere per raggiungere
l’obiettivo di caricare e modificare un immagine per condividerla. Sopra ogni foglio sono
stati applicati dei post-it per permettere agli utenti di simulare l’interazione con il
sistema futuro.
Gli utenti sono stati così invitati ad eseguire una sequenza di compiti, per capire
come sarebbe potuta essere l’interazione con il sistema futuro e per ogni interazione
simulata è stata mostrata loro la diapositiva successiva. Questo ha permesso di capire i
punti e i momenti del flusso di lavoro in cui i potenziali utenti avrebbero apprezzato
ricevere maggiori informazioni. Dalle valutazioni è emerso che i momenti in cui gli avvisi
sul tema dei diritti sarebbero stati utili sono:
caratterizzato dall'attivo coinvolgimento degli utenti e una chiara comprensione delle loro
caratteristiche e dei compiti che svolgono; una appropriata allocazione delle funzioni tra gli utenti
e la tecnologia; l'iterazione delle soluzioni progettuali;una progettazione multisciplinare.
374
Op. cit., p. 153.
208
valutazione hanno affermato che già in questo momento sarebbe utile un avvertimento
sui diritti;
2. dopo che ha scelto l’immagine da caricare, l’utente deve impostare il tipo di
privacy da attribuire alla sua immagine. Gli utenti hanno affermato che anche in questo
momento, visto che si è chiamati a scegliere la privacy da impostare, si potrebbe
chiedere anche quali diritti si vogliono attribuire;
3. quando l’utente deve decidere se salvare l’immagine o modificarla con
l’editor di fotoritocco online PicNik, si potrebbe ricordare che se salva l’immagine può
decidere che tipo di tutela attribuirgli;
4. una volta che l’utente è all’interno dell’editor e sta lavorando alle modifiche
della foto gli si potrebbe far presente che può scegliere quali diritti vuole mantenere
sull’immagine a cui sta lavorando;
5. quando sta salvando definitivamente l’immagine per la pubblicazione finale
sul sito;
6. dopo che l’immagine è già pubblicata ricordarglielo ancora, perché se l’utente
non ha mai preso visione e cliccato sugli avvisi potrebbe essere incuriosito e prenderne
visione comunque in seguito.
Una volta individuati da parte dei potenziali utenti i momenti migliori in cui si
potrebbero inserire gli avvisi, è necessario capire il modo migliore in cui questi avvisi
potrebbero essere presentati. Inizialmente sono stati mostrati all’utente gli avvisi nella
forma di piccoli banner che apparivano nel lato della pagina, come dimostrato nel mock-
up sottostante.
209
Figura 9
Figura 10
Figure 9 e 10- Un esempio del mock-up realizzato per simulare le funzionalità del sistema con
gli utenti
210
Questo metodo è stato riscontrato però dagli utenti troppo invasivo, poiché
distraeva troppo dall’attività principale di produzione dei contenuti. Infatti l’avviso, pur
entrando da un lato della pagina e non invadendo l’area di lavoro è stato percepito dagli
utenti che si sono sottoposti alle valutazioni come un elemento di disturbo e associato
all’idea di un banner pubblicitario, e perciò in alcuni casi ignorato come tale. Inoltre
anche decidendo di chiudere il banner subito, e restando un pulsante come un
“segnalibro” nella finestra di lavoro sarebbe stato inutile per i nostri potenziali utenti
che non conoscono Creative Commons, perché non avrebbero comunque cliccato sul
pulsante.
Poiché uno dei requisiti del sistema che vogliamo progettare è quello di
arricchire l’authoring in rete valorizzato dall’utilizzo delle CCPL, migliorando il workflow
e rendendo più integrata la conoscenza e l’applicazione delle CCPL ma senza
interrompere il flusso di lavoro, è necessario trovare una soluzione che renda presente
ma non invasiva la questione dei diritti e delle licenze. Per questo motivo, seguendo le
regole di Norman, abbiamo provato a rendere più semplice il messaggio e a integrarlo
maggiormente nel flusso di lavoro della piattaforma che stiamo utilizzando come
ipotetico modello per il nostro sistema futuro. L’obiettivo è quello di capire, attraverso
le azioni dei nostri potenziali utenti, se integrando meglio anche graficamente il
messaggio, questo possa venire considerato più come parte integrante nella piattaforma
presa in esame e se possa suggerire all’utente un percorso di navigazione alternativo.
Tenendo sempre ben presente i momenti e i punti dell’interazione indicati dagli
utenti come migliori per ricevere maggiori informazioni sull’utilizzo delle CCPL durante il
flusso di lavoro, abbiamo provato a cambiare l’impostazione grafica degli avvisi.
Prendendo spunto dalle esperienze già presenti in rete e studiando le reazioni degli
utenti, abbiamo provato a rendere i nostri banner di accesso al tutorial come dei link
ipertestuali integrati maggiormente nella piattaforma Flickr.com come se fossero
realmente parte del sistema esistente.
211
Figura 11
Figura 12
Figure 11 e 12- Il mock-up rivisto alla luce del primo ciclo di valutazioni con i potenziali utenti
del sistema
212
Il sistema così modificato è stato sottoposto ad un secondo ciclo di valutazioni
con i potenziali utenti. La sostituzione dei banner con dei semplici link ipertestuali è
stata vista con maggiore positività dagli utenti che hanno affermato come “in questo
modo si è resi più sensibili a questo fatto delle licenze, dando la possibilità di essere
informati e di usarle, ma allo stesso tempo non infastidisce se non si è interessati”.
Le opinioni espresse dagli utenti hanno quindi suggerito di seguire questa
impostazione e sostituire, in tutti i momenti del flusso di lavoro indicati dagli utenti
come idonei alla presenza degli avvisi, i banner inizialmente previsti con i link
ipertestuali. Appurati quindi i momenti e il modo migliore di accedere al tutorial,
procederemo con la realizzazione del prototipo interattivo in forma grafica per rendere
più realistica la simulazione dell’interazione tra utente e sistema.
213
Figura 13
Figura 14
214
A questo punto abbiamo proceduto con la costruzione del nostro tutorial
interattivo ad alta fedeltà375, che dovrà avere come obiettivo quello di minimizzare le
barriere di condivisione e riuso dei contenuti in rete, riducendo le barriere giuridiche e
tecniche e aiutando l’utente a capire e scegliere consapevolmente il tipo di tutela da
applicare alla propria opera. Per cercare di ridurre le barriere giuridiche, il tutorial dovrà
provare a spiegare brevemente all’utente i principi base del diritto d’autore per poter
poi comprendere appieno le licenze e la loro modularità, visto che le licenze si basano su
di esso.
Per cercare di ridurre le barriere tecniche, dovute nella maggior parte dei casi
presi in esame ad una scarsa attenzione da parte delle piattaforme User Generated
Content alla questione del diritto d’autore, il sistema farà in modo che dei link
contestuali promuovano un accesso più diretto al meccanismo di applicazione guidato
delle licenze, già nel momento in cui il potenziale utente prenderà visione della
spiegazione delle licenze. In questo modo proveremo poi a verificare con i potenziali
utenti se un sistema di questo tipo possa essere in grado di sensibilizzare maggiormente
l’utente alla questione del diritto d’autore e possa essere in grado di promuovere lo
sviluppo del pieno potenziale del Web attraverso la condivisione e il riutilizzo degli open
content.
È importante sottolineare che i contenuti del tutorial non pretenderanno di
essere esaustivi sul tema del diritto d’autore, vista e considerata l’ampiezza e la
complicatezza di tale disciplina. Il tutorial cercherà di fornire ai potenziali utenti uno
spunto di riflessione e promuovere un processo di apprendimento continuo del diritto
d’autore e delle licenze Creative Commons.
375
In questa fase della progettazione User-Centered si ricorre alla costruzione di prototipi a bassa
o ad alta fedeltà, a seconda della somiglianza effettiva col sistema finale. Secondo Polillo (op. cit.,
p. 163) inizialmente è importante costruire e sperimentare prototipi di carta a bassa fedeltà, per
arrivare poi, quando la soluzione è abbastanza consolidata, a realizzare prototipi ad alta fedeltà
navigabili, ed effettuare nuove valutazioni con gli utenti.
215
Figura 14- Screenshot del tutorial che apparirà all’utente cliccando sui link e che farà iniziare il
learning process.
376
Secondo la definizione di Crevola e Gena (op. cit., p. 300), le euristiche sono definite come
linee guida di riferimento o regole pratiche derivate dall’esperienza d’uso, che servono ad
esaminare un’interfaccia alla ricerca di problemi che violino i principi e le linee guida di buona
progettazione. A tal proposito J. Nielsen ha suggerito una lista di dieci euristiche derivanti da
linee guida e principi ben consolidati dell’interazione uomo-macchina, di cui si deve tener conto
per una buona progettazione, chiaramente spiegate dallo stesso autore e disponibili in rete
all’indirizzo http://www.useit.com/papers/heuristic/heuristic_list.html
377
Polillo, op. cit., p. 164.
378
Nielsen, J., Loranger, H., Web Usability 2.0 L’usabilità che conta, Apogeo, Milano, 2006, p. 395.
216
su veri utenti-tipo379, assegnargli dei compiti, osservare il loro comportamento e
ascoltare i loro suggerimenti, con l’obiettivo di trarre concrete indicazioni per il
miglioramento del sistema.
Seguendo questa metodologia, procederemo ora con le valutazioni del sistema
così progettato sui potenziali utenti, per capire se in questo modo possano essere più
sensibilizzati al tema del diritto d’autore e all’utilizzo delle licenze Creative Commons.
Sarà fondamentale valutare se i contenuti del tutorial così presentati siano efficaci ad un
primo approccio alla comprensione e all’utilizzo delle licenze Creative Commons durante
tutto il flusso di lavoro.
379
Secondo Crevola e Gena (op. cit., p. 307) un test di usabilità ben strutturato può coinvolgere
anche 15-20 utenti, ma non sempre è necessario utilizzare così tanti soggetti. Infatti, secondo
Nielsen e Molich con 5 utenti si scopre circa l’80% dei problemi di usabilità di un sito.
217
CAPITOLO 6
218
CAPITOLO 6
219
sviluppato prende spunto proprio da questa idea progettuale assimilandone l’aspetto
grafico e la forma espressiva. Tuttavia poiché è risultato essere poco usabile proveremo
a rendere il nostro prototipo più navigabile e modulare al suo interno per migliorarne la
fruizione da parte dei nostri potenziali utenti.
Inoltre l’animazione Diventa Creativo è un ottimo filmato introduttivo alla conoscenza
del progetto Creative Commons, ma essendo presente e visibile all’interno del sito
ufficiale Creative Commons resta pur sempre fruibile soltanto da coloro che accedono al
sito in questione successivamente ad una eventuale conoscenza del progetto e delle
CCPL. Tuttavia, poiché l’animazione in questione si concentra più sulla storia del
progetto Creative Commons -mostrando uno scenario ipotetico di applicazione delle
licenze- che sulla spiegazione delle CCPL, gli studenti hanno affermato di non avere
compreso nel dettaglio le diverse tipologie di licenze e la loro modularità.
A questo punto abbiamo mostrato loro il prototipo del nostro sistema,
invitandoli ad interagire con esso dalla pagina Web in cui era stato precedentemente
pubblicato per garantire una navigabilità quanto più simile a quella che si può avere
utilizzando una delle piattaforme User-Generated Content già presenti in rete. In questo
modo gli studenti hanno potuto testare individualmente il sistema, interagendo con
esso e prendendo visione del tutorial attraverso l’interazione con i link contestuali
presenti durante le varie fasi del flusso di lavoro.
Sono stati in seguito invitati a rispondere ad un questionario valutativo del
sistema, somministrato in rete attraverso il widget di Google Docs and Spreadsheet,
chiedendo loro di rispondere brevemente alle seguenti domande:
1. se conoscevano già le licenze Creative Commons prima di prendere visione
dell’animazione “Diventa Creativo”;
2. esporre brevemente, dopo avere preso visione del prototipo interattivo, quali sono le
licenze e il loro utilizzo;
3. spiegare brevemente, dopo avere preso visione del prototipo interattivo, come
potevano riconoscere i lavori in rete rilasciati sotto CCPL;
4. spiegare brevemente se i contenuti presentati nel prototipo interattivo potevano
essere sufficienti per un primo approccio alla conoscenza e diffusione delle CCPL;
5. indicare se un sistema di questo tipo, secondo la loro opinione, possa disturbare il
flusso di lavoro o migliorare l’authoring in rete.
220
Il 12% degli studenti intervistati380 ha dichiarato che, prima di prendere visione
dell’animazione “Diventa Creativo” presente sul sito ufficiale Creative Commons,
conosceva già le licenze Creative Commons. Il 45% ha ammesso di averne già sentito
parlare ma di non avere le idee chiare su di esse e il 42% ha affermato di non averne mai
sentito parlare.
Per quanto riguarda il prototipo del nostro sistema che abbiamo mostrato loro,
generalizzando possiamo affermare che le valutazioni hanno dimostrato come gli utenti
si siano sentiti più coinvolti e più sensibili al tema dei diritti e delle CCPL e abbiano
accolto positivamente i contenuti presentati nel tutorial. Gli studenti hanno dimostrato,
rispondendo alle domande a risposta aperta presentate nel questionario, di aver
compreso la modularità delle licenze e la differenza fra le quattro clausole, e di aver
compreso i casi di utilizzo delle diverse licenze.
Hanno apprezzato l’animazione con cui i contenuti sono stati presentati, che ha
permesso loro di seguire il tutorial senza annoiarsi e di ricevere informazioni che hanno
reso la loro esperienza gratificante. Infatti gli studenti hanno affermato di avere trovato
“la grafica divertente” e le animazioni “intuitive per poter comprendere meglio il
funzionamento delle licenze”. I contenuti spiegati graficamente in questo modo vengono
definiti dagli studenti “un ottimo ed eccellente metodo per spiegare un concetto
giuridico abbastanza complesso”.
Hanno apprezzato il linguaggio, definito da molti “semplice e chiaro”, con cui
sono stati presentati gli argomenti nel tutorial e definito i contenuti sufficienti per un
primo approccio alla conoscenza e all’utilizzo delle licenze Creative Commons,
affermando come “in questo modo chiunque non si interessi di diritto d’autore potrà
capire con semplicità come utilizzare le opere degli altri e quali usi autorizzare agli altri
della propria” e come il linguaggio sia “semplice e di facile comprensione anche per chi
non mastica i termini giuridici”. I contenuti presentati nel tutorial sono apparsi inoltre
“abbastanza chiari e indicativi per un ulteriore approfondimento” ed è stato definito un
“ottimo punto di partenza per la conoscenza di queste licenze”.
Gli studenti hanno inoltre dimostrato, attraverso le loro risposte al test di
valutazione del prototipo, di poter essere in grado di riuscire a scegliere
380
La percentuale è riferita al campione di 34 risposte al questionario di valutazione del
prototipo.
221
autonomamente di licenziare un’opera con le licenze Creative Commons in maniera più
fluida e consapevole.
Tuttavia è importante sottolineare come dalle valutazioni siano emersi nuovi
bisogni, infatti alcuni utenti hanno affermato che “forse il tutorial non esplicita fino in
fondo come utilizzare le licenze in una determinata fattispecie” e come “troverebbero
utile aggiungere esempi di come si possa ottenere la licenza dai siti”.
Abbiamo inoltre chiesto loro di esprimere una loro opinione per capire se un
sistema che spieghi in questo modo le licenze e il loro utilizzo nelle diverse fasi di
creazione dei contenuti in rete, possa disturbare il processo di authoring oppure se
possa migliorarlo, rendendo gli utenti più consapevoli della questione dei diritti in rete e
della possibilità di scegliere Creative Commons. Il 100% degli studenti intervistati si è
trovato d’accordo nell’affermare come un sistema di questo genere possa migliorare il
processo di creazione dei contenuti in rete. Questo dato risulta essere molto importante
in quanto soddisfa pienamente uno dei requisiti fondamentali ai quali il nostro sistema si
impegnava a rispondere, cioè quello di trovare un equilibrio tra la produzione dei
contenuti e una più attenta informazione sul tema del diritto d’autore, quindi non
interrompendo il flusso di lavoro e rendendo gratificante l’esperienza utente. Tutto ciò si
ricollega anche alla teoria del Flow, accennata nel terzo capitolo di questo lavoro in
riferimento alle qualità del sistema e ai requisiti utente rispetto alle variabili contesto-
motivazione-emotive.
In base all’analisi dei dati emersi dalle valutazioni con gli studenti abbiamo
provato a migliorare il tutorial seguendo i loro consigli e gli spunti progettuali emersi da
questo test. Abbiamo provato quindi ad aggiungere alcuni possibili scenari di utilizzo
delle licenze Creative Commons in tre diversi contesti, per capire se in questo modo si
potessero chiarire eventuali dubbi di applicazione delle licenze.
Poiché inoltre durante la valutazione sono emersi alcuni problemi di usabilità del
sistema, abbiamo provato a rendere più navigabile il tutorial, contestualizzando meglio i
link durante il flusso di lavoro, e provando a rendere il tutorial più flessibile.
Abbiamo provato inoltre a rendere il sistema più riconoscibile all’interno delle diverse
pagine in cui appaiono le domande contestuali, creando un box in trasparenza
utilizzando come concept l’AdSense di Google e inserendo le domande al suo interno.
Il prototipo del nostro sistema sarà funzionante solo nelle parti importanti per
l’interazione, ma in alcuni casi abbiamo previsto delle funzionalità aggiuntive che
222
potrebbero essere implementate, come la possibilità di scorrere all’interno del box delle
domande contestuali attraverso l’interazione con delle frecce, e un player interno al
tutorial per rendere più usabile il sistema e più fruibili i contenuti.
È stato inoltre necessario attribuire al nostro sistema un nome riconoscibile, che
permetta agli utenti di capire la funzione dell’applet. Dopo un’accurata sezione di
brainstorming, dove sono state esaminate diverse keywords che potessero essere
intuitive e immediate, la scelta è caduta su “AdviCCes”381. Questa scelta poiché il sistema
che abbiamo sviluppato si propone di essere rappresentativo di una nuova possibile
forma di authoring in rete, che permetta ai potenziali autori di contenuti in rete di
essere maggiormente informati sul tema del diritto d’autore e sulla possibilità di
scegliere un tipo di tutela meno restrittivo, attraverso domande contestuali che possano
incuriosire l’utente durante tutto il flusso di lavoro in rete e che possano essere lette
come dei consigli, degli advices appunto.
Figura 15- Screenshot della pagina di Flickr.com con il box delle domande contestualmente
rilevanti, rivisto alla luce delle valutazioni con i potenziali utenti
381
Tutorial di apprendimento delle licenze Creative Commons, è il logo scelto
per il nostro sistema.
223
Figura 16 - Screenshot del tutorial rivisto alla luce delle valutazioni con gli studenti
Figura 17
225
Figura 18
Figure 17 e 18 - Screenshot del prototipo applicato alla piattaforma di video sharing YouTube
Figura 19
226
Figura 20
Il prototipo del sistema che abbiamo realizzato vuole essere un’idea progettuale
volta al miglioramento degli ambienti di creazione e condivisione dei contenuti in rete,
che permetta una maggiore diffusione della conoscenza delle licenze Creative Commons
e aiuti i potenziali utenti di queste licenze nella scelta consapevole e nell’apprendimento
continuo del diritto d’autore in rete, direttamente mentre crea, pubblica o riutilizza un
contenuto in rete.
Dall’analisi condotta in questo lavoro, sin dalle prime fasi di progettazione dove
sono stati coinvolti i nostri potenziali utenti, è emerso come gli utenti non siano
totalmente superficiali a temi quali il diritto d’autore in rete. Infatti, come abbiamo visto
nel quarto capitolo di questo lavoro, dai risultati del questionario esplorativo
somministrato in rete382, è emerso come gli utenti si dicano favorevoli a strumenti che
aiutino a tutelare maggiormente i contenuti autoprodotti e distribuiti sul Web.
Fino ad oggi, come dimostrato dall’analisi delle esperienze già presenti sul Web
e dalle interviste somministrate agli esperti, abbiamo constatato come in generale le
piattaforme User Generated Content e chi le amministra, tendano perlopiù a creare
382
L’analisi dei risultati del questionario esplorativo è disponibile nel terzo capitolo e in
Appendice i risultati e i grafici.
227
meccanismi e servizi addizionali volti ad una sempre maggiore produttività di contenuti
in rete, visto e considerato che queste piattaforme vivono soprattutto grazie ai
contenuti generati dagli utenti. Tutto ciò che renda più produttivi gli utenti è quindi
bene accetto, e se il tema del diritto d’autore può spaventare un potenziale utente e
inibirlo nella creazione e distribuzione dei contenuti, allora tanto meglio nasconderlo
dietro i Terms of Service, dove resta presente ma sostanzialmente ignorato dai più.
Stiamo assistendo però ad una inversione di tendenza che potrebbe nel futuro
più prossimo portare ad una grande evoluzione di queste piattaforme. Abbiamo visto nel
quarto capitolo di questo lavoro, come la popolare piattaforma di video sharing
YouTube abbia recentemente annunciato in un comunicato stampa383 di voler allargare i
servizi offerti ai propri utenti, permettendo loro di scegliere in piena libertà se
consentire il download dei propri video. In questo caso la proposta che la piattaforma ha
annunciato sarà quella di dare agli utenti la possibilità di scegliere a quali condizioni gli
altri potranno utilizzare i lavori pubblicati, attraverso la possibilità di applicare una
licenza Creative Commons. Questo segna un importante passo in avanti nella gestione
dei diritti degli utenti da parte delle piattaforme UGC, e il fatto che sia proprio YouTube
ad aver lanciato questa proposta fa prevedere che molte altre piattaforme potrebbero
decidere di seguire questo esempio e di implementare le licenze Creative Commons
all’interno delle piattaforme come servizio addizionale.
Altro esempio da menzionare è quello del social network Facebook. Proprio nei
mesi scorsi abbiamo avuto modo di assistere alla “sommossa del popolo Web” scatenata
dopo che il creatore del sito Mark Zuckerberg, aveva fatto scomparire dalle condizioni
d’uso del sito la dicitura “puoi rimuovere i tuoi contenuti dal sito in ogni momento, e se
decidi di rimuoverli, la licenza scadrà automaticamente"384. Questo ha provocato tutta
una serie di polemiche che hanno portato Zuckerberg a ripristinare immediatamente le
condizioni d’uso precedenti e a scusarsi con i suoi utenti, giustificando questa scelta
come necessaria per evitare problemi nel momento in cui un utente volesse condividere
un contenuto reso pubblico da qualcun altro, nel pieno spirito di condivisione del sito
stesso. Questo ha fatto nascere numerosi gruppi su Facebook a favore dell’introduzione
nella piattaforma delle licenze Creative Commons, così da permettere agli utenti che
383
http://www.youtube.com/blog?entry=Mp1pWVLh3_Y
384
Sostanzialmente infatti, iscrivendosi a Facebook un utente, spesso senza saperlo, attribuisce
alla piattaforma stessa una licenza d'uso sui materiali che vengono caricati.
228
creano e pubblicano sulla piattaforma contenuti di ogni genere, di poter decidere
autonomamente quali utilizzi concedere di questi contenuti e dichiararli attraverso
l’applicazione di una delle sei licenze d’uso. Come si legge sul sito ufficiale Creative
Commons385, questa proposta portata avanti dagli stessi utenti ha portato Zuckerberg, lo
scorso 18 Febbraio 2009, a valutare la possibilità di introdurre sul popolare social
network queste licenze, incoraggiando gli utenti a migliorare le nuove condizioni d’uso
attraverso domande, commenti e suggerimenti nel gruppo “Facebook Bill of Rights and
Responsability”386, per provare a rendere i Terms of Service simili a piattaforme che già si
avvalgono di queste licenze quali Flickr.com.
Questo nuovo approccio dimostra come i proprietari di queste piattaforme siano
sempre più attenti alle richieste dei propri utenti e seguano sempre di più la politica del
miglioramento dal basso, dando ascolto ai consigli e ai bisogni degli utenti e dando loro
modo di proporre nuove soluzioni. L’analisi condotta finora ci porta a poter affermare
come un sistema come quello che abbia sviluppato, potrebbe essere un possibile
scenario da esplorare in futuro. Infatti se davvero queste popolari piattaforme si stanno
lanciando verso questo nuovo approccio che potrebbe garantire una maggiore
educazione al diritto d’autore, allora il nostro sistema potrebbe aiutare queste
piattaforme ad incoraggiare l’utilizzo delle licenze open content e a spiegare ai potenziali
utenti concetti tradizionalmente complicati, rendendoli più fruibili attraverso l’utilizzo di
un linguaggio semplice e di un metodo comunicativo efficace come quello
dell’animazione. Questo potrebbe garantire la comprensione di alcuni aspetti di questa
disciplina più accessibile a tutti, quindi anche a coloro che non hanno competenze
tecniche specifiche in materia giuridica.
A questo punto è necessario capire se e come questo nuovo sistema potrebbe
modificare la produzione di contenuti in rete, sia da un punto di vista tecnico-
progettuale che da un punto di vista giuridico.
Dal punto di vista tecnico-progettuale il sistema che abbiamo progettato,
essendo più integrato nel workflow e quindi più visibile ad un pubblico più ampio di
potenziali utenti, potrebbe garantire una maggiore conoscenza e informazione sul tema
del diritto d’autore per tutti i potenziali utenti delle piattaforme UGC. Un sistema di
questo genere permetterebbe inoltre una pubblicità delle licenze in rete più mirata e
385
http://wiki.creativecommons.org/Facebook_CC_Integration/BoRR/BasicInfo
386
http://www.facebook.com/group.php?gid=69048030774
229
non generica, andando ad agire direttamente mentre l’utente crea e pubblica un
contenuto in rete. Questo è fondamentale perché, per capire il pieno potenziale delle
licenze Creative Commons, è forse necessario colpire l’utente con messaggi mirati che lo
incuriosiscano ma allo stesso tempo non lo disturbino nel processo di produzione.
Da un punto di vista giuridico, visto che sono cambiate le modalità di creazione
dei contenuti in rete e che ognuno oggi è potenzialmente in grado di produrre propri
contenuti senza intermediazione, ci si pone di fronte ad una questione non trascurabile
che è quella del diritto d’autore. Infatti, come abbiamo appurato nel corso di questo
lavoro, se fino a poco tempo fa si poteva tranquillamente vivere ignorando totalmente
queste problematiche oggi non è più così perché queste nuove forme di authoring
esigono una conoscenza del diritto d’autore più ampia per ogni utente.
Se un sistema come quello che abbiamo progettato rende il tema del diritto d’autore più
presente e visibile all’utente durante tutto il flusso di lavoro, una maggiore conoscenza
delle licenze Creative Commons da parte dei potenziali utenti potrebbe generare un
maggior utilizzo delle CCPL e di conseguenza, nel lungo periodo, una maggiore diffusione
in rete di opere rilasciate con licenza non restrittiva. Questo potrebbe garantirebbe
inoltre un maggiore utilizzo di opere rilasciate sotto CCPL da altri utenti per il riuso, il
remix e la produzione di opere nuove favorendo la creatività e garantendo la
costruzione di conoscenza. Inoltre non andando ad interrompere il flusso di lavoro in
maniera troppo invasiva, garantirebbe all’utente la libertà di scelta di disporre delle
informazioni presenti nel tutorial o meno, restando tuttavia sempre presente
nell’interfaccia così da essere fruibile nelle diverse fasi di creazione dei contenuti.
Questo, come dimostrato dalle valutazioni effettuate sui potenziali utenti del nostro
sistema, non scoraggerebbe la produzione di contenuti ma potrebbe migliorare
l’authoring in rete, valorizzando i contenuti autoprodotti dagli utenti con l’utilizzo delle
licenze Creative Commons.
Inoltre, attuando un processo di apprendimento continuo delle licenze con dei
brevi filmati che mostrano la modularità delle CCPL e la loro applicazione, si potrebbero
portare i potenziali utenti di queste piattaforme ad una maggiore consapevolezza nella
scelta del tipo di tutela da attribuire al proprio lavoro e nella eventuale scelta della
licenza più adatta alle proprie esigenze.
Tutto questo ci riconduce all’ipotesi iniziale, presentata nel primo capitolo, della
possibilità di una nuova forma di authoring in rete, che abbiamo voluto definire
230
authoring “2.0”: un sistema di questo tipo applicato alle esperienze già presenti in rete e
quindi integrato in piattaforme per la creazione collaborativa e il remix dei contenuti in
rete potrebbe aiutare gli utenti a interagire maggiormente con queste licenze,
generando un processo di apprendimento continuo di queste licenze e andando a
intervenire nella loro diffusione direttamente nel campo applicativo, cioè durante il
flusso di lavoro in rete. Questo valorizzerebbe l’authoring, andando ad integrare quelle
che abbiamo riscontrato essere le tre possibili macro-forme di authoring in rete: la
creazione individuale, quella collaborativa asincrona e quella collaborativa sincrona.
Infatti questa nuova metodologia di lavoro in rete che abbiamo proposto, potrebbe
migliorare il flusso di lavoro creando una nuova forma di authoring, più attenta alla
tutela dei lavori autoprodotti dagli utenti e alla tutela dei diritti d’autore di terzi.
Infatti poiché la tecnologia può essere vista come un mezzo per mediare la
costruzione di conoscenza, integrando nelle piattaforme UGC un sistema di questo
genere si potrebbe intervenire nella diffusione di temi quali il diritto d’autore. In questo
senso il tutorial che abbiamo sviluppato potrebbe essere letto come un mezzo per
imparare il diritto d’autore e le CCPL direttamente in rete lavorando.
Adottando un sistema di questo tipo inoltre, le piattaforme User-Generated
Content, nel lungo periodo, potrebbero fornire ai propri utenti l’interiorizzazione di una
metodologia di apprendimento che renda progressivamente i potenziali utenti più
autonomi nella conoscenza di temi spesso trattati superficialmente dalle piattaforme
User Generated Content, promuovendo un processo interiore suscitato dall’interesse
per il perseguimento di uno scopo in autonoma capacità di scelta e giudizio. Infatti
agendo in questo modo su di essi, contestualizzando questi temi durante tutte le fasi di
produzione dei contenuti dove l’utente ha una motivazione forte nell’agire in base allo
scopo che vuole perseguire -quindi la produzione di contenuti o informazioni-, il sistema
che abbiamo proposto potrebbe migliorare l’User-Experience di queste piattaforme
rendendo piacevole la conoscenza di questi temi e affrontandola in modo nuovo e
piacevole.
231
Appendice
232
Appendice A
233
234
235
236
Appendice B
Risultati e grafici del questionario esplorativo somministrato in rete ai potenziali
utenti delle CCPL sui siti Facebook.com, Flickr.com, Jamendo.com, Nonsolonews.it,
Google Groups, attraverso il blog http://ricercasucreativecommons.wordpress.com,
dal 13/11/2008 fino ad oggi.
Le percentuali sono riferite al campione finora rilevato di 38 risposte al questionario.
sì, ma non
11%
frequentemente
237
3. Secondo te, cosa spinge gli utenti ad utilizzare questi sistemi per la creazione di
contenuti in rete?
opportunità di diffusione
30%
della conoscenza
238
5. Se quando si creano e condividono contenuti in rete si potessero tutelare con degli
appositi strumenti i propri lavori, questo potrebbe scoraggiare la creazione e il
riutilizzo di materiale lesivo del diritto d’autore?
6. Sul sito web di creative commons si legge: “Le licenze Creative Commons offrono sei
diverse articolazioni dei diritti d'autore per artisti, giornalisti, docenti, istituzioni e, in
genere, creatori che desiderino condividere in maniera ampia le proprie opere secondo
il modello "alcuni diritti riservati". Il detentore dei diritti può non autorizzare a priori
usi prevalentemente commerciali dell'opera (opzione Non commerciale, acronimo
inglese: NC) o la creazione di opere derivate (Non opere derivate, acronimo: ND); e se
sono possibili opere derivate, può imporre l'obbligo di rilasciarle con la stessa licenza
dell'opera originaria (Condividi allo stesso modo, acronimo: SA, da "Share-Alike"). Le
combinazioni di queste scelte generano le sei licenze CC, disponibili anche in versione
italiana. Creative Commons è un'organizzazione non-profit. Le licenze Creative
Commons, come tutti i nostri strumenti, sono utilizzabili liberamente e gratuitamente,
senza alcuna necessità di contattare CC per permessi o registrazioni".
sì, ne ho sentito
49%
parlare ma non ho le
idee chiare
239
7. Le hai mai utilizzate?
BY-attribuzione 14%
attribuzione-non opere derivate 0%
attribuzione-non commerciale 19%
attribuzione-condividi allo stesso modo 29%
attribuzione-non commerciale-condividi allo stesso modo 19%
240
9. Per quali tipi di contenuti le hai utilizzate?
video 6%
testi 17%
foto 11%
10. In generale capisci la differenza fra l’utilizzo di una licenza piuttosto che un'altra?
241
11. Se non sono chiare o hai dubbi, secondo te cosa non si capisce?
12. Se le hai utilizzate, hai avuto difficoltà nella loro applicazione ai tuoi lavori?
242
13. In generale, se si potesse accedere in modo più immediato all’applicazione delle
licenze e se fosse più chiaro il loro utilizzo in rete, ad esempio attraverso appositi step
durante l’upload come avviene su Jamendo o con applicazioni adeguate che aiutino
passo passo nella scelta, questo potrebbe incoraggiare la creazione e il riutilizzo di
contenuti rilasciati sotto licenze Creative Commons?
si, incentiverebbe
sicuramente se
l’applicazione delle licenze 23%
fosse più automatica e
semplice da usare
sì, ma bisognerebbe
comunque fare una 69%
promozione migliore in
rete di queste licenze
243
15. Conosci uno di questi concorsi o iniziative dedicati a lavori rilasciati sotto licenza
Cc?
Opensource cinema 5%
244
16. Questo nuovo modo di concepire il web come ambiente collaborativo per l’editing
e il remix di contenuti, potrebbe essere valorizzato dall’utilizzo delle licenze cc?
245
Appendice C
R: Bè il diritto d’autore dice che quando l’utente produce qualcosa che è originale,
quindi deve esserci una certa storia di originalità, e che è suo, quindi che non deriva da
altri lavori ha il diritto, la legge sul diritto d’autore tutela questo contributo. Sin quando
si tratta di contributi abbastanza con una certa dimensione, non abbiamo particolari
problemi, il problema per me si pone in prospettiva quando come nel caso di Wikipedia
abbiamo magari migliaia di persone che fanno piccoli interventi e che contribuiscono
quindi al risultato complessivo, allora il diritto d’autore credo che con queste micro
aggiunte, con queste micro modifiche abbia dei problemi perché sono una granularità
più piccola di quella normalmente pensata per il diritto d’autore. Però il principio
246
fondamentale è che chi contribuisca a qualcosa di originale è tutelato dal diritto
d’autore per quel contributo, vale anche per il software.
D: Quindi vale solo per il singolo contributo, non viene considerato come un lavoro a
più mani, come un’opera collettiva?
D: Dall’analisi delle esperienze già presenti in rete ho notato che, a livello progettuale
nei siti che utilizzano CCPL come Flickr p.e., il procedimento di applicazione delle
licenze avviene spesso in un passaggio separato dall’editing e dall’upload dei
contenuti, cioè l’utente dopo l’upload deve eventualmente entrare in un’apposita area
del menu e accedervi.
La mia idea progettuale era quindi di rendere questo procedimento un po’ più
integrato nel flusso di lavoro, quindi simultaneamente alla creazione stessa del
contenuto, definendo uno strumento progettuale che serva a migliorare la creazione
collaborativa e il remix di contenuti in rete valorizzati dall'utilizzo di queste licenze,
che spieghi e aiuti per step nella scelta più consapevole delle licenze già durante
l'editing e che possa eventualmente andare a migliorare esperienze di ambienti
collaborativi già presenti in rete.
Il fatto che risulti un procedimento distaccato potrebbe essere un fattore che influenza
negativamente l’utilizzo delle licenze da parte dei potenziali utenti, considerando
anche che chi non le conosce o le conosce poco?
R: Questo è sicuramente vero che è più come uno step finale che a certi può sfuggire
completamente, sono d’accordo, però è più un miglioramento tecnico del workflow dire
“lo integriamo meglio, te lo rendiamo più evidente e più presente”.
R: Ah sicuramente sì, nel senso che l’utente sarebbe più sensibile che esiste questo
aspetto e lo prenderebbe maggiormente in considerazione. Sarebbe interessante
parlare con chi ha fatto le cose già esistenti, per chiedergli perché non l’ha fatto. Perché
magari qualcuno ritiene che l’argomento dei diritti interessa poco o che rischia di
distrarre dalla cosa principale… sarebbe interessante capire perché non è stato già fatto
247
quello che dice lei, capisce? Ma non perché quello che dice lei non sia auspicabile, ma
perché magari ci sono delle obiezioni, magari ci han provato e hanno rinunciato perché
gli utenti si infastidiscono a questo step aggiuntivo… Però ovviamente dal punto di vista
Creative Commons sono d’accordo, sarebbe una cosa opportuna farlo.
D: Dal questionario che sto somministrando in rete finora, il 73% degli intervistati ha
affermato che bisognerebbe fare una promozione migliore in rete di queste licenze.
Secondo Lei in che modo si potrebbe diffondere e pubblicizzare maggiormente la
conoscenza e l’utilizzo delle CCPL in rete?
R: Il discorso è complicato perché l’utilizzo delle licenze Cc, come qualsiasi licenza,
presuppone che ci sia una conoscenza dei concetti di base del copyright, del diritto
d’autore… bell’argomento, nel senso che sino ad adesso la maggior parte delle persone
poteva vivere la sua intera vita ignorando sostanzialmente l’esistenza del copyright.
Adesso la situazione è cambiata, ma non è che nel frattempo le scuole, per esempio,
abbiano iniziato ad insegnare questi concetti di base del diritto d’autore, per cui il vero
ostacolo non è tanto spiegare le licenze -spiegare le licenze è banale, se uno sa già cos’è
il diritto d’autore- ma è spiegare il diritto d’autore. E per spiegare il diritto d’autore o si
hanno delle risorse, come possono avere SIAE o i grandi editori, o altrimenti per un
progetto come Cc… un po’ lo facciamo, ovviamente con le risorse di un progetto
volontario. Quindi il vero problema è educare al diritto d’autore e tra l’altro, dal punto di
vista di Cc, è ancora qualcosa in più. Perché in realtà Creative Commons non sono solo
strumenti tecnici che si basano sul diritto d’autore, ma ci sono dei connotati di tipo
culturale che spiegano perché Cc esiste. Creative commons esiste per….tutta una serie di
problemi, è un’opera educativa che si può soltanto fare, stiamo facendo da diversi anni,
non solo noi ma anche molti altri stanno facendo, ma che è abbastanza impossibile
risolvere nel giro di poco tempo, è un processo continuo di discussione come facciamo
con incontri, articoli sui giornali, festival. Non c’è nessuna soluzione rapida temo su
questo problema. Quindi per una maggiore pubblicità si potrebbero utilizzare i canali
classici della pubblicità, ma non abbiamo chiaramente gli strumenti per farlo, non
abbiamo risorse per mettere annunci pubblicitari sui siti, banners, adwork di google
ecc… e quindi si può soltanto continuare come abbiamo fatto fin adesso con
passaparola, imitazione, non vedo grandi possibilità alternative. Oppure un’altra
possibilità potrebbe essere una pubblicità indiretta, nel momento in cui ci fossero dei
248
casi eclatanti, che so la RAI o un grande editore che adottasse queste cose e le
pubblicizzasse, allora avremmo una pubblicità indiretta.
D: E uno strumento di questo tipo magari integrato anche ad esperienze già presenti in
rete di ambienti collaborativi, potrebbe sensibilizzare maggiormente? Più, magari, di
una pubblicità fatta in rete?
R: Si sicuramente, perché se direttamente nel dominio applicativo alla gente, mentre sta
facendo qualcosa, si fa presente questo aspetto, quindi questo sicuramente si e anziché
essere una pubblicità generica rivolta a tutti e a nessuno, sarebbe rivolta esplicitamente
alle persone interessate a pubblicare. Quindi questo sarebbe sicuramente molto meglio.
Idealmente in realtà Cc, sin dall’inizio dal 2003 da quando ce ne occupiamo noi, ha
contatti con San Francisco, quindi molto vicini all’industria del software americano e da
sempre hanno contatti con i grandi produttori come Adobe, Microsoft e altri perché, se
nei menù di questi programmi come Photoshop, Office, ecc…, ci fosse anche una voce
che dice “quali diritti vuoi attribuire, vuoi scegliere Cc?”, chiaramente la situazione
sarebbe notevole. Finora il successo da questo punto di vista è stato parziale, Office ha
fatto un plugin per aggiungere Creative Commons, però è un plugin, quindi uno deve
saperlo, caricarlo e installarlo in Office, non è uno standard…
R: No, almeno non credo nella versione 2007, nell’ultima versione di Office non ho
controllato ma non mi sembra che sia standard, prima non lo era di sicuro… anche
quello sarebbe importante, però le chiavi ce le hanno i produttori software, quindi
bisogna vedere se e quando hanno interesse a fare una cosa del genere. In Flickr per
esempio, è stato uno degli investitori di Flickr Joi Ito è stato abbastanza naturale che lo
includesse, Yahoo e Google hanno esteso una ricerca avanzata, però soltanto pochissimi
utenti utilizzano la ricerca avanzata per trovare materiale.
D: Anche su Mozilla Firefox ho visto che c’è la possibilità nel motore di ricerca di cercare
direttamente…
249
D: Per quanto riguarda NEXA, cos’è e di cosa si occupa?
R: Allora, mi permetta di fare un passo indietro. Nel 2003 io come ricercatore e docente
di informatica, ci siamo incontrati col Prof. Ricolfi che è un giurista, che conosceva
Lessing dal 1999 -era già venuto a Torino nel 1999- e gli ho raccontato cos’era Creative
Commons e del fatto che creative commons cercasse volontari in giro per il mondo per
fare la traduzione e adattamento. Il prof. Ricolfi ha accettato e a quel punto parte
l’entourage -che in parte ha conosciuto ieri- che ha cominciato a lavorare alle licenze;
questo nel 2003. Abbiamo lanciato le licenze a fine 2004, nel 2004 abbiamo fatto due
giornate di studio alla Fondazione Agnelli su CyberLaw, quindi Internet, tecnologia e
legge, nel 2005 abbiamo ospitato l’Internet Law Program di Harvard del Berkman Center
e così via, mano a mano abbiamo fatto iniziative, il servizio licenze libere SeLiLi -che tra
l’altro adesso stiamo discutendo anche per la Sardegna- e questa serie di iniziative ci han
fatto capire che non era più una collaborazione episodica e occasionale per una certa
cosa specifica, ma Creative Commons continuava la collaborazione con Harvard … certe
idee, il progetto SeLiLi ci ha dato certe idee, alla fine abbiamo capito che, in maniera tale
da rendere sostenibili certe attività -che è puro volontariato fatto oltre a tutti i nostri
normali lavori, quindi il fine settimana o le sere- andava creato qualcosa di più
strutturale che fosse più ampio di ogni singolo progetto che stavamo facendo, e anche
che servisse a fare economie di scala, fattore comune a mettere risorse e competenza, e
quindi a fine 2006 abbiamo creato un centro di ricerca perché ci è sembrato che un
centro di ricerca basato a un’istituzione come il Politecnico potesse fornire da base, da
cappello organizzativo-strutturale per tutte queste attività. L’abbiamo fatto con uno dei
primi finanziamenti e quello che abbiamo adesso com’è Nexa è un centro di ricerca
multidisciplinare accademico, accademico con un orientamento abbastanza preciso che
è quello di… crediamo in un Internet aperta, interoperabile e democratica e così via,
quindi con un orientamento e una visione del mondo chiara e non completamente
neutra e staccata, e all’interno di NEXA adesso ci sta il progetto Creative Commons Italia,
ci sta il progetto SELILI, ci sta il progetto europeo COMMUNIA, e così via, però ora
abbiamo una struttura che può seguire queste cose.
250
R: Il progetto COMMUNIA è un progetto finanziato dall’Unione Europea, un migliaio di
euro per tre anni, adesso abbiamo 41 membri, quindi una rete, una rete telematica, il
finanziamento va perlopiù per coprire i costi di viaggio di questi membri che si
incontrano circa quattro volte l’anno, e questa rete ha ricevuto il mandato dalla
Commissione Europea di studiare il ruolo del pubblico dominio in senso lato, anche le
opere rilasciate sotto Creative Commons sono considerate in pubblico dominio in questo
senso, o anche il pubblico dominio in senso scientifico educativo, le opere orfane e altre
cose un po’ più specializzate, e quello che ci chiede la Commissione Europea con questi
incontri che organizziamo, con questi gruppi di lavoro che abbiamo creato è di suggerire
alla commissione cambiamenti di policies che favorissero il pubblico dominio in Europa.
Cambiamenti di policies, quindi la proposta di direttiva a modifiche di norme o
regolamenti, e questa è una cosa ambiziosa perché è come cercare di dare voce al
pubblico dominio che, essendo una cosa di tutti e di nessuno, è un interesse diffuso, non
concentrato, e specialmente nel confronto con invece interessi concentrati -grandi
editori, grandi discografici, e così via- il pubblico dominio perde perché non c’è nessuno
che lo rappresenta. L’ambizione di questa rete è di provare a dare voce a questa
rappresentativa, e il pubblico dominio è importante per i seguenti motivi economici,
sociali, culturali, politici, educativi e così via. È ambizioso, ma è qualcosa che stiamo
cercando di fare da circa un anno e durerà fino ad agosto del 2010.
D: E per quanto riguarda gli incontri “I mercoledì di NEXA”, ogni quanto avvengono?
R: Abbiamo voluto creare un incontro pubblico, quindi aperto a chiunque, una volta al
mese per il momento -il secondo mercoledì del mese-, dove il gruppo dei “nexiani”
quindi ricercatori, docenti, ecc incontra chiunque sia interessato a parlare di Internet e
dei diversi aspetti di Internet, e quindi siamo aperti a pubblica amministrazione,
imprenditori, studenti, semplici interessati e semplici appassionati. Abbiamo iniziato a
settembre e quindi siamo soltanto all’inizio e mano mano che andiamo avanti capiamo
come strutturarlo, adesso abbiamo avuto un nuovo ospite ieri, avremo un ospite a
gennaio che è il Sen. Fiorello Cortiana e un po’ alla volta lo “stremiamo” live, e l’obiettivo
è anche quello di rendere più trasparente quello che facciamo e anche eventualmente di
attrarre persone nuove, studenti che sono interessati, vedono cosa facciamo, ci vengono
ad ascoltare e poi magari diventano collaboratori del centro.
251
D: Nell’articolo di Glorioso e Mazziotti sulle CCPL e i diritti connessi, per sensibilizzare
maggiormente i potenziali utenti delle CCPL sulla necessità di assicurarsi la
disponibilità di tutti i diritti su un’opera, loro propongono di inserire, nel modulo di
selezione delle CCPL on line, degli avvertimenti che facciano tener conto al licenziante
che non siano violati i diritti di terzi, senza però entrare nei dettagli giuridici.
Secondo lei, degli avvertimenti di questo tipo che permettano anche all’utente che ha
meno competenze giuridiche di capire, se applicati allo strumento di cui parlavamo
prima, potrebbero sensibilizzare maggiormente i potenziali utenti delle CCPL?
R: Direi che è essenziale… anche nei questionari che vengono predisposti per rilasciare
per esempio la tesi con licenza creative commons, anche all’interno delle università, c’è
una fase di corretta informazione dell’utente, nel senso anziché dirgli “la vuoi rilasciare
con licenza CC?” e basta, gli si dice “l’opera è tutta tua? Sei sicuro che l’opera non
contenga contenuti altrui? Se contiene contenuti altrui hai ottenuto il permesso?” E tra
le altre cose gli si potrebbe dire -nel caso di opere musicali per esempio-, “quest’opera è
tua e sei sicuro di avere ottenuto il permesso anche di eventuali altri che hanno i diritti,
come AIE ecc?”. Quindi questa fase educativa, che non deve essere troppo tecnica e
troppo pesante se no farebbe scappare tutti, ma viceversa non si può neanche
nascondere sotto al tappeto perché altrimenti poi uno, magari lo fa in buona fede, ma in
realtà sta violando un diritto di altri e quindi bisogna trovare un bilanciamento tra i due.
Ovviamente la maggior parte dei siti di successo hanno un approccio molto più indiretto
e meno pesante, perché quando uno va su You Tube mica gli fanno quattro paginette di
domande, è tutto nascosto nei Terms of Service -che nessuno legge-, allora ovviamente
You Tube pensa ad avere successo e non vuole scoraggiare l’upload perché vive di
quello, una pubblica amministrazione come l’università deve invece essere più corretta
e più trasparente, bisogna trovare caso per caso il modo giusto per farlo.
D: Nel questionario che sto somministrando il 41% ha dichiarato di avere dei dubbi
sull’utilizzo delle licenze.
La mia domanda è se questo problema potrebbe essere risolvibile, a livello
progettuale, con uno strumento che aiuti nel momento di scelta della licenza più
adatta da parte dell’utente-autore a chiarire eventuali dubbi, sia a livello tecnico che a
livello giuridico.
252
R: Noi abbiamo appena pubblicato -o staranno per pubblicare- le risposte alle domande
più frequenti ufficiale, che ci hanno tenuti impegnati letteralmente per degli anni, e
quello dovrebbe rispondere ad alcune domande. Il fatto che ci siano delle domande è
quasi ovvio, è talmente complicata la materia che sarebbe strano non ci fossero delle
domande, quando non ci sono delle domande è perché in realtà nessuno ha capito, le
cose capitano e magari in certi casi può anche andare bene così. Ma nel caso delle
licenze Creative Commons non possiamo non affrontare questi problemi, spiegarli
sperando che la cosa non diventi troppo complicata. È veramente complicato
comunque, non c’è una soluzione perfetta. Facciamo un esempio, ieri Mazziotti parlava
della parodia, le domande rischiano di diventare così complicate, potremmo dire:
“quest’opera è tua?” e uno dovrebbe dire “no” “ma non stai mica facendo una parodia?
Perché se stai facendo una parodia allora va bene!”. E di eccezioni di questo tipo ce ne
sono talmente tante, di casi particolari, che uno se volesse essere rigoroso dovrebbe
prevedere “stai esercitando il diritto di cronaca?” “stai facendo un upload di questo tipo
perché in realtà è successa una manifestazione e vuoi fare l’upload, il video non è tuo
ma stai esercitando un diritto di cronaca?”, capisce? Quindi uno rischia di immischiarsi in
un labirinto, non è un caso che nella maggior parte dei casi si evita questo genere di
domande, però se uno guarda il Common Deed delle licenze CC italiane, ci sono alcune
frasi che servono a suggerire per esempio “le licenze creative commons non limitano in
alcun modo l’esercizio dei tuoi diritti”, che vuol dire? Io ti dico per esempio che non puoi
fare un uso commerciale della mia opera, per cui repubblica.it non potrebbe usare
perché fa un uso commerciale. Ma se repubblica.it esercita il suo diritto di cronaca
invece lo fa, quindi la verità effettiva -da profano- è che più capisco di questa cosa e più
mi rendo conto che tutto il sistema funziona perché non viene applicato, perché se
venisse applicato sarebbe la paralisi più totale e che se volessimo veramente far
rientrare nella legalità tutti i comportamenti bisognerebbe cambiare praticamente la
legge sul diritto d’autore e dire -come la proposta del prof. Ricolfi di un Copyright 2.0-
dire tutti gli usi sono leciti, c’è solo l’attribuzione e quindi tutti questi problemi
scomparirebbero. Se uno vuole tutti i diritti riservati chiede, ci sarà un bollino e in quello
valgono le regole standard, ma sarebbero un piccolo sottoinsieme, sarebbero le cose
prodotte dall’industria culturale, tutto il resto no.
253
D: E per quanto riguarda i progetti Creative Commons, come CCMixter p.e., chi se ne
occupa a livello progettuale?
R: Stai Uniti.
254
Appendice D
Testo dell’intervista via e-mail a Victor Stone, amministratore del sito CcMixter.org
Dear CcMixter,
I’m student at Sassari University (Italy) and I’m working on my master thesis
investigating web 2.0 phenomena and the use of creative commons licenses.
The objective of my research is evaluating CCPL utilization and popularity among the
web users and how the creation of web contents can be effected by the use of those
licenses.
The aim is to figure out how a juridical instrument such as cc licenses can support new
ways of creating and remixing web contents in collaborative settings.
On the basis of the early outcomes of my research I’m considering to develop an applet
taking the form of an online tutorial that can support the users using the CC licenses
while creating and editing contents in online, collaborative environments.1
This tutorial would explain how to choose the license that best suit with the work you
are creating, by means of brief simulation; in this way it aims at supporting a continuous
learning process on the use of those licenses.
In the context I’m analyzing the experience of the CcMixter web site, which I would like
to use as one of the case studies for my work. To this respect, I would very much
appreciate if you can answer to the following questions that will help me better frame
the research and to understand the Cc Mixter experience.
Do you think could be useful to integrate CcMixter with a tool that enables users to
remix their contents online? Why?
In your opinion, could it be useful for the users to have an applet that allows to integrate
CCPL in the content creation, working as a tutorial of the use of these licenses? What
can be the benefits or the drawbacks of this kind of solution?
In case this solution has been previously considered, which kind of limitation (i.e.
technical) have been encountered? Could you provide me some reference of these
255
experiences? And more in general, what has been the feedback from the users (e.g. too
many steps can make the interaction boring or can be seen as an interruption of the
work flow)?3
Best wishes,
Paola Cherosu
Hi Paola,
I'm afraid I don't have a lot of time to give you proper attention but
quickly I can say what my impressions are:
Thanks,
VS
256
Appendice E
Tavola dei risultati delle valutazioni sul prototipo con gli studenti
257
258
259
260
261
262
263
Riferimenti bibliografici e Articoli
AA.VV. Open Sources: voci dalla rivoluzione Open Source, Apogeo, Milano, 1999
Aliprandi S., (A cura di), Compendio di libertà informatica e cultura open, Ed. PrimaOra,
Lodi, 2006
Aliprandi S., Capire il Copyright: Percorso guidato nel diritto d’autore, Ed. PrimaOra,
Lodi, 2007
Aliprandi S., Copyleft e Opencontent: l’altra faccia del copyright, PrimaOra, Lodi, 2005
Aliprandi S., Teoria e pratica del copyleft guida all’uso delle licenze open content, NDA
Press, 2006
Aliprandi, S., Creative Commons: manuale operativo. Guida all’uso delle licenze e degli
altri strumenti CC, Stampa Alternativa, 2008
Barr, J., Live and let license, articolo disponibile in rete all’indirizzo
http://www.itworld.com/LWD010523vcontrol4
Beccaria A., I pionieri della frontiera digitale: Internet dagli esordi al world wide web,
disponibile in rete all’indirizzo antonella.beccaria.org/shalom/work/storia_internet.pdf
Beccaria, A., Permesso d’autore. Percorsi per la creazione di cultura libera, 2006,
disponibile in rete all’indirizzo http://permessodautore.it/libro/permessodautore.pdf
264
Bollier, D., Why The Public Domain Matters The Endangered Wellsping Of Creativity,
Commerce and Democracy, New America Foundation & Public Knowledge, 2002
Caso, R., Digital Right Management. Il commercio delle informazioni digitali tra
contratto e diritto d’autore, CEDAM, Padova, 2004
Caso, R.,(a cura di), Digital Right Management, problemi teorici e prospettive applicative,
Atti del Convegno tenuto presso la Facoltà di Giurisprudenza di Trento, 2008
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi
Edizioni, 2006
Drahos, P., Information Feudalism: Who Owns the Knowledge Economy?, John
Braithwaite Earthscan, 2002
Furini, N., Libero come un software, usare internet con gli strumenti liberi e/o
opensource per comunicare, lavorare, imparare, CC, 2006
Glorioso, A.- Mazziotti, G., Alcune riflessioni sulle licenze creative commons e i diritti
connessi degli artisti interpreti ed esecutori, dei produttori di fonogrammi e degli
organismi di diffusione radiotelevisiva, in “Il diritto di autore”, Rivista trimestrale della
Società Italiana degli Autori ed Editori, Vol. 79 (2) PP. 163 Giuffrè Editore, Milano, Aprile-
giugno 2008
Grivet Foiaia, L., Web 2.0 - Guida al nuovo fenomeno della Rete, HOEPLI, Milano, 2007
265
Gennari, L., Internet e Sicurezza: proroga per il decreto Pisanu, articolo su
http://www.pubblicaamministrazione.net/leggi-e-norme/news/1529/internet-e
sicurezza-proroga-per-decreto-pisanu.html
Kaye, B., Medoff, N., The World Wide Web. A Mass Communication Perspective,
Mayfield Publishing Company, California, 2001
Lessing, L., Free Culture How Big Media Uses Technology and The Law To Lock Down
Culture and Control Creativity, Apogeo, 2005
Lessing, L., Remix: Making Art and Commerce Thrive in the Hybrid Economy, The Penguin
Press, United States of America, 2008
Lessing, L., The Future Of Ideas, The Fate Of The Commons In A Connected World,
Random House Inc., New York, 2001
Mazziotti, G., EU Digital Copyright and The End User, Springer, 2008
McLeod, K., Freedom Of Expression: Overzealous Copyright Bozos and Other Enemies Of
Creativity, DOUBLEDAY a division of Random House Inc., 2005
266
Futia, G., Nexa, un nuovo sguardo verso il futuro delle rete, articolo su
http://www.lastampa.it/_web/cmstp/tmplrubriche/tecnologia/grubrica.asp?ID_blog=30
&ID_articolo=5660&ID_sezione=38&sezione=News
Nielsen, J., Loranger, H., Web Usability 2.0. L’usabilità che conta, Apogeo, Milano, 2006
Norman, D., Il computer invisibile:la tecnologia migliore è quella che non si vede,
Apogeo, Milano, 2000
O’Reilly, T., Cos’è il Web 2.0, Design Patterns e Modelli di Business per la prossima
generazione di software su http://www.awaredesign.eu/articles/14-Cos-Web-2-0
Patterson, L.R., Copyright And `The Exclusive Right' Of Authors, articolo disponibile in
rete all’indirizzo http://www.lawsch.uga.edu/jipl/old/vol1/patterson.html Journal of
Intellectual Property, Vol. 1, No.1, 1993
Ricolfi, M., Copyright Policy for digital libraries in the context of the i2010 strategy,
pubblicazione disponibile in rete all’indirizzo http://communia-
project.eu/communiafiles/conf2008p_Copyright_Policy_for_digital_libraries_in_the_co
ntext_of_the_i2010_strategy.pdf
Saffer, D., Il design dell’Interazione, Pearson Education Italia, Paravia Bruno Mondadori
Editore, Milano 2007
Soro, A., (a cura di) Human Computer Interaction Fondamenti e Prospettive, Polimetrica
International Scientific Publisher, Monza, 2008
St. Laurent, A. M., Understanding Open Source and Free Software Licensing, Ed.
O’Really, 2004
Stallman, R., Software Libero, Pensiero Libero, Stampa Alternativa, Viterbo, 2003
267
Grossman, L., Time's Person of the Year: You articolo disponibile in rete alla pagina
http://www.time.com/time/magazine/article/0,9171,1569514,00.html
Williams, S., Codice Libero: Richard Stallman e la crociata per il software libero, Apogeo,
Milano, 2003
268
Riferimenti Web
Anomolo.com
Archive.org
Beatpick.com
Blender.org/blenderorg/blender-foundation
Ccmixter.org
Communia-project.eu
Copyleftfestival.net
Copyleft-italia.it
Creativecommons.it
Creativecommons.org
Digitalmusician.net
Empressr.com
Facebook.com
Flickr.com
Freeimagefestival.org
Freesound.org
Homeworkrecords.net
It.youtube.com/symphony
Jamendo.com
Jumpcut.com
Magnatune.com
269
Motionbox.com
Musikethos.org
Nexa.polito.it
Odesigncommunity.com
Opensource.org
Opensourcecinema.org
Opsound.org
Ourmedia.com
Photobucket.com
Romanzototale.it
Selili.polito.it
Slideshare.net
Soundclick.com
Thumbstacks.com
Totalrecut.com
Youtube.com
Youtube.com/symphony
270
Ringraziamenti
Ringrazio innanzitutto il mio relatore, la Prof.ssa Alessia Rullo, per aver creduto in
questo lavoro sin dall’inizio, spronandomi ad approfondire fino in fondo questo tema e
indirizzandomi con i suoi preziosi suggerimenti verso la realizzazione del progetto finale.
Ringrazio tutto il gruppo di lavoro Creative Commons Italia per avermi accolto a Torino
con grande disponibilità, dandomi la possibilità di conoscere da vicino questa realtà e di
dare un approccio più realistico al mio lavoro. Un ringraziamento particolare va al Prof.
Juan Carlos De Martin, che si è reso disponibile a rispondere alle mie domande e che mi
ha dato importanti spunti di riflessione da approfondire, che sono stati di fondamentale
importanza per la prosecuzione del mio lavoro.
Ringrazio inoltre Victor Stone, amministratore del sito CcMixter, per aver risposto con
gentilezza alle mie domande.
Grazie a tutti coloro che mi hanno aiutato in tutte le varie fasi di progettazione,
rispondendo ai questionari ed effettuando le valutazioni sui prototipi.
Grazie a tutta la mia famiglia, ma soprattutto grazie di cuore a mia madre, che è riuscita
a starmi vicino e a darmi la forza di andare avanti in questo lavoro anche in un momento
difficile come quello che stiamo vivendo. Tutto ciò che sono oggi lo devo a lei.
Grazie a Luca, che mi sta vicino e mi sostiene ogni giorno da dieci anni. Grazie per il
prezioso aiuto e per i consigli che mi ha dato nella realizzazione del prototipo e per la
sua pazienza.
Infine, grazie alle mie amiche di sempre e a quelle nuove con cui ho condiviso questi due
anni di studio, e non solo. Ognuna di loro, leggendo queste righe, saprà riconoscersi.
271