Tutorials

Come rivendicare un video su Youtube

YouTube è una piattaforma spesso oggetto di contestazioni legate all’uso di contenuti protetti da diritto d’autore: per questo motivo, è particolarmente sviluppata l’attività tesa a consentire l’identificazione e la sospensione di contenuti illegittimamente caricati.

E’ possibile rivendicare un video vedendosi riconoscere i propri diritti di proprietà intellettuale o identificandolo direttamente o richiedendo l’ammissione, per un proprio video caricato, al riconoscimento di un “Content ID” a questo riferito.

Partendo da tale riferimento, YouTube creerà una fingerprint digitale che confronterà il Content ID con i video caricati da altri utenti di YouTube. Quando la tecnologia di Content ID identificherà una corrispondenza, rivendicherà automaticamente il video sospetto e applicherà le norme di sospensione e di notifica: un utente che dovesse ricevere rivendicazioni può vedersi sospeso il proprio Canale.

contentID-youtube

Ecco dove è possibile richiedere l’ammissione ad un Content ID: [Qui il link].

Youtube: come aprire e gestire un canale

Senza un Canale, non è possibile avere una presenza pubblica su YouTube: è possibile crearlo semplicemente dalla homepage di YouTube o, eventualmente, a partire da una pagina Google+.

Una volta creato il Canale, sarà possibile:

  • personalizzarne  laspetto con una descrizione e con un banner grafico a mo’ di copertina dello stesso;
  • collegarlo con un programma di condivisione dei ricavi pubblicitari;
  • fare richiesta per poter caricare video superiori ai 15 minuti di durata;
  • fare richiesta per rendere il Canale un canale a pagamento;
  • controllare la reputazione del Canale derivante dal non avere in sospeso delle procedure di rivendicazione di video protetti dal diritto d’autore;
  • pubblicare video in live-streaming;
  • pubblicare video privati.

youtube-video

E’ possibile caricare video su YouTube con le seguenti opzioni:

  • consentire o meno i commenti da parte degli utenti;
  • far sì che gli utenti possano vedere le valutazioni degli altri in merito a ciascun video;
  • scegliere il diritto d’autore da applicare (licenza standard YouTube vs. Creative Commons);
  • consentire o meno lembed in siti esterne (blog, …);
  • definire la categoria che, insieme alla descrizione del Canale, dei diversi video caricati e dei tag scelti per questi ultimi contribuirà a migliorare l’indicizzazione del Canale stesso.

Social Media Listening: quali sono i tool migliori in Rete

Gli strumenti di Social Media Listening che consentono di avere una visione delle menzioni e della reputazione di un certo marchio o di un certo bisogno online sono:

  • Fanpagekarma che osserva, come abbiamo visto, in Facebook il rendimento della Pagina, ma identifica anche i liker più attivi così da poterli coinvolgere in una attività di customer care o di PR digitali;
  • Pages to Watch, integrato nelle Insights di Facebook, consente di monitorare le Pagine dei concorrenti e i loro post;
  • Twtrland che scannerizza l’account Twitter identificando i tweet di maggior successo e i follower più autorevoli. Un tool simile per Google+ è invece Allmyplus.

twtrland

  • Socialbakers che restituisce liste esaustive degli account più seguiti per ogni industry e per i principali social media;
  • SocialMention, Mention e Topsy per individuare i tweet in cui un termine è stato menzionato: utile per osservare la reputazione di brand, prodotti, testate editoriali.
  • Klout per verificare l’autorevolezza di un account presente sui social media sulla base della sua capacità di essere menzionato in Rete;
  • Followerwonk che consente di comparare influencers sulla base di una “social authority”calcolata sulla base della qualità del loro follower.
  • Buzzsumo che individua i post più condivisi e di maggior successo per ciascun argomento.

Tutti questi strumenti, ed altri più professionali come Radian6 di Salesforce, sono utili non solo in sede di analisi, ma per migliorare costantemente il proprio piano editoriale oltre che per individuare blogger, account twitter e più in generale soggetti autorevoli in Rete da coinvolgere in un’attività di promozione di eventi, iniziative editoriali e convegni di cui la nostra testata dovesse essere protagonista.

Radian6 e, fra gli strumenti gratuiti, Hootsuite e Tweetdeck consentono di impostare delle parole chiave per osservare stream di conversazioni e, da un unico pannello di controllo, decidere di replicare ai singoli post così da fornire risposte, incentivi, ulteriori informazioni.

Come farsi trovare su Twitter

Se non esiste un vero e proprio algoritmo che premi i tweet, è pur vero che lo stream dei tweet e velocissimo e gli studi parlano di un tempo medio di “deperimento” di un tweet pari a 18 minuti: occorre pertanto affrontare le tre strade che debbono essere percorse per farsi trovare e far sì che l’account ne ottenga visibilità.

La prima strada è scegliere correttamente il momento in cui pubblicare nuovi tweet e, come nel caso di Facebook, anche nel caso di Twitter esistono strumenti che consentono di comprendere quando i nostri follower sono perlopiù on-line: Tweriod è un’applicazione gratuita che consente, sincronizzandosi con l’account di Twitter, di capire quando i follower sono più online e quali sono stati i giorni della settimana e le ore del giorno in cui i tweet hanno saputo ottenere una maggiore visibilità e un maggiore riscontro.

tweriod

Uno strumento che può rivelarsi utile per programmare i tweet nel momento migliore e, diversamente da Facebook, senza che questo crei una penalizzazione nell’algoritmo, è Hootsuite.

thevortex-hootsuite

Un altro tool molto utilizzato per gestire molteplici account Twitter da un’unica interfaccia è invece Tweetdeck.

Il linguaggio di Twitter: glossario, termini e consigli utili

Il linguaggio di Twitter non è immediatamente intuitivo e questa oscurità deriva probabilmente dalla  necessità di gestire messaggi lunghi al massimo 140 caratteri: la forza di Twitter sta nella sua velocità e paga un gergo tutto da comprendere.

In realtà, abbastanza intuitivamente, la reazione che l’utente può avere di fronte ad un tweet è molto simile a quella che può avere il lettore di un post su Facebook:

  • il “preferito” su Twitter ha nel corso del tempo assunto lo stesso significato del like su Facebook;
  • il “rispondi” su Twitter è il “commenta” su Facebook;
  • il retweet rappresenta il “condividi” di Facebook.

Twitter però vince il premio per essere la più criptica delle due piattaforme anche solo illustrando le sfaccettature che stanno dietro al“rispondi” e “retweet”.

Quanto al primo, se si risponde ad un tweet, la risposta verrà vista solo dal destinatario della risposta stessa e dai followers comuni a scrivente e destinatario: per far sì che tale risposta venga vista da tutti i follower di chi risponde, si suole anteporre al destinatario un puntino. Ad esempio:

@destinatario … → la risposta verrà vista solo dal destinatario e dai follower comuni;

.@destinatario … →  la risposta verrà vista dal destinatario e dai follower dello scrivente.

Anche il retweet può essere fatto in diversi modi:

  • retweet: in questo caso nella homepage dei follower di chi retwitta il soggetto che inoltra il messaggio sparirà e il tweet apparirà associato allo scrivente originario;
  • RT @username … → nella homepage dei follower apparirà lo scrivente che indicherà il tweet effettuato dall’utente iniziale come produttore originale del contenuto;
  • MT @username → il tweet è segnalato dallo scrivente come modificato rispetto al contributore originario. MT sta per “modified tweet”;
  • HT @username → il tweet è segnalato dallo scrivente come appreso dal contributore originario. HT sta per “heard through”.

Il ricorrere a questo linguaggio deriva dalla brevità del tweet a cui si ovvia, nel caso di un contenuto che contenga un link ad un sito esterno, ai cosiddetti “URL shortener” ovvero tool che, a seguito di un semplice copia e incolla del link da accorciare, non solo lo accorciano per utilizzarlo su Twitter, ma tracciano successivamente il numero di click prodotti. Strumenti di questo tipo molto utilizzati sono:

www.goo.gl (di Google);

www.bitly.com

www.ow.ly

Mentre su Facebook occorre scrivere con l’intento di ottenere di volta in volta un like, un commento o una condivisione per poter far fronte alla sfida dell’Edgerank, su Twitter l’assenza di un vero e proprio algoritmo che premi o punisca i contenuti dando loro maggior o minore visibilità rende meno importante scrivere con tale obiettivo. Ciò nondimeno occorre comprendere come rendere più efficace la capacità del tweet di essere trovato.

Facebook Insights: una guida per conoscere tutte le metriche

Facebook Insights aggrega i dati principali relativa alla performance della Pagina Facebook: è lo strumento di web analytics più importante per comprendere se gli sforzi condotti sul social network sono stati ripagati oppure no.

Facebook-insightsFacebook Insights consente di avere dati socio-demografici sui liker, sull’andamento dei post pubblicati ed infine sulle principali metriche della nostra Pagina.
I dati sui liker consentono di avere informazioni in merito alla distribuzione oraria con la quale essi sono presenti su Facebook nel corso dei diversi giorni della settimana e delle diverse ore della giornata: tali dati, come abbiamo visto, sono utili per poter scegliere l’orario di pubblicazione del post così da sfruttare al meglio il Time Decay, uno dei fattori più importanti dell’Edgerank.
Le Insights ci informano inoltre in merito alla lingua, al paese e alla città da cui si connettono i nostri liker così da avere uno spaccato demografico adeguato per poter comprendere se stiamo raggiungendo il target adatto alla nostra attività editoriale.
Le statistiche di Facebook ci evidenziano poi la performance di ciascun post andando ad illustrare il momento in cui lo abbiamo pubblicato con la tipologia di post scritto (immagine, video, link, …), l’eventuale targetizzazione ed infine quante persone sono state raggiunte da tale post e quante persone vi hanno interagito cliccando, facendo like, commenti e condividi sul contenuto.

Facebook Insights infine offre un report sintetico sugli accessi e sulla visibilità mensile o settimanale della Pagina: si tratta di un indicatore della capacità mostrate nel saper cavalcare i principi dell’Edgerank per poter dare valore alla nostra attività editoriale: in particolare, la visibilità settimanale dei post getta uno sguardo sul rapporto tra liker di una Pagina e persone che hanno visto i suoi post nell’ultima settimana così da far comprendere la capacità del piano editoriale di mantenere un rapporto vivo e costante con i lettori.
Le statistiche di Facebook non sostituiscono Google Analytics o altri strumenti di web analytics per comprendere il traffico prodotto sul sito dalla pagina Facebook, ma aiutano ad allineare i contenuti pubblicati sul social network rispetto agli interessi dei liker e allo specifico linguaggio relazionale da adottare su Facebook.

Leggi anche: “Novità Facebook: nuovi Insight per monitorare le performance della tua Pagina”

Come funziona il nuovo algoritmo di Facebook

L’evoluzione di Facebook, con la sua crescente abbondanza di contenuti prodotti da 1,2 miliardi di utenti nel mondo e 25 milioni di Pagine attive, ha fatto decrescere la visibilità organica dei post fino ad una media del 6%: solo il 6% dei liker di una Pagina vedono ciò che la Pagina scrive ed ecco perchè è importante analizzare l’algoritmo che sta dietro a questo preoccupante numero.

Di seguito vi mostriamo i dati che confermano il calo della visibilità organica dei post nella homepage dei liker (fonte Social@Ogilvy).

social-ogivly

L’algoritmo di Facebook, responsabile della pubblicazione e dell’ordinamento degli aggiornamenti nelle Bacheche dei liker di una Pagina, fino allo scorso agosto si definiva Edgerank ed era basato su tre principi:

– il “Time Decay” – o Decadimento temporale – associava un punteggio decrescente al post man mano che passava il tempo dal momento della sua pubblicazione: ecco perchè era molto importante pubblicare un aggiornamento non tanto quando si aveva qualcosa da dire o si aveva tempo per farlo, ma quando vi era la maggior possibilità che i liker fossero online. Tale fattore ha generato aggiornamenti frequenti e per molti aspetti tali da aumentare il rumore di fondo delle Bacheche al punto da produrre bassi tassi di interazione da parte degli utenti: per questo il Time Decay ha via via perso peso con le diverse revisioni dell’algoritmo di Facebook. Nondimeno è importante focalizzarsi sui momenti di massima presenza dei nostri liker sul social netwok così da poter costruire con loro una relazione costante.

– l’”Affinity” era tesa a valorizzare all’interno della Bacheca dei liker quelle Pagine con cui più frequentemente il liker aveva interagito sotto il profilo dei like, dei commenti, delle condivisioni e di altri segnali meno consueti come la partecipazione ad eventi, la produzione di storie, … è evidente quindi come video, foto e aggiornamenti impattanti fossero centrali nel piano editoriale e certo lo rimangono anche oggi dopo che all’Affinità è stato accostato lo scorso agosto l’elemento del “Last Actor” che tende a privilegiare nella Bacheca gli aggiornamenti degli ultimi 50 contatti con cui si è avuta una relazione: scrivere per Facebook significa infatti sempre scrivere con l’intento di ottenere like, commenti e condivisioni grazie ad un buon mix di informazioni, dati, notizie, domande e stimoli di carattere commerciale.

– l’”Edge Weight” mirava invece a compensare il rapporto meramente uno a uno dell’Affinità per visualizzare anche nelle Bacheche dei liker con minor interazione quei post che, presso il resto dei liker, avevamo prodotto un buon consenso: tale fattore ha aumentato in modo significativo la sua rilevanza nell’algoritmo grazie allo Story Bumping che tende a riproporre post meno recenti nella misura in cui continuano nel tempo a produrre like, commenti e condivisioni presso gli altri utenti. Ulteriormente, il fattore “Edge Weight” è stato usato per privilegiare nelle Bacheche dei liker quella tipologia di contenuti (immagini, video, link, …) che hanno implicitamente affermato di preferire nel loro comportamento precedente: vedremo in seguito che tool come Fanpagekarma sono utili per analizzare quale tipologia di contenuti della Pagina è risultata preferita dai liker.

Facebook-insightsIl nuovo algoritmo di Facebook punta pertanto a sollecitare le aziende a “scrivere meno, ma a scrivere meglio” grazie a post che sappiano davvero ingaggiare gli utenti interagendo con loro e fra loro: ecco perché il modo migliore per affrontare Facebook è darsi un “piano editoriale” che, coerente con il target, trasmetta contenuti utili, interessanti e differenti così da suscitare attenzione e riscontri presso la propria base di liker anche con format e appuntamenti fissi.

Oggi l’algoritmo è capace infatti di analizzare oltre 10 mila segnali come, ad esempio, la velocità di connessione (soprattutto da dispositivi cellulari) così da restituire, in caso di connessioni lente, risultati soprattutto testuali e tale attenzione all’utente è stata accentuata dall’introduzione lo scorso dicembre di un punteggio di qualità che interviene a livello di Pagina e che dipende dalla qualità delle immagini pubblicate, dall’univocità dei link a cui si rimanda (fattore negativo), dalla velocità di reazione alle domande ed infine dai feedback negativi – sotto forma di unlike o di nascondimento dei post della Pagina da parte degli utenti – che sono presenti negli Insights e che sono utilissimi per capire dove stiamo sbagliando per migliorare continuamente i contenuti e il linguaggio della Pagina stessa.

Google Analytics: come usare gli Obiettivi

Se si ha un sito proprio diventa indispensabile analizzare e verificare i dati provenienti dai software di web-analytics: non farlo significa privarsi di una delle caratteristiche essenziali del mezzo digitale, la sua misurabilità.

Il primo passo è certamente conoscere in modo approfondito la Web Analytics e, per la sua gratuità e la sua diffusione, Google Analytics.

In particolare è necessario avvalersene immaginando che il nostro sito Internet non sia una semplice vetrina, ma – in qualunque caso, anche se non vendiamo online – un negozio all’interno del quale i nostri potenziali clienti possono osservare la nostra attività, entrare in contatto con noi, generare un’azione rispetto a questa visita (un form di contatto compilato, un video visto, l’iscrizione ad una newsletter, un documento scaricato, …) e venir infine salutati all’uscita: tutto questo si può fare configurando, nell’area di Amministrazione di Google Analytics, uno o più Obiettivi in seguito ai quali sarà possibile osservare le Conversioni e quindi la percentuale con cui ciascuna pagina e ciascun sottoinsieme di utenti – a seconda del luogo da cui sono atterrati sul sito, per esempio – sono in grado di produrli.

analytics

 

Una volta definiti gli Obiettivi, si potrà osservare il comportamento dei lettori sul sito e il loro conseguire o meno l’Obiettivo da noi definito. In particolare e a titolo di esempio:

Nell’area “Pubblico“:

– la proporzione tra utenti nuovi e utenti di ritorno;

– il tasso di coinvolgimento degli utenti (frequenza di visita, durata della sessione, …);

– il numero e il comportamento degli utenti che visitano il sito con un dispositivo cellulare.

Nell’area “Acquisizione“:

– il numero e il comportamento degli utenti suddivisi per ambiente di provenienza: qui, ad esempio, osserveremo ciò che fanno gli utenti che, dopo aver cliccato su un post su una Pagina Facebook, sono atterrati sul sito;

– le parole chiave con cui il nostro sito è scoperto sui motori di ricerca, ormai solo attraverso l’integrazione di Google Analytics con Google Webmaster Tool.

Un dato particolarmente interessante nell’osservare l’attività degli utenti che arrivano da Facebook e dagli altri social media è la “frequenza di rimbalzo” ovvero la percentuale di utenti che, atterrati sul sito, non navigano ulteriori pagine ulteriori a quella dove sono arrivati: è un dato chiave per comprendere l’efficacia del nostro piano editoiale su Facebook.

Nell’area “Comportamento“:

– la frequenza e la profondità di visita di ciascuna area del sito e di ciascuna pagina, anche in formato grafico (“Analisi in-page”);

– il tasso di uscita che monitora, fra i navigatori già presenti sul sito, la capacità di una pagina di indurre l’utente a procedere con l’approfondimento dei contenuti presenti in altre pagine.

Nell’area “Conversioni”:

– il percorso di conversione verso l’Obiettivo – diretta e differita (o indiretta) – di un utente così da capire l’impatto di ciascuna attività di web-marketing.

Buoni ritorni sul sito però non dipendono solo dalla capacità espressa dal sito di accogliere il lettore e invitarlo ad approfondire i contenuti, iscriversi alla newsletter, … : tutto questo infatti dipenderà anche dal piano editoriale sviluppato sulla Pagina Facebook e dall’algoritmo che regola la visibilità di tali contenuti nelle Bacheche dei likers.