Soluzioni

Prodotti

Risorse

Società

Autore: [email protected]

Quale data strategy quando i budget media vengono ridotti?

Dall’estate del 2022 e almeno per la prima metà del 2023, i budget media, compresi quelli digitali, sono come l’economia: in calo. Come possiamo continuare a lavorare con i dati in questo contesto? Su quali pilastri dobbiamo basarci per ottenere il massimo valore dalle interazioni con il pubblico? Ecco una panoramica.

Una bassa marea che si alza lentamente. Questo è il quadro che emerge dalle previsioni sull’evoluzione del mercato della pubblicità digitale. È vero che il digitale è in una situazione migliore rispetto al mercato pubblicitario complessivo, ma il calo rispetto alle aspettative. In Francia, gli attori (editori, trading desks) consultati da JDNet alla fine del 2022 confermano un calo della pubblicità programmatica dall’estate del 2022 e prevedono un primo semestre del 2023 opaco.

A livello globale, le stime di crescita della pubblicità sono state riviste al ribasso: GroupM prevede un aumento del 5,3% degli investimenti pubblicitari globali nel 2023 (la stima era del 6,4% sei mesi prima). Se guardiamo al mercato statunitense, e più specificamente alla spesa pubblicitaria sui social network, anche lì soffia un vento freddo sulle previsioni. Per Insider Intelligence, quasi 10 miliardi di dollari sono scomparsi tra le stime di dicembre 2022 e quelle pubblicate a marzo 2022. Nel prosieguo dell’analisi, emerge un dato su cui tutti sono d’accordo: il rallentamento dovrebbe continuare nella prima metà del 2023. Perlomeno.

 

L’acquisto dei digital media è in ribasso

 

Questa modello di riduzione dell’investimento nei digital media può essere spiegato. In un contesto globale che presenta molte incertezze, i brand prevedono un calo dei consumi e modulano i loro investimenti di conseguenza. ” E quando si devono fare dei tagli, l’acquisto di media digitali è facilmente disattivabile/riattivabile, a differenza degli investimenti in contenuti o SEO. In questo caso, i tagli ai budget possono portare a regressioni “, afferma il responsabile della strategia digitale di un importante operatore industriale. In questo contesto, con meno investimenti mediatici, come potete continuare a costruire i vostri dati?

 

Focus sulle leve organiche

 

Non sorprende che gli sforzi si concentrino sulle leve organiche, sia per l’acquisizione che per la fidelizzazione. Dal punto di vista dell’acquisizione, chi ha già costruito una “rendita SEO” (cioè un’ottimizzazione SEO che garantisce un traffico regolare) farà almeno in modo di mantenerla e persino di svilupparla, sostenendo la produzione di contenuti. Questo traffico è particolarmente di valore se è generato da contenuti che coprono i diversi tipi di intenzioni di ricerca (informative, di navigazione, commerciali, transazionali). Le visite generate in questo modo, rappresentano quindi traffico qualificato su cui è possibile lavorare, almeno in parte, grazie alla gestione del consenso.

 

Un altro canale oggetto di attenzione in questi tempi di penuria di media è l’e-mail. In tutte le sue forme: dalla “cold email di acquisizione” alla newsletter regolare che mira a mantenere un rapporto duraturo con un pubblico. Le email sono strumenti preziosi per la raccolta di dati: oltre ai classici tassi di click e di apertura, altri indicatori come il livello di fidelizzazione e il tipo di contenuto consumato permettono di affinare la conoscenza del pubblico per attivarlo meglio in seguito.

 

Omnichannel in cima ai pensieri

 

Sfruttare al meglio il traffico ottenuto attraverso questo tipo di leva significa ottimizzare i playbooks. Per sviluppare l’engagement e le conversioni, queste sequenze di automazione spesso sfruttano la combinazione di diverse e-mail, ma è nell’interesse dei brand pensarle su scala omnichannel. Ad esempio, attivarli sulla base di un’azione in negozio (acquisto, consegna di una carta fedeltà) o svilupparli integrando nello scenario un’interazione con il call center (per fornire consigli e confermare un interesse).

 

Qualunque siano le leve organiche utilizzate, hanno tutte una cosa in comune: a differenza del media buying, l’obiettivo non è quello di “pressare eccessivamente un pubblico”, ma di indirizzargli messaggi appropriati, a un ritmo misurato e nel pieno rispetto delle regole. Un equilibrio delicato che, per essere mantenuto, richiede il sostegno di 3 pilastri:

 

Pilastro #1: Gestione del consenso

 

Ormai parte essenziale dello stack martech, il CMP (Consent Management Platform) deve aiutare a identificare la formula che garantisca un tasso di consenso coerente con i benchmark del vostro settore di attività. Una formula da “ABtestare” variando gli elementi di design ma anche il linguaggio utilizzato, che deve essere un felice compromesso tra il tono del marchio, la pedagogia e gli imperativi legali.

 

Pilastro n. 2: Riconciliare le identità

 

Altrettanto importante è la capacità di riconciliare le interazioni con un ID unico per ogni utente. Senza questa risoluzione dell’identità, sarà difficile evitare di sollecitare eccessivamente il pubblico e, ancor più, di inviargli contenuti adeguati alle sue aspettative. Se i prerequisiti tecnici, in particolare nelle e-mail (leggete il nostro white paper su questo tema “un mondo senza cookie”) sono necessari, è anche importante pensare a campagne per moltiplicare le opportunità di associare e-mail e cookies.

 

Pilastro #3: Segmentazione del pubblico

 

Infine, per sfruttare appieno le leve organiche e i dati di prima parte, la capacità di segmentare il pubblico è la chiave per un’attivazione efficace. L’obiettivo è quello di catturare il massimo numero di dati per creare segmenti di diverso grado di complessità e puntare a messaggi personalizzati. E, anche in questo caso, ragionando su scala omnichannel, quindi catturando dati da tutte le sorgenti e su larga scala, per dare ai team materiale che arricchisca le dimensioni di questi segmenti.

 

Con questi tre pilastri, i team responsabili dell’acquisizione e della fidelizzazione saranno in grado di migliorare la conoscenza dei clienti. E ottenere più accuratezza nell’allocazione dei budget media per i quali, meccanicamente, i brand possono aspettarsi un ritorno maggiore.

La qualità dei dati è una questione fondamentale per le aziende

In un mondo in cui i dati sono sempre più preziosi per le aziende, garantire la qualità dei dati è essenziale per assicurare campagne efficaci e quindi massimizzare gli investimenti di marketing. Qui è dove la nostra piattaforma entra in gioco.

Perché la qualità dei dati è così importante per le aziende?

La qualità dei dati è fondamentale per le aziende, in quanto influisce direttamente sulla loro capacità di prendere decisioni informate, di analizzare i dati in modo accurato e di raggiungere gli obiettivi aziendali.Quando i dati sono di scarsa qualità, possono verificarsi errori nell’analisi e nel processo decisionale, con un impatto negativo sul ROI delle campagne di marketing, sull’analisi dei dati e sull’analisi delle campagne.Ad esempio, se un’azienda utilizza dati di scarsa qualità per indirizzare le proprie campagne pubblicitarie, può finire per raggiungere persone che non sono interessate ai suoi prodotti o servizi, con conseguente spreco di budget e minori prestazioni della campagna. Allo stesso modo, se un’azienda utilizza dati di scarsa qualità per analizzare le proprie prestazioni, rischia di prendere decisioni non basate su dati accurati, il che può essere dannoso per la crescita e il successo a lungo termine dell’azienda.
In sintesi, la qualità dei dati è fondamentale per le aziende, in quanto costituisce la base per un processo decisionale informato e un’analisi accurata.

Che cos’è la qualità dei dati o l’integrità dei dati?

Per integrità dei dati intendiamo all’accuratezza e la coerenza dei dati durante il loro ciclo di vita, dalla raccolta e conservazione all’analisi e alla diffusione. Senza l’integrità dei dati, le aziende rischiano di prendere decisioni basate su informazioni imprecise, con conseguenti perdite di fatturato, danni alla reputazione e persino problemi legali. Garantire l’integrità dei dati è un processo complesso e difficile, soprattutto per le aziende che gestiscono grandi quantità di dati provenienti da più fonti. Richiede l’implementazione di una serie di controlli e processi, tra cui il controllo di qualità, la convalida, l’eliminazione dei duplicati, il controllo integrato della consegna, gli avvisi in tempo reale, la conservazione e il backup, la sicurezza informatica e i controlli di accesso avanzati. Queste misure garantiscono che i dati siano accurati, completi e coerenti e che qualsiasi minaccia all’integrità dei dati venga identificata e affrontata rapidamente.

Migliorare la qualità dei dati con la nostra piattaforma

La nostra piattaforma mira a dare alle aziende la fiducia nei propri dati in modo molto semplice. Offriamo un’interfaccia standardizzata per i datalayer che consente agli utenti di definire lo schema dei propri dati e di definire regole di convalida che alimentano il flusso di lavoro per la qualità dei dati.
Inoltre, la nostra funzione di pulizia dei dati consente agli utenti di trasformare/correggere gli eventi in tempo reale in modo semplice e intuitivo, grazie al nostro approccio no-code. Tuttavia, gli operatori tecnici potranno anche intervenire con del codice, poiché offriamo anche un modulo low-code (per chi lo volesse anche full code). Quindi siamo in grado di soddisfare ogni livello di operatore.

Gestione degli errori di dati con la nostra piattaforma

Abbiamo diverse funzioni per gestire gli errori dei dati. In primo luogo, abbiamo un cruscotto di qualità dei dati che consente agli utenti di vedere le violazioni delle specifiche a colpo d’occhio e di correggerle rapidamente alla fonte o in tempo reale con la funzione di pulizia dei dati.
Offriamo anche avvisi in tempo reale, in modo che gli utenti possano reagire rapidamente agli errori dei dati. Questi avvisi possono essere inviati tramite e-mail, messaggistica (Slack, Teams, …), webhook o tramite notifiche nell’interfaccia. Un allarme può essere configurato in 3 click, con un cursore per scegliere la soglia di attivazione e il canale di comunicazione.

Come il nostro prodotto aiuta le aziende a lavorare con i dati in tutti i reparti

La nostra interfaccia standardizzata per i datalayer consente agli utenti di definire lo schema dei propri dati e di definire regole di convalida per garantire che tutti i dati siano conformi a tale schema. In questo modo, tutti i team possono lavorare con gli stessi dati e garantire che siano di alta qualità. Inoltre, disponiamo di un unico dizionario dei dati che consente agli utenti di definire e condividere le definizioni dei dati in tutta l’azienda.

Che cos’è il Data Cleansing e come funziona?

Data Cleansing consente agli utenti di trasformare/correggere gli eventi prima di inviarli a destinazione. Sono disponibili diversi tipi di trasformazioni, come la ridenominazione degli eventi, la derivazione degli eventi, la modifica delle proprietà e il filtraggio degli eventi, che possono essere creati in modo semplice e intuitivo utilizzando il nostro approccio no-code basato su formule e operatori di base, molto simili a quelli presenti in un foglio di calcolo come Excel. Per chi preferisce un approccio low-code, è anche possibile aggiungere codice JavaScript personalizzato per creare trasformazioni personalizzate. La funzione di pulizia dei dati è particolarmente utile per garantire che i dati inviati alle destinazioni siano di alta qualità e conformi alle specifiche richieste.

E la qualità dei dati trasmessi alle destinazioni?

Disponiamo di un’interfaccia per il monitoraggio della deliverability degli eventi che consente agli utenti di verificare se i dati stanno raggiungendo la destinazione o se ci sono stati problemi con la consegna. Questa interfaccia include metriche rapide e di facile lettura, come la percentuale di eventi non inviati, una visualizzazione dell’evoluzione degli eventi inviati correttamente e di quelli non riusciti in un determinato periodo di tempo e una tabella di riepilogo degli errori. Quest’ultima fornisce una panoramica dei diversi tipi di errori riscontrati e di come risolverli. In caso di problemi di invio, offriamo anche un sistema di allarme per avvisare immediatamente gli utenti.

Come la nostra piattaforma semplifica i complessi errori tecnici nell’invio dei dati ai partner

Innanzitutto, gli errori non sono sempre tecnici, ma spesso si tratta di dati mancanti o mal formattati e la nostra piattaforma genera spiegazioni in linguaggio naturale molto facili da leggere. Per quanto riguarda gli errori tecnici, sia che derivino dal feedback dell’API di un partner o dall’indisponibilità del server, abbiamo ritenuto che fosse fondamentale l’immediata comprensione della causa. Utilizziamo un generatore di linguaggio naturale (NLG) per trasformare questi errori illeggibili in spiegazioni perfettamente comprensibili per un profilo non tecnico, con possibili soluzioni. Questa è la magia dell’AI 🙂

Infografica sulle vendite 2023 – Le migliori pratiche per aumentare il coinvolgimento dei clienti durante le vendite

In un contesto in cui il 48% dei francesi si dichiara preoccupato per il proprio potere d’acquisto e il 75% desidera modificare il proprio comportamento d’acquisto, i saldi rappresentano un periodo critico per gli inserzionisti che devono essere creativi per distinguersi tra le migliaia di segnali inviati ai consumatori.

Con una Customer Data Platform, è possibile aumentare la conoscenza dei clienti einviare i messaggi giusti in pochi clic per aumentare il loro coinvolgimento.

Ecco alcune best practice per approfittare del periodo dei saldi. A tal fine, ecco alcune buone pratiche da adottare per sfruttare al meglio il periodo dei saldi.

In sintesi, è necessario avere una visione centralizzata dell’intero ciclo di vita dei dati degli utenti per avere un impatto positivo sul loro comportamento di acquisto. La segmentazione diventa quindi il modo più efficace per creare gruppi di pubblico e adattare le strategie omnichannel. A Customer Data Platform La segmentazione è quindi un ottimo strumento per aumentare il coinvolgimento dei clienti.

Vi è piaciuta questa infografica e volete saperne di più sul coinvolgimento dei clienti e sull’analisi dei risultati?

Scoprite di più con il nostro white paper “Come prepararsi a Cookieless” e aumentate il coinvolgimento dei vostri clienti.

4 passaggi per prepararsi alla gestione dei tag server-side

Con l’avvento degli aggiornamenti dell’Intelligent Tracking Prevention (ITP) di Apple e l’annuncio dell’eliminazione dei cookie di terze parti da parte di Google, la gestione dei tag server-side sta guadagnato consenso. La maggior parte dei browser, dei dispositivi e dei canali ha ormai smesso di utilizzare i cookie di terze parti, cosa che in futuro potrà rendere obsoleto il tagging client-side. Trova qui 4 passaggi per prepararsi alla gestione dei tag server-side.

Vale la pena ricordare che con il tagging client-side il browser dell’utente interagisce tramite un container di tag direttamente con i provider (come Google Analytics o Facebook). Ogni tag configurato, invia per ogni interazione una richiesta HTTP all’endpoint corrispondente del fornitore di tag. La richiesta nel client stesso è già strutturata nel formato di dati corretto.

Il tagging server-side, al contrario, consente di creare un endpoint di dati separato in un ambiente server a cui i dati verranno preventivamente inviati, prima di inviarli direttamente ai provider. Ciò significa che tutte le interazioni in corso sul sito web vengono inviate come un flusso di dati aggregati da un unico tag, al server della soluzione di tag management. È qui che i dati raccolti vengono gestiti e organizzati nel formato richiesto dal provider dei servizi attivi. In più, i dati possono essere ulteriormente trattati, arricchiti e resi anonimi prima di essere trasferiti ai provider di digital marketing.

Molte aziende stanno quindi passando dalla gestione dei tag client-side a una gestione server-side. Questa transizione, tuttavia, richiede tempo, dato che si tratta di un processo che deve coinvolgere tutti i soggetti del mondo digitale. Il rischio però è quello di un atteggiamento del tipo “aspettiamo e vediamo”. Aspettare ad implementare una strategia server-side finché le soluzioni non siano pienamente mature significa da un lato rinunciare a un’importante vantaggio temporale, e dall’altro perdere competitività sul mercato.

Qual è quindi il modo migliore di gestire questa transizione? Come dovrebbe essere la strategia di implementazione del server-side? La checklist riportata di seguito offre alcune indicazioni al riguardo.

 

1. Coinvolgi il responsabile della protezione dei dati (DPO) nella transizione

Molte delle sfide che suscitano preoccupazione nel mondo digitale traggono origine dalle questioni relative alla protezione dei dati. Anche se l’implementazione di una soluzione server-side viene descritta come un “progetto tecnico“, è opportuno coinvolgere il prima possibile il responsabile della protezione dei dati (DPO, Data Protection Officer) dell’azienda. La sua opinione ha un ruolo decisivo in ogni fase del processo, dalla selezione delle soluzioni da implementare server-side in futuro, ai nuovi metodi di elaborazione che agevolano la centralizzazione dei dati su una soluzione server-side.

 

2. Inventario di providers (partners)

A seconda delle esigenze dell’azienda, dall’infrastruttura digitale vengono attualmente create diverse decine di tag. E altrettanti, o quasi, partner vengono attivati.

 

Quale di questi partner…

… è già pronto ad utilizzare la tecnologia server-side?

… ha intenzione di utilizzarla in futuro?

… opererà in modalità ibrida?

… non ha pianificato un passaggio a medio termine?

 

Per i provider di soluzioni, la complessità della transizione è direttamente correlata alla natura delle attività. Ci sono tre principali tipi di attività: rilevamento, acquisizione e interazione.

Durante il processo di rilevamento, è quasi impossibile bypassare il tag client-side; durante il processo di acquisizione, invece, uno scambio sembra possibile, mentre nel processo di interazione (ad esempio, la personalizzazione), diventa molto più difficile. Inoltre, per uno stesso partner il processo di acquisizione può talvolta verificarsi client-side, e l’ulteriore elaborazione server-side.

Perciò, se vuoi elaborare una tua strategia, devi conoscere anche la strategia, o le strategie, dei tuoi partner. Essendo questa una delle sfide principali, oggi tutti i soggetti interessati si scambiano informazioni in merito a questo argomento, facilitando le integrazioni.

 

3. Inizia con i providers idonei

La transizione ad un sistema di tagging server-side può impiegare diversi mesi ed è necessaria la coesistenza delle soluzioni client-side e server-side. Alla luce di questo, è importante identificare i providers idonei, affinché tutti (dall’IT al marketing fino al DPO) possano prendere confidenza con la logica server-side.

C’è un’elevata probabilità che emerga il principio di Pareto, secondo il quale il 20% dei tag provoca l’80% delle difficoltà. Un provider idoneo è una soluzione già collaudata nel passaggio al server-side e con vantaggi chiaramente identificabili.

Ovviamente i provider che hanno già sviluppato la possibilità di ricevere i dati server-side saranno quelli su cui iniziare a programmare la transizione, in quanto più idonei.

 

4. Comunicazione e informazione

L’implementazione server-side non interessa solo il team IT, il marketing digitale o il responsabile della protezione dei dati: tutti, al loro livello, devono affrontare le sfide e i prerequisiti della tecnologia server-side. I cliché sulla necessità di scardinare i silos non aiutano nemmeno in questo caso. Le aziende dovrebbero invece garantire una comunicazione adeguata nell’ottica di avviare una discussione congiunta sulla strategia, i momenti chiave e i feedback.

 

Conclusione

Non possiamo prevedere con precisione come sarà il mondo digitale senza cookie. Tuttavia, gli sviluppi attualmente in corso suggeriscono che il futuro apparterrà alle tecnologie server-side. Il passaggio alle soluzioni server-side richiederà tempo, pertanto entrambi i modelli (client-side e server-side) dovranno operare fianco a fianco per un periodo non breve. Ma la centralizzazione dei dati su una soluzione server-side offre innegabili vantaggi per continuare ad essere ignorata.

Il personale delle aziende è spesso occupato con le attività quotidiane, ed è quasi impossibile agire senza il coinvolgimento di esperti esterni in grado di supportare l’azienda in modo ottimale durante questa transizione. Un altro buon motivo per non aspettare troppo a lungo, perché con quello che c’è in gioco, i consulenti con le dovute competenze saranno presto saturati di lavoro. Con queste 4 passaggi per prepararsi alla gestione dei tag server-side siete sulla strada giusta.

 

_____________________________________________

Per saperne di più:

White Paper: Come prepararsi a un mondo senza cookie?

Barometro della privacy 2022: le pratiche in materia di raccolta dei consensi si uniformano

Oggi, un anno dopo l’entrata in vigore delle ultime direttive della CNIL, la stragrande maggioranza dei siti web è dotata di un banner per il consenso. I dispositivi si stanno progressivamente standardizzando, ma alcune buone pratiche in materia di design, ergonomia ed esperienza utenti continuano a dar prova della loro validità a livello di performance.

Parigi, 31 maggio 2022 – Commanders Act, editore di una piattaforma di marketing cookieless, presenta la 5a edizione del suo Barometro della privacy, che misura le performance dei dispositivi di raccolta dei consensi adottati dai suoi clienti nell’ambito del GDPR. Rispetto al 2021, i risultati del Barometro 2022 mostrano un leggero calo di opt-in, ossia il numero di accettazioni rispetto al numero di utenti che hanno espresso una scelta. Il dato resta comunque alto (74% in media su desktop). Anche se oggi in Francia la maggior parte dei siti web utilizza un banner per il consenso conforme alle raccomandazioni della CNIL, la loro analisi consente tuttavia di constatare delle disuguaglianze in termini di performance.

Per realizzare questo barometro, Commanders Act ha analizzato 285 banner per il consenso presi da siti web rappresentativi dei principali settori di attività del mercato francese, tra il 1° e il 31 gennaio 2022.

Banner per la raccolta dei consensi: una pratica che si standardizza

A partire dal 31 marzo 2021, in Francia la CNIL esige che le imprese presenti sul web e su dispositivo mobile siano conformi alle linee guida in materia di raccolta dei consensi e di gestione dei cookie. Nello specifico, queste direttive impongono l’utilizzo di un sistema di consenso esplicito, che comprenda almeno due pulsanti d’azione distinti sullo stesso piano, “Accetta” e “Rifiuta”.

Oggi, un anno dopo l’entrata in vigore di queste nuove direttive, moltissime imprese hanno adottato i banner per il consenso esplicito. La maggior parte di esse predilige il formato pop-in, che obbliga l’utente a esprimere una scelta per poter proseguire la navigazione sul sito. Questo tipo di meccanismo è ormai noto agli utenti, che ne comprendono il significato e lo gestiscono meglio che in passato.

Il mercato tende a uniformarsi su uno stesso modello di banner e propone poche innovazioni” spiega Michael Froment, CEO di Commanders Act. “Come ogni pratica che si standardizza, anche questa prassi si accompagna a un leggero calo di performance, con una parte di opt-in su desktop che si attesta in media al 74% contro l’81% del 2021, e un tasso di consenso medio su desktop pari al 45% contro il 55% del 2021“.

Tuttavia, tra un dispositivo e l’altro ci sono differenze: “Abbiamo constatato che alcune caratteristiche in termini di design, ergonomia ed esperienza utente favoriscono in modo significativo il tasso di opt-in” sottolinea Michael Froment di Commanders Act. “Le buone pratiche che si erano già rivelate efficaci nel 2021 lo sono tuttora, e nuovi modelli meritano di essere esplorati e testati“.

Qualità dell’esperienza utente: la chiave per migliorare il tasso di consenso

I migliori tassi di opt-in sono stati osservati con un modello di banner dotato di un pulsante o di un link “Continua senza accettare” e un pulsante “Accetta”. Il modello a 3 pulsanti (“Accetta”, “Rifiuta” e “Configura”) si rivela molto efficace per i siti con un’identità del marchio di qualità. Anche una scelta adeguata del colore del pulsante “Accetta” resta un fattore in grado di favorire l’accettazione. “Ad esempio, l’utilizzo del colore rosso per il pulsante “Accetta”, anche per motivi di veste grafica, tende decisamente a far calare il tasso di consenso” precisa Michael Froment.

D’altra parte, è fondamentale avere uno scenario chiaro ed evitare, ad esempio, di obbligare l’utente a fare vari clic per poter negare il proprio consenso. Questa pratica, oltre ad essere al limite della conformità alle raccomandazioni della CNIL, comporta generalmente un bounce rate (o frequenza di rimbalzo) catastrofico, che nei casi peggiori può arrivare fino al 70%. Altro trabocchetto: sollecitare l’utente ad ogni cambio di dominio, cosa che accade spesso nei siti multidominio. “La domanda si pone una sola volta! Chiedere il consenso in modo ripetitivo garantisce solo l’esasperazione dell’utente e la perdita della sua accettazione” spiega Michael Froment.

Infine, nonostante la generale tendenza all’uniformazione dei modelli, alcuni siti hanno puntato su banner più originali, più creativi e finalmente più accattivanti. “Benché sia consigliato privilegiare formati sobri e classici, alcune imprese sono riuscite a trovare il giusto equilibrio tra l’obbligo di legge legato alla raccolta dei consensi e le caratteristiche e la personalità del loro brand” puntualizza Michael Froment. “È un approccio molto interessante, che può offrire un nuovo slancio al mercato e buone performance all’impresa, ma deve assolutamente essere sottoposto a un A/B test che ne convalidi l’efficacia. In assenza di questo genere di test, l’approccio classico resta per il momento la scelta migliore“.

Per consultare l’infografica del barometro 2022 e le buone pratiche per l’ottimizzazione dei banner per la privacy, clicca qui.

White Paper – Come prepararsi a un mondo senza cookie

E perché la tecnologia Server-Side diventerà la tua migliore alleata

Indispensabili ma fragili. È così che possiamo riassumere la condizione dei dati nel 2022. Indispensabili perché senza di loro le operazioni digitali sono cieche, che si tratti di distribuire una campagna pubblicitaria, di predisporre un piano “anti-abbandono” che combini Web, e-mail e call center, o di personalizzare un sito Web. Ma anche fragile perché negli ultimi 10 anni, i dati sono diventati sia scarsi che fragili (sviluppo degli adblocker, entrata in vigore del RGPD, caccia ai cookie con l’ITP, ecc.)

Dal punto di vista del diritto, stiamo entrando nell’era del consenso; dal punto di vista tecnico, stiamo entrando in quella cookieless.

Con una domanda legittima: come rendere questa nuova era compatibile con un marketing “data driven”? In altre parole, come continuare a gestire le azioni tramite i dati in questo nuovo panorama digitale? Una delle risposte, già formulata e condivisa dall’industria digitale, passa attraverso l’implementazione della tecnologia server-side. Il server-side non è solo una nuova modalità tecnica di raccolta dei dati in un universo digitale più vincolato. Offre anche ai team marketing l’opportunità di avere maggiore cura dei dati.

In questo libro bianco imparerete a conoscere:

  • 7 luoghi comuni sul server-side
  • Server-side: quali vantaggi possiamo aspettarci?
  • 5 azioni per prepararsi al server-side

Discover Commanders Act Customer Data Platform

Commanders Act annuncia l’inizio di un nuovo ciclo di innovazione

Gli sviluppi dell’ecosistema digitale e delle aspettative dei clienti in materia di gestione e utilizzo dei dati invocano una trasformazione delle tecnologie per garantire la continuità del marketing digitale.

 

Parigi, 15 marzo 2022Commanders Act, editore di una piattaforma di marketing cookieless, traccia un bilancio degli ultimi dieci anni e annuncia il 2022 come un anno cruciale in materia di innovazione sul mercato dei dati. Le successive trasformazioni del panorama digitale, in particolare l’inasprimento delle normative e delle prassi in materia di raccolta e utilizzo dei dati, hanno generato nuove sfide e nuove esigenze per le organizzazioni. Consapevole del forte impatto di questi recenti sviluppi sulla continuità e sulle prestazioni delle campagne marketing, nonché della crescente propensione delle organizzazioni nei confronti di tecnologie più efficaci e più convergenti, Commanders Act dà oggi il via a un nuovo ciclo di innovazione, offrendo ai suoi clienti la capacità, tramite una nuova piattaforma, di riprendere il controllo e di alimentare le loro campagne con dati arricchiti e trasformati, in modo da creare più valore.

Ad blocker, cookie, consenso: in che modo questi ultimi dieci anni hanno stravolto l’ecosistema digitale

Dalla sua fondazione nel 2010, Commanders Act ha sempre avuto l’ambizione di permettere ai team professionali di prendere il controllo dei dati, in modo da consentire loro di acquisire l’autonomia necessaria alle loro prestazioni. Per quasi dieci anni, la società ha così accompagnato i clienti nello sviluppo della loro maturità digitale, fornendo le competenze e gli strumenti di cui avevano bisogno per strutturare le loro campagne digitali e per definire e attuare una strategia efficace di gestione dei tag, al fine di guadagnare agilità e aumentare le prestazioni.

Questi ultimi anni sono stati contrassegnati da una parte dall’aumento di potenza dei dati come fattore determinante ai fini della performance, dall’altra dalla comparsa di nuovi vincoli in materia di raccolta e utilizzo dei dati stessi. L’ecosistema digitale è stato notevolmente indebolito dalla diffusione degli ad blocker, dalla dichiarazione di guerra dei browser ai cookie di terze parti e, ovviamente, dal GDPR e dalle nuove regole in materia di raccolta dei consensi.

“Nel 2010, avevamo i dati ma non sapevamo come gestirli in modo efficace; oggi, sappiamo come gestirli, ma ne abbiamo sempre meno” osserva Michael Froment, CEO e cofondatore di Commanders Act. “Ora, le performance aziendali non possono prescindere dalla capacità di gestione dei dati. La questione che si pone oggi è sapere come garantire la continuità del marketing digitale all’interno di un ecosistema cookieless, sempre più vincolato e vincolante“.

Far convergere metodi e tecnologie per rispondere alle nuove sfide del mercato

L’accelerazione della digitalizzazione, associata alla trasformazione del mercato, ha creato nuove aspettative da parte delle organizzazioni europee. Le questioni relative alla governance dei dati, alla protezione dei dati personali, all’agilità dei team o all’impatto delle performance sull’esperienza utente, costituiscono oggi argomenti critici.

Questi temi esistevamo già dieci anni fa, ma hanno acquisito una maggiore importanza, in particolare per il rilancio della crescita dopo due anni di crisi sanitaria” spiega Michael Froment. “Le organizzazioni sono più mature a livello digitale e, mentre prima i team professionali, IT e legali erano spesso in contrasto tra loro, oggi si stanno rendendo conto della necessità di far convergere obiettivi, metodi e strumenti“.

Le organizzazioni hanno bisogno di un approccio tecnologico omogeneo, industrializzato e quindi più efficace, per consentire ai loro team professionali di raccogliere e gestire più dati e, al contempo, di essere allineati con le realtà e i vincoli dei team IT e legali. L’obiettivo è aumentare le performance delle campagne digitali e, in ultima analisi, migliorare i risultati aziendali.

Nel 2022, Commanders Act si reinventa e avvia un nuovo ciclo di innovazione tecnologica

È questa analisi retrospettiva e introspettiva che ha portato Commanders Act a reinventare la sua offerta di servizi. “Abbiamo approfittato di questi ultimi due anni per fare un passo indietro, ascoltare i nostri clienti, capire le loro nuove esigenze e pensare a un modo di rispondervi efficacemente” spiega Michael Froment. Risultato: una nuova piattaforma tecnologica su cui convergeranno tutte le competenze di Commanders Act.

Le nostre aree di competenza e i nostri perimetri funzionali restano quelli del 2010, ma si trasformano in virtù delle nuove tecnologie, dei nuovi standard del mercato e del cambiamento dell’ecosistema” prosegue Michael Froment. “Questa nuova piattaforma segna l’inizio di un nuovo ciclo di crescita e innovazione, che segue l’evoluzione del mercato e dei nostri clienti, e offre nuove opportunità nell’ambito della raccolta e dell’arricchimento dei dati, al fine di trarne più valore a livello di business. Si tratta di una rottura sul piano tecnologico ma al contempo della continuità della nostra promessa“.

Questo cambiamento di metodo si traduce inoltre in un cambiamento di identità visiva, che rispecchia sia il rinnovamento tecnologico intrapreso da Commanders Act, sia la continuità delle competenze e dei valori incarnati fin dalla sua creazione. Attraverso una nuova veste grafica, un logo rinnovato e un nuovo sito web, Commanders Act adotta un’identità più moderna, simbolo della coesione, dell’innovazione, della performance e dell’intelligenza che contraddistinguono il brand, e che sono alla base della crescita e del successo dell’azienda da oltre dieci anni.

Omnicanalità in Italia: cresce l’interesse delle aziende, ma la maturità è ancora limitata

Commanders Act è di nuovo Partner dell’Osservatorio Omnichannel Customer Experience del Politecnico di Milano!

  • Nel 2021, per l’83% delle aziende l’Omnicanalità è una priorità condivisa dal top management, ma meno del 10% ha già implementato pienamente una strategia
  • Il percorso di costruzione di una strategia omnicanale è ancora lungo: per metà delle aziende mappate l’Omnichannel Customer Experience (OCX) è una priorità strategica “a parole” e solo 4 imprese su 10 hanno introdotto opportuni modelli organizzativi e di governance.
  • Solamente un’azienda su tre giudica almeno buona la propria capacità di generare business dai dati raccolti sui propri clienti, anche per la mancata adozione delle tecnologie necessarie.

Omnicanalità in Italia: la Ricerca dell’Osservatorio Omnichannel Customer Experience

Nonostante nel corso dell’ultimo anno sia aumentato notevolmente l’interesse delle imprese nei confronti dell’omnicanalità, in Italia circa un’azienda su cinque, tra quelle che stanno lavorando sul tema, dichiara di avere strutturato una “vista unica sul cliente” che consenta di avere una reale conoscenza delle loro caratteristiche e dei loro interessi. Inoltre, solo il 28% ha strutturato analisi evolute su questi dati, ad esempio per predire comportamenti futuri.

“La definizione di un approccio omnicanale e la sua implementazione coinvolgono l’intera organizzazione, richiedendo cambiamenti pervasivi e profondi che interessano non solo le funzioni e i processi che gestiscono il rapporto diretto con il cliente, ma l’intera realtà aziendale” dichiara Giuliano Noci, Responsabile Scientifico dell’Osservatorio Omnichannel Customer Experience. “Ancora oggi, sebbene gran parte delle aziende dichiari che il vertice aziendale risulta coinvolto nel monitoraggio delle iniziative, i fatti dicono altro. In altri termini, molte imprese aderiscono a un “effetto moda” per cui le dichiarazioni non sono seguite da azioni concrete strutturate e profonde. Questo spesso accade perché non sono ancora comprese le implicazioni e il vero potenziale di questa trasformazione”.

“Nello scenario che ci si prospetta, un ruolo chiave per la competitività delle imprese è giocato dalla dimensione del dato e dalla valorizzazione del potenziale delle nuove tecnologie, come le cosiddette MarTech” aggiunge Andrea Rangone, Responsabile Scientifico dell’Osservatorio Omnichannel Customer Experience. “Diventare capaci di raccogliere, integrare, analizzare (in maniera evoluta) e sfruttare il patrimonio informativo, trasversalmente ai diversi processi di relazione con il cliente, è la sfida che deve caratterizzare le realtà di qualunque settore. Ed, invece, solo un’azienda su tre, tra quelle che abbiamo analizzato, giudica almeno buona la propria capacità di generare valore di business dai dati raccolti sui clienti e soprattutto solamente il 6% la ritiene ottima”.

Queste alcune delle evidenze emerse dalla quinta edizione dell’Osservatorio Omnichannel Customer Experience, promosso dalla School of Management del Politecnico di Milano* e presentate all’evento “Omnicanalità: oltre la moda“. La ricerca si è basata su una survey che ha coinvolto circa 170 grandi e medio-grandi aziende della domanda eterogenee per settore di appartenenza e su interviste qualitative a circa 80 imprese end-user e a 40 aziende dell’offerta (tra provider di soluzioni ICT, società di consulenza, digital agency, technology provider, software house e system integrator). L’obiettivo principale è stata la mappatura dell’approccio delle aziende su questi ambiti e dello stato di maturità dei percorsi intrapresi.

I pilastri dell’omnicanalità: strategia, organizzazione, dati e tecnologie

Portare avanti la trasformazione omnicanale, come evidenziato fin dalle origini di questo Osservatorio, richiede di lavorare su quattro pilastri: Strategia, Organizzazione, Dati e Tecnologie.

In primo luogo, una condizione necessaria per il successo di una trasformazione omnicanale è la presenza di una chiara Strategia e di un forte commitment del top management in grado di guidare il cambiamento in maniera strutturata e con una prospettiva di lungo periodo. A tal proposito, sebbene l’83% dei casi analizzati dichiari che il vertice aziendale risulta coinvolto nel monitoraggio delle iniziative, per metà delle aziende mappate l’Omnichannel Customer Experience (OCX) è una priorità strategica “a parole”, ma nei fatti mancano gli strumenti tecnologici e organizzativi per attuarla e/o si privilegiano altri obiettivi.

“In secondo luogo, la trasformazione non può avvenire senza l’abbattimento dei silos organizzativi e la formalizzazione di un chiaro modello di governance” commenta Nicola Spiller, Direttore dell’Osservatorio Omnichannel Customer Experience. “Ad oggi, solo il 41% delle realtà intervistate ha già provveduto: la gran parte di queste ha introdotto un organo/funzione codificato nell’organigramma aziendale deputato all’OCX, mentre solo poche realtà hanno raggiunto un livello di cultura omnicanale pervasiva, ormai diffusa in tutta l’organizzazione, che non richiede più la codifica esplicita di un responsabile.

Per implementare concretamente l’omnicanalità, occorre poi lavorare sul terzo pilastro, quello relativo ai Dati, impostando una omnichannel data strategy e dotarsi delle opportune Tecnologie (quarto e ultimo pilastro). Questo presuppone di raccogliere e gestire in maniera integrata i dati sui clienti, così da valorizzarli in chiave di personalizzazione dell’esperienza cliente e di miglioramento dell’efficacia e dell’efficienza dei processi di marketing, vendita e customer care.

Sebbene a oggi molte aziende non incontrino grandi difficoltà nella raccolta e integrazione dei dati di prima parte, la situazione risulta ancora molto eterogenea e decisamente meno avanzata quando si tratta di dati esterni all’azienda stessa, come quelli riguardanti gli intermediari commerciali. “Solo poco più di un’azienda su cinque dichiara che al proprio interno esiste ed è ben strutturata una vista unica sul cliente. Questo è legato anche al fatto che solo il 26% delle imprese intervistate ha introdotto una Customer Data Platform, in grado di unificare i dati del cliente provenienti dai diversi punti di contatto dell’azienda (sito, punto vendita, call center, ecc.) e di qualunque natura (anagrafica, acquisti, social, cookies di prima parte, ecc.)” spiega Marta Valsecchi, Direttrice dell’Osservatorio Omnichannel Customer Experience. “Anche in termini di data analysis, emergono opportunità ancora inesplorate: è solo il 28% delle realtà analizzate a portare avanti analisi evolute sui dati raccolti (es. predittive dei comportamenti futuri)”.

La scarsa maturità delle aziende nell’approcciare le fasi precedenti si riflette anche sull’ultima attività (Data Activation). Un’azienda su tre giudica almeno buona la propria capacità di generare valore di business dai dati raccolti, ma solo il 6% la ritiene ottima. Per gran parte delle realtà, allora, il percorso di costruzione di una strategia omnicanale è ancora lungo e richiede principalmente di andare oltre l’implementazione di progettualità singole di tipo tattico e comprendere profondamente gli impatti su processi e attività e gli investimenti da effettuare.

Il grado di maturità delle aziende

Incrociando la valutazione dell’approccio delle imprese a livello strategico-organizzativo e a livello di dati e tecnologie, emerge la mappa con cui viene rappresentato il grado di maturità omnicanale delle aziende. Tale rappresentazione delinea cinque diversi cluster.

Gli Omnichannel Master (il segmento omnicanale maggiormente evoluto) rappresentano il 9% delle aziende del campione. Le realtà che si trovano in questo cluster hanno definito una chiara roadmap strategica di implementazione dell’omnicanalità e modelli organizzativi coerenti, impostato attività di diffusione della cultura orientata al cliente, introdotto opportuni KPI di misura e stanno lavorando in modo efficace sulla creazione di una Single Customer View, sulla valorizzazione dei dati a disposizione e sull’integrazione dei diversi sistemi di back-end alla base dei principali processi aziendali. Questo segmento è caratterizzato principalmente da aziende che appartengono ai settori EnergyUtility e Oil&GasTelco e Bancario e assicurativo.

Il segmento degli Omnichannel Novice, ossia le imprese che si stanno approcciando all’OCX, rappresenta il 21% del campione. Le aziende che vi rientrano afferiscono principalmente ai settori Industriale/B2bBeni di largo consumo e Beni durevoli.

Tra questi due estremi, si posizionano gli altri tre cluster (ciascuno con un’incidenza prossima al 25%), che identificano le possibili direzioni di approccio all’omnicanalità: gli Omnichannel In-Progress, che lavorano in parallelo sia sull’asse strategico-organizzativo, sia su quello implementativo; i Committed, che si connotano per un lavoro ad un buon livello di maturità sotto gli aspetti di commitment, visione aziendale e trasformazione organizzativa; i Tactician, che sono invece più indietro da questo punto di vista, ma rimangono attivi su diverse progettualità attraverso le quali cercano di dimostrare la bontà di un approccio integrato e data-driven.

“In linea generale, la Ricerca ha rilevato due fenomeni principali: l’ingresso di nuove aziende nel perimetro dell’Omnichannel Customer Experience, anche per effetto dell’accelerazione verificatasi durante la pandemia, e l’evoluzione in termini di maturità delle aziende già operanti in questo ambito” aggiunge Nicola Spiller, Direttore dell’Osservatorio Omnichannel Customer Experience. “Tra i nuovi entranti, in particolare, è significativa la presenza di aziende che operano nel B2b, mentre nel complesso il settore Bancario e Assicurativo, insieme al settore Retail, risulta essere quello più eterogeneo in termini di maturità, essendo distribuito all’interno di tutti i segmenti rappresentati. Queste due evidenze segnalano una delle conclusioni più rilevanti della Ricerca 2021: la possibilità di intraprendere il percorso che porta alla maturità omnicanale è aperta a tutte le imprese, indipendentemente dal settore o dalla specifica configurazione di filiera (B2b, B2c, B2b2c) in cui operano”.

L’impatto dell’Omnichannel Customer Experience sui processi di gestione del cliente

I benefici di un approccio omnicanale si esplicano in maniera significativa all’interno dei processi aziendali deputati alla gestione del cliente: in particolare, Marketing e Comunicazione, Vendite e Customer Care.

Il processo di Marketing e Comunicazione data-driven si compone di tre fasi principali: profilazione della customer basecontent management e personalizzazione, e delivery delle iniziative. Il pieno successo di queste iniziative dipende da un lavoro trasversale e congiunto sulle tre aree progettuali: ad oggi, il 36% del campione ha iniziato a lavorare con questo approccio, ma solo il 4% lo ha attuato pienamente.

Anche per quanto riguarda il processo di Vendita sono tre le principali aree di lavoro: lead managementpersonalizzazione dell’esperienza e attivazione di servizi omnicanale e di assistenza alla vendita. Anche in questo caso, è importante lavorare in maniera strutturata e pervasiva in tutte le tre direzioni tracciate, seppur con attività e strumenti diversi a seconda del settore di appartenenza: il 34% delle realtà analizzate sta attualmente seguendo questa traiettoria.

Per trasformare invece il processo di Customer Care, è necessario agire, da una parte, sulla progettazione di un processo integrato (a livello di conoscenza e di canali di assistenza), dall’altra sull’adozione di opportune tecnologie e strumenti a supporto della fase di interazione con il cliente. La strada che le aziende devono percorrere verso la trasformazione del proprio Customer Care in logica omnichannel, però, è ancora lunga: meno di un’azienda su tre è a buon punto, in quanto sta già lavorando su tutte le prospettive delineate.

“Se il livello di maturità all’omnicanalità è mediamente ancora limitato in tutti gli ambiti analizzati, l’interesse è particolarmente elevato e ci aspettiamo crescerà sempre più, perché dai casi più evoluti emergono benefici chiari e misurabili degli investimenti fatti” conclude Marta Valsecchi, Direttrice dell’Osservatorio Omnichannel Customer Experience “Alcune realtà evidenziano un aumento dei ricavi, insieme a un incremento del livello di servizio grazie al miglioramento dell’esperienza sui diversi punti di contatto e ad una maggiore precisione e velocità nel supporto al cliente. Anche i processi interni hanno dei chiari benefici in termini di ottimizzazione e miglioramento della qualità delle attività svolte, con benefici anche di costo. Dal punto di vista dei clienti, infine, si registra una maggiore soddisfazione e fidelizzazione grazie a un’esperienza sempre più personalizzata e semplificata”.

 

*L’edizione 2021 dell’Osservatorio Omnichannel Customer Experience è realizzata con il supporto di: AppQuality, Arkage, Aryanna, Assist Digital, Assolombarda, Chorally, Commanders Act, Gruppo Covisian, Delmonte, Fido, GMDE, LIFEdata, Medallia, Minsait Italia, POSTE ITALIANE, Sintra Digital Business, Toshiba Global Commerce Solutions, Zeotap; Google, GS1 Italy, Infobip, LiveHelp, Next14, RTI Business Digital, Spitch; Assintel.

Dati first, second e third-party: un mix da ripensare?

Raccolta dei consensi e fine dei cookie di terze parti costringeranno i dati first, second e third-party a soffrire. Una soluzione si delinea con i dati “zero-party”.

Il settore del marketing digitale, e più precisamente quello dei dati, è in subbuglio. È arrivato il momento di ripensare i grandi classici. Parliamo in particolare del celebre trio: “dati first-party“, “dati second-party” e “dati third-party“. Un trio sul punto di diventare un quartetto, grazie all’ingresso dei “dati zero-party“.

All’origine di questa evoluzione, come prevedibile, i recenti cambiamenti tecnico-normativi: da una parte il GDPR e le direttive dalla CNIL (autorità francese che si occupa della protezione dei dati) che ne conseguono per quanto concerne la gestione dei consensi; dall’altra, la progressiva eliminazione dei cookie di terze parti da parte dei meccanismi già esistenti (in Safari) o futuri (in Chrome). Questi cambiamenti rendono molto più complessa la raccolta dei dati, che alimentano le strategie di marketing, e obbligano gli operatori del settore a rivedere le loro ricette.

Una sfida per il mix di dati

Il marketing è una questione di mix. Il mix POE, ad esempio, che sta per “Paid, Owned, Earned”, e che designa la combinazione di leve utilizzate in una strategia di marketing tra i canali di proprietà (un sito web), a pagamento (acquisto di spazi sui media) o guadagnati (tramite relazioni stampa o influencer, ad esempio). Altro mix importante è quello dei dati, con i dati cosiddetti “first-party”, “second-party” e “third-party”. In italiano, potremmo parlare di dati di prima, seconda e terza mano.

I “dati first-party”, di prima mano dunque, vengono raccolti soprattutto dai canali “owned”: può trattarsi di dati comportamentali salvati sui nostri siti web e sulle nostre app, di dati provenienti dalle nostre newsletter, ma anche di dati raccolti dagli account social dei nostri brand. Possiamo dunque considerare la natura di questi dati come probabilistica, in quanto ci basiamo su di loro per ricavare degli archetipi comportamentali e orientare le nostre azioni.

Ma qual è la sorte di questi dati al tempo della gestione del consenso e delle strategie “cookieless”? Il loro volume sta inevitabilmente diminuendo, poiché la loro raccolta è oggi soggetta essenzialmente al consenso dell’utente, che può essere dato su un sito web, una app o perfino sul suo software di posta.

I “dati second-party” corrispondono ai dati che acquistiamo da terzi o ai quali accediamo nell’ambito di uno scambio con un partner di fiducia. Una tale fonte può contribuire ad ampliare il terreno di acquisizione e ad approfondire la conoscenza dell’audience già acquisita, ad esempio scoprendone i centri di interesse.

Ma questi scambi possono adattarsi alle nuove regole del gioco? Sì, senza dubbio, a condizione di ottenere un consenso secondo le regole che, ancora una volta, va inevitabilmente a ridurre il numero di utenti che accetteranno che i loro dati vengano utilizzati da altri partner.

Per finire, i “dati third-party” corrispondono ai dati provenienti da varie fonti e gestiti da terzi in grado di riconciliarli e venderli, a te come ai tuoi concorrenti. Questi dati sono preziosi per alimentare ad esempio gli scenari di retargeting.

Problema: se in questi ultimi anni i volumi disponibili di dati third-party sono lievitati, la loro raccolta si ritrova oggi disciplinata dalle regole relative al consenso e vincolata dai sempre più numerosi meccanismi di filtraggio tecnico dei cookie di terze parti.

In sintesi, nel nuovo panorama digitale, tutti i tipi di dati (first, second e third-party) vedono ridotto il loro potenziale, in termini di quantità e/o qualità. Come compensare questa perdita? È la domanda a cui devono rispondere tutti gli operatori di marketing. Una risposta sembra arrivare dai “dati zero-party”.

Cosa sono i “dati zero-party”?

I dati di tipo “zero-party” sono quelli che un utente trasmette volontariamente. Non quelli per cui dà il consenso selezionando le caselle giuste del pop-in generato dalla tua Consent Management Platform (CMP). No, in questo caso parliamo dei dati che l’utente trova il tempo di comunicarti: il suo livello di soddisfazione dopo un acquisto, le categorie di prodotti di suo interesse per i mesi a venire, i canali attraverso i quali desidera ricevere le tue comunicazioni e così via.

“Dati zero-party”: una soluzione?

I “dati zero-party” presentano vari vantaggi ma anche uno svantaggio. I vantaggi sono evidenti: essendo dati espliciti, e non dedotti, si rivelano di altissima qualità e consentono di personalizzare in modo molto efficace le comunicazioni. Lo svantaggio? Il volume di “dati zero-party” che un brand può raccogliere è direttamente legato alla fiducia di cui il brand gode presso la sua audience.

I “dati zero-party” sono dunque quelli del marketing di fiducia: un utente concede tempo e informazioni a un brand solo perché sa che questo ne farà buon uso. Solo perché le informazioni fornite “tornano” all’utente sotto forma di una comunicazione sufficientemente modulata e personalizzata che la fa assomigliare a un servizio reso.

Questi dati, che presuppongono un forte rapporto di fiducia, possono bastare a compensare le inevitabili perdite di dati first, second o third-party? Difficile dirlo senza prima lasciarsi il tempo di raccogliere feedback. L’unica certezza, invece, è quella del delinearsi di un nuovo mix marketing: il POE è morto, viva il POET (Paid, Owned, Earned, Trusted).

Quali strategie pubblicitarie adottare in un mondo senza cookie? Scopri il nostro playbook

Le nuove linee guida del Garante italiano per l’uso dei cookie

Il 10 giugno 2021, il Garante per la protezione dei dati personali ha pubblicato nuove linee guida per l’uso dei cookie. Arriva dopo 6 mesi di consultazione pubblica sul tema dei cookie.

L’obiettivo di queste nuove linee guide è di identificare le norme di legge applicabili all’utilizzo di cookie e di suggerire soluzioni tecniche per implementare correttamente questi obblighi e evitare sanzioni.

Quindi anche se pensi che il tuo banner sia compliant con il GDPR, rileggi i punti principali dell’autorità italiana perché ci sono delle novità che potresti non aver ancora incluso!

Quali sono le modalità?

Tutti i siti web che hanno utenti basati in Italia sono interessati da queste nuove linee guida.

La scadenza per conformarsi è fissata al 10 gennaio 2022.

Le sanzioni se non rispetti queste nuove linee guida sono le seguenti :

  • Omessa o inidonea informativa : da 6000 a 36.000 euro
  • Installazione di cookie senza consenso : da 10.000 a 120.000 euro

Quali sono le linee guida?

1. Chiarimenti di ciò che è un consenso e come raccoglierlo

  • L’atto di dare il consenso deve essere “libero, specifico, informato e inequivocabile”
  • Deve essere presente un comando (per esempio una “X”) per chiudere il banner senza prestare il consenso all’uso dei cookie o delle altre tecniche di profilazione mantenendo le impostazioni di default.
  • Lo scorrimento non è un’azione positiva chiara e affermativa da parte dell’utente per raccogliere il consenso.
  • I cookie walls non sono autorizzati.

2. Informazioni sui cookie banner

  • Sono necessari i pulsanti “Accetta” e “Rifiuta”.
  • Il periodo di conservazione dei dati personali dell’utente deve essere specificato.
  • Il banner deve contenere un link alla privacy policy.
  • L’utente deve poter dare/revocare il consenso in modo granulare secondo gli scopi e i fornitori.
  • Gli utenti devono essere in grado di accedere e modificare le loro preferenze di tracciamento in qualsiasi momento dopo aver impostato le loro preferenze iniziali.
  • Nuove specifiche per l’accessibilità delle informazioni sui cookie in relazione alle persone con disabilità.

3. Cookie analitici e tecnici

  • I cookie analitici richiedono il consenso (salve certe condizioni).
  • I cookie tecnici non richiedono il consenso.

4. Validità del consenso

  • I consensi raccolti prima della pubblicazione delle nuove linee guida del Garante sui cookie, se rispettano le caratteristiche richieste dal regolamento, sono validi a condizione che, al momento della loro acquisizione, siano stati registrati e possano quindi essere documentati.
  • Bisogna aspettare 6 mesi prima di mostrare di nuovo il banner privacy agli utenti.

5. Prova del consenso

  • Devi essere in grado di dimostrare che il consenso è stato ottenuto secondo gli standard del GDPR.

In pratica, cosa è un buon cookie banner?

  • Dimensioni sufficienti  a fare percepire una discontinuità grafica col resto del sito ma non tale da spingere l’utente a fare scelte inconsapevoli per il solo desiderio di toglierlo di mezzo
  • Responsive, colore e font chiari, facili da distinguere
  • Informativa breve con link alla cookie policy estesa

Alcuni esempi di banner privacy conformi:

Come essere conformi alle linee guida italiane con TrustCommander?

La nostra piattaforma di gestione del consenso TrustCommander ti aiuta ad essere conforme in modo semplice senza perdere performance e visibilità. Rapido da configurare, facile da gestire, personalizzato, TrustCommander è la soluzione che ti serve per essere conforme prima del 10 gennaio 2022!

Se hai già un banner settato puoi modificarlo facilmente per adeguarti alle evoluzioni dei regolamenti, compresa quest’ultima ma, chissà, anche quelle future.

Puoi creare diversi banner ed effettuare a/b test per verificare quale sia il più performante.

Il cookie scanner ti aiuta a identificare e catalogare i cookie presenti nelle tue properties.

Se necessiti di aiuto, il supporto e i consulenti sono a tua disposizione.

Perché scegliere TrustCommander?

  • Personalizzazione: Crea banner di preferenze che richiamano lo stile della tua impresa
  • Conformità: Banner conformi agli standard di CNIL, GDPR, CCPA, IAB
  • Categorie di cookie: Suddividi i tuoi cookie in categorie per agevolare le preferenze degli utenti
  • Prova di consenso : Assicura la conservazione e la tracciabilità della prova di consenso degli utenti
  • Report dettagliati: Valuta la tua strategia di consenso analizzando i tassi di opt-in
  • Compatibilità: Associa TrustCommander a TagCommander, ma anche ad altri TMS, ai tuoi tag hardcoded o ibridi

Contattaci se vuoi saperne di più su TrustCommander!

Quali alternative ai cookie?

Anche se Google ha appena concesso una proroga ai cookie di terze parti, la questione resta attuale. Quali soluzioni ci sono per sostituirli? Come mantenere l’efficacia delle attivazioni digitali salvaguardando al contempo i dati personali? Passiamo in rassegna le varie opzioni disponibili.

Una proroga. È quanto concesso da Google annunciando il 24 giugno che i cookie di terze parti non sarebbero scomparsi da Chrome all’inizio del 2022. Il colosso di Mountain View prevede ormai questo passaggio per la metà del 2023. Questo rinvio di un anno abbondante è dovuto, con ogni probabilità, al fatto che l’alternativa di Google ai cookie di terze parti non ha raccolto abbastanza consensi (per usare un eufemismo) per imporsi. Come adattare la strategia cookieless a questo nuovo calendario? Dobbiamo rinunciare ad esplorare altre alternative? Proviamo a rispondere.

Innanzitutto, una cosa è evidente: nonostante la proroga concessa ai cookie di terze parti, la storia è scritta. I cookie di terze parti, infatti, già filtrati da Safari e Firefox, sono condannati a breve termine, perché il 2023 è dietro l’angolo. I regolamenti (GDPR, ePrivacy), la cultura del consenso che si sta pian piano sviluppando, la maggiore sensibilità generale attorno alla questione dei dati personali non lasciano altra scelta: è necessario ripensare il tracking, sia all’interno dei browser che nelle app.

Le coorti di Google

Sulla carta, è questo il senso dell’alternativa proposta da Google con la sua Privacy Sandbox, una suite di API per far fronte ai vari utilizzi (targeting, misurazione, ecc.). Per quanto riguarda il targeting, Google conta sulla tecnologia FloC (Federated Learning of Cohorts). L’idea alla base di FloC è questa: il tracking non verrà più eseguito su scala individuale, ma su una coorte composta come minimo da qualche migliaio di utenti. Una soluzione insufficiente per l’EFF (Electronic Frontier Foundation), che considera FloC un modo per agevolare altri metodi di identificazione, come ad esempio il fingerprinting.

Nel dettaglio, questa soluzione solleva questioni che hanno subito costretto Google a rinunciare a testarla in Europa, in base agli obblighi imposti dal GDPR. Inoltre, il dominio del colosso di Mountain View sul dispositivo ha portato un soggetto come Amazon ad annunciare il blocco del passaggio delle informazioni verso FloC. Difficile in queste condizioni farne un nuovo “standard”. Il testo deve dunque essere riscritto. Basterà un anno per allineare l’alternativa di Google al regolamento europeo e riunire l’ecosistema? Il dubbio rimane.

Un cantiere da seguire: la migrazione server-side

Quali sono le altre soluzioni sul tavolo? A quali cantieri possono rivolgersi i brand per prepararsi al tracking cookieless? Primo tra tutti, la migrazione al server-side. Oggi, con i cookie, ci troviamo in un mondo client-side: il browser dialoga con i provider dei servizi corrispondenti ai tag attivati. Con la tecnologia server-side, questo dialogo si svolge da server a server.

Molti brand hanno in programma il passaggio a una soluzione server-side. FLOA Bank è uno di questi. “Sappiamo già che una tale migrazione potrà essere soltanto parziale, poiché non tutte le soluzioni che utilizziamo sono compatibili con una gestione lato server. Ma se riusciamo a farlo per alcuni tag chiave di acquisizione sarà già un grande passo” afferma Carole Vinatier Gresta, Responsabile SEO & Tracking di FLOA Bank.

La strada del SSO: solo per i media?

Un’altra delle strade esplorate è quella del single sign-on (SSO): un login condiviso da più siti di uno stesso ecosistema. Come prevedibile, sono i media i sostenitori di questo scenario, per offrire un’esperienza utente “senza soluzione di continuità” (ossia senza bisogno di effettuare un nuovo accesso da un media all’altro) e, in più, per poter condividere dati cross-site. Questi “raggruppamenti” restano tuttavia estremamente locali e per il momento limitati, con poche eccezioni, al settore dei media.

Lato AdTech: verso nuovi ID?

Dal lato dell’AdTech, gli sguardi si rivolgono verso ID (identificativi) alternativi ai cookie di terze parti. È il senso del progetto Unified ID 2.0 avviato da Trade Desk, che ha saputo convincere soggetti come Liveramp, Criteo e Nielsen. Unified ID 2.0 si basa sugli indirizzi e-mail che gli utenti accettano di comunicare, per implementare un meccanismo di tipo SSO. Il dispositivo prevede la creazione di un portale su cui gli utenti possano gestire le loro preferenze. Il progetto ha un limite, però: presuppone un’ampia adozione per poter diventare uno standard di fatto ed evitare la frammentazione del mercato tra diversi ID pubblicitari, cosa che richiederebbe riconciliazioni complesse e costose.

La tentazione del ritorno alle origini

Per alcuni, la soluzione (almeno una parte di essa) passa per un ritorno alle origini: lasciare da parte l’audience planning per tornare al media planning. In concreto, si tratta di mettere in atto il targeting semantico: analizzare il contenuto e il suo tono per valutarne l’idoneità a una campagna dati. In questo ambito, le tecnologie sono diventate più mature e il targeting si è affinato. In più, con questo procedimento, si elimina il problema degli identificativi che possono limitare la portata. Gli editori ci guadagnano la possibilità di commercializzare l’intero inventario, ma gli inserzionisti, invece, devono accontentarsi di dati molto limitati.

Questa rassegna delle alternative ai cookie dimostra chiaramente che, per il momento, nessuna soluzione sembra in grado di riunire l’ecosistema e i cookie di terze parti. Per i brand si impone una strada pragmatica: lavorare sui dati di prima parte e ridurre la dipendenza dai cookie di terze parti (tramite la migrazione verso la tecnologia server-to-server), pur continuando con la ricerca di nuove iniziative. Il mondo cookieless sta ancora cercando la sua stella polare.

Prepararsi a un mondo senza cookie: scarica il playbook

Barometro della privacy 2021 – Impatto del consenso esplicito: una piacevole sorpresa per il mercato

Per la sua 4a edizione, il Barometro annuale di Commanders Act si concentra sull’evoluzione del tasso di consenso prima e dopo il 31 marzo 2021, il termine stabilito dalla CNIL per mettersi in regola con le direttive relative all’utilizzo dei cookie.

Parigi, 17 giugno 2021 – Commanders Act, editore di software SaaS leader europeo nel settore Tag & Data Management, presenta la 4a edizione del suo Barometro della privacy, che misura le performance dei dispositivi di raccolta dei consensi adottati dai suoi clienti nell’ambito del GDPR. Questa edizione mette inoltre a confronto il tasso di consenso prima e dopo il 31 marzo 2021, data in cui la CNIL (autorità francese che si occupa della protezione dei dati) ha reso obbligatorio il consenso esplicito degli utenti per l’utilizzo dei cookie. Contrariamente a quanto si aspettava il mercato, questo ulteriore vincolo non ha determinato il crollo del tasso di consenso, che per i clienti che hanno compiuto lo sforzo di ottimizzare il proprio banner resta sempre molto elevato (oltre l’80%).

Per realizzare questo barometro, Commanders Act ha utilizzato i dati raccolti tra il 1° gennaio e il 28 febbraio 2021 e tra il 1° aprile e il 31 maggio 2021 da siti dotati della piattaforma di gestione del consenso (CMP) TrustCommander, per un totale di circa 2 miliardi di utenti.

Scopri il barometro!

Cosa è cambiato dopo il 31 marzo 2021

La CNIL aveva fissato la data del 31 marzo 2021 come termine ultimo per mettersi in regola con le nuove linee guida sui cookie e altri tracker. In altre parole, a partire da questa data, qualsiasi impresa presente su Internet e su dispositivo mobile può essere sottoposta a controlli più rigorosi da parte della CNIL, nonché sanzionata in caso di mancata implementazione dei dispositivi necessari per ottenere il consenso esplicito degli utenti in materia di cookie.

Prima di questa data chiave, la maggior parte dei siti si limitava a richiedere il cosiddetto consenso implicito: il proseguimento della navigazione su un sito o l’atto di far scorrere una pagina fungeva da consenso. Per contro, pochissimi siti avevano implementato un dispositivo di consenso esplicito, che prevede la presenza di due diversi pulsanti, “Accetta” e “Rifiuta”, spesso per timore di essere penalizzati e di non poter più monetizzare le proprie audience. Di conseguenza, si vedevano in fondo alle pagine molti banner che avevano più che altro il compito di informare brevemente riguardo l’utilizzo dei cookie senza interferire con il proseguimento della navigazione, invece di indurre realmente l’utente a fare una scelta.

Oggi, con l’entrata in vigore delle nuove direttive della CNIL, i brand devono predisporre dei banner che consentano di compiere una scelta esplicita. Secondo il testo ufficiale, dunque, il consenso viene considerato esplicito solo se l’utente fa clic sul pulsante “Accetta i cookie”. La mancanza di scelta equivale quindi a un rifiuto. A questo punto, i brand si sono rivolti in maniera massiccia ai banner di tipo pop-in (72%) che, essendo più invadenti e intralciando la navigazione, spingono l’utente a compiere una scelta. E proprio lì, dove tutti pensavano (e temevano) che la maggior parte degli utenti avrebbe preferito rifiutare i cookie invece di accettarli, il Barometro della privacy rivela una realtà completamente diversa.

Impatto del consenso esplicito: una piacevole sorpresa per il mercato

Sebbene tra il periodo precedente e quello successivo al 31 marzo il tasso di consenso sia calato (meno 15 punti su desktop e meno 4 punti su dispositivo mobile, in media), si osserva tuttavia una tendenza positiva in termini di raccolta del consenso. “Con l’implementazione dei banner a consenso esplicito, abbiamo constatato che la maggioranza degli utenti fa una scelta, e che in oltre l’80% dei casi si tratta di una scelta positiva. È la parte di opt-in dei cookie” sottolinea Michael Froment, CEO di Commanders Act.

Il tasso di consenso, contrariamente alla parte di opt-in, tiene conto dell’assenza di scelta, che equivale a un rifiuto. “Il tasso di consenso (55% su desktop e 71% su dispositivo mobile) corrisponde infatti all’audience di cui possiamo successivamente sfruttare i dati, poiché gli utenti avranno esplicitamente dato il loro consenso a questa finalità” precisa Michael Froment.

Oggi, la sfida per i brand è dunque incoraggiare la scelta che, nella maggior parte dei casi, si rivela positiva. “Ci rendiamo conto che i siti che hanno scarsi risultati in termini di consenso sono quelli i cui banner non sono sufficientemente ottimizzati e persuasivi, per i quali quindi gli utenti non scelgono” aggiunge Michael Froment. “Al contrario, in base ai settori di attività, un banner ben studiato e ben realizzato permette di ottenere fino all’80% di tasso di consenso“.

Quale ricetta per ottimizzare il tasso di consenso?

Se il formato di banner pop-in risulta essere il più diffuso, è in parte perché si rivela più efficace degli altri, e con il minimo sforzo. Ma è anche il più invadente, cosa che in una certa misura può essere controproducente. Il banner a piè di pagina (footer) o a inizio pagina (header) tende a indurre alla “non scelta”, in quanto disturba meno la navigazione. Ma compiendo gli sforzi necessari, lavorando alla sua ergonomia e trovando il tempo di eseguire alcuni A/B test, questo tipo di formato può rivelarsi estremamente efficace, pur essendo molto meno invadente.

Il punto è riuscire ad attirare l’attenzione sul banner, scegliendo i colori e il design giusti per renderlo sufficiente visibile e intuitivo. Non esiste una formula magica, ma ci sono alcune buone pratiche, semplici e collaudate, che consentono di aumentare notevolmente il tasso di consenso.

La risposta in gran parte positiva degli utenti al consenso esplicito è un’ottima sorpresa per il mercato: il crollo dell’opt-in che tutti si aspettavano non si è verificato! I brand devono quindi cogliere questa opportunità e darsi il tempo di elaborare e testare il proprio banner per trovare il mezzo più efficace per convincere gli utenti a fare una scelta” conclude Michael Froment.

Governance dei dati: 4 aspetti essenziali

Gestire il ciclo di vita dei dati grazie a regole e ruoli ben definiti, per mettere i dati stessi al servizio della crescita dell’impresa. Ecco una sintesi della governance dei dati. E nella pratica? Come si declina in concreto la governance dei dati? Almeno secondo 4 aspetti. Vediamo come.

Una governance dei dati strategica

Tutto comincia qui, con orientamenti strategici chiari. Per quali scopi l’impresa intende investire nei dati? Per implementare meccanismi di acquisizione a 360°? Per lavorare sulla fidelizzazione dei clienti? Per migliorare i prodotti? Per tutte queste cose insieme?

Una volta fissati gli obiettivi, resta la questione dei mezzi e della cultura dei dati. Questo argomento è riservato a un team specializzato? O sono previste iniziative mirate a trasformare i dati in uno strumento di uso quotidiano per tutti? Questi grandi orientamenti strategici definiscono anche un quadro culturale per la governance dei dati. E questo quadro è fondamentale sia per i collaboratori che per i clienti.

Un esempio? Il GDPR e l’applicazione delle ultime direttive della CNIL in Francia. Decidendo come interpretare queste prescrizioni attraverso le loro interfacce di consenso, le imprese non compiono soltanto una scelta sul piano giuridico-tecnico, ma mandano anche un messaggio sul loro rapporto con i dati e sul rispetto della privacy dei loro clienti. Qui, la governance dei dati incide direttamente sulla percezione del brand.

Una governance dei dati funzionale

Questo aspetto della governance rimanda direttamente alla questione dell’organizzazione che ruota attorno ai dati. Con una sfida fondamentale: come evitare una controproducente suddivisione in silos organizzativi? Troppo spesso, ancora oggi, prevalgono le divisioni: team acquisizione e team fidelizzazione, business offline e business online, vincoli legali e basi del customer journey.

L’idea non è distruggere questi silos, dato che corrispondono anche a competenze precise di cui l’impresa ha bisogno, ma garantire il loro coordinamento. Governare i dati significa, appunto, offrire un quadro di collaborazione chiaro e definire regole ferme, complete e comprese da tutti. Chi ha i diritti per gestire l’immissione dei contatti nel database? Il loro arricchimento? Chi verifica la qualità dei dati immessi? Chi regola la pressione pubblicitaria? Come vengono gestite le preferenze utente in materia di protezione dei dati personali?

Non esistono risposte universali e pronte all’uso. Spetta ad ogni singola impresa definire i ruoli, le loro interazioni, i loro obiettivi e, soprattutto, l’obiettivo globale al quale ognuno deve contribuire. Un obiettivo sufficientemente esplicito e forte che consenta di andare oltre i suddetti silos.

Una governance dei dati legale

L’entrata in vigore del GDPR nel 2018, e successivamente quella delle direttive della CNIL in Francia, ha messo al centro della discussione la gestione dei dati personali. Con una nuova disciplina a tutti gli effetti: la raccolta dei consensi. Come garantire la conformità legale di questa raccolta, ottimizzandola al contempo per rispondere alle sfide aziendali? Come assicurarsi che l’utilizzo dei dati personali rispetti le volontà di prospect e clienti?

Per rispondere a queste domande, è stato necessario imporre un ruolo, quello del DPO (Data Protection Officer), e fare spazio a una nuova soluzione nello stack MarTech: la Consent Management Platform (CMP). Ma la presenza di un DPO e l’adozione di una CMP non bastano a garantire una governance dei dati conforme a livello normativo.

La ragione è semplice: il quadro normativo si evolve, i prodotti e i servizi offerti dall’impresa anche, così come i canali di acquisizione e di gestione della relazione con i clienti. Per mantenere una condizione ottimale tra conformità normativa e performance nel corso di queste evoluzioni, è necessaria una collaborazione continua ed efficace con tutti gli altri team (acquisizione, fidelizzazione, UX e via dicendo).

Una governance dei dati tecnica

Resta l’aspetto tecnico della governance. La tecnica non fa la strategia; ma senza la tecnica, la strategia raramente va oltre lo stato di lodevole intento. Una governance dei dati che punta su una nuova collaborazione tra le parti interessate deve essere dotata degli strumenti adeguati. Le Customer Data Platform (CDP) sono state sviluppate proprio per questo motivo: superare le divisioni organizzative e tecniche per riunire i dati all’interno di un sistema di riferimento.

Con una CDP di questo tipo, i vantaggi sono molteplici: facilitare la riconciliazione dei dati in un universo omnicanale, riuscire ad ottenere segmentazioni più pertinenti, orchestrare le attivazioni in modo più efficace, ad esempio. Per fare questo, è necessario armonizzare i dati, come ad esempio i dati acquisiti sul fronte digitale con quelli archiviati nel CRM. Questa armonizzazione tecnica può avvenire soltanto con una governance dei dati definita in modo chiaro.

Gestione dei tag server-side: quali vantaggi possiamo aspettarci?

La gestione dei tag server-side è una tecnica datata. Ma in un periodo in cui i vincoli all’interno dei browser si moltiplicano e i dati personali richiedono una maggiore vigilanza, la gestione dei tag “server-to-server” presenta numerosi vantaggi.

Gestione dei tag “server-side“, “server-to-server” o “tagless“: espressioni diverse per designare la medesima tecnica. Disponibile in Google Tag Manager dall’estate 2020, questa tecnica sta godendo di una grande notorietà. Eppure non è affatto nuova: diversi editori, tra cui Commanders Act, propongono la gestione dei tag server-side da molti anni.

Il contesto, tuttavia, esorta i brand a concedere una maggiore attenzione all’argomento: con una raccolta dei consensi sempre più regolamentata e browser che danno la caccia ai cookie di terze parti, la gestione dei tag lato server offre vantaggi significativi.

“Lato browser” vs. “lato server”

In pratica, si tratta di offrire un’alternativa al consueto funzionamento dei tag. Ancora oggi, nella maggior parte dei casi, quando un browser carica una pagina vengono attivati dei tag, script serviti da un TMS (Tag Management System) ed eseguiti nel browser. È dunque proprio il browser a svolgere buona parte del lavoro. Raccoglie i dati, li elabora e “parla” direttamente con i fornitori dei servizi corrispondenti ai tag. Se ad una pagina sono integrati 40 tag, il browser invia altrettante richieste per interagire con i servizi designati.

Nella modalità server-side, come si evince dal nome stesso, tutto avviene lato server. Invece di 40 richieste, il browser (nell’ipotesi in cui tutti i tag siano elaborati lato server) chiama un servizio e basta. Il TMS non gli restituisce script da eseguire. L’intera elaborazione è a carico del server: il trattamento dei dati e la loro distribuzione ai diversi partner.

Gestione dei tag server-side, o come sfuggire ai vincoli dei browser

Quali sono i vantaggi del trasferimento di questo carico di lavoro dal browser al server? Il primo è quasi evidente: la performance. Ricordiamo che maggiore è il tempo di caricamento di una pagina, e maggiore è l’aumento del bounce rate (o frequenza di rimbalzo), che può arrivare fino al 90% per un tempo di caricamento di più di 5 secondi. Alleggerendo le pagine di una parte degli script, la gestione dei tag server-side contribuisce a ridurre i tempi di caricamento e, di conseguenza, a ottimizzare l’esperienza utente.

La tecnica consente inoltre di liberarsi dei vincoli tecnici legati ai browser: gli ad blocker, le cui blacklist bloccano le chiamate effettuate dal browser a determinati servizi, o semplicemente i meccanismi di filtraggio dei cookie, sul modello dell’Intelligent Tracking Prevention (ITP) di Apple. Con il server-side, le chiamate vengono effettuate dal server e sono quindi fuori dal campo d’azione degli ad blocker. E dal momento che il servizio invocato lato server può essere ubicato su un sottodominio del sito (e non su un dominio di terzi), non viene intercettato dai meccanismi di tipo ITP. Attenzione però: questo non dispensa affatto dal rispetto delle regole che disciplinano la raccolta dei consensi.

Un ambiente affidabile e protetto per il trattamento dei dati

Il funzionamento lato server può inoltre contribuire a rendere più sicuro e affidabile il trattamento dei dati di carattere personale. Quando viene eseguito all’interno del browser, il trattamento viene, di fatto, quasi esposto alla vista di tutti. Il suo spostamento lato server rende invisibili i dati trattati. Inoltre, con il normale dialogo diretto tra il browser degli utenti e i servizi dei partner, esiste sempre il rischio di trasmettere una quantità di dati eccessiva.

Grazie alla gestione dei tag lato server, l’editore del sito ha il controllo totale di ciò che viene raccolto, trattato e distribuito a ciascun partner. È dunque in grado di garantire ai suoi utenti l’applicazione effettiva delle regole espresse in materia di trattamento dei dati. Alla questione dell’affidabilità, aggiungiamo che il trattamento server-side è anche un modo per ridurre gli scarti talvolta osservati (a causa dei vincoli dei browser) tra i dati analitici e quelli transazionali.

Il “tagless”, un’implementazione più tecnica

Domanda legittima: se la gestione dei tag server-side presenta tutti questi vantaggi, perché non è più attuale? Innanzitutto, come abbiamo visto, perché solo di recente questa tecnica è stata proposta da una soluzione come Google Tag Manager. In secondo luogo, perché non tutte le soluzioni accettano ancora il funzionamento lato server, anche se la sua adozione va avanti rapidamente. Infine, perché l’implementazione e la manutenzione di questa raccolta di dati “senza tag” richiede competenze comprovate. Il passaggio da una modalità all’altra equivale a un progetto a tutti gli effetti, e richiede una collaborazione stretta e continua tra i diversi team tecnici affinché il team marketing non perda agilità.

Un investimento rispetto ai guadagni. “L’approccio server-side consente di liberarsi dagli ostacoli e dai malfunzionamenti a cui spesso sono soggetti i tag lato browser (problemi di rete, ad blocker e così via). In questo modo, l’affidabilità e la completezza dei dati aumentano anche del 30%, afferma Michael Froment, CEO e cofondatore di Commanders Act. Senza dimenticare un vantaggio inestimabile legato direttamente all’immagine del brand: la capacità di mantenere gli impegni assunti in materia di dati personali, grazie alla predisposizione di un ambiente di raccolta e trattamento gestito in modo decisamente migliore.

La personalizzazione, principali casi d’uso della CDP

Qual è il posto della CDP nell’evoluzione del marketing?

Ammettiamolo, esiste una tacita curva di apprendimento in materia di attivazione digitale. Una regola non scritta che definisce i gradini da superare. In questo modello, il ricorso a una CDP sembra troneggiare dall’alto della scala. Per arrivarci, occorre innanzitutto lavorare sulla segmentazione dei database di e-mail, quindi cimentarsi con l’A/B test, prima di lanciarsi nella personalizzazione vera e propria. Seguendo questo percorso, si arriva dunque a una strategia di pubblicità programmatica e, infine, all’implementazione di una CDP.

Se alcune di queste tappe hanno un senso (lavorare sulla segmentazione delle e-mail è sicuramente un pilastro fondamentale), altre suscitano qualche perplessità, in particolare quelle che riguardano la CDP.

CDP e personalizzazione: ritorno ai principi fondamentali

Prima domanda: a cosa serve una CDP? A riunire i dati, tutti i dati. Quelli personali, che sono archiviati nel CRM. Quelli spesso anonimi, che provengono da tutte le interazioni registrate attraverso i canali digitali (sito web, app, e-mail, campagne pubblicitarie e così via). E anche i famosi dati freddi e caldi di cui abbiamo parlato in questo white paper, senza i quali diventa impossibile segmentare le audience, sia manualmente (mediante criteri definiti a priori) sia in modo automatico (affidandosi all’IA per identificare questi segmenti). Più in generale, la vocazione di una CDP è riconciliare i dati relativi alle persone, e non solo quelli relativi ai loro dispositivi.

Seconda domanda: quali sono i principali casi d’uso di una CDP? Non solo quelli immaginati da Commanders Act, ma anche quelli adottati dai nostri clienti, così come quelli di soluzioni concorrenti. In breve, diciamo che questi casi d’uso derivano dal rilevamento di segnali su scala omnicanale. Segnali di precedenti acquisti, di inattività o di abbandono. L’attivazione di potenziali utenti e la prevenzione di clienti a rischio figurano quindi tra gli scenari che consentono di mettere rapidamente alla prova la CDP e ottenere “quick win“.

Questi scenari hanno un punto in comune: sono attivati da clienti che sono arrivati a un valore costante in termini di performance con il loro CRM. In altre parole, la CDP fornisce i dati che mancano al CRM per contestualizzare le attivazioni e aumentare l’efficacia delle azioni marketing. Ecco perché posizionare la CDP all’ultima tappa dell’evoluzione marketing ci sembra frutto di un equivoco. La CDP non è un fine in sé; è un mezzo, uno strumento di performance che, abbinato al CRM, contribuisce a offrire un’esperienza personalizzata durante l’intero “customer journey.

In che modo si completano soluzioni di personalizzazione e CDP

Data la natura della CDP, la personalizzazione figura quindi tra i principali casi d’uso. La capacità della CDP di aggregare i dati, elaborarli e unificarli per poi comporre segmenti la colloca in modo naturale a monte di una soluzione di personalizzazione.

L’integrazione tra la CDP di Commanders Act e una soluzione di personalizzazione illustra da sola questa estensione “naturale”. I segmenti creati nella soluzione di Commanders Act vengono quindi integrati in tempo reale nella soluzione di Kameleoon, dove possono essere associati a un ampio ventaglio di azioni di personalizzazione. Dato che la CDP aggrega altrettanto bene sia i dati del CRM che quelli provenienti dai punti di contatto digitali, offre alla piattaforma di personalizzazione un terreno di gioco molto propizio per la conversione.

 

Per non perdere nessuna delle ultime notizie di Commanders Act, iscriviti alla nostra newsletter!  

© Commanders Act. All rights reserved 
Powered by CREAATION.

© Commanders Act. Tous droits réservés
Powered by CREAATION.

© Commanders Act. Alle Rechte vorbehalten.
Powered by CREAATION.

© Commanders Act. Tutti i diritti riservati.
Powered by CREAATION.

© Commanders Act. Todos los derechos reservados.
Powered by CREAATION.

This site is registered on wpml.org as a development site.