Customer Intelligence: Il Marketing nell’Era Digitale

di Dan Pejeroni [Infosphere]

Come vincere la fiducia del consumatore in tre mosse con le strategie di marketing di ultima generazione: Listen, Understand, Act

customer-intelligence

Ogni giorno i clienti condividono una crescente quantità di informazioni su se stessi. Questa enorme massa giunge tumultuosamente alle aziende attraverso molteplici canali: dati destrutturati, comportamentali, demografici, storici e predittivi, che potrebbero fornire una visione sconfinata su cosa i clienti desiderano veramente.

Utilizzata correttamente, questa conoscenza ha il potenziale per fornire un valore inestimabile, tuttavia molte organizzazioni non sono in grado di approfittarne completamente: i dati sono spesso bloccati nei silos rappresentati dai sistemi legacy a cui risulta difficile accedere, sono incompleti, incosistenti e le organizzazioni stesse non dispongono delle conoscenze necessarie per ricavarne valore.

Sfruttando i potenti strumenti e metodologie di analisi dei dati e statistica oggi disponibili, il marketing è finalmente in grado di analizzare efficacemente i comportamenti e i desideri dei consumatori basandosi su informazioni certe e misurabili, per ottenere la tanto agognata fiducia del consumatore.

La Customer Intelligence si basa su tre fasi distinte: Listen, Understand e Act. SAS ne parla dettagliatamente in questo e-book.

  • L’ascolto permette di ottenere una visione unica e completa della customer base e una migliore strategia multicanale;
  • La comprensione, sfruttando strumenti e metodologie di Advanced Analytics, consente la rapida trasformazione delle interazioni digitali in previsioni di marketing orientate alla soddisfazione dei bisogni real-time dei clienti;
  • L’azione permette di indirizzare canali e campagne, outbound e inbound, in un unico flusso integrato per interagire con i clienti in tempo reale ed infine misurare e indirizzare offerte personalizzate a specifici segmenti di utenti.

Su questi temi, con la testimonianza di aziende ed esperti, SAS ha organizzato l’evento Data Driven Customer Journey, che si svolgerà a Milano il 27 Giugno presso Vodafone Theatre.

Il mercato del lavoro è maturo per la digital transformation?

di Dan Pejeroni [Infosphere]

Com’è cambiato il mondo del lavoro, al di là del Job Atc; Di quali nuove tecnologie disponiamo oltre a LinkedIn; Anche il mondo delle agenzie per il lavoro sta per essere travolto dalla Uber-izzazione?


A partire dagli ormai lontani tempi della New Economy, ho avuto l’occasione di occuparmi dei modi in cui le tecnologie digitali e la rete cambiano i modelli di business in diversi settori di mercato.

I semi di questa straordinaria rivoluzione erano già stati sparsi nel 1999, da Shawn Fanning e Sean Parker, con la creazione di Napster, che ha avviato di fatto la “disruption” del mercato discografico e da Netflix, che avrebbe portato al clamoroso fallimento di Blockbuster nel novembre 2013.

Nel 2004 la nascita di Facebook ha inaugurato la Social Economy, che sarà consolidata definitivamente nel 2006 da Jack Dorsey, con Twitter. Il fenomeno Social sarebbe diventato negli anni seguenti un fiume in piena, ispirando, una nuova generazione d’imprenditori del mercato digital, alla distruzione dei vecchi modelli di business.

Dopo il mercato discografico e homevideo, la disruption si è estesa a ogni settore, causando molta preoccupazione – spesso ingiustificata – nel mondo delle piccole aziende, fino ai grandi gruppi industriali. Tutti in qualche modo si sono sentiti minacciati, o perlomeno stimolati a comprendere il fenomeno per coglierne le opportunità e valutarne i rischi potenziali per il loro business.

E il mondo del recruiting è maturo per la disruption?

La prima ondata: LinkedIn

Era inevitabile che la social economy travolgesse anche il mondo del lavoro e quindi le aziende che in qualche modo gli ruotano intorno. La situazione fino al 2003 era controllata dai colossi Monster e Stepstone. In Italia, qualche portale locale (Bancalavoro, Job24 e, un po’ più tardi, Infojobs), ne replicavano la formula. Si trattava di siti sui quali, le persone in cerca di lavoro, postavano i loro CV. D’altro canto, in questi database le agenzie per il lavoro – dietro sottoscrizione – pubblicavano gli annunci di lavoro e cercavano i candidati, per i loro clienti.

linkedin

Il primo contagio avviene ufficialmente il 5 maggio 2003, con la nascita di LinkedIn. Reid Hoffman e i colleghi di PayPal, Peter Thiel e Keith Rabois, sparigliano il tavolo di Monster e Stepstone, con un nuovo modello. Tutto social.

In poco più di un decennio, mandano in pensione il vecchio curriculum vitae, catturando oltre 380 milioni di utenti e diventando uno dei principali canali per le ricerche delle staffing agencies.

Il modello di business di LinkedIn si basa su tre fonti di introiti: la vendita di abbonamenti premium del servizio (27% dei ricavi), le hiring solution (41%) e le marketing solution (32%).

La seconda ondata: gli aggregatori

L’onda ormai inarrestabile e la mole di informazioni prodotta dalla galassia social networks (alcune stime parlano nel 2015 di oltre 1000 ExaBytes) determina, alla fine del primo decennio, l’avvento dei Big Data, evoluzione del concetto di Business Intelligence applicata allo studio dei comportamenti e alla previsioni dei fenomeni sociali.

A questo punto una dopo l’altra, nascono una serie di disruptor (per lo meno dell’ormai indebolito modello LinkedIn). Si tratta di soluzioni web-based che operano sui Big Data aggregando le informazioni disponibili sui social networks: Connectifier, Dice Open Web, Entelo, HiringSolved, TalentBin, Yatedo.

connect

Connectifier, fondata da due ex tecnici di Google, mette a disposizione un ambiente recruiter-side, progettato per combinare capacità di ricerca avanzata, big data, analytics e machine learning, per assistere le ricerche dei recruiter.

Si tratta del principale competitor di LinkedIn, anch’esso può contare su un database di circa 380 milioni di profili, ma sostiene di avere il 30% di data points in più per persona. Tutti i dati dei candidati sono indicizzati da sorgenti pubbliche in modo molto simile al modo di operare di Google e includono interessi, hobby, relazioni personali e professionali, nonché interazioni sui social networks.

Le informazioni presenti nei CV e profili raccolti dai siti di recruiting tradizionali, tendono a diventare rapidamente obsolete e comunque non rappresentano una vista inclusiva del candidato. L’approccio olistico di Connectifier va alla ricerca di come le persone interagiscono professionalmente, con chi si relazionano, se rispondono a domande nelle loro comunità o – nel caso dei programmatori – postano codice su GitHub.

OpenWeb, Entelo e HiringSolved utilizzano il medesimo schema operativo: aggregazione, big data e analytics, per fornire al recruiter una più agile ricerca dei candidati, che poi verranno convocati e intervistati con modalità tradizionali. Il focus delle soluzioni di questa categoria, è sui candidati introvabili poiché “passivi” – ovvero che non sono dichiaratamente alla ricerca di un nuovo lavoro.

HiringSolved propone inoltre la “Search by example”, una sorta di clonazione di un profilo campione, per cercarne altri con caratteristiche simili.

Yatedo, è il più immediato, in quanto permette la ricerca dei profili senza registrazione. E’ al centro oggi di molte polemiche e legate alla privacy, in quanto chi prova a digitare il proprio nome nel campo di ricerca (molto simile a Google) presente nella home page del loro sito, si trova sullo schermo un bel profilo, che non sapeva di avere e che di certo non aveva autorizzato a pubblicare.

La risposta di Monster, alla nuova ondata di aggregatori è invece rappresentata da TalentBin, che promette di trovare anche i profili tecnici più difficili.

Purtroppo al momento gli algoritmi di job matching (6Sense ranked matching di Monster, Top candidates for your job di LinkedIn, Quality of programming code di Gild), non sono ancora del tutto maturi.  Sfortunatamente il criterio di differenziazione per ciò che in definitiva porta all’assunzione è spesso personality-based, invece che skill-based. Abbiamo quindi a che fare con un criterio meno oggettivo di quello che utilizza Amazon per i propri prodotti.

Chi sta tentando di affrontare il problema è 10rule.com che, con una tecnologia cloud, tenta di misurare il capitale umano per creare un benchmark sui top 10% performers di ogni posizione professionale. Il processo prevede poi di procedere con l’assunzione di nuovi talenti e lo sviluppo delle risorse che fanno già parte dell’organizzazione aziendale, sulla base di questo stesso benchmark.

Vettery

L’ultima frontiera delle staffing agencies che sono considerate disruptor di successo, è quindi nello sfruttamento intensivo dei big data e dei migliori algoritmi di ranking, per accumulare tutte le informazioni disponibili sui migliori candidati (nuova scuola), per quindi affidarli a un gruppo di recruiter esperti, per contatto e ingaggio vis-a-vis (vecchia scuola). Questa è la filosofia di Vettery.

Quando Brett Adcock e Adam Goldstein erano analisti presso l’hedge fund Cedar Hill Capital, occupandosi del mercato staffing & headhunting, notarono che nel loro lavoro mancava qualcosa: la tecnologia. Quindi, a marzo 2013, decisero di assumere un team di otto programmatori e di creare Vettery, società specializzata nella ricerca di profili professionali per banche d’investimento, private equity, hedge funds e altre posizioni nell’alta finanza. Hanno successivamente esteso il loro raggio d’azione alla technology industry. Nel corso del 2014, sono riusciti a piazzare ben 100 posizioni, con lo sgomento dei recruiter tradizionali che, pur avendo utilizzato le stesse tecniche, si servivano di software tradizionale.

In pratica, Vettery sta al recruiting, come Uber sta al tradizionale mercato dei taxi. Combinando i big data con una piattaforma dove candidati e recruiter possono interagire in tempo reale, Vettery sta cercando di superare la concorrenza. Il loro principale punto di forza è costituito da un esteso database, che contiene i profili dei professionisti del mercato. Raccogliendo dati da molte fonti disponibili pubblicamente, Vettery è in grado di identificare efficacemente anche i candidati passivi.

Vettery inoltre raccoglie e correla informazioni da molte fonti non convenzionali, come università, scuole, circoli e centri di ricerca. Ad esempio detiene le biografie di ogni singolo analista che, nel 2014, ha completato con successo il corso di banking investment, presso le principali scuole del settore. Questi dati includono formazione, luogo di residenza ed informazioni dettagliate di ogni loro esperienza di lavoro.

Il curioso caso di ElevatedCarreers

Neil Clark Warren, consulente matrimoniale, fondò eHarmony nel 2000, quando si rese conto dei problemi di compatibilità in molte coppie che erano state sue clienti. Più di 600.000 utenti si sono sposati tra il 2000 e il 2012, con solo il 3.8% di divorzi, contro una media del 40-50% degli Stati Uniti.

ElevatedCarreers ha riutilizzato la tecnologia di compatibility matching di eHarmony, adattandola al matching tra candidati e aziende.

Elevated utilizza algoritmi predittivi che, sulla base delle informazioni contenute nei profili dei candidati, in quelli delle aziende e  nelle job description, cerca le migliori corrispondenze sulla base di tre tipi di compatibilità: skill, cultura e personalità.

Le soluzioni verticali: Gild

L’approccio di Gild è invece molto verticale e ha l’obiettivo di cambiare il modo in cui le software house assumono i programmatori. Ad oggi sono riusciti a classificare più di un milione di sviluppatori, in base alla qualità del codice che producono.

In questa industry, il sistema è essenzialmente pregiudiziale e la discriminazione è la norma: programmatori eccellenti, ma sprovvisti di diplomi prestigiosi, sono normalmente sepolti nella pila dei CV. Gild cerca di riportare la meritocrazia nel recruiting.

Il problema che LinkedIn non ha ancora risolto è l’impossibilità di stabilire chi è bravo e quanto bravo sia. Gild sembra aver trovato la soluzione a questo limite, almeno per gli sviluppatori di software. L’azienda ha lanciato ufficialmente uno strumento che analizza il codice che i programmatori sottopongono alle piattaforme open-source, come GoogleCode, SouceForce, Github e StackOverflow. Quindi classifica gli sviluppatori in base alla qualità del software che producono. L’idea è quella di proporre alle aziende che cercano programmatori il loro sistema di ranking.

Naturalmente può essere difficile dire cosa renda un certo codice migliore di un altro. Un indicatore chiave è la semplicità. Chi risolve un problema utilizzando relativamente poche, eleganti linee di codice, è generalmente considerato migliore. Gild guarda anche a quanto sia ben documentato, quanti lo riutilizzano e se sia stato accettato da progetti open-source di alto profilo, come Linux.

Le limitazioni comunque sono costituite dal fatto che Gild classifica solo sviluppatori che sottopongono il loro software alle piattaforme open source e molti talenti ancora non lo fanno, o non lo faranno mai. Inoltre, se può dire qualcosa a proposito della qualità del codice che la gente produce, Gild non potrà dire se un candidato è simpatico o affidabile. Queste informazioni devono essere ancora ricavate dalle interviste tradizionali.

Per ora, molte aziende utilizzano Gild in combinazione con i metodi tradizionali: i selezionatori cercano i programmatori su LinkedIn, quindi controllano la loro capacità di sviluppo con il sistema di ranking di Gild.

Nuovi orizzonti: il caso Somewhere

LinkedIn ha fornito la possibilità di mettere il CV online, rendendo questo processo più efficiente.  Ma, in un mondo dove le relazioni, la cultura e la forma sono più importanti del modo in cui si fa business, c’è l’urgente necessità di reinventare il modo in cui ci proponiamo o cerchiamo le nostre controparti.

Somewhere è una piattaforma visuale dove esporre il proprio lavoro e le proprie capacità.  Una specie di Pinterest per il business.

Tim Leberecht ha recentemente definito Somewhere una piattaforma di ricerca visuale per le imprese: “Somewhere rappresenta un emblematico cambiamento della natura del posto di lavoro. La nostra concezione del lavoro si è spostata da cartellino e qualifica professionale a “mentalità e narrazione”.

somewhere

La generazione dei millenial, in particolare vede il lavoro come un potente veicolo per trovare un significato alle loro vite. Somewhere illustra come stiamo procedendo con l’immagine contestuale e non lineare di noi stessi al lavoro. Il sito ridefinisce il lavoro come qualcosa di bello, come carriera in continua evoluzione e come identità professionale di persona fluida.

Somewhere punta ad aiutare i lavoratori della conoscenza a sostituire i loro CV tradizionali, con un diverso modo di rappresentare se stessi, in un contesto di business. Justin McMurray, cofondatore di Somewhere, osserva che la domanda di lavoro tradizionale si basa ancora su “quello che hai fatto”, non su “quello che fai” o “chi sei”.

Eravamo nella fase in cui le persone che non conoscevi approvavano le competenze di cui non disponevi” [cit. LinkedIn]. McMurray sostiene di aver fondato Somewhere, per “riportare le persone al centro e restituirgli la possibilità di raccontare le storie del proprio lavoro“. Ritiene che “il lavoro non dovrebbe negare la nostra umanità, ma dovrebbe accoglierla. Il lavoro è, più che mai, un fatto personale“.

Oltre il lavoro convenzionale: il fenomeno GitHub

github

Il posto di lavoro quindi sta diventando sempre più un’arena sociale, che un luogo per la produttività. Presso GitHub, la più grande comunità di sviluppatori open-source e code-sharing, quasi tutto il lavoro avviene remotamente. Nei primi tempi l’azienda non aveva nemmeno un ufficio fisico. Dopo aver adibito a headquarter un loft, l’azienda ne ha trasformato la gran parte in bar ed area per incontri dagli arredi stravaganti. Secondo la visione di Scott Chacon, cofoundatore e CIO di GitHub, il quartier generale è principalmente un social hub, non un luogo di lavoro.

La struttura di GitHub riconosce che la soddisfazione nel lavoro è un evento sociale, ampiamente basato sui momenti di condivisione.

Chacon sostiene che il fatto di essere costretti a essere una persona diversa durante le ore di lavoro, tende a non essere più accettato dalle nuove generazioni di lavoratori. Come sottolinea Stowe Boyd,  “Nel nostro modello, il lavoro non è un posto dove vai, è una cosa che fai. Sei tu“. Il lavoro della conoscenza può avvenire ovunque.

La rivoluzione del mondo del lavoro

Sotto queste spinte la job industry, sta subendo una completa trasformazione. Nello stesso modo in cui la nostra economia è cambiata attraverso i secoli scorsi, da agraria ad industriale ed infine a società dell’informazione, il ruolo delle risorse umane sta per essere completamente sovvertito.

Women At Arms

Un tempo le aziende avevano il completo controllo su attività e informazioni industriali, quindi non necessitavano di individui particolari. Henry Ford non aveva bisogno del miglior lavoratore in assoluto per la sua catena di montaggio. Per definizione, i lavoratori erano intercambiabili. Facendo un salto avanti di cento anni, Google dipende al 100% dalle persone, per innovazione, invenzione e sviluppo.

Nella società industriale, i lavoratori non avevano informazioni, trasparenza o mobilità. Non c’era LinkedIn o Monster. Oggi i migliori programmatori sono inondati di proposte per nuovi e migliori opportunità di lavoro, circostanza storicamente mai avvenuta.

In altre parole, la guerra dei talenti è finita e i talenti hanno vinto.

Questo significa che anche le job agencies e i recruiter, i direttori e i dipartimenti delle risorse umane devono cambiare. Non si tratta più di pubblicare annunci o gestire liste di candidati. Oggi le aziende hanno bisogno competere per attrarre talenti oppure saranno costrette a morire. Devono proiettare la migliore immagine possibile per procurarsi un’adeguata forza lavoro. Devono essere proattive e attente, per portare le migliori risorse a lavorare nelle loro organizzazioni. Chi, in questo settore, non comprenderà questo paradigma, non sarà in grado di aiutare le aziende ad acquisire talenti e sarà inesorabilmente messo da parte.

I recruiter ci saranno ancora

Se da un lato stiamo assistendo ad un’impetuosa evoluzione tecnologica, dall’altro sempre più aziende tentano di mostrare un volto umano e la generazione dei millenial dimostra chiaramente di essere attratta da organizzazioni che mettono al centro il valore e le persone.

Le aziende stanno iniziando a comprendere che i candidati sono molto di più, di una lista di esperienze. Sono persone e, spesso, il fattore di successo è nelle cose che non possono essere misurate.

In questo articolo abbiamo considerato molti strumenti in grado di scoprire talenti, ma identificare è molto lontano da coinvolgere. In futuro, il job matching sarà di enorme utilità, ma solo se gli specifici skill, conoscenze ed esperienze potranno essere verificate con le effettive prestazioni nel lavoro. Dopo tutto, la ragione per cui le persone vengono assunte, è per risolvere problemi che devono essere risolti, per sviluppare prodotti che devono essere sviluppati o per fornire servizi a clienti che devono essere serviti. Essere in grado di trovare la “perfetta corrispondenza” – come amano dire i datingpreneurs – non può risultare efficace, a meno che non si disponga di un campione di riferimento, attraverso il quale misurare quanto perfetta sia stata realmente la corrispondenza.

Il modello di riferimento è chiamato “prestazione futura” e la tecnologia certamente potrà aiutare in questo compito con gli algoritmi predittivi.

Ci sono però molti fattori che pesano su questo metodo e nella professione del recruiter. Al momento si sta solo iniziando a raccogliere dati.

Molti degli strumenti descritti possono aiutare nel produrre una lista di candidati, i contenuti dei quali siano reperibili da qualche parte online. Si deve tener presente però del crescente numero di persone che, per diversi motivi, sta nascondendo i propri comportamenti online, anche evitando del tutto l’online. Inoltre è necessario comprendere che una rivoluzione del mondo del recruiting non potrà rimuovere gli ostacoli normativi che ancora attendono una risposta da governi e politica, che recruiter mediocri continueranno a fornire prestazioni mediocri e che la Rivoluzione Digitale, da sola, non renderà migliore l’esperienza di un candidato.

La mera definizione del termine disruption non implica che sia possibile creare un modello sostenibile, primariamente perché sarebbe necessario conoscere esattamente cos’è che non funziona nel recruiting. Da parte mia non posso che lasciare questo interrogativo ai professionisti del settore e concludere con la considerazione che, dopo tutto, le persone continueranno a essere la parte fondamentale dell’equazione.

SAS Forum Milan 2017: AI – This Is Our Next Evolution Stage

Digital Trasformation, Analytics, Intelligenza Artificiale, Internet Of Things all’annuale forum di SAS

 

AI

“Ovunque ci siano dati, ci saranno gli analytics per dare valore alle informazioni e trasferirlo ai modelli di business”. Questa è la missione che Marco Icardi, SAS Regional Vice President, attribuisce a SAS. Si apre così al MiCo di Milano la grande convention sugli Analytics, l’Intelligenza Artificiale, L’Internet of Things e, più in generale, sulla Digital Transformation. Un luogo importante perché è da qui che nel 2013 era partita la sfida per “una cultura degli analytics”. In questi anni il tema è diventato una vera rivoluzione tecnologica che sta passando dall’avanguardia alla maturità.

Nel tempo in cui viviamo ogni cosa è collegata, quindi le vie di comunicazione non sono rappresentate esclusivamente dai canali digitali, anche se sicuramente sono quelle preferite dai millienial. In questo contesto gli analytics sono lo strumento per interpretare la realtà, ma l’analisi deve necessariamente essere condotta su canali multipli e soprattutto in tempo reale.

In questi ambiti l’Intelligenza Artificiale, che fa già parte degli strumenti di cui disponiamo, sta giocando un ruolo chiave, permettendoci di sfruttare le nostre capacità adattative.

Ma ci avverte Marco: è necessario agire ora, perché poi potrebbe essere troppo tardi. “E’ necessario partire dal presente per esplorare il possibile” e ci indica i tre percorsi fondamentali della digital transformation: innovazione, sviluppo delle competenze e apertura. Con apertura si riferisce sia alla piattaforma Viya, in quanto cloud e open source, sia all’atteggiamento verso gli oltre sessanta partner con cui SAS collabora.

Maurizio Melis, giornalista scientifico che conduce su Radio 24 il programma Smart City, chiude con qualche battuta l’intervento di Icardi, mentre sul palco viene attrezzata la pedana per un vero e proprio match di fioretto. Ospite d’eccezione la campionessa olimpionica di scherma Margherita Grambassi, che si esibisce in un avvincente match con la nuova promessa della scherma azzurra Carlotta Ferrari.

Margherita
Margherita Grambassi intervistata da Emanuela Sferco

Destrezza e scelta del tempo sono fondamentali nella scherma, così come nelle scelte di ‪business e, in ultima analisi, nella vita. La scherma è uno sport di situazione, strategia e analisi, si calcolano i punti deboli dell’avversario in tempo reale, perché non è possibile seguire uno schema strategico predefinito, il fattore umano prevale. Una bella metafora che collega le parole di Margherita ai temi del convegno.

E’ quindi il momento di Oliver Schabenberger, Executive VP e  CTO SAS, che ci racconta le strategie di SAS a corollario degli analytics. Lo fa ballonzolando qua e la sul palco del MiCo, inforcando un luminescente overboard. Secondo Oliver, le tecnologie chiave del futuro sono: connettività, intelligenza artificiale, machine learning e automazione, ma sottolinea anche la Blockchain, che secondo noi è la tecnologia più rivoluzionaria dopo la stessa Internet, anche se ancora poco compresa dal mainstream. Ci parla poi di Edge-To-Enterprise IoT Analytics, la piattaforma sviluppata con il colosso del networking Cisco, per consentire alle aziende di distribuire sui vari livelli della rete gli analytics in base a criteri di volume, latenza e velocità.

Sas-Viya-Piattaforma

Protagonista indiscussa è poi sempre la piattaforma open SAS Viya, capace di abilitare l’analisi sui dati in streaming, il machine learning e reporting avanzato sui big data e sui dati in memory.

C’era grande attesa per l’intervento di Neil Harbisson, forse non proprio il primo cyborg

Neil-Harbisson
Neil Harbisson

della storia, ma sicuramente un personaggio molto stimolante. Pittore, compositore e fotografo, affetto da una rara patologia che gli impedisce di percepire i colori, è dotato di una speciale antenna impiantata chirurgicamente nel cranio, che traduce i colori in suoni. Avete presente gli Snorkey? Ecco, Neil si presenta più o meno così.

 

E così un’oggetto giallo genera suono diverso da uno rosso e un’insalata produce una complessa armonia. Una nuova traduzione dell’esperienza. “La verità è che la tecnologia si evolve più velocemente rispetto alla capacità umana di digerire il cambiamento. Ritengo sia necessario fare cultura, educare e preparare l’individuo a vivere la trasformazione”.

Molto interessante infine l’intervento di Fabio Sbianchi, l’uomo che ha rivoluzionato i modelli assicurativi per l’auto con la sua Clear Box, un apparato dotato di sensori e GPS che, registrando percorsi e tempi d’uso, permette alle compagnie di assicurazione di ritagliare prodotti assicurativi su misura.

Anche quest’anno SAS Forum Milan si conferma un evento capace di catalizzare l’attenzione di esperti, professionisti, aziende, studenti e rappresentanti del mondo dell’informazione sui temi più attuali legati alla rivoluzione digitale e allo sviluppo delle tecnologie che la abilitano.

 

 

 

 

SAS Forum Milan 2017: Analytics drives Everything

di Dan Pejeroni [Infosphere]

Schermata 2017-04-03 alle 20.39.29

La Digital Transformation, fino a poco tempo fa forse solo uno slogan aziendale, è diventata finalmente realtà e continuerà a guadagnare terreno nei prossimi anni. In azienda, la figura del Data Scientist diventerà il collante sociale che costringerà i team di business e tecnologia a lavorare in stretta collaborazione, perché i team responsabili dei dati continueranno a scoprire forti correlazioni tra le metriche di business e quelle tecniche.

L’Intelligenza Artificiale (AI) e il Machine Learning (ML) passeranno dalla teoria agli ambienti di business fornendo risposte mirate a problemi concreti. AI e ML saranno un punto chiave, perché i dati sono diventati troppi, il tempo limitato e sarà impossibile elaborarli manualmente. Machine Learning porterà valore, risparmio di tempo e maggiore comprensione delle dinamiche del business.

I prossimi anni saranno caratterizzati da costante cambiamento e i Data Analytics rappresenteranno il faro per le organizzazioni che navigano in acque inesplorate. In un’economia iper-competitiva, sistemi, applicazioni e pagine web meno performanti saranno più facilmente identificati, aiutando il Marketing e l’IT a prepararsi agli eventi critici.

La Data Analysis assumerà sempre maggior valore per le organizzazioni digitali, fornendo loro supporto per intuizioni significative che rivelano abitudini di acquisto dei consumatori, preferenze e comportamenti.

Di questi e altri temi, si occuperà la XII edizione di SAS Forum Milan, l’appuntamento annuale durante il quale ospiti, esperti internazionali e keynote speaker si confronteranno sul futuro degli analytics, sulle nuove frontiere dell’Internet of Things e sull’evoluzione dell’intelligenza artificiale.

“Stiamo vivendo un cambiamento epocale, in cui la convergenza tra fisico e digitale è ormai compiuta. Generiamo quotidianamente un patrimonio informativo d’inestimabile valore che ora, opportunamente gestito, permetterà di avvicinare l’uomo alla comprensione totale del mondo” afferma Emanuela Sferco, SAS Regional Marketing Director, “Oggi gli analytics guidano ogni cosa e occorrono nuovi strumenti per padroneggiare, tradurre e trasformare i dati con modalità innovative che liberino nuove forme di valore”.

Grazie al contributo di esperti, clienti, partner e Università, verranno esplorate tutte le potenzialità e gli strumenti degli analytics, in molteplici aree applicative. Dalla digitalizzazione dei processi a una customer experience sempre più personalizzata, dalla gestione del dato come elemento di differenziazione alla sua regolamentazione, dall’adeguamento alle normative in ambito rischio alla gestione delle frodi, dall’Internet of Things all’Analytics of Things.

Studenti universitari, degli istituti superiori e neo laureati potranno inoltre raccogliere le testimonianze dirette dei protagonisti aziendali e accademici e assistere a sessioni specifiche dedicate alle professioni emergenti e alle digital skill nell’industria 4.0.

SAS Forum Milan è un appuntamento annuale di rilevanza internazionale rivolto ad aziende private ed enti pubblici, partner e mondo accademico. Riunisce ogni anno una community in continua espansione di manager e professionisti di tutti i settori di mercato, favorendo innovazione, crescita manageriale e attività di networking. Un luogo dove esperti, manager e imprenditori presentano il loro approccio vincente, le sfide da affrontare e le strade da intraprendere tra cultura analitica e innovazione tecnologica.

Registratevi all’evento visitando il sito: SAS Forum Milan e tenete d’occhio L’hashstag ufficiale su Twitter: #SASForumMilan.

Lo Zen e la complessità dei dati

Data Strategy: gestione della qualità, coerenza e compliance dei dati aziendali

di Dan Pejeroni [Infosphere]

metropolis_at_night-wallpaper-960x600

Il fenomeno Internet of Things ha portato ad una nuova grande accelerazione nell’universo di dati che le organizzazioni devono controllare. Trarre profitto ed evitare le minacce provenienti da questa impensabile mole di dati è una sfida difficile da affrontare, senza un’efficace gestione.

Si parla molto oggi di Big Data e delle tecnologie che sovrintendono alle fasi di acquisizione e analisi (Data ingestion e Analytics), ma le problematiche relative alla standardizzazione, validazione e assicurazione sono spesso drammaticamente trascurate. Se i dati sono incompleti, duplicati e obsoleti le analisi che verranno prodotte dai sofisticati processi Analytics, Data Mining o Machine Learning saranno irrimediabilmente compromessi e non potranno che fornire analisi non corrispondenti alla realtà.

Di questo si occupa il Data Management che, per essere efficace, deve essere contestualizzato. I dati devono essere disponibili in modo definito, consistente, integrato e trasversale tra molteplici fonti. L’adozione di un sistema di Data Management limita il rischio di avere dati poco attendibili o non conformi in fase di analisi.

I processi necessari per garantire che i dati che vengono resi disponibili agli utenti siano efficaci, funzionali al raggiungimento degli obiettivi e possano effettivamente costituire un supporto per le decisioni strategiche sono:

  • Data Integration
  • Data Quality

La Data Integration è l’elemento base di un processo di Data Management, preposto alla standardizzazione dei dati, spesso provenienti da fonti diverse, per unificarne i risultati e aumentarne il valore. Ciò consente ad ogni nuovo dato che entra nel processo di analisi, non solo di aggiungersi alla quantità di informazioni già presenti, ma di moltiplicare il suo valore combinandosi con quelli attuali.

La Data Quality migliora l’affidabilità dei dati, certifica e governa le successive fasi di produzione e distribuzione dei dati. Si tratta del controllo qualità delle informazioni, che assicura che gli elementi che avranno un impatto decisivo sulle decisioni di business, siano corretti e completi.

 Ma la complessità della gestione dei dati non riguarda solo qualità e integrazione, ci sono anche aspetti normativi e di compliance piuttosto delicati. Il GDPR EU Personal Data Protection Act 2018 prescrive che ogni organizzazione operativa in uno o più paesi del EU debba rendersi compliant con la nuova direttiva entro la primavera del 2018. Le sanzioni rischiano di essere pesanti (da 20 milioni di euro o 4% del revenue complessivo).

Il Data Management è anche questo e punta a raggiungere l’agilità, l’accessibilità e la flessibilità necessarie per integrare tutti questi sforzi nella Data Strategy e ottenere un concreto governo dei dati.

A riguardo, segnalo un interessante evento di SAS Italy: SAS Road Show, il 7 febbraio a Milano e il 9 febbraio a Roma.

Data Science: il Paradigma Università – Impresa

SAS University Edition: La risposta alla carenza di Data Scientists nella partnership tra il leader tecnologico e la comunità accademica

data-magic

È stata definita dall’Harvard Business Review, la professione più sexy del XXI secolo. È la figura del Data Scientist.

Anche se l’affermazione può far sorridere, c’è una logica ed è tutta nell’elemento umano. Sicuramente c’è molta tecnologia nel campo della Data Science, ma i risultati che può fornire la fanno apparire come una forma di stregoneria. In un mondo sempre più caratterizzato da Social Network, IoT e Big Data, il Data Scientist è la persona in grado di dare un significato ai numeri. Il problema è che oggi pochi sono in grado di farlo, in quanto implica competenze che non si trovano spesso insieme. Richiede una rigorosa competenza nell’analisi dei dati e, allo stesso tempo, creatività per scoprire modelli e tendenze. Deve essere in grado di passare dal dettaglio al quadro generale.

Per le aziende di tutto il mondo, la caccia a questi professionisti è già iniziata perché, senza queste competenze, gli investimenti in IoT e Analytics non porteranno al risultato atteso: comprendere cosa stia accadendo oggi e prevedere cosa potrà accadere domani.

Secondo alcuni analisti, l’identikit del data scientist comporterebbe non meno di otto competenze di base e sicuramente tra queste ci sono informatica e statistica. Dalla posizione di leader tecnologico, SAS Italy – la business unit italiana di SAS Institute – ha dato il via al progetto SAS University Edition, finalizzato a sostenere il mondo accademico nella formazione sugli strumenti di Analytics dell’azienda. Il progetto SAS University è inserito all’interno del programma AnalyticsU ed è pensato per invertire il gap di competenze.

Ci siamo chiesti quale sia stata la risposta delle università italiane. Se abbiano raccolto la sfida e come abbiano adattato la loro offerta a questo scenario.

Abbiamo intervistato il prof. Massimo Attanasio, docente di Statistica Sociale all’Università di Palermo.

Prof. Attanasio, lei si occupa di statistica sociale. Qui c’è una buzzword: “sociale”. Ma sappiamo che questa disciplina esisteva prima che scoppiasse il fenomeno social network. La prima domanda che desidero porle è: se e come l’avvento dei Big Data abbia allargato range, obiettivi e aspettative di questo ambito accademico.

M.A: Per noi statistici, buona parte del lavoro è ancora basato su Small Data e sull’inferenza classica, costituita da campioni piccoli e grandi, comunque sempre campioni. Per pensare in termini Big Data, è indispensabile un cambio di paradigma. Noi, attraverso una serie di progetti e collaborazioni con aziende ed enti, stiamo affrontando questo tema molto attuale con casi di studio pratici. D’altra parte ritengo che questo argomento dovrà diventare assolutamente trasversale a tutti i corsi di studio.

I nuovi strumenti di analisi – in particolare gli Analytics – pensati specificamente per i Big Data, quanto incontrano le esigenze metodologiche dell’ambito scientifico della statistica di oggi?

M.A: Nella nostra e nelle altre facoltà c’è un vasto utilizzo del linguaggio open source R ma, d’altra parte, siamo utenti delle soluzioni SAS da oltre vent’anni. Rispetto a R, SAS si rivela un ambiente più intuitivo ed efficace. Nella maggior parte dei casi, le sue funzionalità ready-to-use sono più che sufficienti per affrontare il lavoro di routine. Per le esigenze della ricerca e delle relative pubblicazioni scientifiche, invece è opportuno approfondirne l’ambiente di programmazione per sfruttarne appieno la potenza.

Ci può dire qualcosa sulle modalità d’introduzione e utilizzo della piattaforma SAS nei suoi corsi? Oltre al software, ha avuto a disposizione documentazione utile a fini didattici? Come siete stati supportati da SAS in questo percorso? 

M.A: Come accennavo prima, SAS è presente in facoltà da molto tempo. L’anno scorso abbiamo organizzato una giornata di approfondimento con la dott.ssa Cinzia Gianfiori (SAS Academic Program manager), che ha avuto un grande successo. Da questo spunto è nata l’idea di mettere a disposizione degli studenti, che ne intravedono la valenza per la loro futura professione, un master che li porti alla certificazione. Da SAS abbiamo sempre avuto risposte puntuali.

Quali ambiti della statitistica – in particolare quella sociale – sono stati oggetto di lavoro presso la vostra facoltà? Ci può raccontare qualche caso pratico in cui SAS si è rivelato particolarmente efficace?

M.A: Con SAS abbiamo completato una ricerca sulla mobilità territoriale realizzata sui dati dell’ASN [l’archivio degli iscritti al sistema universitario italiano offerto dal MIUR, che contiene dati su immatricolazioni, iscrizioni e lauree di tutti gli atenei. n.d.r.], che sono di fatto Big Data.

Il Dipartimento di Matematica Attuariale, che utilizza da sempre il software R, sta estendendo le proprie competenze anche agli Analytics di SAS, per poter collaborare con l’IVASS [Istituto per la Vigilanza sulle Assicurazioni che garantisce la stabilità del mercato assicurativo, n.d.r]. L’Ente mette a disposizione del progetto i Big Data delle assicurazioni sui sinistri, che vengono correlati con le informazioni relative alla mobilità universitaria del Miur.

Poi c’è una collaborazione col sistema bancario, che ha connotazioni fortemente sociali, in quanto ha a che fare con le caratteristiche individuali dei clienti e le loro transazioni.

Si parla oggi con molta insistenza della carenza, per le aziende che intraprendono la strada della digital transformation, di skill per l’analisi sui dati. I data scientists (ecco un altra buzzword). Qualcuno ha definito questo mestiere, come il più sexy del momento (e del futuro). I vostri corsi formano effettivamente data scientists?

M.A: Con la prof. Ornella Giambalvo, abbiamo lanciato un Master per Big Data Scientists, rivolto ai laureati magistrali in statistica e in altri corsi di laurea (come Economia e Finanza e Ingegneria Informatica), dove SAS è assolutamente protagonista. Il corso, che sta avendo un grande successo, punta alla sintesi fra studio dei fondamenti della data science e lavoro sul campo in progetti concreti rivolti all’uso creativo dei Big Data per l’innovazione. Si tratta di un percorso a forte vocazione professionale che coinvolge oltre a SAS, Unicredit e Istat. Inoltre, in tutti i corsi di laurea magistrale è stata inserita la materia Big Data. Ritengo che il Data Scientists che proviene da una formazione statistica, rispetto a chi ha una background prevelentemente informatico, abbia una marcia in più dove sia necessario trarre conclusioni dalle relazioni che si esistono tra le variabili.

Ringraziando il prof. Attanasio, concludiamo con un dato: l’ecosistema dei dispositivi connessi genera più di 2,5 quintilioni di byte al giorno. Questa enorme massa di informazioni avrà un impatto significativo sui processi di business e la Data Science assumerà un ruolo sempre più centrale. L’uso creativo di questi dati consentirà alle aziende, in ogni settore di mercato, di ottimizzare molti aspetti della loro attività, creando un’ondata di nuove idee in grado di rivoluzionare ogni settore e creare nuovi rami del sapere che avranno un profondo impatto sull’umanità.

Scarica SAS University Edition

#IoT Domus: una Goccia nell’Oceano dei Big Data

di Dan Pejeroni [Infosphere]

 L’evoluzione del progetto IoT Domus su hardware Arduino Uno, per utilizzare ora il cloud Blynk.

Temperature

Il progetto Domus prevede una sezione attuatori per il comando dei sistemi di riscaldamento, irrigazione e illuminazione giardino e una sezione sensori che raccoglie e gestisce le varie sonde sul campo (tensione, corrente, flusso acqua, temperatura, umidità terreno, luce, pioggia) e allarmi (blocco caldaia, intrusione, incendio, allagamento, gas).

Nella prima serie di articoli avevo descritto un prototipo di telecontrollo affidato ad un PLC controller (basato su un Asus EEE-Box con Windows 7) che svolgeva funzioni di data logger, reporting e automazione di processo e ad un’applicazione Android (per il comando remoto degli attuatori), sviluppata con Tasker.

Questa nuova versione si basa sul Cloud IoT Blynk.

cwqpfohwiaaj6xg-jpg-large

Blynk è una piattaforma per iOS e Android che permette il controllo di schede Arduino, Raspberry Pi e altre, collegate a Internet tramite Wi-Fi, Ethernet o mediante il nuovo chip ESP8266. Si tratta di un cruscotto digitale dove è possibile costruire una interfaccia grafica per progetti IoT, semplicemente trascinando e rilasciando widget.

Blynk è stato finanziato su Kickstarter da 2.321 sostenitori che hanno creduto nell’idea. È possibile visitare la loro pagina della campagna e sapere di più.

Il Cloud Blynk è in grado di acquisire e memorizzare i dati rilevati dai sensori, collegati ad una scheda tra le molte supportate.

La piattaforma è costituita da tre componenti principali:

Blynk App – che permette di creare interfacce grafiche per i progetti IoT, semplicemente utilizzando vari widget forniti.

Blynk Server – che è responsabile di tutte le comunicazioni tra lo smartphone e l’hardware. È possibile utilizzare il Cloud Blynk o installare un server Blynk localmente. E completamente open-source e può facilmente gestire migliaia di dispositivi in comunicazione con il server (o il Cloud) elaborando tutti i comandi in entrata e in uscita

architecture

Ogni volta che un sensore rileva una nuova misura, oppure viene premuto un pulsante sull’app Blynk, i messaggi di controllo vengono trasferiti verso/dal Cloud Blynk, che acquisisce i dati oppure attiva un attuatore sulla scheda.

cwpaxetwiaqlmcq

Per iniziare con Blynk è necessario scaricare l’app Android o IOS, registrarsi sul sito per ottenere un Auth Token (che dovrà essere utilizzato sia nell’app che nello sketch della scheda), installare la libreria fornita da Blynk e scrivere il codice specifico da installare sulla scheda.

La versione 4.2 Cloud di Domus è disponibile su GitHub.

schermata-2016-11-24-alle-14-27-59

Internet of Things: qual è il vero impatto sul business?

di Dan Pejeroni [Infosphere]

SAS, leader mondiale degli Analytics, si concentra sulle esperienze compiute in Europa da 75 gruppi di lavoro in svariati settori di mercato che hanno implementato queste tecnologie

senza-titolo

Mentre molti studi stanno ancora esplorando il potenziale teorico dell’Internet of Things, gli early adopters hanno già acquisito una rilevante esperienza. SAS, leader mondiale degli Analytics, si concentra sulle esperienze già compiute in Europa da 75 gruppi di lavoro, in svariati settori di mercato che hanno implementato queste tecnologie con diversi obiettivi.

Il mercato attende che l’IoT raggiunga il mainstream entro il 2020 e il ritmo del cambiamento di un’economia sempre più digitale sta imponendo cicli di adozione più rapidi. Osservare gli insegnamenti degli erly adopter ci fornisce un punto di vista privilegiato.

Le interviste, con gli executive e i team leader, sono state strutturate per comprendere a quali obiettivi abbiano puntato i loro progetti, come siano stati sponsorizzati, dotati di risorse e rilasciati. Lo studio ha ricavato quattro punti chiave:

1 – L’obiettivo è quasi sempre sottostimato

L’immediata opportunità di una riduzione dei costi o di un inalzamento dei profitti sostiene gli specifici progetti IoT ma, non appena i nuovi dati cominciano a fluire, i potenziali impatti su altri workflow attraggono nuovi stakeholder e i fattori di successo vengono posti sotto pressione con l’inserimento di nuove esigenze. Questo è un inevitabile compromesso tra velocità e distanza. I team di progetto devono gestire le comunicazioni e le aspettative degli stakeholder, introducendo rigorosi phasing di progetto.

2 – La user experience definisce i risultati

L’IoT viene normalmente rilasciato ad un mondo che si aspetta che le informazioni vengano servite in formati comprensibili, sempre e ovunque. Questo significa che i team di progetto IoT devono considerare esattamente come ciascuno dei loro utenti target utilizzerà queste informazioni. Progettare pensando che la user experience sia il fattore critico di successo.

3 – Gli skill di data management e governance sono fondamentali

Sebbene il compito immediato dell’IoT sia quello di collegare lo scollegato, il valore è realizzato solo quando i dati sono analizzati e consumati. Il percorso dal sensore alla decisione è denso di data quality, data privacy, data management, analisi e distribuzione. I data manager devono essere coinvolti dagli esperti IoT già nelle fasi iniziali dei progetti.

4 – La maturità detta il valore

Lo studio ci offre un quadro sulla maturità degli Analytics all’interno delle organizzazioni. Il movimento Big Data necessita di frameworks di Analytics e di cooperazione orizzontale nell’organizzazione per identificare gli user case. L’IoT ha dimostrato di essere una più ampia e veloce manifestazione dei Big Data e richiede che le organizzazioni stesse investano risorse di leadership e management per superare gli ostacoli sul percorso che conduce alla maturità organizzativa degli Analytics.

Internet of Things ha molti (diversi) significati

Agli intervistati è stato chiesto cosa si aspettavano che l’Internet of Things avrebbe potuto rappresentare per i loro clienti e concorrenti. Data la sua ampia applicabilità, le risposte sono cadute in ben 17 diverse categorie, confermando la grande varietà di significati attribuiti all’IoT dalle diverse società e dai diversi settori industriali.

Una visione condivisa sui benefici futuri

In definitiva c’è stato un grande consenso sul vertice della classifica dei risultati attesi dall’introduzione di questa tecnologia: oltre il 40% degli intervistati ritiene che comporti una maggiore efficienza operativa e più di un terzo, circa il 36%, una migliore user experience. Se questa sia già esperienza o rappresenti solo speranze e ambizioni, resta ancora da accertare. Probabilmente sarà un mix tra le due, implicando una tecnologia ancora relativamente nuova e non completamente sperimentata. L’ambito condiviso della visione, tuttavia, è notevolmente costante. Era forse prevedibile che l’opinione si dividesse su chi possa maggiormente beneficiare delle implementazioni IoT: l’organizzazione o i clienti. Può essere difficile separare i benefici, poiché le due componenti sono strettamente intrecciate e una maggiore enfasi sulla esperienza cliente significa che i benefici per l’organizzazione spesso diventano anche vantaggi per i clienti.

Sono emerse anche altre tre categorie supportate da almeno un quarto degli intervistati: circa il 29% di questi ha dichiarato che l’IoT favorirebbe la definizione di nuovi prodotti e servizi o un miglioramento degli esistenti. Poco più del 25% ritiene che l’utilizzo dell’IoT migliorerebbe il resource management.

La categoria meno popolare è stata infine la convenienza per i consumatori, collegabile alla convinzione che la user experience possa risultare migliorata e che una più ampia user experience comprenda un migliore rapporto qualità-prezzo.

Scarica il booklet completo (pdf)

SAS Analytics Experience 2016

di Dan Pejeroni [Infosphere]

From Internet of Things to Internet of Emotions

“La Digital Disruption – la Trasformazione Digitale – è ormai un fatto inevitabile e ogni organizzazione sarà costretta a dotarsi di un piano per gestirla”. Carl Farrell (Executive Vice President & Chief Revenue Officer di SAS) apre con queste parole la SAS Analytics Experience 2016, tenutasi a Roma dal 7 al 9 novembre scorsi.

analytics-experience-roma-2016

Oltre mille, tra professionisti dell’Information Technology, sviluppatori, esponenti delle maggiori testate specializzate, blogger e influencer del mondo digitale si sono riuniti nella sala grande del Marriot Hotel, per seguire su un palcoscenico, degno di un concerto rock, l’evento dell’anno su Big Data, Internet of Things e Analytics

img_20161109_092106
Jon Briggs

Jon Briggs, per trent’anni giornalista della BBC e oggi voce di Siri (l’assistente vocale di iPhone), con un’ironia squisitamente anglosassone, dialoga con Carl Farrell, che pone subito l’accento sulla punta di diamante degli Analytics di SAS: la piattaforma open Viya.

“Open” in quanto dedicata a tutte le tipologie di utenti, non solo professionali, aperta all’accesso alle applicazoni di terze parti e a tutti i linguaggi del momento, come Java e Python.

I mega screens e i subwoofer della macchina scenica di Analytics 2016 eruttano ancora immagini e musica mentre Randy Guard (Executive Vice President e Chief Marketing Officer di SAS), sale sul palco del Marriott.

Viya non solo per risolvere i problemi correnti, ma per crescere, perché “Analytics è un mercato in crescita”. Oggi le aziende non si chiedono “Perché dovrei usare Google Analytics?”, ma piuttosto “Come faccio a ottenere di più dei miei dati?”.

E’ il momento poi di Oliver Schabenberger (Executive Vice President e CTO). Nell’Internet of Things ogni dispositivo, ogni sensore raccoglie dati e “Analytics è dove sono i dati”, che siano dati live che scorrono in streaming, che storicizzati nei Data Lakes. Entrambe le fasi richiedono diversi approcci analitici ma, secondo il CTO, comunque richiedono analisi.

E’ la volta di Jim Zemlin, direttore esecutivo della Linux Foundation . “Tecnicamente, sono il capo di Linus Torvalds, anche se di fatto lui non mi ascolta mai”.

“C’è ancora troppo software da scrivere”, sostiene Zemlin e i programmatori di software tradizionale non riusciranno a tenere il passo richiesto dall’evoluzione dell’IoT. E’ indispensabile scrivere questo software insieme, dice e come esempio cita Linux: ogni giorno si aggiungono 10.800 linee di codice, 5300 vengono rimosse e 1875 modificate, in questo modo il sistema operativo è in grado di adattarsi rapidamente alle mutevoli condizioni e alle esigenze dei clienti.

Ma l’open source non sarà la fine del software proprietario, aggiunge Zemlin e propone una combinazione di entrambi i modelli. E’ già una realtà per molte software house e la maggior parte delle soluzioni sono rappresentate oggi da codice open source.

Utilizzando come un team di sviluppo esterno la comunità open source, si può ottenere un più rapido time-to-market . Il team di sviluppo proprietario dovrebbe prendersi cura solo di una piccola parte delle soluzioni, per creare caratteristiche differenzianti e quindi valore aggiunto. “Il futuro è open source“, conclude Zemlin.

David Shing, il profeta digitale che ha collaborato con AOL, irrompe sulla scena come uscito da un quadro di Pollock, con una criniera di capelli neri che sfumano al blu.

shingy
Dan Pejeroni e David Shing

Shingy supera il concetto di Internet of Things, per parlare di Internet of Emotions: “Servono capacità predittive per seguire i comportamenti umani, per capire le abitudini delle persone e soddisfare i loro bisogni senza imporli”.

“La tecnologia modifica i comportamenti ma non i bisogni”, aggiunge. “Senza i dati non c’è creatività, ma senza creatività non ci sono i dati. Così, anche se gli smartphone possono ormai fare quasi tutto, è necessario convincere gli utenti a scaricare le app”. Servono nuovi modelli di marketing, che tengano conto che “le persone comprano ancora dalle persone”.

L’intervento di Tamara Dull (Director of Emerging Technologies di SAS) è dominato da Alexa di Amazon, che campeggia a lungo sullo sfondo della scena. Ci parla dei rischi e delle opportunità dell’Internet of Things e della necessità di formazione per una generazione di data scientists in grado di utilizzare la potenza degli Analytics. Ci dice che l’IoT è un movimento e ci propone il suo IoT IQ Test.

tamara-dull
Tamara Dull (Director of Emerging Technologies di SAS)

Tamara prosegue poi a raccontare il suo punto di vista in sala stampa, rispondendo alle domande che giornalisti e blogger le rivolgono nel corso dell’attesa intervista. Abbiamo parlato a lungo di fattori che possono ostacolare o favorire la diffusione dell’Internet of Things, di standard, di privacy e del fatto che sia indispensabile inalzare i livelli di sicurezza dei protocolli di comunicazione dei Big Data.

Alla fine ho avuto l’opportunità di scambiare alcune battute con lei a proposito del lungo thread che avevo seguito nel 2015 sul blog SmartDataCollective dove Tamara e Anne Buff si sfidarono per oltre due mesi a colpi di pros e cons sul Data Lake Debate, con la mediazione di Jill Dychè e che si concluse con le considerazioni che: un Data Lake non è data warehouse, è caratterizzato da costi sensibilmente più bassi, permette l’uso di Advanced Analytics, ma che sarà necessario provvedere alla carenza di skills per un suo adeguato utilizzo.

L’Analytics Experience 2016 non è stata solo una full immersion nel mondo delle tecnologie informatiche, ma anche un incontro con l’arte. Mi sono ritrovato così, con il naso all’insù, nella Cappella Sistina ad ammirare la Sublime Infografica con cui Raffaello, Botticelli, Michelangelo e molti altri hanno realizzato la Biblia Pauperum, meglio definita come “teologia visiva”.

sistina
Cappella Sistina – La volta di Michelangelo

In fin dei conti un’enorme quantità di dati, che non si limitano a raccontare la storia del cristianesimo, ma che hanno rappresentato per più di cinque secoli un punto un riferimento culturale e sociale universale, attraverso il quale milioni di individui hanno condiviso un comune ideale spirituale, ma anche un’idea di società e di organizzazione.

Intellĭgo – Semantic Enterprise Content Manager (en)

di Dan Pejeroni [Infosphere]

EnIntellĭgo, intellĭgis, intellegi, intellectum, intellĭgĕre

tr. III coniug.| v. tr. III conjug.| tr. v. III conjug.

intendere (v.tr.); apprendere (v.tr.); capire (v.tr.); comprendere (v.tr.);  accorgersi (v.pron.); afferrare (v.tr.).


web-semanticoIn the last years, due to the revolution introduced by the mobile devices, we have witnessed a profound revolution of the web. The need to separate the content from its presentation has become a priority, if nothing else, to be able to adapt the format of the pages to the display capabilities of the different devices, which currently range from large information screens to huge advertising LCD, down to the tiny wearable devices, passing through the today ubiquitous smartphones and tablets. Furthermore, the independence of the content is a prerequisite for an efficient translation to suit the many languages and cultures , for an audience that has become global.

Even the Internet surfing habits of the users, in a web increasingly Google centric, are rapidly changing. In mobile devices, the apps have almost completely replaced the browser, enough to force the operators of specialized portals to develop apps and deliver their content to them. Even for this purpose, it is essential to have a pure content.

Tim Berners Lee , the father of the world wide web, launched in 2001 the idea of turning it into a large base of universal knowledge, introducing the concept of the semantic web. The idea was to replace in the web, the too rigid hyperlink, with semantic links applied to content and, above all, provide them with meaning.

In October 2014, with the publication by the W3C, of the recommendation on the HTML5, with the simultaneous adoption by the major browser developers and the Google search engine, materialized the concrete possibility to the realization of  the Lee’s dream.  In fact, HTML5 comes with a marked orientation to semantics , based on a new generation of meta tags : microdata which, if properly applied to the content, can give them meaning. But, again, you must have pure content.

rich-snippets-infoGoogle with the latest Hummingbird algorithm, uses semantic tags to produce much more precise SERPs, enhance the more valuable content and provide them to the users with related information and Snippets, which often make unnecessary the use of the website that hosts that content. Increasingly, instead of calling the url of a website to get information from it, we seek and obtain, directly from a Google search, the final information. This will move the focus from the web portal to the specific content (that is news , a sports result , the price of a product , the profile of a person or the history of a monument).

To take advantage from the opportunities that this incredible technological evolution is making available, we need pure content, to enrich with semantic information, to make them available in many languages, filtered according to the user’s profile and fit them, time to time, to his device.

The traditional CMS ( Content Management System), give little help in this area, as they are not able to operate such a precise distinction between the content and its presentation.

Intelligo was developed based on all these considerations and on this basis, to develop an engine for creation and management of quality content publishing, to be supplied to the traditional portals and websites , as well as to the apps of smartphones and tablets, using common REST services. The information can be enriched with micro data and linked data, filtered by rules and translated into all the languages of the world. The presentation can be applied using CSS3 style sheets . The Google search engine , thanks to the semantic microdata, is able to interpret in an optimal manner the content of Intelligo , providing best placements in SERP and controlled Snippets.

The Intelligo solution

Intelligo is a EMS (Enterprise Content Management) massively multilingual, designed to provide a complete separation between the content and their typographic or multimedia presentation. For the management of the structural aspects and graphics, it can operate in conjunction with leading open source CMS (WordPress , Drupal , Joomla). It also allows the content enrichment with semantic tags and microdata , according to the standards Schema.org and RDF .

diapositiva2
In Intelligo “the content is pure”, as being independent of fonts, colors, capital letters, as well as its translation in multiple languages and it is a value, as re-usable and meaningful. This feature is the base of the publishing and the web of the future (multimedia publishing and the semantic web), but even now it is possible to exploit the possibilities in terms SEO with Google, getting for our web pages, better SERP positioning and more effective snippets. In addition, the reuse of the meaningful sentences allows significant savings in term of costs for translations .

The visibility of the content in Intelligo can be controlled by rules that allow customization of the items based on the user profiles, as well as the management of business policies, rules and laws, by a interpretation engine applied to user questionnaires .

Intelligo Enterprise Server provides a convenient interface RESTful (based on REST or SOAP ) , which return the contents in XML , JSON and HTML5 to power apps and web portals .