SAS Analytics Experience 2017

Gli Analytics conquistano l’Edge Computing

moven

Si conclude oggi SAS Analytics Experience 2017, la più importante convention europea del colosso degli analytics. Molti gli speakers che si sono succeduti sul palco del centro congressi del Mövenpick di Amsterdam, in un clima estivo che non ha fatto rimpiangere le ottobrate romane. La kermesse è stata moderata da Jon Briggs (il noto giornalista della BBCe ITN) che, con la sua consueta simpatia, ha portato quel briciolo di humor anglosassone, a cui siamo ormai abituati.

A parte le figure istituzionali della corporation (Jim Goodnight, Fritz Lehman, Randy Guard e Oliver Shabenberger), la prima giornata è stata quasi monopolizzata dal tema: come le nuove tecnologie possono supportare le iniziative umanitarie. In primo piano il principe Pieter-Christiaan Michiel della Dutch Royal Family, ieri in veste di Vice Chairman del board della Croce Rossa olandese.

1426461406823

La scena di oggi è stata invece indubbiamente dominata dalla spontaneità di Hannah Fry (relatrice presso Mathematics of Cities al Centre for Advanced Spatial Analysis dell’UCL), che ha presentato una selezione di curiose analisi statistiche, dimostrando le spettacolari prospettive della (big) data analysis applicata.

Jim Goodnight Utilizzare gli analytics per essere “disruptors” e non “disrupted”

“Così come la nascita di Internet ha cambiato il mondo modificando praticamente ogni aspetto della nostra società, gli Analytics hanno oggi il potenziare di fare lo stesso”. Jim Goodnight, fondatore e CEO di SAS, apre così l’Analytics Experience 2017 di Amsterdam.

Goodnight

Ci parla dell’impatto della nascente Economia Analitica attraverso i vari settori di mercato. Le più importanti tendenze convergono, come l’automazione interconnessa e l’intelligenza artificiale. “È alimentata da una apparentemente infinito flusso di dati ed è nutrita dalla nuova democrazia degli Analytics”, sostiene.

Il valore real-time degli Analytics risiede nei milioni di micro-momenti che offrono “opportunità per le organizzazioni di prendere decisioni e stabilire nuove connessioni per andare avanti o restare indietro”. L’economia analitica ci porta in una nuova era di cambiamenti, alcuni positivi, altri che possono risultare veramente distruttivi.

 

Randy Guard: Gli Analytics guidano il valore dell’Internet of Things

L’intervento più atteso di oggi è stato quello di Randy Guard (VP e CMO di SAS), che ci ha offerto uno sguardo sullo stato dell’arte della fortunata convergenza tra IoT (Internet of Things) e Analytics.

Randy

Randy inizia la sua presentazione con due esempi, molto suggestivi: gli Smart Pills (i medicinali intelligenti), che supportano i pazienti nelle loro terapie. Questi sensori inghiottibili sono in grado di monitorare i pazienti nell’assunzione di farmaci e controllare successivamente la loro efficacia nel corso del regime terapeutico.

Il secondo case riguarda minuscoli dispositivi che possono essere posizionati sul corpo delle api per tentare di risolvere il mistero che sta dietro al declino della loro popolazione. Questi dispositivi possono memorizzare il tempo e la distanza percorsa dall’insetto quando si allontana dal proprio alveare, monitorare la loro dieta, le condizioni ambientali a cui sono sottoposte e la loro esposizione a pesticidi e inquinamento.

I settori di mercato come energy e manufacturing impiegano sensori da molto tempo. La novità è rappresentata oggi dalla pervesività dei dispositivi connessi, il loro numero è incredibilmente aumentato, al punto che ora abbiamo più dispositivi connessi che esseri umani. Pensate a tutti gli apparecchi della vostra casa e moltiplicateli per tutti i consumatori del mondo, aggiungete i dispositivi industriali e beni a valore aggiunto come aerei e camion e avrete un’idea dell’impressionante esplosione dei dati disponibili.

Un’altra novità è la nostra abilità di fare analisi e prendere decisioni a livello di “edge” (sui dispositivi periferici, n.d.r.). Sensori, dispositivi di rete, sistemi di storage stanno rapidamente aumentando la loro potenza e la loro velocità rendendo possibile la comprensione dei dati nel momento stesso in cui vengono generati.

Le ecomonie sono guidate dal valore e nella analytics economy il valore dell’IoT deriva dalla scala. Come possiamo capitalizzare su questa opportunità? Non limitandoci a considerare la condizione di un singolo paziente o di una sola ape, ma focalizzando le nostre energie sull’effetto nella rete.

Utilizzando l’esempio della Smart Pill che migliora il trattamento di un paziente per volta, immaginate l’impatto sui costi sanitari di una nazione, quando tutti i pazienti contemporaneamente avranno una cura più efficace ed efficiente.

Possiamo capitalizzare questo tipo di valore se mettiamo gli analytics nel punto dove il dato viene prodotto. Connesso non significa necessariamente intelligente e connettività da sola non aggiunge valore. Sono gli analytics a guidare il valore dell’Internet of Things.

 

I risultati della survey sull’Artificial Intelligence

In occasione dell’Analytics Experience 2017 di Amsterdam è stato inoltre reso pubblico il risultato del recente studio realizzato da SAS, sullo stato dell’adozione delle tecnologie AI (Artificial Intelligence) da parte delle aziende europee.

La buona notizia è che molte tra le organizzazioni intervistate, hanno iniziato a parlare di AI, anche se poche hanno iniziato a implementare progetti reali. C’è molto ottimismo sul potenziale dell’AI, ma pochi sono confidenti che le loro organizzazioni siano pronte a sfruttare questo potenziale.

La lenta adozione dell’AI da parte delle aziende, non pare sia imputabile alla carenza di tecnologie disponibili, quanto ad una diffusa difficoltà a reperire competenze di data science da impiegare nei progetti, nonché a profondi ostacoli organizzativi.

Il 55% degli intervistati ritiene che la sfida più grande collegata all’AI sia rappresentata dal cambiamento che deve essere introdotto nell’organizzazione del lavoro
. L’adozione dell’AI implica una perdita di posti di lavoro, ma ha anche il potenziale di crearne di nuovi.

In seconda posizione compare la questione etica, con il 41% degli intervistati che si chiedono se robot e Intelligenze Artificiali dovrebbero lavorare per “il bene dell’umanità”, piuttosto che semplicemente per una singola azienda e la gestione dei posti di lavoro persi a causa della tecnologia.

Solo il 20% degli intervistati ritiene di avere pronti team di data scientist in grado di affrontare le sfide dell’AI, mentre il 19% non dispone per niente di queste competenze.

Il 28% ha in programma di assumere data scientist, mentre il 32% pensa di sviluppare queste competenze, attraverso corsi, conferenze e workshop, negli attuali team di analisti.

Quasi la metà degli intervistati ha fatto riferimento a sfide culturali, dovute alla mancanza di fiducia nei risultati prodotti dalle tecnologie AI e, più in generale, nelle soluzioni “scatola nera”.

Lo studio si è anche interrogato sulla maturità delle infrastrutture richieste per l’implementazione delle soluzioni AI. Il 24% degli intervistati ritene di disporre già di un’infrastruttura ottimale, un altro 24% pensa che sarà necessario aggiornare e adattare le attuali piattaforme, mentre il 29% non dispone per nulla di ambienti su cui far girare soluzioni AI.

“Abbiamo avuto dei progressi incredibili nel rendere le operazioni degli algoritmi accurate quanto solo un essere umano avrebbe potuto fare”, sostiene Oliver Schabenberger, Executive Vice President and Chief Technology Officer di SAS.

“È notevole che un algoritmo possa battere il miglior giocatore del mondo di Go. Pensavamo che questo gioco non potesse essere computerizzato dall’uomo, ma ora una macchina l’ha fatto per noi. Una volta che il sistema ha conosciuto le regole, ha imparato a giocare e ora lo fa meglio del migliore della nostra specie. Possiamo usare questa conoscenza per costruire sistemi che risolvono problemi di business, meglio di quanto possano fare i sistemi statici che utilizziamo oggi. Possiamo costruire sistemi che apprendono le regole del business e poi le usano per agire e migliorarsi. Questo è ciò su cui SAS sta lavorando”.

L’IoT non funzionerà senza Intelligenza Artificiale

Analytics Experience 2017: SAS esplora i trend delle imprese che innovano

Technology

Internet of Things (IoT) è un argomento sempre più di diffuso, al punto che l’interesse si è esteso al grande pubblico. In ambito aziendale nessuno mette più in discussione i benefici e le opportunità che derivano dall’utilizzo di queste tecnologie. La preoccupazione è piuttosto: come farle effettivamente funzionare.

L’IoT produrrà un tesoro di dati. Dati che potranno aiutare le città a evitare incidenti e crimini, consentire ai medici di ottenere in tempo reale le informazioni dei pacemaker e dei biochip dei pazienti, ottimizzare la produttività industriale attraverso la manutenzione preventiva di attrezzature e macchinari, creare case veramente intelligenti con apparecchi collegati e fornire comunicazioni critiche tra autovetture. Le opportunità offerte da IoT sono praticamente infinite.

La conseguenza della rapida affermazione di dispositivi e sensori collegati all’Internet delle Cose è un incredibile incremento del volume di dati che vengono da loro generati. Questi dati forniranno un prezioso punto di vista su cosa funziona bene e cosa no, fornendo una visione di alto valore su rischi e opportunità per aziende.

Tuttavia, il problema è trovare il modo per analizzare il diluvio di informazioni che tutti questi dispositivi creano. Cercare informazioni in terabyte di dati macchina è molto difficile. Con tecnologie tradizionali è impossibile riesaminare e comprendere questa massa di dati, in quanto richiederebbe troppo tempo.

Affinché l’IoT rispetti la sua promessa, è indispensabile migliorare la velocità e l’accuratezza dell’analisi dei dati. In caso contrario le conseguenze potrebbero essere disastrose. La tecnologia in grado di tenere il passo dei dati generati dall’IoT per ricavarne informazione e significato si chiama Machine Learning e si occupa della costruzione e dello studio di sistemi che apprendono dai dati stessi, piuttosto che seguire istruzioni esplicitamente programmate.

Sarà questo uno dei temi di Analytics Experience 2017, l’evento organizzato da SAS in programma ad Amsterdam dal 17 al 18 ottobre.

Durante l’evento internazionale, centinaia di esperti, thought leader, professionisti e manager si confronteranno sull’importante ruolo degli analytics nel costruire relazioni più forti con i clienti, combattere le frodi, gestire il rischio e migliorare i processi. Ed esploreranno i trend emergenti, come Machine Learning, Internet of Things, Intelligenza Artificiale e la nuova normativa in tema protezione dei dati (GDPR).

Ad Analytics Experience 2017, SAS presenterà i risultati della survey internazionale che vuol far luce sulla maturità delle imprese in ambito Intelligenza Artificiale.

Customer Intelligence: Il Marketing nell’Era Digitale

di Dan Pejeroni [Infosphere]

Come vincere la fiducia del consumatore in tre mosse con le strategie di marketing di ultima generazione: Listen, Understand, Act

customer-intelligence

Ogni giorno i clienti condividono una crescente quantità di informazioni su se stessi. Questa enorme massa giunge tumultuosamente alle aziende attraverso molteplici canali: dati destrutturati, comportamentali, demografici, storici e predittivi, che potrebbero fornire una visione sconfinata su cosa i clienti desiderano veramente.

Utilizzata correttamente, questa conoscenza ha il potenziale per fornire un valore inestimabile, tuttavia molte organizzazioni non sono in grado di approfittarne completamente: i dati sono spesso bloccati nei silos rappresentati dai sistemi legacy a cui risulta difficile accedere, sono incompleti, incosistenti e le organizzazioni stesse non dispongono delle conoscenze necessarie per ricavarne valore.

Sfruttando i potenti strumenti e metodologie di analisi dei dati e statistica oggi disponibili, il marketing è finalmente in grado di analizzare efficacemente i comportamenti e i desideri dei consumatori basandosi su informazioni certe e misurabili, per ottenere la tanto agognata fiducia del consumatore.

La Customer Intelligence si basa su tre fasi distinte: Listen, Understand e Act. SAS ne parla dettagliatamente in questo e-book.

  • L’ascolto permette di ottenere una visione unica e completa della customer base e una migliore strategia multicanale;
  • La comprensione, sfruttando strumenti e metodologie di Advanced Analytics, consente la rapida trasformazione delle interazioni digitali in previsioni di marketing orientate alla soddisfazione dei bisogni real-time dei clienti;
  • L’azione permette di indirizzare canali e campagne, outbound e inbound, in un unico flusso integrato per interagire con i clienti in tempo reale ed infine misurare e indirizzare offerte personalizzate a specifici segmenti di utenti.

Su questi temi, con la testimonianza di aziende ed esperti, SAS ha organizzato l’evento Data Driven Customer Journey, che si svolgerà a Milano il 27 Giugno presso Vodafone Theatre.

SAS Forum Milan 2017: AI – This Is Our Next Evolution Stage

Digital Trasformation, Analytics, Intelligenza Artificiale, Internet Of Things all’annuale forum di SAS

 

AI

“Ovunque ci siano dati, ci saranno gli analytics per dare valore alle informazioni e trasferirlo ai modelli di business”. Questa è la missione che Marco Icardi, SAS Regional Vice President, attribuisce a SAS. Si apre così al MiCo di Milano la grande convention sugli Analytics, l’Intelligenza Artificiale, L’Internet of Things e, più in generale, sulla Digital Transformation. Un luogo importante perché è da qui che nel 2013 era partita la sfida per “una cultura degli analytics”. In questi anni il tema è diventato una vera rivoluzione tecnologica che sta passando dall’avanguardia alla maturità.

Nel tempo in cui viviamo ogni cosa è collegata, quindi le vie di comunicazione non sono rappresentate esclusivamente dai canali digitali, anche se sicuramente sono quelle preferite dai millienial. In questo contesto gli analytics sono lo strumento per interpretare la realtà, ma l’analisi deve necessariamente essere condotta su canali multipli e soprattutto in tempo reale.

In questi ambiti l’Intelligenza Artificiale, che fa già parte degli strumenti di cui disponiamo, sta giocando un ruolo chiave, permettendoci di sfruttare le nostre capacità adattative.

Ma ci avverte Marco: è necessario agire ora, perché poi potrebbe essere troppo tardi. “E’ necessario partire dal presente per esplorare il possibile” e ci indica i tre percorsi fondamentali della digital transformation: innovazione, sviluppo delle competenze e apertura. Con apertura si riferisce sia alla piattaforma Viya, in quanto cloud e open source, sia all’atteggiamento verso gli oltre sessanta partner con cui SAS collabora.

Maurizio Melis, giornalista scientifico che conduce su Radio 24 il programma Smart City, chiude con qualche battuta l’intervento di Icardi, mentre sul palco viene attrezzata la pedana per un vero e proprio match di fioretto. Ospite d’eccezione la campionessa olimpionica di scherma Margherita Grambassi, che si esibisce in un avvincente match con la nuova promessa della scherma azzurra Carlotta Ferrari.

Margherita
Margherita Grambassi intervistata da Emanuela Sferco

Destrezza e scelta del tempo sono fondamentali nella scherma, così come nelle scelte di ‪business e, in ultima analisi, nella vita. La scherma è uno sport di situazione, strategia e analisi, si calcolano i punti deboli dell’avversario in tempo reale, perché non è possibile seguire uno schema strategico predefinito, il fattore umano prevale. Una bella metafora che collega le parole di Margherita ai temi del convegno.

E’ quindi il momento di Oliver Schabenberger, Executive VP e  CTO SAS, che ci racconta le strategie di SAS a corollario degli analytics. Lo fa ballonzolando qua e la sul palco del MiCo, inforcando un luminescente overboard. Secondo Oliver, le tecnologie chiave del futuro sono: connettività, intelligenza artificiale, machine learning e automazione, ma sottolinea anche la Blockchain, che secondo noi è la tecnologia più rivoluzionaria dopo la stessa Internet, anche se ancora poco compresa dal mainstream. Ci parla poi di Edge-To-Enterprise IoT Analytics, la piattaforma sviluppata con il colosso del networking Cisco, per consentire alle aziende di distribuire sui vari livelli della rete gli analytics in base a criteri di volume, latenza e velocità.

Sas-Viya-Piattaforma

Protagonista indiscussa è poi sempre la piattaforma open SAS Viya, capace di abilitare l’analisi sui dati in streaming, il machine learning e reporting avanzato sui big data e sui dati in memory.

C’era grande attesa per l’intervento di Neil Harbisson, forse non proprio il primo cyborg

Neil-Harbisson
Neil Harbisson

della storia, ma sicuramente un personaggio molto stimolante. Pittore, compositore e fotografo, affetto da una rara patologia che gli impedisce di percepire i colori, è dotato di una speciale antenna impiantata chirurgicamente nel cranio, che traduce i colori in suoni. Avete presente gli Snorkey? Ecco, Neil si presenta più o meno così.

 

E così un’oggetto giallo genera suono diverso da uno rosso e un’insalata produce una complessa armonia. Una nuova traduzione dell’esperienza. “La verità è che la tecnologia si evolve più velocemente rispetto alla capacità umana di digerire il cambiamento. Ritengo sia necessario fare cultura, educare e preparare l’individuo a vivere la trasformazione”.

Molto interessante infine l’intervento di Fabio Sbianchi, l’uomo che ha rivoluzionato i modelli assicurativi per l’auto con la sua Clear Box, un apparato dotato di sensori e GPS che, registrando percorsi e tempi d’uso, permette alle compagnie di assicurazione di ritagliare prodotti assicurativi su misura.

Anche quest’anno SAS Forum Milan si conferma un evento capace di catalizzare l’attenzione di esperti, professionisti, aziende, studenti e rappresentanti del mondo dell’informazione sui temi più attuali legati alla rivoluzione digitale e allo sviluppo delle tecnologie che la abilitano.

 

 

 

 

SAS Forum Milan 2017: Analytics drives Everything

di Dan Pejeroni [Infosphere]

Schermata 2017-04-03 alle 20.39.29

La Digital Transformation, fino a poco tempo fa forse solo uno slogan aziendale, è diventata finalmente realtà e continuerà a guadagnare terreno nei prossimi anni. In azienda, la figura del Data Scientist diventerà il collante sociale che costringerà i team di business e tecnologia a lavorare in stretta collaborazione, perché i team responsabili dei dati continueranno a scoprire forti correlazioni tra le metriche di business e quelle tecniche.

L’Intelligenza Artificiale (AI) e il Machine Learning (ML) passeranno dalla teoria agli ambienti di business fornendo risposte mirate a problemi concreti. AI e ML saranno un punto chiave, perché i dati sono diventati troppi, il tempo limitato e sarà impossibile elaborarli manualmente. Machine Learning porterà valore, risparmio di tempo e maggiore comprensione delle dinamiche del business.

I prossimi anni saranno caratterizzati da costante cambiamento e i Data Analytics rappresenteranno il faro per le organizzazioni che navigano in acque inesplorate. In un’economia iper-competitiva, sistemi, applicazioni e pagine web meno performanti saranno più facilmente identificati, aiutando il Marketing e l’IT a prepararsi agli eventi critici.

La Data Analysis assumerà sempre maggior valore per le organizzazioni digitali, fornendo loro supporto per intuizioni significative che rivelano abitudini di acquisto dei consumatori, preferenze e comportamenti.

Di questi e altri temi, si occuperà la XII edizione di SAS Forum Milan, l’appuntamento annuale durante il quale ospiti, esperti internazionali e keynote speaker si confronteranno sul futuro degli analytics, sulle nuove frontiere dell’Internet of Things e sull’evoluzione dell’intelligenza artificiale.

“Stiamo vivendo un cambiamento epocale, in cui la convergenza tra fisico e digitale è ormai compiuta. Generiamo quotidianamente un patrimonio informativo d’inestimabile valore che ora, opportunamente gestito, permetterà di avvicinare l’uomo alla comprensione totale del mondo” afferma Emanuela Sferco, SAS Regional Marketing Director, “Oggi gli analytics guidano ogni cosa e occorrono nuovi strumenti per padroneggiare, tradurre e trasformare i dati con modalità innovative che liberino nuove forme di valore”.

Grazie al contributo di esperti, clienti, partner e Università, verranno esplorate tutte le potenzialità e gli strumenti degli analytics, in molteplici aree applicative. Dalla digitalizzazione dei processi a una customer experience sempre più personalizzata, dalla gestione del dato come elemento di differenziazione alla sua regolamentazione, dall’adeguamento alle normative in ambito rischio alla gestione delle frodi, dall’Internet of Things all’Analytics of Things.

Studenti universitari, degli istituti superiori e neo laureati potranno inoltre raccogliere le testimonianze dirette dei protagonisti aziendali e accademici e assistere a sessioni specifiche dedicate alle professioni emergenti e alle digital skill nell’industria 4.0.

SAS Forum Milan è un appuntamento annuale di rilevanza internazionale rivolto ad aziende private ed enti pubblici, partner e mondo accademico. Riunisce ogni anno una community in continua espansione di manager e professionisti di tutti i settori di mercato, favorendo innovazione, crescita manageriale e attività di networking. Un luogo dove esperti, manager e imprenditori presentano il loro approccio vincente, le sfide da affrontare e le strade da intraprendere tra cultura analitica e innovazione tecnologica.

Registratevi all’evento visitando il sito: SAS Forum Milan e tenete d’occhio L’hashstag ufficiale su Twitter: #SASForumMilan.

Lo Zen e la complessità dei dati

Data Strategy: gestione della qualità, coerenza e compliance dei dati aziendali

di Dan Pejeroni [Infosphere]

metropolis_at_night-wallpaper-960x600

Il fenomeno Internet of Things ha portato ad una nuova grande accelerazione nell’universo di dati che le organizzazioni devono controllare. Trarre profitto ed evitare le minacce provenienti da questa impensabile mole di dati è una sfida difficile da affrontare, senza un’efficace gestione.

Si parla molto oggi di Big Data e delle tecnologie che sovrintendono alle fasi di acquisizione e analisi (Data ingestion e Analytics), ma le problematiche relative alla standardizzazione, validazione e assicurazione sono spesso drammaticamente trascurate. Se i dati sono incompleti, duplicati e obsoleti le analisi che verranno prodotte dai sofisticati processi Analytics, Data Mining o Machine Learning saranno irrimediabilmente compromessi e non potranno che fornire analisi non corrispondenti alla realtà.

Di questo si occupa il Data Management che, per essere efficace, deve essere contestualizzato. I dati devono essere disponibili in modo definito, consistente, integrato e trasversale tra molteplici fonti. L’adozione di un sistema di Data Management limita il rischio di avere dati poco attendibili o non conformi in fase di analisi.

I processi necessari per garantire che i dati che vengono resi disponibili agli utenti siano efficaci, funzionali al raggiungimento degli obiettivi e possano effettivamente costituire un supporto per le decisioni strategiche sono:

  • Data Integration
  • Data Quality

La Data Integration è l’elemento base di un processo di Data Management, preposto alla standardizzazione dei dati, spesso provenienti da fonti diverse, per unificarne i risultati e aumentarne il valore. Ciò consente ad ogni nuovo dato che entra nel processo di analisi, non solo di aggiungersi alla quantità di informazioni già presenti, ma di moltiplicare il suo valore combinandosi con quelli attuali.

La Data Quality migliora l’affidabilità dei dati, certifica e governa le successive fasi di produzione e distribuzione dei dati. Si tratta del controllo qualità delle informazioni, che assicura che gli elementi che avranno un impatto decisivo sulle decisioni di business, siano corretti e completi.

 Ma la complessità della gestione dei dati non riguarda solo qualità e integrazione, ci sono anche aspetti normativi e di compliance piuttosto delicati. Il GDPR EU Personal Data Protection Act 2018 prescrive che ogni organizzazione operativa in uno o più paesi del EU debba rendersi compliant con la nuova direttiva entro la primavera del 2018. Le sanzioni rischiano di essere pesanti (da 20 milioni di euro o 4% del revenue complessivo).

Il Data Management è anche questo e punta a raggiungere l’agilità, l’accessibilità e la flessibilità necessarie per integrare tutti questi sforzi nella Data Strategy e ottenere un concreto governo dei dati.

A riguardo, segnalo un interessante evento di SAS Italy: SAS Road Show, il 7 febbraio a Milano e il 9 febbraio a Roma.

Data Science: il Paradigma Università – Impresa

SAS University Edition: La risposta alla carenza di Data Scientists nella partnership tra il leader tecnologico e la comunità accademica

data-magic

È stata definita dall’Harvard Business Review, la professione più sexy del XXI secolo. È la figura del Data Scientist.

Anche se l’affermazione può far sorridere, c’è una logica ed è tutta nell’elemento umano. Sicuramente c’è molta tecnologia nel campo della Data Science, ma i risultati che può fornire la fanno apparire come una forma di stregoneria. In un mondo sempre più caratterizzato da Social Network, IoT e Big Data, il Data Scientist è la persona in grado di dare un significato ai numeri. Il problema è che oggi pochi sono in grado di farlo, in quanto implica competenze che non si trovano spesso insieme. Richiede una rigorosa competenza nell’analisi dei dati e, allo stesso tempo, creatività per scoprire modelli e tendenze. Deve essere in grado di passare dal dettaglio al quadro generale.

Per le aziende di tutto il mondo, la caccia a questi professionisti è già iniziata perché, senza queste competenze, gli investimenti in IoT e Analytics non porteranno al risultato atteso: comprendere cosa stia accadendo oggi e prevedere cosa potrà accadere domani.

Secondo alcuni analisti, l’identikit del data scientist comporterebbe non meno di otto competenze di base e sicuramente tra queste ci sono informatica e statistica. Dalla posizione di leader tecnologico, SAS Italy – la business unit italiana di SAS Institute – ha dato il via al progetto SAS University Edition, finalizzato a sostenere il mondo accademico nella formazione sugli strumenti di Analytics dell’azienda. Il progetto SAS University è inserito all’interno del programma AnalyticsU ed è pensato per invertire il gap di competenze.

Ci siamo chiesti quale sia stata la risposta delle università italiane. Se abbiano raccolto la sfida e come abbiano adattato la loro offerta a questo scenario.

Abbiamo intervistato il prof. Massimo Attanasio, docente di Statistica Sociale all’Università di Palermo.

Prof. Attanasio, lei si occupa di statistica sociale. Qui c’è una buzzword: “sociale”. Ma sappiamo che questa disciplina esisteva prima che scoppiasse il fenomeno social network. La prima domanda che desidero porle è: se e come l’avvento dei Big Data abbia allargato range, obiettivi e aspettative di questo ambito accademico.

M.A: Per noi statistici, buona parte del lavoro è ancora basato su Small Data e sull’inferenza classica, costituita da campioni piccoli e grandi, comunque sempre campioni. Per pensare in termini Big Data, è indispensabile un cambio di paradigma. Noi, attraverso una serie di progetti e collaborazioni con aziende ed enti, stiamo affrontando questo tema molto attuale con casi di studio pratici. D’altra parte ritengo che questo argomento dovrà diventare assolutamente trasversale a tutti i corsi di studio.

I nuovi strumenti di analisi – in particolare gli Analytics – pensati specificamente per i Big Data, quanto incontrano le esigenze metodologiche dell’ambito scientifico della statistica di oggi?

M.A: Nella nostra e nelle altre facoltà c’è un vasto utilizzo del linguaggio open source R ma, d’altra parte, siamo utenti delle soluzioni SAS da oltre vent’anni. Rispetto a R, SAS si rivela un ambiente più intuitivo ed efficace. Nella maggior parte dei casi, le sue funzionalità ready-to-use sono più che sufficienti per affrontare il lavoro di routine. Per le esigenze della ricerca e delle relative pubblicazioni scientifiche, invece è opportuno approfondirne l’ambiente di programmazione per sfruttarne appieno la potenza.

Ci può dire qualcosa sulle modalità d’introduzione e utilizzo della piattaforma SAS nei suoi corsi? Oltre al software, ha avuto a disposizione documentazione utile a fini didattici? Come siete stati supportati da SAS in questo percorso? 

M.A: Come accennavo prima, SAS è presente in facoltà da molto tempo. L’anno scorso abbiamo organizzato una giornata di approfondimento con la dott.ssa Cinzia Gianfiori (SAS Academic Program manager), che ha avuto un grande successo. Da questo spunto è nata l’idea di mettere a disposizione degli studenti, che ne intravedono la valenza per la loro futura professione, un master che li porti alla certificazione. Da SAS abbiamo sempre avuto risposte puntuali.

Quali ambiti della statitistica – in particolare quella sociale – sono stati oggetto di lavoro presso la vostra facoltà? Ci può raccontare qualche caso pratico in cui SAS si è rivelato particolarmente efficace?

M.A: Con SAS abbiamo completato una ricerca sulla mobilità territoriale realizzata sui dati dell’ASN [l’archivio degli iscritti al sistema universitario italiano offerto dal MIUR, che contiene dati su immatricolazioni, iscrizioni e lauree di tutti gli atenei. n.d.r.], che sono di fatto Big Data.

Il Dipartimento di Matematica Attuariale, che utilizza da sempre il software R, sta estendendo le proprie competenze anche agli Analytics di SAS, per poter collaborare con l’IVASS [Istituto per la Vigilanza sulle Assicurazioni che garantisce la stabilità del mercato assicurativo, n.d.r]. L’Ente mette a disposizione del progetto i Big Data delle assicurazioni sui sinistri, che vengono correlati con le informazioni relative alla mobilità universitaria del Miur.

Poi c’è una collaborazione col sistema bancario, che ha connotazioni fortemente sociali, in quanto ha a che fare con le caratteristiche individuali dei clienti e le loro transazioni.

Si parla oggi con molta insistenza della carenza, per le aziende che intraprendono la strada della digital transformation, di skill per l’analisi sui dati. I data scientists (ecco un altra buzzword). Qualcuno ha definito questo mestiere, come il più sexy del momento (e del futuro). I vostri corsi formano effettivamente data scientists?

M.A: Con la prof. Ornella Giambalvo, abbiamo lanciato un Master per Big Data Scientists, rivolto ai laureati magistrali in statistica e in altri corsi di laurea (come Economia e Finanza e Ingegneria Informatica), dove SAS è assolutamente protagonista. Il corso, che sta avendo un grande successo, punta alla sintesi fra studio dei fondamenti della data science e lavoro sul campo in progetti concreti rivolti all’uso creativo dei Big Data per l’innovazione. Si tratta di un percorso a forte vocazione professionale che coinvolge oltre a SAS, Unicredit e Istat. Inoltre, in tutti i corsi di laurea magistrale è stata inserita la materia Big Data. Ritengo che il Data Scientists che proviene da una formazione statistica, rispetto a chi ha una background prevelentemente informatico, abbia una marcia in più dove sia necessario trarre conclusioni dalle relazioni che si esistono tra le variabili.

Ringraziando il prof. Attanasio, concludiamo con un dato: l’ecosistema dei dispositivi connessi genera più di 2,5 quintilioni di byte al giorno. Questa enorme massa di informazioni avrà un impatto significativo sui processi di business e la Data Science assumerà un ruolo sempre più centrale. L’uso creativo di questi dati consentirà alle aziende, in ogni settore di mercato, di ottimizzare molti aspetti della loro attività, creando un’ondata di nuove idee in grado di rivoluzionare ogni settore e creare nuovi rami del sapere che avranno un profondo impatto sull’umanità.

Scarica SAS University Edition

Intellĭgo – Semantic Enterprise Content Manager (en)

di Dan Pejeroni [Infosphere]

EnIntellĭgo, intellĭgis, intellegi, intellectum, intellĭgĕre

tr. III coniug.| v. tr. III conjug.| tr. v. III conjug.

intendere (v.tr.); apprendere (v.tr.); capire (v.tr.); comprendere (v.tr.);  accorgersi (v.pron.); afferrare (v.tr.).


web-semanticoIn the last years, due to the revolution introduced by the mobile devices, we have witnessed a profound revolution of the web. The need to separate the content from its presentation has become a priority, if nothing else, to be able to adapt the format of the pages to the display capabilities of the different devices, which currently range from large information screens to huge advertising LCD, down to the tiny wearable devices, passing through the today ubiquitous smartphones and tablets. Furthermore, the independence of the content is a prerequisite for an efficient translation to suit the many languages and cultures , for an audience that has become global.

Even the Internet surfing habits of the users, in a web increasingly Google centric, are rapidly changing. In mobile devices, the apps have almost completely replaced the browser, enough to force the operators of specialized portals to develop apps and deliver their content to them. Even for this purpose, it is essential to have a pure content.

Tim Berners Lee , the father of the world wide web, launched in 2001 the idea of turning it into a large base of universal knowledge, introducing the concept of the semantic web. The idea was to replace in the web, the too rigid hyperlink, with semantic links applied to content and, above all, provide them with meaning.

In October 2014, with the publication by the W3C, of the recommendation on the HTML5, with the simultaneous adoption by the major browser developers and the Google search engine, materialized the concrete possibility to the realization of  the Lee’s dream.  In fact, HTML5 comes with a marked orientation to semantics , based on a new generation of meta tags : microdata which, if properly applied to the content, can give them meaning. But, again, you must have pure content.

rich-snippets-infoGoogle with the latest Hummingbird algorithm, uses semantic tags to produce much more precise SERPs, enhance the more valuable content and provide them to the users with related information and Snippets, which often make unnecessary the use of the website that hosts that content. Increasingly, instead of calling the url of a website to get information from it, we seek and obtain, directly from a Google search, the final information. This will move the focus from the web portal to the specific content (that is news , a sports result , the price of a product , the profile of a person or the history of a monument).

To take advantage from the opportunities that this incredible technological evolution is making available, we need pure content, to enrich with semantic information, to make them available in many languages, filtered according to the user’s profile and fit them, time to time, to his device.

The traditional CMS ( Content Management System), give little help in this area, as they are not able to operate such a precise distinction between the content and its presentation.

Intelligo was developed based on all these considerations and on this basis, to develop an engine for creation and management of quality content publishing, to be supplied to the traditional portals and websites , as well as to the apps of smartphones and tablets, using common REST services. The information can be enriched with micro data and linked data, filtered by rules and translated into all the languages of the world. The presentation can be applied using CSS3 style sheets . The Google search engine , thanks to the semantic microdata, is able to interpret in an optimal manner the content of Intelligo , providing best placements in SERP and controlled Snippets.

The Intelligo solution

Intelligo is a EMS (Enterprise Content Management) massively multilingual, designed to provide a complete separation between the content and their typographic or multimedia presentation. For the management of the structural aspects and graphics, it can operate in conjunction with leading open source CMS (WordPress , Drupal , Joomla). It also allows the content enrichment with semantic tags and microdata , according to the standards Schema.org and RDF .

diapositiva2
In Intelligo “the content is pure”, as being independent of fonts, colors, capital letters, as well as its translation in multiple languages and it is a value, as re-usable and meaningful. This feature is the base of the publishing and the web of the future (multimedia publishing and the semantic web), but even now it is possible to exploit the possibilities in terms SEO with Google, getting for our web pages, better SERP positioning and more effective snippets. In addition, the reuse of the meaningful sentences allows significant savings in term of costs for translations .

The visibility of the content in Intelligo can be controlled by rules that allow customization of the items based on the user profiles, as well as the management of business policies, rules and laws, by a interpretation engine applied to user questionnaires .

Intelligo Enterprise Server provides a convenient interface RESTful (based on REST or SOAP ) , which return the contents in XML , JSON and HTML5 to power apps and web portals .

Intellĭgo – Semantic Enterprise Content Manager (it)

di Dan Pejeroni [Infosphere]

IT Intellĭgo, intellĭgis, intellegi, intellectum, intellĭgĕre

tr. III coniug.| v. tr. III conjug.| tr. v. III conjug.

intendere (v.tr.); apprendere (v.tr.); capire (v.tr.); comprendere (v.tr.);  accorgersi (v.pron.); afferrare (v.tr.).


web-semantico

Negli ultimi anni, per effetto della rivoluzione introdotta dai dispositivi mobili, abbiamo assistito ad una profonda rivoluzione del web. L’esigenza di svincolare il contenuto dalla sua presentazione è diventata una priorità, se non altro per poter adattare i formati delle pagine alle capacità di visualizzazione dei diversi dispositivi, che oggi vanno dai grandi pannelli informativi o pubblicitari LCD, fino ai minuscoli wearable device, passando attraverso gli ormai onnipresenti smartphone e tablet. Inoltre l’indipendenza dei contenuti è prerequisito per una efficiente traduzione per adattarli alle innumerevoli culture, di un audience divenuto ormai globale.

Anche le abitudini di consultazione degli utenti, in un web sempre più Google centrico, stanno rapidamente mutando. Nei dispositivi mobili le app hanno quasi completamente sostituito il browser, tanto da costringere i gestori di portali specialistici a mettere a disposizione anche le relative app. Anche per questo scopo, è indispensabile disporre di contenuti puri.

Tim Berners Lee, il padre del world wide web, lanciò nel 2001 l’idea di trasformarlo in una grande base della conoscenza universale, introducendo il concetto di web semantico. L’idea era quella di sostituire la ragnatela costituita dai troppo rigidi hyperlink, con collegamenti semantici applicati ai contenuti e soprattutto, dotarli di significato.

A ottobre 2014, con la pubblicazione da parte del consorzio W3C, della raccomandazione sul linguaggio HTML5, con la sua contestuale adozione da parte dei produttori di browser e dello stesso motore di ricerca Google, si è determinata la concreta possibilità di realizzare il sogno di Lee. Infatti, HTML5 arriva con un marcato orientamento alla semantica, basato su una nuova generazione di meta tag: i microdati che, se opportunamente applicati ai contenuti, possono conferire loro il significato. Ma ancora una volta è necessario disporre di contenuti puri.

rich-snippets-infoGoogle con il recentissimo algoritmo Hummingbird, utilizza i tag semantici per produrre SERP molto più precise, valorizzare i contenuti di maggior pregio e fornire agli utenti informazioni correlate e Snippet, che rendono spesso superfluo il ricorso al website che le ospita. Sempre più spesso, invece di richiamare l’url di un sito per ottenere informazioni, cerchiamo ed otteniamo, direttamente da una ricerca Google, quell’informazione. Questo sposterà il focus dal portale al singolo contenuto (che sia una notizia, un risultato sportivo, il prezzo di un prodotto, il profilo di una persona o la storia di un monumento).

Per cogliere le opportunità che questa incredibile evoluzione tecnologica ci sta mettendo a disposizione, servono contenuti puri, da arricchire con informazioni semantiche, per poterli rendere disponibili in molte lingue, filtrati in base al profilo dell’utente ed adattati volta per volta al suo dispositivo.

Le soluzioni CMS (Content Management System) e WCM (Web Content Management) tradizionali, siano di mercato, che open source aiutano poco in questo ambito, in quanto non sono in grado di operare una così spinta distinzione dei contenuti dalla presentazione.

Intelligo nasce da queste considerazioni e su queste basi, per realizzare un motore per la creazione e la gestione di contenuti di qualità editoriale, da erogare ai tradizionali portali e siti web, così come alle app, utilizzando comuni servizi REST. Le informazioni possono essere arricchite da microdati, filtrate da regole e tradotte in tutte le lingue del mondo. La presentazione può essere applicata mediante fogli stile CSS3. Il motore di ricerca Google, grazie ai microdata semantici, è in grado di interpretare in maniera ottimale i contenuti di Intelligo, fornendo posizionamenti migliori e snippet controllati.

La soluzione Intellĭgo

Intelligo è un ECM (Enterprise Content Management) per il web semantico, massivamente multilingua e progettato per fornire una completa separazione tra i contenuti e la loro presentazione tipografica o multimediale. Inoltre permette l’arricchimento dei contenuti stessi con tag semantici e microdata, secondo gli standard Schema.org ed RDF.

diapositiva2

In Intelligo il contenuto è puro, in quanto indipendente da font, colori, lettere maiuscole, così come dalla sua traduzione in una più lingue e costituisce un valore, in quanto riutilizzabile e dotato di significato. Questa caratteristica rappresenta la base dell’editoria e del web del futuro (l’editoria multimediale e il web semantico), ma già da oggi è possibile sfruttarne le possibilità in termini SEO con Google, ottenendo per le proprie pagine web, migliori posizionamenti di ricerca e snippet più efficaci. Inoltre il riutilizzo delle “frasi a senso compiuto” permette di realizzare risparmi significativi nei costi per le traduzioni.

La visibilità dei contenuti in Intellĭgo è controllata da regole che permettono la personalizzazione degli articoli in base a profili utente, così come la gestione di business policy, norme e leggi, mediante un motore di interpretazione applicato a questionari utente.

Intellĭgo Enterprise Server fornisce una comoda interfaccia RESTful (basata su servizi REST o SOAP), che restituiscono i contenuti in formato XML, JSon o HTML5 per l’alimentazione di app e portali web.

Smart Country e la società multietnica

Senza titoloLa Pubblica Amministrazione italiana sta vivendo un momento di profonda mutazione, in risposta ad una altrettanto radicale trasformazione del tessuto sociale del Paese.

Immigrazione, globalizzazione, informatizzazione, delocalizzazione, integrazione sono solo alcuni dei grandi temi che ci troviamo a fronteggiare: possono rappresentare problemi o opportunità. Dipende da come sapremo affrontarli.

La drammatica congiuntura finanziaria che ha coinvolto buona parte dei paesi industrializzati, ci obbliga a rivedere la spesa pubblica e, nello stesso tempo, razionalizzare servizi ai cittadini, privati ormai di risorse, ma che costituiscono una condizione essenziale per la ripresa e lo sviluppo sostenibile.

Uno dei fattori chiave è nell’utilizzo delle nuove tecnologie, che rappresentano l’alfabetizzazione del nuovo millennio: non solo tablet e smartphone, ma anche terminali self service e call center, non solo social network e p2p, ma anche e soprattutto cloud aziendali e reti di servizi al pubblico.

I fenomeni di immigrazione, stanno inoltre trasformando il profilo demografico italiano del’900 irreversibilmente in multietnico. Per non subire questa Babele, in attesa della auspicabile integrazione linguistica e culturale dei nuovi cittadini, lavoratori e famiglie, ad opera della Istruzione Pubblica e privata, disponiamo già da oggi di software e dispositivi per abbattere le barriere interculturali.

Sulla base di queste considerazioni ho creato Intelligo, un ECM (Enterprise Content Management) semantico massivamente multilingua.