SAS Analytics Experience 2017

Gli Analytics conquistano l’Edge Computing

moven

Si conclude oggi SAS Analytics Experience 2017, la più importante convention europea del colosso degli analytics. Molti gli speakers che si sono succeduti sul palco del centro congressi del Mövenpick di Amsterdam, in un clima estivo che non ha fatto rimpiangere le ottobrate romane. La kermesse è stata moderata da Jon Briggs (il noto giornalista della BBCe ITN) che, con la sua consueta simpatia, ha portato quel briciolo di humor anglosassone, a cui siamo ormai abituati.

A parte le figure istituzionali della corporation (Jim Goodnight, Fritz Lehman, Randy Guard e Oliver Shabenberger), la prima giornata è stata quasi monopolizzata dal tema: come le nuove tecnologie possono supportare le iniziative umanitarie. In primo piano il principe Pieter-Christiaan Michiel della Dutch Royal Family, ieri in veste di Vice Chairman del board della Croce Rossa olandese.

1426461406823

La scena di oggi è stata invece indubbiamente dominata dalla spontaneità di Hannah Fry (relatrice presso Mathematics of Cities al Centre for Advanced Spatial Analysis dell’UCL), che ha presentato una selezione di curiose analisi statistiche, dimostrando le spettacolari prospettive della (big) data analysis applicata.

Jim Goodnight Utilizzare gli analytics per essere “disruptors” e non “disrupted”

“Così come la nascita di Internet ha cambiato il mondo modificando praticamente ogni aspetto della nostra società, gli Analytics hanno oggi il potenziare di fare lo stesso”. Jim Goodnight, fondatore e CEO di SAS, apre così l’Analytics Experience 2017 di Amsterdam.

Goodnight

Ci parla dell’impatto della nascente Economia Analitica attraverso i vari settori di mercato. Le più importanti tendenze convergono, come l’automazione interconnessa e l’intelligenza artificiale. “È alimentata da una apparentemente infinito flusso di dati ed è nutrita dalla nuova democrazia degli Analytics”, sostiene.

Il valore real-time degli Analytics risiede nei milioni di micro-momenti che offrono “opportunità per le organizzazioni di prendere decisioni e stabilire nuove connessioni per andare avanti o restare indietro”. L’economia analitica ci porta in una nuova era di cambiamenti, alcuni positivi, altri che possono risultare veramente distruttivi.

 

Randy Guard: Gli Analytics guidano il valore dell’Internet of Things

L’intervento più atteso di oggi è stato quello di Randy Guard (VP e CMO di SAS), che ci ha offerto uno sguardo sullo stato dell’arte della fortunata convergenza tra IoT (Internet of Things) e Analytics.

Randy

Randy inizia la sua presentazione con due esempi, molto suggestivi: gli Smart Pills (i medicinali intelligenti), che supportano i pazienti nelle loro terapie. Questi sensori inghiottibili sono in grado di monitorare i pazienti nell’assunzione di farmaci e controllare successivamente la loro efficacia nel corso del regime terapeutico.

Il secondo case riguarda minuscoli dispositivi che possono essere posizionati sul corpo delle api per tentare di risolvere il mistero che sta dietro al declino della loro popolazione. Questi dispositivi possono memorizzare il tempo e la distanza percorsa dall’insetto quando si allontana dal proprio alveare, monitorare la loro dieta, le condizioni ambientali a cui sono sottoposte e la loro esposizione a pesticidi e inquinamento.

I settori di mercato come energy e manufacturing impiegano sensori da molto tempo. La novità è rappresentata oggi dalla pervesività dei dispositivi connessi, il loro numero è incredibilmente aumentato, al punto che ora abbiamo più dispositivi connessi che esseri umani. Pensate a tutti gli apparecchi della vostra casa e moltiplicateli per tutti i consumatori del mondo, aggiungete i dispositivi industriali e beni a valore aggiunto come aerei e camion e avrete un’idea dell’impressionante esplosione dei dati disponibili.

Un’altra novità è la nostra abilità di fare analisi e prendere decisioni a livello di “edge” (sui dispositivi periferici, n.d.r.). Sensori, dispositivi di rete, sistemi di storage stanno rapidamente aumentando la loro potenza e la loro velocità rendendo possibile la comprensione dei dati nel momento stesso in cui vengono generati.

Le ecomonie sono guidate dal valore e nella analytics economy il valore dell’IoT deriva dalla scala. Come possiamo capitalizzare su questa opportunità? Non limitandoci a considerare la condizione di un singolo paziente o di una sola ape, ma focalizzando le nostre energie sull’effetto nella rete.

Utilizzando l’esempio della Smart Pill che migliora il trattamento di un paziente per volta, immaginate l’impatto sui costi sanitari di una nazione, quando tutti i pazienti contemporaneamente avranno una cura più efficace ed efficiente.

Possiamo capitalizzare questo tipo di valore se mettiamo gli analytics nel punto dove il dato viene prodotto. Connesso non significa necessariamente intelligente e connettività da sola non aggiunge valore. Sono gli analytics a guidare il valore dell’Internet of Things.

 

I risultati della survey sull’Artificial Intelligence

In occasione dell’Analytics Experience 2017 di Amsterdam è stato inoltre reso pubblico il risultato del recente studio realizzato da SAS, sullo stato dell’adozione delle tecnologie AI (Artificial Intelligence) da parte delle aziende europee.

La buona notizia è che molte tra le organizzazioni intervistate, hanno iniziato a parlare di AI, anche se poche hanno iniziato a implementare progetti reali. C’è molto ottimismo sul potenziale dell’AI, ma pochi sono confidenti che le loro organizzazioni siano pronte a sfruttare questo potenziale.

La lenta adozione dell’AI da parte delle aziende, non pare sia imputabile alla carenza di tecnologie disponibili, quanto ad una diffusa difficoltà a reperire competenze di data science da impiegare nei progetti, nonché a profondi ostacoli organizzativi.

Il 55% degli intervistati ritiene che la sfida più grande collegata all’AI sia rappresentata dal cambiamento che deve essere introdotto nell’organizzazione del lavoro
. L’adozione dell’AI implica una perdita di posti di lavoro, ma ha anche il potenziale di crearne di nuovi.

In seconda posizione compare la questione etica, con il 41% degli intervistati che si chiedono se robot e Intelligenze Artificiali dovrebbero lavorare per “il bene dell’umanità”, piuttosto che semplicemente per una singola azienda e la gestione dei posti di lavoro persi a causa della tecnologia.

Solo il 20% degli intervistati ritiene di avere pronti team di data scientist in grado di affrontare le sfide dell’AI, mentre il 19% non dispone per niente di queste competenze.

Il 28% ha in programma di assumere data scientist, mentre il 32% pensa di sviluppare queste competenze, attraverso corsi, conferenze e workshop, negli attuali team di analisti.

Quasi la metà degli intervistati ha fatto riferimento a sfide culturali, dovute alla mancanza di fiducia nei risultati prodotti dalle tecnologie AI e, più in generale, nelle soluzioni “scatola nera”.

Lo studio si è anche interrogato sulla maturità delle infrastrutture richieste per l’implementazione delle soluzioni AI. Il 24% degli intervistati ritene di disporre già di un’infrastruttura ottimale, un altro 24% pensa che sarà necessario aggiornare e adattare le attuali piattaforme, mentre il 29% non dispone per nulla di ambienti su cui far girare soluzioni AI.

“Abbiamo avuto dei progressi incredibili nel rendere le operazioni degli algoritmi accurate quanto solo un essere umano avrebbe potuto fare”, sostiene Oliver Schabenberger, Executive Vice President and Chief Technology Officer di SAS.

“È notevole che un algoritmo possa battere il miglior giocatore del mondo di Go. Pensavamo che questo gioco non potesse essere computerizzato dall’uomo, ma ora una macchina l’ha fatto per noi. Una volta che il sistema ha conosciuto le regole, ha imparato a giocare e ora lo fa meglio del migliore della nostra specie. Possiamo usare questa conoscenza per costruire sistemi che risolvono problemi di business, meglio di quanto possano fare i sistemi statici che utilizziamo oggi. Possiamo costruire sistemi che apprendono le regole del business e poi le usano per agire e migliorarsi. Questo è ciò su cui SAS sta lavorando”.

Il mercato del lavoro è maturo per la digital transformation?

di Dan Pejeroni [Infosphere]

Com’è cambiato il mondo del lavoro, al di là del Job Atc; Di quali nuove tecnologie disponiamo oltre a LinkedIn; Anche il mondo delle agenzie per il lavoro sta per essere travolto dalla Uber-izzazione?


A partire dagli ormai lontani tempi della New Economy, ho avuto l’occasione di occuparmi dei modi in cui le tecnologie digitali e la rete cambiano i modelli di business in diversi settori di mercato.

I semi di questa straordinaria rivoluzione erano già stati sparsi nel 1999, da Shawn Fanning e Sean Parker, con la creazione di Napster, che ha avviato di fatto la “disruption” del mercato discografico e da Netflix, che avrebbe portato al clamoroso fallimento di Blockbuster nel novembre 2013.

Nel 2004 la nascita di Facebook ha inaugurato la Social Economy, che sarà consolidata definitivamente nel 2006 da Jack Dorsey, con Twitter. Il fenomeno Social sarebbe diventato negli anni seguenti un fiume in piena, ispirando, una nuova generazione d’imprenditori del mercato digital, alla distruzione dei vecchi modelli di business.

Dopo il mercato discografico e homevideo, la disruption si è estesa a ogni settore, causando molta preoccupazione – spesso ingiustificata – nel mondo delle piccole aziende, fino ai grandi gruppi industriali. Tutti in qualche modo si sono sentiti minacciati, o perlomeno stimolati a comprendere il fenomeno per coglierne le opportunità e valutarne i rischi potenziali per il loro business.

E il mondo del recruiting è maturo per la disruption?

La prima ondata: LinkedIn

Era inevitabile che la social economy travolgesse anche il mondo del lavoro e quindi le aziende che in qualche modo gli ruotano intorno. La situazione fino al 2003 era controllata dai colossi Monster e Stepstone. In Italia, qualche portale locale (Bancalavoro, Job24 e, un po’ più tardi, Infojobs), ne replicavano la formula. Si trattava di siti sui quali, le persone in cerca di lavoro, postavano i loro CV. D’altro canto, in questi database le agenzie per il lavoro – dietro sottoscrizione – pubblicavano gli annunci di lavoro e cercavano i candidati, per i loro clienti.

linkedin

Il primo contagio avviene ufficialmente il 5 maggio 2003, con la nascita di LinkedIn. Reid Hoffman e i colleghi di PayPal, Peter Thiel e Keith Rabois, sparigliano il tavolo di Monster e Stepstone, con un nuovo modello. Tutto social.

In poco più di un decennio, mandano in pensione il vecchio curriculum vitae, catturando oltre 380 milioni di utenti e diventando uno dei principali canali per le ricerche delle staffing agencies.

Il modello di business di LinkedIn si basa su tre fonti di introiti: la vendita di abbonamenti premium del servizio (27% dei ricavi), le hiring solution (41%) e le marketing solution (32%).

La seconda ondata: gli aggregatori

L’onda ormai inarrestabile e la mole di informazioni prodotta dalla galassia social networks (alcune stime parlano nel 2015 di oltre 1000 ExaBytes) determina, alla fine del primo decennio, l’avvento dei Big Data, evoluzione del concetto di Business Intelligence applicata allo studio dei comportamenti e alla previsioni dei fenomeni sociali.

A questo punto una dopo l’altra, nascono una serie di disruptor (per lo meno dell’ormai indebolito modello LinkedIn). Si tratta di soluzioni web-based che operano sui Big Data aggregando le informazioni disponibili sui social networks: Connectifier, Dice Open Web, Entelo, HiringSolved, TalentBin, Yatedo.

connect

Connectifier, fondata da due ex tecnici di Google, mette a disposizione un ambiente recruiter-side, progettato per combinare capacità di ricerca avanzata, big data, analytics e machine learning, per assistere le ricerche dei recruiter.

Si tratta del principale competitor di LinkedIn, anch’esso può contare su un database di circa 380 milioni di profili, ma sostiene di avere il 30% di data points in più per persona. Tutti i dati dei candidati sono indicizzati da sorgenti pubbliche in modo molto simile al modo di operare di Google e includono interessi, hobby, relazioni personali e professionali, nonché interazioni sui social networks.

Le informazioni presenti nei CV e profili raccolti dai siti di recruiting tradizionali, tendono a diventare rapidamente obsolete e comunque non rappresentano una vista inclusiva del candidato. L’approccio olistico di Connectifier va alla ricerca di come le persone interagiscono professionalmente, con chi si relazionano, se rispondono a domande nelle loro comunità o – nel caso dei programmatori – postano codice su GitHub.

OpenWeb, Entelo e HiringSolved utilizzano il medesimo schema operativo: aggregazione, big data e analytics, per fornire al recruiter una più agile ricerca dei candidati, che poi verranno convocati e intervistati con modalità tradizionali. Il focus delle soluzioni di questa categoria, è sui candidati introvabili poiché “passivi” – ovvero che non sono dichiaratamente alla ricerca di un nuovo lavoro.

HiringSolved propone inoltre la “Search by example”, una sorta di clonazione di un profilo campione, per cercarne altri con caratteristiche simili.

Yatedo, è il più immediato, in quanto permette la ricerca dei profili senza registrazione. E’ al centro oggi di molte polemiche e legate alla privacy, in quanto chi prova a digitare il proprio nome nel campo di ricerca (molto simile a Google) presente nella home page del loro sito, si trova sullo schermo un bel profilo, che non sapeva di avere e che di certo non aveva autorizzato a pubblicare.

La risposta di Monster, alla nuova ondata di aggregatori è invece rappresentata da TalentBin, che promette di trovare anche i profili tecnici più difficili.

Purtroppo al momento gli algoritmi di job matching (6Sense ranked matching di Monster, Top candidates for your job di LinkedIn, Quality of programming code di Gild), non sono ancora del tutto maturi.  Sfortunatamente il criterio di differenziazione per ciò che in definitiva porta all’assunzione è spesso personality-based, invece che skill-based. Abbiamo quindi a che fare con un criterio meno oggettivo di quello che utilizza Amazon per i propri prodotti.

Chi sta tentando di affrontare il problema è 10rule.com che, con una tecnologia cloud, tenta di misurare il capitale umano per creare un benchmark sui top 10% performers di ogni posizione professionale. Il processo prevede poi di procedere con l’assunzione di nuovi talenti e lo sviluppo delle risorse che fanno già parte dell’organizzazione aziendale, sulla base di questo stesso benchmark.

Vettery

L’ultima frontiera delle staffing agencies che sono considerate disruptor di successo, è quindi nello sfruttamento intensivo dei big data e dei migliori algoritmi di ranking, per accumulare tutte le informazioni disponibili sui migliori candidati (nuova scuola), per quindi affidarli a un gruppo di recruiter esperti, per contatto e ingaggio vis-a-vis (vecchia scuola). Questa è la filosofia di Vettery.

Quando Brett Adcock e Adam Goldstein erano analisti presso l’hedge fund Cedar Hill Capital, occupandosi del mercato staffing & headhunting, notarono che nel loro lavoro mancava qualcosa: la tecnologia. Quindi, a marzo 2013, decisero di assumere un team di otto programmatori e di creare Vettery, società specializzata nella ricerca di profili professionali per banche d’investimento, private equity, hedge funds e altre posizioni nell’alta finanza. Hanno successivamente esteso il loro raggio d’azione alla technology industry. Nel corso del 2014, sono riusciti a piazzare ben 100 posizioni, con lo sgomento dei recruiter tradizionali che, pur avendo utilizzato le stesse tecniche, si servivano di software tradizionale.

In pratica, Vettery sta al recruiting, come Uber sta al tradizionale mercato dei taxi. Combinando i big data con una piattaforma dove candidati e recruiter possono interagire in tempo reale, Vettery sta cercando di superare la concorrenza. Il loro principale punto di forza è costituito da un esteso database, che contiene i profili dei professionisti del mercato. Raccogliendo dati da molte fonti disponibili pubblicamente, Vettery è in grado di identificare efficacemente anche i candidati passivi.

Vettery inoltre raccoglie e correla informazioni da molte fonti non convenzionali, come università, scuole, circoli e centri di ricerca. Ad esempio detiene le biografie di ogni singolo analista che, nel 2014, ha completato con successo il corso di banking investment, presso le principali scuole del settore. Questi dati includono formazione, luogo di residenza ed informazioni dettagliate di ogni loro esperienza di lavoro.

Il curioso caso di ElevatedCarreers

Neil Clark Warren, consulente matrimoniale, fondò eHarmony nel 2000, quando si rese conto dei problemi di compatibilità in molte coppie che erano state sue clienti. Più di 600.000 utenti si sono sposati tra il 2000 e il 2012, con solo il 3.8% di divorzi, contro una media del 40-50% degli Stati Uniti.

ElevatedCarreers ha riutilizzato la tecnologia di compatibility matching di eHarmony, adattandola al matching tra candidati e aziende.

Elevated utilizza algoritmi predittivi che, sulla base delle informazioni contenute nei profili dei candidati, in quelli delle aziende e  nelle job description, cerca le migliori corrispondenze sulla base di tre tipi di compatibilità: skill, cultura e personalità.

Le soluzioni verticali: Gild

L’approccio di Gild è invece molto verticale e ha l’obiettivo di cambiare il modo in cui le software house assumono i programmatori. Ad oggi sono riusciti a classificare più di un milione di sviluppatori, in base alla qualità del codice che producono.

In questa industry, il sistema è essenzialmente pregiudiziale e la discriminazione è la norma: programmatori eccellenti, ma sprovvisti di diplomi prestigiosi, sono normalmente sepolti nella pila dei CV. Gild cerca di riportare la meritocrazia nel recruiting.

Il problema che LinkedIn non ha ancora risolto è l’impossibilità di stabilire chi è bravo e quanto bravo sia. Gild sembra aver trovato la soluzione a questo limite, almeno per gli sviluppatori di software. L’azienda ha lanciato ufficialmente uno strumento che analizza il codice che i programmatori sottopongono alle piattaforme open-source, come GoogleCode, SouceForce, Github e StackOverflow. Quindi classifica gli sviluppatori in base alla qualità del software che producono. L’idea è quella di proporre alle aziende che cercano programmatori il loro sistema di ranking.

Naturalmente può essere difficile dire cosa renda un certo codice migliore di un altro. Un indicatore chiave è la semplicità. Chi risolve un problema utilizzando relativamente poche, eleganti linee di codice, è generalmente considerato migliore. Gild guarda anche a quanto sia ben documentato, quanti lo riutilizzano e se sia stato accettato da progetti open-source di alto profilo, come Linux.

Le limitazioni comunque sono costituite dal fatto che Gild classifica solo sviluppatori che sottopongono il loro software alle piattaforme open source e molti talenti ancora non lo fanno, o non lo faranno mai. Inoltre, se può dire qualcosa a proposito della qualità del codice che la gente produce, Gild non potrà dire se un candidato è simpatico o affidabile. Queste informazioni devono essere ancora ricavate dalle interviste tradizionali.

Per ora, molte aziende utilizzano Gild in combinazione con i metodi tradizionali: i selezionatori cercano i programmatori su LinkedIn, quindi controllano la loro capacità di sviluppo con il sistema di ranking di Gild.

Nuovi orizzonti: il caso Somewhere

LinkedIn ha fornito la possibilità di mettere il CV online, rendendo questo processo più efficiente.  Ma, in un mondo dove le relazioni, la cultura e la forma sono più importanti del modo in cui si fa business, c’è l’urgente necessità di reinventare il modo in cui ci proponiamo o cerchiamo le nostre controparti.

Somewhere è una piattaforma visuale dove esporre il proprio lavoro e le proprie capacità.  Una specie di Pinterest per il business.

Tim Leberecht ha recentemente definito Somewhere una piattaforma di ricerca visuale per le imprese: “Somewhere rappresenta un emblematico cambiamento della natura del posto di lavoro. La nostra concezione del lavoro si è spostata da cartellino e qualifica professionale a “mentalità e narrazione”.

somewhere

La generazione dei millenial, in particolare vede il lavoro come un potente veicolo per trovare un significato alle loro vite. Somewhere illustra come stiamo procedendo con l’immagine contestuale e non lineare di noi stessi al lavoro. Il sito ridefinisce il lavoro come qualcosa di bello, come carriera in continua evoluzione e come identità professionale di persona fluida.

Somewhere punta ad aiutare i lavoratori della conoscenza a sostituire i loro CV tradizionali, con un diverso modo di rappresentare se stessi, in un contesto di business. Justin McMurray, cofondatore di Somewhere, osserva che la domanda di lavoro tradizionale si basa ancora su “quello che hai fatto”, non su “quello che fai” o “chi sei”.

Eravamo nella fase in cui le persone che non conoscevi approvavano le competenze di cui non disponevi” [cit. LinkedIn]. McMurray sostiene di aver fondato Somewhere, per “riportare le persone al centro e restituirgli la possibilità di raccontare le storie del proprio lavoro“. Ritiene che “il lavoro non dovrebbe negare la nostra umanità, ma dovrebbe accoglierla. Il lavoro è, più che mai, un fatto personale“.

Oltre il lavoro convenzionale: il fenomeno GitHub

github

Il posto di lavoro quindi sta diventando sempre più un’arena sociale, che un luogo per la produttività. Presso GitHub, la più grande comunità di sviluppatori open-source e code-sharing, quasi tutto il lavoro avviene remotamente. Nei primi tempi l’azienda non aveva nemmeno un ufficio fisico. Dopo aver adibito a headquarter un loft, l’azienda ne ha trasformato la gran parte in bar ed area per incontri dagli arredi stravaganti. Secondo la visione di Scott Chacon, cofoundatore e CIO di GitHub, il quartier generale è principalmente un social hub, non un luogo di lavoro.

La struttura di GitHub riconosce che la soddisfazione nel lavoro è un evento sociale, ampiamente basato sui momenti di condivisione.

Chacon sostiene che il fatto di essere costretti a essere una persona diversa durante le ore di lavoro, tende a non essere più accettato dalle nuove generazioni di lavoratori. Come sottolinea Stowe Boyd,  “Nel nostro modello, il lavoro non è un posto dove vai, è una cosa che fai. Sei tu“. Il lavoro della conoscenza può avvenire ovunque.

La rivoluzione del mondo del lavoro

Sotto queste spinte la job industry, sta subendo una completa trasformazione. Nello stesso modo in cui la nostra economia è cambiata attraverso i secoli scorsi, da agraria ad industriale ed infine a società dell’informazione, il ruolo delle risorse umane sta per essere completamente sovvertito.

Women At Arms

Un tempo le aziende avevano il completo controllo su attività e informazioni industriali, quindi non necessitavano di individui particolari. Henry Ford non aveva bisogno del miglior lavoratore in assoluto per la sua catena di montaggio. Per definizione, i lavoratori erano intercambiabili. Facendo un salto avanti di cento anni, Google dipende al 100% dalle persone, per innovazione, invenzione e sviluppo.

Nella società industriale, i lavoratori non avevano informazioni, trasparenza o mobilità. Non c’era LinkedIn o Monster. Oggi i migliori programmatori sono inondati di proposte per nuovi e migliori opportunità di lavoro, circostanza storicamente mai avvenuta.

In altre parole, la guerra dei talenti è finita e i talenti hanno vinto.

Questo significa che anche le job agencies e i recruiter, i direttori e i dipartimenti delle risorse umane devono cambiare. Non si tratta più di pubblicare annunci o gestire liste di candidati. Oggi le aziende hanno bisogno competere per attrarre talenti oppure saranno costrette a morire. Devono proiettare la migliore immagine possibile per procurarsi un’adeguata forza lavoro. Devono essere proattive e attente, per portare le migliori risorse a lavorare nelle loro organizzazioni. Chi, in questo settore, non comprenderà questo paradigma, non sarà in grado di aiutare le aziende ad acquisire talenti e sarà inesorabilmente messo da parte.

I recruiter ci saranno ancora

Se da un lato stiamo assistendo ad un’impetuosa evoluzione tecnologica, dall’altro sempre più aziende tentano di mostrare un volto umano e la generazione dei millenial dimostra chiaramente di essere attratta da organizzazioni che mettono al centro il valore e le persone.

Le aziende stanno iniziando a comprendere che i candidati sono molto di più, di una lista di esperienze. Sono persone e, spesso, il fattore di successo è nelle cose che non possono essere misurate.

In questo articolo abbiamo considerato molti strumenti in grado di scoprire talenti, ma identificare è molto lontano da coinvolgere. In futuro, il job matching sarà di enorme utilità, ma solo se gli specifici skill, conoscenze ed esperienze potranno essere verificate con le effettive prestazioni nel lavoro. Dopo tutto, la ragione per cui le persone vengono assunte, è per risolvere problemi che devono essere risolti, per sviluppare prodotti che devono essere sviluppati o per fornire servizi a clienti che devono essere serviti. Essere in grado di trovare la “perfetta corrispondenza” – come amano dire i datingpreneurs – non può risultare efficace, a meno che non si disponga di un campione di riferimento, attraverso il quale misurare quanto perfetta sia stata realmente la corrispondenza.

Il modello di riferimento è chiamato “prestazione futura” e la tecnologia certamente potrà aiutare in questo compito con gli algoritmi predittivi.

Ci sono però molti fattori che pesano su questo metodo e nella professione del recruiter. Al momento si sta solo iniziando a raccogliere dati.

Molti degli strumenti descritti possono aiutare nel produrre una lista di candidati, i contenuti dei quali siano reperibili da qualche parte online. Si deve tener presente però del crescente numero di persone che, per diversi motivi, sta nascondendo i propri comportamenti online, anche evitando del tutto l’online. Inoltre è necessario comprendere che una rivoluzione del mondo del recruiting non potrà rimuovere gli ostacoli normativi che ancora attendono una risposta da governi e politica, che recruiter mediocri continueranno a fornire prestazioni mediocri e che la Rivoluzione Digitale, da sola, non renderà migliore l’esperienza di un candidato.

La mera definizione del termine disruption non implica che sia possibile creare un modello sostenibile, primariamente perché sarebbe necessario conoscere esattamente cos’è che non funziona nel recruiting. Da parte mia non posso che lasciare questo interrogativo ai professionisti del settore e concludere con la considerazione che, dopo tutto, le persone continueranno a essere la parte fondamentale dell’equazione.

SAS Forum Milan 2017: Analytics drives Everything

di Dan Pejeroni [Infosphere]

Schermata 2017-04-03 alle 20.39.29

La Digital Transformation, fino a poco tempo fa forse solo uno slogan aziendale, è diventata finalmente realtà e continuerà a guadagnare terreno nei prossimi anni. In azienda, la figura del Data Scientist diventerà il collante sociale che costringerà i team di business e tecnologia a lavorare in stretta collaborazione, perché i team responsabili dei dati continueranno a scoprire forti correlazioni tra le metriche di business e quelle tecniche.

L’Intelligenza Artificiale (AI) e il Machine Learning (ML) passeranno dalla teoria agli ambienti di business fornendo risposte mirate a problemi concreti. AI e ML saranno un punto chiave, perché i dati sono diventati troppi, il tempo limitato e sarà impossibile elaborarli manualmente. Machine Learning porterà valore, risparmio di tempo e maggiore comprensione delle dinamiche del business.

I prossimi anni saranno caratterizzati da costante cambiamento e i Data Analytics rappresenteranno il faro per le organizzazioni che navigano in acque inesplorate. In un’economia iper-competitiva, sistemi, applicazioni e pagine web meno performanti saranno più facilmente identificati, aiutando il Marketing e l’IT a prepararsi agli eventi critici.

La Data Analysis assumerà sempre maggior valore per le organizzazioni digitali, fornendo loro supporto per intuizioni significative che rivelano abitudini di acquisto dei consumatori, preferenze e comportamenti.

Di questi e altri temi, si occuperà la XII edizione di SAS Forum Milan, l’appuntamento annuale durante il quale ospiti, esperti internazionali e keynote speaker si confronteranno sul futuro degli analytics, sulle nuove frontiere dell’Internet of Things e sull’evoluzione dell’intelligenza artificiale.

“Stiamo vivendo un cambiamento epocale, in cui la convergenza tra fisico e digitale è ormai compiuta. Generiamo quotidianamente un patrimonio informativo d’inestimabile valore che ora, opportunamente gestito, permetterà di avvicinare l’uomo alla comprensione totale del mondo” afferma Emanuela Sferco, SAS Regional Marketing Director, “Oggi gli analytics guidano ogni cosa e occorrono nuovi strumenti per padroneggiare, tradurre e trasformare i dati con modalità innovative che liberino nuove forme di valore”.

Grazie al contributo di esperti, clienti, partner e Università, verranno esplorate tutte le potenzialità e gli strumenti degli analytics, in molteplici aree applicative. Dalla digitalizzazione dei processi a una customer experience sempre più personalizzata, dalla gestione del dato come elemento di differenziazione alla sua regolamentazione, dall’adeguamento alle normative in ambito rischio alla gestione delle frodi, dall’Internet of Things all’Analytics of Things.

Studenti universitari, degli istituti superiori e neo laureati potranno inoltre raccogliere le testimonianze dirette dei protagonisti aziendali e accademici e assistere a sessioni specifiche dedicate alle professioni emergenti e alle digital skill nell’industria 4.0.

SAS Forum Milan è un appuntamento annuale di rilevanza internazionale rivolto ad aziende private ed enti pubblici, partner e mondo accademico. Riunisce ogni anno una community in continua espansione di manager e professionisti di tutti i settori di mercato, favorendo innovazione, crescita manageriale e attività di networking. Un luogo dove esperti, manager e imprenditori presentano il loro approccio vincente, le sfide da affrontare e le strade da intraprendere tra cultura analitica e innovazione tecnologica.

Registratevi all’evento visitando il sito: SAS Forum Milan e tenete d’occhio L’hashstag ufficiale su Twitter: #SASForumMilan.

Block Chain 2.0: Il rinascimento del denaro

di Dan Pejeroni [Infosphere]

Una rete Bitcoin è un’ entità decentrata. Per questo principio ogni volta che si verifica un’operazione di pagamento tra i membri della rete, questa deve essere verificata e convalidata, in modo da assicurare che ogni transazione si svolga solo tra due parti e che non vi sia duplicazione della spesa.

3

Questo processo di verifica viene effettuato da alcuni membri della rete, chiamati minatori che, utilizzando software specializzati e mettendo a disposizione la potenza di elaborazione dei loro computer, verificano le transazioni. Sembrerebbe semplice, ma la potenza di elaborazione necessaria è decisamente elevata.

E’ questo il punto dove la Block Chain comincia a prendere forma. Ogni pochi minuti, un minatore crea un blocco di tutte le transazioni che si verificano sulla rete Bitcoin. In sostanza crea un file verificato, che contiene una copia di tutte le operazioni che si sono succedute negli ultimi 10 minuti. E’ importante sottolineare l’aspetto della verifica.

Per i propri sforzi, il minatore è compensato in Bitcoin. È qui che si manifesta la matematica della valuta e il modo in cui si differenzia dal sistema bancario tradizionale a riserva frazionaria. La quantità totale di Bitcoin che potranno esistere è fissata in 21 milioni.

Ogni blocco è collegato al precedente, in modo da formare una catena. Questo raggruppamento di blocchi avviene secondo l’algoritmo alla base della creazione di Bitcoin ed è definito protocollo Block Chain.

1

Se il TCP/IP è un protocollo di comunicazione, il  Block Chain è un protocollo Value-Exchange.

Da quando è stata pubblicata online la white paper di Satoshi (pseudonimo del creatore di Bitcoin), altre crypto-currencies sono proliferate nel mercato. Ma, a prescindere dalla valuta e dalle questioni di deflazione che sono state spesso oggetto di dibattito, il protocollo di Block Chain sottostante e l’architettura di calcolo distribuito utilizzato per raggiungere il suo valore, rimangono gli stessi.

2

Come il protocollo aperto di comunicazione TCP/IP, ha creato Internet ed una moltitudine di prolifici servizi di business, il protocollo Block Chain offre la base su cui le aziende potranno creare catene a valore aggiunto. Utilizzando il reticolo di integrità delle operazioni, una nuova generazione di applicazioni commerciali stanno per entrare nel mercato.

Micropagamenti

Il sistema di pagamento utilizzato fino ad oggi, è stato progettato nel 1950 e comporta un costo fisso per ogni transazione. Di conseguenza l’invio di piccoli pagamenti (ad esempio di pochi centesimi) non risulta affatto economico.

Il protocollo Block Chain consente il trasferimento istantaneo di valore, indipendentemente dalle dimensioni, proprio come il TCP/IP consente la trasmissione immediata di informazioni. Una società che sta facendo uso di questo concetto è ChangeCoin.

ChangeCoin offre un’infrastruttura di micropagamenti per il Web. Prendiamo ad esempio un sito che, con l’account free, intenda offrire ai propri utenti solo la lettura di un quarto di un articolo e richieda una sottoscrizione minima, per accedere alla versione completa dello stesso. Con i micropagamenti, l’utente potrà ora pagare pochi centesimi per leggere l’intero articolo, senza impegnarsi in alcuna forma di abbonamento. Un altro esempio di questa possibilità potrà essere applicata alla Pay-tv, dove i consumatori potranno acquistare e pagare un singolo programma o applicata ai servizi di connettività, presso gli hot spot WiFi, dove gli utenti si limiteranno a  pagare il solo traffico generato.

ChangeCoin ha creato anche un’opportunità per i creatori di contenuti e blogger, in forma di ChangeTip. I lettori possono ora utilizzare i Bitcoin, per ricompensare il creatore di un contenuto con una piccola somma (anche solo 5 centesimi). Questo non è solo un modo innovativo per dimostrare apprezzamento, ma un modello che cambierà il business della creazione di contenuti e del loro mantenimento.

Aziende come Chain, ora consentono agli sviluppatori di costruire API sul protocollo Block Chain, che permettono di:

  • allocare risorse digitali come energia, larghezza di banda, storage e potenza di calcolo, ai dispositivi connessi/servizi che li richiedono (es. FileCoin);
  • API per Oculus Rift per l’accesso al mondo virtuale, che sta diventando sempre più simile agli ambienti dei film di fantascienza. Questi sviluppatori stanno cercando di creare un set di API da utilizzare nello spazio virtuale per effettuare transazioni, sfumando i confini tra le economie virtuali e reali;
  • API per micropagamenti personalizzati sul tipo delle transazioni caratteristiche dalla sharing economy, come pagare la lettura di un blog, piuttosto che un singolo passaggio nel car sharing.

Smart Contract e moneta programmabile

Gli Smart Contract sono programmi che codificano ed incorporano condizioni e corrispettivi. Quando si verifica una transazione tra due parti, il programma è in grado di verificare se il prodotto/servizio sia stato effettivamente inviato dal fornitore. Solo dopo la verifica, la somma viene trasmessa al conto del fornitore. Un altro esempio sono i programmi intelligenti che funzionano a condizioni predefinite tra fornitore e cliente, assicurando un servizio di deposito di garanzia in tempo reale, con costo marginale vicino allo zero. Codius offre già oggi un completo ecosistema per i Smart Contract.

Oltre alle transazioni finanziarie, gli Smart Contract stanno entrando anche nel sistema giuridico. Aziende come Empowered Law, utilizzano un registro pubblico distribuito delle transazioni, basato su Block Chain, per fornire servizi di multi-signature per la protezione di beni, pianificazione, risoluzione delle controversie, leasing e corporate governance. Un esempio di applicazione dei Distributed Contracts sono i cosiddetti Colored Coins, ossia un set di dati aggiuntivi (attributi) pubblicati e gestiti sul Registro Decentrato, che trasformano i coins in token, al fine di poter essere impiegati per rappresentare qualsiasi cosa, non necessariamente una valuta.

Digital Assets e Smart Property.

Costruendo entità digitali sui Colored Coins, si ottengono beni la cui proprietà è registrata digitalmente. I Bitcoin sono beni digitali ma, dal momento che la Block Chain è un Registro Decentrato di beni, essa può anche essere utilizzata per registrare la proprietà e il trasferimento di qualsiasi risorsa connessa al Bitcoin. In questo modo, un Bond digitale potrebbe pagare cedole e rimborsare il capitale all’indirizzo del detentore, senza il bisogno di custodi.

Un ulteriore evoluzione di questo concetto, è rappresentato dalla Smart Property. Una Smart Property è una proprietà che ha accesso alla Block Chain e che può intraprendere azioni sulla base delle informazioni in essa pubblicate. In altre parole la Smart Property può essere controllata tramite la Block Chain (ad esempio, un auto la cui proprietà è rappresentata da una risorsa digitale nella Block Chain). L’automobile fisica è connessa a Internet ed è in grado di leggere la Block Chain, quindi può tenere traccia dello stato della risorsa digitale che la rappresenta. Come il Digital Asset viene trasferito da un indirizzo ad un altro, l’auto, consapevole dell’aggiornamento di stato avvenuto sulla Block Chain, è in grado di intraprendere le azioni necessarie, come cambiare il suo proprietario. E un modo di automatizzare l’Internet of Everything.

Ethereum e il browser  Mist

Ethereum è al lavoro per unire il Registro Distribuito con l’ambiente di programmazione di Turing, che è un linguaggio che può essere utilizzato per simulare qualsiasi altro linguaggio di programmazione (e non solo il suo). L’obiettivo della società è la realizzazione una sorta di coltellino svizzero del Block Chain e degli strumenti di crittografia per consentire anche agli utenti non-tecnici, di sfruttare pienamente queste nuove tecnologie sul web.

Block Chains parallele e Side Chains

Alcuni sviluppatori stanno iniziando a considerare la creazione di Block Chain alternative, per evitare la dipendenza da una singola catena. Le Block Chain parallele e laterali offrono un buon compromesso tra scalabilità e possibilità di innovazione.

Le Filippine e il Peso

Il governo delle Filippine ha in progetto di mettere la propria moneta (il Peso) in Block Chain, per migliorare i propri servizi finanziari. Un’iniziativa decisamente rivoluzionaria.

Le Crypto tecnologie e le banche europee

Diverse banche di medio-piccole dimensioni hanno adottato l’architettura Block Chain. La tedesca Fidor Bank , per esempio, offre alla clientela un sistema di trading in valuta e di trasferimento fondi trans-frontaliero basato su Ripple dal 2014. Il sistema si basa su block chain, ma non utilizza un registro pubblico, operando in modo distribuito su nodi appartenenti agli aderenti al network. I costi e la velocità di esecuzione, praticamente in tempo reale, sono i principali punti di forza del sistema.

L’uso di un registro distribuito ma non pubblico sembra l’approccio preferito dalle istituzioni finanziarie nell’adozione delle tecnologie crittografiche basate su Block Chain. Almeno questo è quanto consiglia l’Associazione Bancaria Europea (ABE-EBA) nel suo recente rapporto sulle Krypto tecnologie. Esaminando le possibili applicazioni  delle architetture Block Chain e delle relative tecnologie crittografiche, l’EBA individua quattro categorie di applicazioni:

  • monetarie (criptovalute);
  • registrazione della proprietà di asset (titoli, veicoli, case, nomi di dominio);
  • ambienti di sviluppo applicazioni (applicazioni distribuite su reti decentralizzate peer-to-peer pubbliche, ossia versioni decentralizzate dei vari servizi cloud sul mercato oggi);
  • scambio di rappresentazioni digitali di asset già esistenti (valute, metalli, titoli azionari, bond) basato su un registro condiviso dai partecipanti al network.

Lo studio dell’EBA ritiene che dei quattro abiti, quello più maturo e più adatto per l’adozione da parte delle istituzioni finanziarie tradizionali sia l’ultimo. Alla base sta l’utilizzo di registro condiviso, non però su rete pubblica ma solo sui nodi dei partecipanti al network, che si impegnano a pubblicare rappresentazioni digitali degli asset trattati. In questo modo la fiducia è organizzata direttamente tra i partecipanti e non per mezzo di strumenti tecnologici come il mining. Alcuni dei partecipanti al network hanno un ruolo speciale, di convertire le rappresentazioni digitali in asset appartenenti al mondo fisico. Questi partecipanti speciali che fanno da porta verso e dall’esterno sono definiti market maker. Un ruolo aggiuntivo dei market maker è quello tradizionale di garantire liquidità e asset. Infine, tra alcuni partecipanti al network è possibile attivare relazioni esclusive, riducendo i rischi di controparte (come accade in alcune dark pools). L’EBA individua quattro possibili applicazioni di queste reti: cambi/rimesse, pagamenti real-time, cosiddetto documentary trade (il caso più noto sono le lettere di credito per il commercio estero); scambio di asset di ogni tipo, dalle valute ai titoli di debito, alle azioni, ai metalli e alle commodities. Il vantaggio delle architetture block chain in tutte queste applicazioni possibili è la riduzione della complessità, l’esecuzione in tempo reale (che riduce i rischi di insolvenza) e il coordinamento automatico tra tutte le parti grazie al registro condiviso delle transazioni.

Indipendentemente dai consigli dell’EBA, diverse istituzioni finanziarie si stanno interessando a block chain. Oltre ad alcune banche piccole e medie, come la già citata Fidor e diverse negli Stati Uniti, si stanno muovendo i giganti. Pescando tra gli annunci delle ultime settimane: UBS ha costituito un laboratorio interno  sulla Block Chain presso la sede di Londra; Goldmann Sachs ha investito 50 milioni di dollari in una start-up, Circle Internet Financial, che sta realizzando un servizio di pagamenti real-time decentralizzato basato su Block Chain; Il Nasdaq sta costruendo un pilota per il Nasdaq Private Market, un’area di scambio per i titoli azionari in fase pre-IPO che consente il trading di azioni tra privati. Fino ad oggi, il trading sul Private Market richiedeva la stipula di contratti legalmente vincolanti con l’intervento degli studi legali. Utilizzando la Block Chain, questa esigenza sparisce: uno scambio viene registrato in modo immodificabile sul registro condiviso, senza bisogno di legali.

Infine, Banco Santander ha identificato 25 aree dove applicare le architetture Block Chain. Tra quelle di interesse ufficialmente annunciate ci sono il money transfer internazionale, la finanza per il commercio, i prestiti sindacati e la gestione del collaterale. La banca spagnola ha costituto un’unità di sviluppo denominata Crypto 2.0  e ha deciso di investire, tramite il proprio fondo specializzato in fintech, Santander InnoVentures con una dotazione di 64 milioni di euro, in una start-up attiva nelle tecnologie Block Chain. L’attività di Santander è particolarmente interessante perché non si limita alle aree “sicure” identificate da EBA. In un recente intervento pubblico, infatti, Julio M.Faura, global head of R&D innovation di Santander, ha chiaramente identificato come area più promettente quella degli ambienti applicativi e in primo luogo i Smart Contracts.

Una trasformazione radicale

A dicembre 2014, Don Tapscott, uno dei massimi esperti di tecnologia ed innovazione ha ammesso di essersi sbagliato a proposito di Bitcoin, dichiarando “… Pensavo non sarebbe mai decollato. Ma ora penso che non solo lo farà come moneta, ma che, con la  sottostante tecnologia Block Chain, diventerà una parte fondamentale della prossima generazione di Internet trasformando radicalmente il commercio e le nostre stesse istituzioni sociali ”

 

Fonti:

  • Kariappa Bheemaiah (Quantitative Research Analyst at Grenoble Ecole de Management)
  • Istituto Centrale delle Banche Popolari Italiane S.p.A.