Il mercato del lavoro è maturo per la digital transformation?

di Dan Pejeroni [Infosphere]

Com’è cambiato il mondo del lavoro, al di là del Job Atc; Di quali nuove tecnologie disponiamo oltre a LinkedIn; Anche il mondo delle agenzie per il lavoro sta per essere travolto dalla Uber-izzazione?


A partire dagli ormai lontani tempi della New Economy, ho avuto l’occasione di occuparmi dei modi in cui le tecnologie digitali e la rete cambiano i modelli di business in diversi settori di mercato.

I semi di questa straordinaria rivoluzione erano già stati sparsi nel 1999, da Shawn Fanning e Sean Parker, con la creazione di Napster, che ha avviato di fatto la “disruption” del mercato discografico e da Netflix, che avrebbe portato al clamoroso fallimento di Blockbuster nel novembre 2013.

Nel 2004 la nascita di Facebook ha inaugurato la Social Economy, che sarà consolidata definitivamente nel 2006 da Jack Dorsey, con Twitter. Il fenomeno Social sarebbe diventato negli anni seguenti un fiume in piena, ispirando, una nuova generazione d’imprenditori del mercato digital, alla distruzione dei vecchi modelli di business.

Dopo il mercato discografico e homevideo, la disruption si è estesa a ogni settore, causando molta preoccupazione – spesso ingiustificata – nel mondo delle piccole aziende, fino ai grandi gruppi industriali. Tutti in qualche modo si sono sentiti minacciati, o perlomeno stimolati a comprendere il fenomeno per coglierne le opportunità e valutarne i rischi potenziali per il loro business.

E il mondo del recruiting è maturo per la disruption?

La prima ondata: LinkedIn

Era inevitabile che la social economy travolgesse anche il mondo del lavoro e quindi le aziende che in qualche modo gli ruotano intorno. La situazione fino al 2003 era controllata dai colossi Monster e Stepstone. In Italia, qualche portale locale (Bancalavoro, Job24 e, un po’ più tardi, Infojobs), ne replicavano la formula. Si trattava di siti sui quali, le persone in cerca di lavoro, postavano i loro CV. D’altro canto, in questi database le agenzie per il lavoro – dietro sottoscrizione – pubblicavano gli annunci di lavoro e cercavano i candidati, per i loro clienti.

linkedin

Il primo contagio avviene ufficialmente il 5 maggio 2003, con la nascita di LinkedIn. Reid Hoffman e i colleghi di PayPal, Peter Thiel e Keith Rabois, sparigliano il tavolo di Monster e Stepstone, con un nuovo modello. Tutto social.

In poco più di un decennio, mandano in pensione il vecchio curriculum vitae, catturando oltre 380 milioni di utenti e diventando uno dei principali canali per le ricerche delle staffing agencies.

Il modello di business di LinkedIn si basa su tre fonti di introiti: la vendita di abbonamenti premium del servizio (27% dei ricavi), le hiring solution (41%) e le marketing solution (32%).

La seconda ondata: gli aggregatori

L’onda ormai inarrestabile e la mole di informazioni prodotta dalla galassia social networks (alcune stime parlano nel 2015 di oltre 1000 ExaBytes) determina, alla fine del primo decennio, l’avvento dei Big Data, evoluzione del concetto di Business Intelligence applicata allo studio dei comportamenti e alla previsioni dei fenomeni sociali.

A questo punto una dopo l’altra, nascono una serie di disruptor (per lo meno dell’ormai indebolito modello LinkedIn). Si tratta di soluzioni web-based che operano sui Big Data aggregando le informazioni disponibili sui social networks: Connectifier, Dice Open Web, Entelo, HiringSolved, TalentBin, Yatedo.

connect

Connectifier, fondata da due ex tecnici di Google, mette a disposizione un ambiente recruiter-side, progettato per combinare capacità di ricerca avanzata, big data, analytics e machine learning, per assistere le ricerche dei recruiter.

Si tratta del principale competitor di LinkedIn, anch’esso può contare su un database di circa 380 milioni di profili, ma sostiene di avere il 30% di data points in più per persona. Tutti i dati dei candidati sono indicizzati da sorgenti pubbliche in modo molto simile al modo di operare di Google e includono interessi, hobby, relazioni personali e professionali, nonché interazioni sui social networks.

Le informazioni presenti nei CV e profili raccolti dai siti di recruiting tradizionali, tendono a diventare rapidamente obsolete e comunque non rappresentano una vista inclusiva del candidato. L’approccio olistico di Connectifier va alla ricerca di come le persone interagiscono professionalmente, con chi si relazionano, se rispondono a domande nelle loro comunità o – nel caso dei programmatori – postano codice su GitHub.

OpenWeb, Entelo e HiringSolved utilizzano il medesimo schema operativo: aggregazione, big data e analytics, per fornire al recruiter una più agile ricerca dei candidati, che poi verranno convocati e intervistati con modalità tradizionali. Il focus delle soluzioni di questa categoria, è sui candidati introvabili poiché “passivi” – ovvero che non sono dichiaratamente alla ricerca di un nuovo lavoro.

HiringSolved propone inoltre la “Search by example”, una sorta di clonazione di un profilo campione, per cercarne altri con caratteristiche simili.

Yatedo, è il più immediato, in quanto permette la ricerca dei profili senza registrazione. E’ al centro oggi di molte polemiche e legate alla privacy, in quanto chi prova a digitare il proprio nome nel campo di ricerca (molto simile a Google) presente nella home page del loro sito, si trova sullo schermo un bel profilo, che non sapeva di avere e che di certo non aveva autorizzato a pubblicare.

La risposta di Monster, alla nuova ondata di aggregatori è invece rappresentata da TalentBin, che promette di trovare anche i profili tecnici più difficili.

Purtroppo al momento gli algoritmi di job matching (6Sense ranked matching di Monster, Top candidates for your job di LinkedIn, Quality of programming code di Gild), non sono ancora del tutto maturi.  Sfortunatamente il criterio di differenziazione per ciò che in definitiva porta all’assunzione è spesso personality-based, invece che skill-based. Abbiamo quindi a che fare con un criterio meno oggettivo di quello che utilizza Amazon per i propri prodotti.

Chi sta tentando di affrontare il problema è 10rule.com che, con una tecnologia cloud, tenta di misurare il capitale umano per creare un benchmark sui top 10% performers di ogni posizione professionale. Il processo prevede poi di procedere con l’assunzione di nuovi talenti e lo sviluppo delle risorse che fanno già parte dell’organizzazione aziendale, sulla base di questo stesso benchmark.

Vettery

L’ultima frontiera delle staffing agencies che sono considerate disruptor di successo, è quindi nello sfruttamento intensivo dei big data e dei migliori algoritmi di ranking, per accumulare tutte le informazioni disponibili sui migliori candidati (nuova scuola), per quindi affidarli a un gruppo di recruiter esperti, per contatto e ingaggio vis-a-vis (vecchia scuola). Questa è la filosofia di Vettery.

Quando Brett Adcock e Adam Goldstein erano analisti presso l’hedge fund Cedar Hill Capital, occupandosi del mercato staffing & headhunting, notarono che nel loro lavoro mancava qualcosa: la tecnologia. Quindi, a marzo 2013, decisero di assumere un team di otto programmatori e di creare Vettery, società specializzata nella ricerca di profili professionali per banche d’investimento, private equity, hedge funds e altre posizioni nell’alta finanza. Hanno successivamente esteso il loro raggio d’azione alla technology industry. Nel corso del 2014, sono riusciti a piazzare ben 100 posizioni, con lo sgomento dei recruiter tradizionali che, pur avendo utilizzato le stesse tecniche, si servivano di software tradizionale.

In pratica, Vettery sta al recruiting, come Uber sta al tradizionale mercato dei taxi. Combinando i big data con una piattaforma dove candidati e recruiter possono interagire in tempo reale, Vettery sta cercando di superare la concorrenza. Il loro principale punto di forza è costituito da un esteso database, che contiene i profili dei professionisti del mercato. Raccogliendo dati da molte fonti disponibili pubblicamente, Vettery è in grado di identificare efficacemente anche i candidati passivi.

Vettery inoltre raccoglie e correla informazioni da molte fonti non convenzionali, come università, scuole, circoli e centri di ricerca. Ad esempio detiene le biografie di ogni singolo analista che, nel 2014, ha completato con successo il corso di banking investment, presso le principali scuole del settore. Questi dati includono formazione, luogo di residenza ed informazioni dettagliate di ogni loro esperienza di lavoro.

Il curioso caso di ElevatedCarreers

Neil Clark Warren, consulente matrimoniale, fondò eHarmony nel 2000, quando si rese conto dei problemi di compatibilità in molte coppie che erano state sue clienti. Più di 600.000 utenti si sono sposati tra il 2000 e il 2012, con solo il 3.8% di divorzi, contro una media del 40-50% degli Stati Uniti.

ElevatedCarreers ha riutilizzato la tecnologia di compatibility matching di eHarmony, adattandola al matching tra candidati e aziende.

Elevated utilizza algoritmi predittivi che, sulla base delle informazioni contenute nei profili dei candidati, in quelli delle aziende e  nelle job description, cerca le migliori corrispondenze sulla base di tre tipi di compatibilità: skill, cultura e personalità.

Le soluzioni verticali: Gild

L’approccio di Gild è invece molto verticale e ha l’obiettivo di cambiare il modo in cui le software house assumono i programmatori. Ad oggi sono riusciti a classificare più di un milione di sviluppatori, in base alla qualità del codice che producono.

In questa industry, il sistema è essenzialmente pregiudiziale e la discriminazione è la norma: programmatori eccellenti, ma sprovvisti di diplomi prestigiosi, sono normalmente sepolti nella pila dei CV. Gild cerca di riportare la meritocrazia nel recruiting.

Il problema che LinkedIn non ha ancora risolto è l’impossibilità di stabilire chi è bravo e quanto bravo sia. Gild sembra aver trovato la soluzione a questo limite, almeno per gli sviluppatori di software. L’azienda ha lanciato ufficialmente uno strumento che analizza il codice che i programmatori sottopongono alle piattaforme open-source, come GoogleCode, SouceForce, Github e StackOverflow. Quindi classifica gli sviluppatori in base alla qualità del software che producono. L’idea è quella di proporre alle aziende che cercano programmatori il loro sistema di ranking.

Naturalmente può essere difficile dire cosa renda un certo codice migliore di un altro. Un indicatore chiave è la semplicità. Chi risolve un problema utilizzando relativamente poche, eleganti linee di codice, è generalmente considerato migliore. Gild guarda anche a quanto sia ben documentato, quanti lo riutilizzano e se sia stato accettato da progetti open-source di alto profilo, come Linux.

Le limitazioni comunque sono costituite dal fatto che Gild classifica solo sviluppatori che sottopongono il loro software alle piattaforme open source e molti talenti ancora non lo fanno, o non lo faranno mai. Inoltre, se può dire qualcosa a proposito della qualità del codice che la gente produce, Gild non potrà dire se un candidato è simpatico o affidabile. Queste informazioni devono essere ancora ricavate dalle interviste tradizionali.

Per ora, molte aziende utilizzano Gild in combinazione con i metodi tradizionali: i selezionatori cercano i programmatori su LinkedIn, quindi controllano la loro capacità di sviluppo con il sistema di ranking di Gild.

Nuovi orizzonti: il caso Somewhere

LinkedIn ha fornito la possibilità di mettere il CV online, rendendo questo processo più efficiente.  Ma, in un mondo dove le relazioni, la cultura e la forma sono più importanti del modo in cui si fa business, c’è l’urgente necessità di reinventare il modo in cui ci proponiamo o cerchiamo le nostre controparti.

Somewhere è una piattaforma visuale dove esporre il proprio lavoro e le proprie capacità.  Una specie di Pinterest per il business.

Tim Leberecht ha recentemente definito Somewhere una piattaforma di ricerca visuale per le imprese: “Somewhere rappresenta un emblematico cambiamento della natura del posto di lavoro. La nostra concezione del lavoro si è spostata da cartellino e qualifica professionale a “mentalità e narrazione”.

somewhere

La generazione dei millenial, in particolare vede il lavoro come un potente veicolo per trovare un significato alle loro vite. Somewhere illustra come stiamo procedendo con l’immagine contestuale e non lineare di noi stessi al lavoro. Il sito ridefinisce il lavoro come qualcosa di bello, come carriera in continua evoluzione e come identità professionale di persona fluida.

Somewhere punta ad aiutare i lavoratori della conoscenza a sostituire i loro CV tradizionali, con un diverso modo di rappresentare se stessi, in un contesto di business. Justin McMurray, cofondatore di Somewhere, osserva che la domanda di lavoro tradizionale si basa ancora su “quello che hai fatto”, non su “quello che fai” o “chi sei”.

Eravamo nella fase in cui le persone che non conoscevi approvavano le competenze di cui non disponevi” [cit. LinkedIn]. McMurray sostiene di aver fondato Somewhere, per “riportare le persone al centro e restituirgli la possibilità di raccontare le storie del proprio lavoro“. Ritiene che “il lavoro non dovrebbe negare la nostra umanità, ma dovrebbe accoglierla. Il lavoro è, più che mai, un fatto personale“.

Oltre il lavoro convenzionale: il fenomeno GitHub

github

Il posto di lavoro quindi sta diventando sempre più un’arena sociale, che un luogo per la produttività. Presso GitHub, la più grande comunità di sviluppatori open-source e code-sharing, quasi tutto il lavoro avviene remotamente. Nei primi tempi l’azienda non aveva nemmeno un ufficio fisico. Dopo aver adibito a headquarter un loft, l’azienda ne ha trasformato la gran parte in bar ed area per incontri dagli arredi stravaganti. Secondo la visione di Scott Chacon, cofoundatore e CIO di GitHub, il quartier generale è principalmente un social hub, non un luogo di lavoro.

La struttura di GitHub riconosce che la soddisfazione nel lavoro è un evento sociale, ampiamente basato sui momenti di condivisione.

Chacon sostiene che il fatto di essere costretti a essere una persona diversa durante le ore di lavoro, tende a non essere più accettato dalle nuove generazioni di lavoratori. Come sottolinea Stowe Boyd,  “Nel nostro modello, il lavoro non è un posto dove vai, è una cosa che fai. Sei tu“. Il lavoro della conoscenza può avvenire ovunque.

La rivoluzione del mondo del lavoro

Sotto queste spinte la job industry, sta subendo una completa trasformazione. Nello stesso modo in cui la nostra economia è cambiata attraverso i secoli scorsi, da agraria ad industriale ed infine a società dell’informazione, il ruolo delle risorse umane sta per essere completamente sovvertito.

Women At Arms

Un tempo le aziende avevano il completo controllo su attività e informazioni industriali, quindi non necessitavano di individui particolari. Henry Ford non aveva bisogno del miglior lavoratore in assoluto per la sua catena di montaggio. Per definizione, i lavoratori erano intercambiabili. Facendo un salto avanti di cento anni, Google dipende al 100% dalle persone, per innovazione, invenzione e sviluppo.

Nella società industriale, i lavoratori non avevano informazioni, trasparenza o mobilità. Non c’era LinkedIn o Monster. Oggi i migliori programmatori sono inondati di proposte per nuovi e migliori opportunità di lavoro, circostanza storicamente mai avvenuta.

In altre parole, la guerra dei talenti è finita e i talenti hanno vinto.

Questo significa che anche le job agencies e i recruiter, i direttori e i dipartimenti delle risorse umane devono cambiare. Non si tratta più di pubblicare annunci o gestire liste di candidati. Oggi le aziende hanno bisogno competere per attrarre talenti oppure saranno costrette a morire. Devono proiettare la migliore immagine possibile per procurarsi un’adeguata forza lavoro. Devono essere proattive e attente, per portare le migliori risorse a lavorare nelle loro organizzazioni. Chi, in questo settore, non comprenderà questo paradigma, non sarà in grado di aiutare le aziende ad acquisire talenti e sarà inesorabilmente messo da parte.

I recruiter ci saranno ancora

Se da un lato stiamo assistendo ad un’impetuosa evoluzione tecnologica, dall’altro sempre più aziende tentano di mostrare un volto umano e la generazione dei millenial dimostra chiaramente di essere attratta da organizzazioni che mettono al centro il valore e le persone.

Le aziende stanno iniziando a comprendere che i candidati sono molto di più, di una lista di esperienze. Sono persone e, spesso, il fattore di successo è nelle cose che non possono essere misurate.

In questo articolo abbiamo considerato molti strumenti in grado di scoprire talenti, ma identificare è molto lontano da coinvolgere. In futuro, il job matching sarà di enorme utilità, ma solo se gli specifici skill, conoscenze ed esperienze potranno essere verificate con le effettive prestazioni nel lavoro. Dopo tutto, la ragione per cui le persone vengono assunte, è per risolvere problemi che devono essere risolti, per sviluppare prodotti che devono essere sviluppati o per fornire servizi a clienti che devono essere serviti. Essere in grado di trovare la “perfetta corrispondenza” – come amano dire i datingpreneurs – non può risultare efficace, a meno che non si disponga di un campione di riferimento, attraverso il quale misurare quanto perfetta sia stata realmente la corrispondenza.

Il modello di riferimento è chiamato “prestazione futura” e la tecnologia certamente potrà aiutare in questo compito con gli algoritmi predittivi.

Ci sono però molti fattori che pesano su questo metodo e nella professione del recruiter. Al momento si sta solo iniziando a raccogliere dati.

Molti degli strumenti descritti possono aiutare nel produrre una lista di candidati, i contenuti dei quali siano reperibili da qualche parte online. Si deve tener presente però del crescente numero di persone che, per diversi motivi, sta nascondendo i propri comportamenti online, anche evitando del tutto l’online. Inoltre è necessario comprendere che una rivoluzione del mondo del recruiting non potrà rimuovere gli ostacoli normativi che ancora attendono una risposta da governi e politica, che recruiter mediocri continueranno a fornire prestazioni mediocri e che la Rivoluzione Digitale, da sola, non renderà migliore l’esperienza di un candidato.

La mera definizione del termine disruption non implica che sia possibile creare un modello sostenibile, primariamente perché sarebbe necessario conoscere esattamente cos’è che non funziona nel recruiting. Da parte mia non posso che lasciare questo interrogativo ai professionisti del settore e concludere con la considerazione che, dopo tutto, le persone continueranno a essere la parte fondamentale dell’equazione.

Data Science: il Paradigma Università – Impresa

SAS University Edition: La risposta alla carenza di Data Scientists nella partnership tra il leader tecnologico e la comunità accademica

data-magic

È stata definita dall’Harvard Business Review, la professione più sexy del XXI secolo. È la figura del Data Scientist.

Anche se l’affermazione può far sorridere, c’è una logica ed è tutta nell’elemento umano. Sicuramente c’è molta tecnologia nel campo della Data Science, ma i risultati che può fornire la fanno apparire come una forma di stregoneria. In un mondo sempre più caratterizzato da Social Network, IoT e Big Data, il Data Scientist è la persona in grado di dare un significato ai numeri. Il problema è che oggi pochi sono in grado di farlo, in quanto implica competenze che non si trovano spesso insieme. Richiede una rigorosa competenza nell’analisi dei dati e, allo stesso tempo, creatività per scoprire modelli e tendenze. Deve essere in grado di passare dal dettaglio al quadro generale.

Per le aziende di tutto il mondo, la caccia a questi professionisti è già iniziata perché, senza queste competenze, gli investimenti in IoT e Analytics non porteranno al risultato atteso: comprendere cosa stia accadendo oggi e prevedere cosa potrà accadere domani.

Secondo alcuni analisti, l’identikit del data scientist comporterebbe non meno di otto competenze di base e sicuramente tra queste ci sono informatica e statistica. Dalla posizione di leader tecnologico, SAS Italy – la business unit italiana di SAS Institute – ha dato il via al progetto SAS University Edition, finalizzato a sostenere il mondo accademico nella formazione sugli strumenti di Analytics dell’azienda. Il progetto SAS University è inserito all’interno del programma AnalyticsU ed è pensato per invertire il gap di competenze.

Ci siamo chiesti quale sia stata la risposta delle università italiane. Se abbiano raccolto la sfida e come abbiano adattato la loro offerta a questo scenario.

Abbiamo intervistato il prof. Massimo Attanasio, docente di Statistica Sociale all’Università di Palermo.

Prof. Attanasio, lei si occupa di statistica sociale. Qui c’è una buzzword: “sociale”. Ma sappiamo che questa disciplina esisteva prima che scoppiasse il fenomeno social network. La prima domanda che desidero porle è: se e come l’avvento dei Big Data abbia allargato range, obiettivi e aspettative di questo ambito accademico.

M.A: Per noi statistici, buona parte del lavoro è ancora basato su Small Data e sull’inferenza classica, costituita da campioni piccoli e grandi, comunque sempre campioni. Per pensare in termini Big Data, è indispensabile un cambio di paradigma. Noi, attraverso una serie di progetti e collaborazioni con aziende ed enti, stiamo affrontando questo tema molto attuale con casi di studio pratici. D’altra parte ritengo che questo argomento dovrà diventare assolutamente trasversale a tutti i corsi di studio.

I nuovi strumenti di analisi – in particolare gli Analytics – pensati specificamente per i Big Data, quanto incontrano le esigenze metodologiche dell’ambito scientifico della statistica di oggi?

M.A: Nella nostra e nelle altre facoltà c’è un vasto utilizzo del linguaggio open source R ma, d’altra parte, siamo utenti delle soluzioni SAS da oltre vent’anni. Rispetto a R, SAS si rivela un ambiente più intuitivo ed efficace. Nella maggior parte dei casi, le sue funzionalità ready-to-use sono più che sufficienti per affrontare il lavoro di routine. Per le esigenze della ricerca e delle relative pubblicazioni scientifiche, invece è opportuno approfondirne l’ambiente di programmazione per sfruttarne appieno la potenza.

Ci può dire qualcosa sulle modalità d’introduzione e utilizzo della piattaforma SAS nei suoi corsi? Oltre al software, ha avuto a disposizione documentazione utile a fini didattici? Come siete stati supportati da SAS in questo percorso? 

M.A: Come accennavo prima, SAS è presente in facoltà da molto tempo. L’anno scorso abbiamo organizzato una giornata di approfondimento con la dott.ssa Cinzia Gianfiori (SAS Academic Program manager), che ha avuto un grande successo. Da questo spunto è nata l’idea di mettere a disposizione degli studenti, che ne intravedono la valenza per la loro futura professione, un master che li porti alla certificazione. Da SAS abbiamo sempre avuto risposte puntuali.

Quali ambiti della statitistica – in particolare quella sociale – sono stati oggetto di lavoro presso la vostra facoltà? Ci può raccontare qualche caso pratico in cui SAS si è rivelato particolarmente efficace?

M.A: Con SAS abbiamo completato una ricerca sulla mobilità territoriale realizzata sui dati dell’ASN [l’archivio degli iscritti al sistema universitario italiano offerto dal MIUR, che contiene dati su immatricolazioni, iscrizioni e lauree di tutti gli atenei. n.d.r.], che sono di fatto Big Data.

Il Dipartimento di Matematica Attuariale, che utilizza da sempre il software R, sta estendendo le proprie competenze anche agli Analytics di SAS, per poter collaborare con l’IVASS [Istituto per la Vigilanza sulle Assicurazioni che garantisce la stabilità del mercato assicurativo, n.d.r]. L’Ente mette a disposizione del progetto i Big Data delle assicurazioni sui sinistri, che vengono correlati con le informazioni relative alla mobilità universitaria del Miur.

Poi c’è una collaborazione col sistema bancario, che ha connotazioni fortemente sociali, in quanto ha a che fare con le caratteristiche individuali dei clienti e le loro transazioni.

Si parla oggi con molta insistenza della carenza, per le aziende che intraprendono la strada della digital transformation, di skill per l’analisi sui dati. I data scientists (ecco un altra buzzword). Qualcuno ha definito questo mestiere, come il più sexy del momento (e del futuro). I vostri corsi formano effettivamente data scientists?

M.A: Con la prof. Ornella Giambalvo, abbiamo lanciato un Master per Big Data Scientists, rivolto ai laureati magistrali in statistica e in altri corsi di laurea (come Economia e Finanza e Ingegneria Informatica), dove SAS è assolutamente protagonista. Il corso, che sta avendo un grande successo, punta alla sintesi fra studio dei fondamenti della data science e lavoro sul campo in progetti concreti rivolti all’uso creativo dei Big Data per l’innovazione. Si tratta di un percorso a forte vocazione professionale che coinvolge oltre a SAS, Unicredit e Istat. Inoltre, in tutti i corsi di laurea magistrale è stata inserita la materia Big Data. Ritengo che il Data Scientists che proviene da una formazione statistica, rispetto a chi ha una background prevelentemente informatico, abbia una marcia in più dove sia necessario trarre conclusioni dalle relazioni che si esistono tra le variabili.

Ringraziando il prof. Attanasio, concludiamo con un dato: l’ecosistema dei dispositivi connessi genera più di 2,5 quintilioni di byte al giorno. Questa enorme massa di informazioni avrà un impatto significativo sui processi di business e la Data Science assumerà un ruolo sempre più centrale. L’uso creativo di questi dati consentirà alle aziende, in ogni settore di mercato, di ottimizzare molti aspetti della loro attività, creando un’ondata di nuove idee in grado di rivoluzionare ogni settore e creare nuovi rami del sapere che avranno un profondo impatto sull’umanità.

Scarica SAS University Edition

Internet of Things: qual è il vero impatto sul business?

di Dan Pejeroni [Infosphere]

SAS, leader mondiale degli Analytics, si concentra sulle esperienze compiute in Europa da 75 gruppi di lavoro in svariati settori di mercato che hanno implementato queste tecnologie

senza-titolo

Mentre molti studi stanno ancora esplorando il potenziale teorico dell’Internet of Things, gli early adopters hanno già acquisito una rilevante esperienza. SAS, leader mondiale degli Analytics, si concentra sulle esperienze già compiute in Europa da 75 gruppi di lavoro, in svariati settori di mercato che hanno implementato queste tecnologie con diversi obiettivi.

Il mercato attende che l’IoT raggiunga il mainstream entro il 2020 e il ritmo del cambiamento di un’economia sempre più digitale sta imponendo cicli di adozione più rapidi. Osservare gli insegnamenti degli erly adopter ci fornisce un punto di vista privilegiato.

Le interviste, con gli executive e i team leader, sono state strutturate per comprendere a quali obiettivi abbiano puntato i loro progetti, come siano stati sponsorizzati, dotati di risorse e rilasciati. Lo studio ha ricavato quattro punti chiave:

1 – L’obiettivo è quasi sempre sottostimato

L’immediata opportunità di una riduzione dei costi o di un inalzamento dei profitti sostiene gli specifici progetti IoT ma, non appena i nuovi dati cominciano a fluire, i potenziali impatti su altri workflow attraggono nuovi stakeholder e i fattori di successo vengono posti sotto pressione con l’inserimento di nuove esigenze. Questo è un inevitabile compromesso tra velocità e distanza. I team di progetto devono gestire le comunicazioni e le aspettative degli stakeholder, introducendo rigorosi phasing di progetto.

2 – La user experience definisce i risultati

L’IoT viene normalmente rilasciato ad un mondo che si aspetta che le informazioni vengano servite in formati comprensibili, sempre e ovunque. Questo significa che i team di progetto IoT devono considerare esattamente come ciascuno dei loro utenti target utilizzerà queste informazioni. Progettare pensando che la user experience sia il fattore critico di successo.

3 – Gli skill di data management e governance sono fondamentali

Sebbene il compito immediato dell’IoT sia quello di collegare lo scollegato, il valore è realizzato solo quando i dati sono analizzati e consumati. Il percorso dal sensore alla decisione è denso di data quality, data privacy, data management, analisi e distribuzione. I data manager devono essere coinvolti dagli esperti IoT già nelle fasi iniziali dei progetti.

4 – La maturità detta il valore

Lo studio ci offre un quadro sulla maturità degli Analytics all’interno delle organizzazioni. Il movimento Big Data necessita di frameworks di Analytics e di cooperazione orizzontale nell’organizzazione per identificare gli user case. L’IoT ha dimostrato di essere una più ampia e veloce manifestazione dei Big Data e richiede che le organizzazioni stesse investano risorse di leadership e management per superare gli ostacoli sul percorso che conduce alla maturità organizzativa degli Analytics.

Internet of Things ha molti (diversi) significati

Agli intervistati è stato chiesto cosa si aspettavano che l’Internet of Things avrebbe potuto rappresentare per i loro clienti e concorrenti. Data la sua ampia applicabilità, le risposte sono cadute in ben 17 diverse categorie, confermando la grande varietà di significati attribuiti all’IoT dalle diverse società e dai diversi settori industriali.

Una visione condivisa sui benefici futuri

In definitiva c’è stato un grande consenso sul vertice della classifica dei risultati attesi dall’introduzione di questa tecnologia: oltre il 40% degli intervistati ritiene che comporti una maggiore efficienza operativa e più di un terzo, circa il 36%, una migliore user experience. Se questa sia già esperienza o rappresenti solo speranze e ambizioni, resta ancora da accertare. Probabilmente sarà un mix tra le due, implicando una tecnologia ancora relativamente nuova e non completamente sperimentata. L’ambito condiviso della visione, tuttavia, è notevolmente costante. Era forse prevedibile che l’opinione si dividesse su chi possa maggiormente beneficiare delle implementazioni IoT: l’organizzazione o i clienti. Può essere difficile separare i benefici, poiché le due componenti sono strettamente intrecciate e una maggiore enfasi sulla esperienza cliente significa che i benefici per l’organizzazione spesso diventano anche vantaggi per i clienti.

Sono emerse anche altre tre categorie supportate da almeno un quarto degli intervistati: circa il 29% di questi ha dichiarato che l’IoT favorirebbe la definizione di nuovi prodotti e servizi o un miglioramento degli esistenti. Poco più del 25% ritiene che l’utilizzo dell’IoT migliorerebbe il resource management.

La categoria meno popolare è stata infine la convenienza per i consumatori, collegabile alla convinzione che la user experience possa risultare migliorata e che una più ampia user experience comprenda un migliore rapporto qualità-prezzo.

Scarica il booklet completo (pdf)

SAS Analytics Experience 2016

di Dan Pejeroni [Infosphere]

From Internet of Things to Internet of Emotions

“La Digital Disruption – la Trasformazione Digitale – è ormai un fatto inevitabile e ogni organizzazione sarà costretta a dotarsi di un piano per gestirla”. Carl Farrell (Executive Vice President & Chief Revenue Officer di SAS) apre con queste parole la SAS Analytics Experience 2016, tenutasi a Roma dal 7 al 9 novembre scorsi.

analytics-experience-roma-2016

Oltre mille, tra professionisti dell’Information Technology, sviluppatori, esponenti delle maggiori testate specializzate, blogger e influencer del mondo digitale si sono riuniti nella sala grande del Marriot Hotel, per seguire su un palcoscenico, degno di un concerto rock, l’evento dell’anno su Big Data, Internet of Things e Analytics

img_20161109_092106
Jon Briggs

Jon Briggs, per trent’anni giornalista della BBC e oggi voce di Siri (l’assistente vocale di iPhone), con un’ironia squisitamente anglosassone, dialoga con Carl Farrell, che pone subito l’accento sulla punta di diamante degli Analytics di SAS: la piattaforma open Viya.

“Open” in quanto dedicata a tutte le tipologie di utenti, non solo professionali, aperta all’accesso alle applicazoni di terze parti e a tutti i linguaggi del momento, come Java e Python.

I mega screens e i subwoofer della macchina scenica di Analytics 2016 eruttano ancora immagini e musica mentre Randy Guard (Executive Vice President e Chief Marketing Officer di SAS), sale sul palco del Marriott.

Viya non solo per risolvere i problemi correnti, ma per crescere, perché “Analytics è un mercato in crescita”. Oggi le aziende non si chiedono “Perché dovrei usare Google Analytics?”, ma piuttosto “Come faccio a ottenere di più dei miei dati?”.

E’ il momento poi di Oliver Schabenberger (Executive Vice President e CTO). Nell’Internet of Things ogni dispositivo, ogni sensore raccoglie dati e “Analytics è dove sono i dati”, che siano dati live che scorrono in streaming, che storicizzati nei Data Lakes. Entrambe le fasi richiedono diversi approcci analitici ma, secondo il CTO, comunque richiedono analisi.

E’ la volta di Jim Zemlin, direttore esecutivo della Linux Foundation . “Tecnicamente, sono il capo di Linus Torvalds, anche se di fatto lui non mi ascolta mai”.

“C’è ancora troppo software da scrivere”, sostiene Zemlin e i programmatori di software tradizionale non riusciranno a tenere il passo richiesto dall’evoluzione dell’IoT. E’ indispensabile scrivere questo software insieme, dice e come esempio cita Linux: ogni giorno si aggiungono 10.800 linee di codice, 5300 vengono rimosse e 1875 modificate, in questo modo il sistema operativo è in grado di adattarsi rapidamente alle mutevoli condizioni e alle esigenze dei clienti.

Ma l’open source non sarà la fine del software proprietario, aggiunge Zemlin e propone una combinazione di entrambi i modelli. E’ già una realtà per molte software house e la maggior parte delle soluzioni sono rappresentate oggi da codice open source.

Utilizzando come un team di sviluppo esterno la comunità open source, si può ottenere un più rapido time-to-market . Il team di sviluppo proprietario dovrebbe prendersi cura solo di una piccola parte delle soluzioni, per creare caratteristiche differenzianti e quindi valore aggiunto. “Il futuro è open source“, conclude Zemlin.

David Shing, il profeta digitale che ha collaborato con AOL, irrompe sulla scena come uscito da un quadro di Pollock, con una criniera di capelli neri che sfumano al blu.

shingy
Dan Pejeroni e David Shing

Shingy supera il concetto di Internet of Things, per parlare di Internet of Emotions: “Servono capacità predittive per seguire i comportamenti umani, per capire le abitudini delle persone e soddisfare i loro bisogni senza imporli”.

“La tecnologia modifica i comportamenti ma non i bisogni”, aggiunge. “Senza i dati non c’è creatività, ma senza creatività non ci sono i dati. Così, anche se gli smartphone possono ormai fare quasi tutto, è necessario convincere gli utenti a scaricare le app”. Servono nuovi modelli di marketing, che tengano conto che “le persone comprano ancora dalle persone”.

L’intervento di Tamara Dull (Director of Emerging Technologies di SAS) è dominato da Alexa di Amazon, che campeggia a lungo sullo sfondo della scena. Ci parla dei rischi e delle opportunità dell’Internet of Things e della necessità di formazione per una generazione di data scientists in grado di utilizzare la potenza degli Analytics. Ci dice che l’IoT è un movimento e ci propone il suo IoT IQ Test.

tamara-dull
Tamara Dull (Director of Emerging Technologies di SAS)

Tamara prosegue poi a raccontare il suo punto di vista in sala stampa, rispondendo alle domande che giornalisti e blogger le rivolgono nel corso dell’attesa intervista. Abbiamo parlato a lungo di fattori che possono ostacolare o favorire la diffusione dell’Internet of Things, di standard, di privacy e del fatto che sia indispensabile inalzare i livelli di sicurezza dei protocolli di comunicazione dei Big Data.

Alla fine ho avuto l’opportunità di scambiare alcune battute con lei a proposito del lungo thread che avevo seguito nel 2015 sul blog SmartDataCollective dove Tamara e Anne Buff si sfidarono per oltre due mesi a colpi di pros e cons sul Data Lake Debate, con la mediazione di Jill Dychè e che si concluse con le considerazioni che: un Data Lake non è data warehouse, è caratterizzato da costi sensibilmente più bassi, permette l’uso di Advanced Analytics, ma che sarà necessario provvedere alla carenza di skills per un suo adeguato utilizzo.

L’Analytics Experience 2016 non è stata solo una full immersion nel mondo delle tecnologie informatiche, ma anche un incontro con l’arte. Mi sono ritrovato così, con il naso all’insù, nella Cappella Sistina ad ammirare la Sublime Infografica con cui Raffaello, Botticelli, Michelangelo e molti altri hanno realizzato la Biblia Pauperum, meglio definita come “teologia visiva”.

sistina
Cappella Sistina – La volta di Michelangelo

In fin dei conti un’enorme quantità di dati, che non si limitano a raccontare la storia del cristianesimo, ma che hanno rappresentato per più di cinque secoli un punto un riferimento culturale e sociale universale, attraverso il quale milioni di individui hanno condiviso un comune ideale spirituale, ma anche un’idea di società e di organizzazione.

Block Chain 2.0: Il rinascimento del denaro

di Dan Pejeroni [Infosphere]

Una rete Bitcoin è un’ entità decentrata. Per questo principio ogni volta che si verifica un’operazione di pagamento tra i membri della rete, questa deve essere verificata e convalidata, in modo da assicurare che ogni transazione si svolga solo tra due parti e che non vi sia duplicazione della spesa.

3

Questo processo di verifica viene effettuato da alcuni membri della rete, chiamati minatori che, utilizzando software specializzati e mettendo a disposizione la potenza di elaborazione dei loro computer, verificano le transazioni. Sembrerebbe semplice, ma la potenza di elaborazione necessaria è decisamente elevata.

E’ questo il punto dove la Block Chain comincia a prendere forma. Ogni pochi minuti, un minatore crea un blocco di tutte le transazioni che si verificano sulla rete Bitcoin. In sostanza crea un file verificato, che contiene una copia di tutte le operazioni che si sono succedute negli ultimi 10 minuti. E’ importante sottolineare l’aspetto della verifica.

Per i propri sforzi, il minatore è compensato in Bitcoin. È qui che si manifesta la matematica della valuta e il modo in cui si differenzia dal sistema bancario tradizionale a riserva frazionaria. La quantità totale di Bitcoin che potranno esistere è fissata in 21 milioni.

Ogni blocco è collegato al precedente, in modo da formare una catena. Questo raggruppamento di blocchi avviene secondo l’algoritmo alla base della creazione di Bitcoin ed è definito protocollo Block Chain.

1

Se il TCP/IP è un protocollo di comunicazione, il  Block Chain è un protocollo Value-Exchange.

Da quando è stata pubblicata online la white paper di Satoshi (pseudonimo del creatore di Bitcoin), altre crypto-currencies sono proliferate nel mercato. Ma, a prescindere dalla valuta e dalle questioni di deflazione che sono state spesso oggetto di dibattito, il protocollo di Block Chain sottostante e l’architettura di calcolo distribuito utilizzato per raggiungere il suo valore, rimangono gli stessi.

2

Come il protocollo aperto di comunicazione TCP/IP, ha creato Internet ed una moltitudine di prolifici servizi di business, il protocollo Block Chain offre la base su cui le aziende potranno creare catene a valore aggiunto. Utilizzando il reticolo di integrità delle operazioni, una nuova generazione di applicazioni commerciali stanno per entrare nel mercato.

Micropagamenti

Il sistema di pagamento utilizzato fino ad oggi, è stato progettato nel 1950 e comporta un costo fisso per ogni transazione. Di conseguenza l’invio di piccoli pagamenti (ad esempio di pochi centesimi) non risulta affatto economico.

Il protocollo Block Chain consente il trasferimento istantaneo di valore, indipendentemente dalle dimensioni, proprio come il TCP/IP consente la trasmissione immediata di informazioni. Una società che sta facendo uso di questo concetto è ChangeCoin.

ChangeCoin offre un’infrastruttura di micropagamenti per il Web. Prendiamo ad esempio un sito che, con l’account free, intenda offrire ai propri utenti solo la lettura di un quarto di un articolo e richieda una sottoscrizione minima, per accedere alla versione completa dello stesso. Con i micropagamenti, l’utente potrà ora pagare pochi centesimi per leggere l’intero articolo, senza impegnarsi in alcuna forma di abbonamento. Un altro esempio di questa possibilità potrà essere applicata alla Pay-tv, dove i consumatori potranno acquistare e pagare un singolo programma o applicata ai servizi di connettività, presso gli hot spot WiFi, dove gli utenti si limiteranno a  pagare il solo traffico generato.

ChangeCoin ha creato anche un’opportunità per i creatori di contenuti e blogger, in forma di ChangeTip. I lettori possono ora utilizzare i Bitcoin, per ricompensare il creatore di un contenuto con una piccola somma (anche solo 5 centesimi). Questo non è solo un modo innovativo per dimostrare apprezzamento, ma un modello che cambierà il business della creazione di contenuti e del loro mantenimento.

Aziende come Chain, ora consentono agli sviluppatori di costruire API sul protocollo Block Chain, che permettono di:

  • allocare risorse digitali come energia, larghezza di banda, storage e potenza di calcolo, ai dispositivi connessi/servizi che li richiedono (es. FileCoin);
  • API per Oculus Rift per l’accesso al mondo virtuale, che sta diventando sempre più simile agli ambienti dei film di fantascienza. Questi sviluppatori stanno cercando di creare un set di API da utilizzare nello spazio virtuale per effettuare transazioni, sfumando i confini tra le economie virtuali e reali;
  • API per micropagamenti personalizzati sul tipo delle transazioni caratteristiche dalla sharing economy, come pagare la lettura di un blog, piuttosto che un singolo passaggio nel car sharing.

Smart Contract e moneta programmabile

Gli Smart Contract sono programmi che codificano ed incorporano condizioni e corrispettivi. Quando si verifica una transazione tra due parti, il programma è in grado di verificare se il prodotto/servizio sia stato effettivamente inviato dal fornitore. Solo dopo la verifica, la somma viene trasmessa al conto del fornitore. Un altro esempio sono i programmi intelligenti che funzionano a condizioni predefinite tra fornitore e cliente, assicurando un servizio di deposito di garanzia in tempo reale, con costo marginale vicino allo zero. Codius offre già oggi un completo ecosistema per i Smart Contract.

Oltre alle transazioni finanziarie, gli Smart Contract stanno entrando anche nel sistema giuridico. Aziende come Empowered Law, utilizzano un registro pubblico distribuito delle transazioni, basato su Block Chain, per fornire servizi di multi-signature per la protezione di beni, pianificazione, risoluzione delle controversie, leasing e corporate governance. Un esempio di applicazione dei Distributed Contracts sono i cosiddetti Colored Coins, ossia un set di dati aggiuntivi (attributi) pubblicati e gestiti sul Registro Decentrato, che trasformano i coins in token, al fine di poter essere impiegati per rappresentare qualsiasi cosa, non necessariamente una valuta.

Digital Assets e Smart Property.

Costruendo entità digitali sui Colored Coins, si ottengono beni la cui proprietà è registrata digitalmente. I Bitcoin sono beni digitali ma, dal momento che la Block Chain è un Registro Decentrato di beni, essa può anche essere utilizzata per registrare la proprietà e il trasferimento di qualsiasi risorsa connessa al Bitcoin. In questo modo, un Bond digitale potrebbe pagare cedole e rimborsare il capitale all’indirizzo del detentore, senza il bisogno di custodi.

Un ulteriore evoluzione di questo concetto, è rappresentato dalla Smart Property. Una Smart Property è una proprietà che ha accesso alla Block Chain e che può intraprendere azioni sulla base delle informazioni in essa pubblicate. In altre parole la Smart Property può essere controllata tramite la Block Chain (ad esempio, un auto la cui proprietà è rappresentata da una risorsa digitale nella Block Chain). L’automobile fisica è connessa a Internet ed è in grado di leggere la Block Chain, quindi può tenere traccia dello stato della risorsa digitale che la rappresenta. Come il Digital Asset viene trasferito da un indirizzo ad un altro, l’auto, consapevole dell’aggiornamento di stato avvenuto sulla Block Chain, è in grado di intraprendere le azioni necessarie, come cambiare il suo proprietario. E un modo di automatizzare l’Internet of Everything.

Ethereum e il browser  Mist

Ethereum è al lavoro per unire il Registro Distribuito con l’ambiente di programmazione di Turing, che è un linguaggio che può essere utilizzato per simulare qualsiasi altro linguaggio di programmazione (e non solo il suo). L’obiettivo della società è la realizzazione una sorta di coltellino svizzero del Block Chain e degli strumenti di crittografia per consentire anche agli utenti non-tecnici, di sfruttare pienamente queste nuove tecnologie sul web.

Block Chains parallele e Side Chains

Alcuni sviluppatori stanno iniziando a considerare la creazione di Block Chain alternative, per evitare la dipendenza da una singola catena. Le Block Chain parallele e laterali offrono un buon compromesso tra scalabilità e possibilità di innovazione.

Le Filippine e il Peso

Il governo delle Filippine ha in progetto di mettere la propria moneta (il Peso) in Block Chain, per migliorare i propri servizi finanziari. Un’iniziativa decisamente rivoluzionaria.

Le Crypto tecnologie e le banche europee

Diverse banche di medio-piccole dimensioni hanno adottato l’architettura Block Chain. La tedesca Fidor Bank , per esempio, offre alla clientela un sistema di trading in valuta e di trasferimento fondi trans-frontaliero basato su Ripple dal 2014. Il sistema si basa su block chain, ma non utilizza un registro pubblico, operando in modo distribuito su nodi appartenenti agli aderenti al network. I costi e la velocità di esecuzione, praticamente in tempo reale, sono i principali punti di forza del sistema.

L’uso di un registro distribuito ma non pubblico sembra l’approccio preferito dalle istituzioni finanziarie nell’adozione delle tecnologie crittografiche basate su Block Chain. Almeno questo è quanto consiglia l’Associazione Bancaria Europea (ABE-EBA) nel suo recente rapporto sulle Krypto tecnologie. Esaminando le possibili applicazioni  delle architetture Block Chain e delle relative tecnologie crittografiche, l’EBA individua quattro categorie di applicazioni:

  • monetarie (criptovalute);
  • registrazione della proprietà di asset (titoli, veicoli, case, nomi di dominio);
  • ambienti di sviluppo applicazioni (applicazioni distribuite su reti decentralizzate peer-to-peer pubbliche, ossia versioni decentralizzate dei vari servizi cloud sul mercato oggi);
  • scambio di rappresentazioni digitali di asset già esistenti (valute, metalli, titoli azionari, bond) basato su un registro condiviso dai partecipanti al network.

Lo studio dell’EBA ritiene che dei quattro abiti, quello più maturo e più adatto per l’adozione da parte delle istituzioni finanziarie tradizionali sia l’ultimo. Alla base sta l’utilizzo di registro condiviso, non però su rete pubblica ma solo sui nodi dei partecipanti al network, che si impegnano a pubblicare rappresentazioni digitali degli asset trattati. In questo modo la fiducia è organizzata direttamente tra i partecipanti e non per mezzo di strumenti tecnologici come il mining. Alcuni dei partecipanti al network hanno un ruolo speciale, di convertire le rappresentazioni digitali in asset appartenenti al mondo fisico. Questi partecipanti speciali che fanno da porta verso e dall’esterno sono definiti market maker. Un ruolo aggiuntivo dei market maker è quello tradizionale di garantire liquidità e asset. Infine, tra alcuni partecipanti al network è possibile attivare relazioni esclusive, riducendo i rischi di controparte (come accade in alcune dark pools). L’EBA individua quattro possibili applicazioni di queste reti: cambi/rimesse, pagamenti real-time, cosiddetto documentary trade (il caso più noto sono le lettere di credito per il commercio estero); scambio di asset di ogni tipo, dalle valute ai titoli di debito, alle azioni, ai metalli e alle commodities. Il vantaggio delle architetture block chain in tutte queste applicazioni possibili è la riduzione della complessità, l’esecuzione in tempo reale (che riduce i rischi di insolvenza) e il coordinamento automatico tra tutte le parti grazie al registro condiviso delle transazioni.

Indipendentemente dai consigli dell’EBA, diverse istituzioni finanziarie si stanno interessando a block chain. Oltre ad alcune banche piccole e medie, come la già citata Fidor e diverse negli Stati Uniti, si stanno muovendo i giganti. Pescando tra gli annunci delle ultime settimane: UBS ha costituito un laboratorio interno  sulla Block Chain presso la sede di Londra; Goldmann Sachs ha investito 50 milioni di dollari in una start-up, Circle Internet Financial, che sta realizzando un servizio di pagamenti real-time decentralizzato basato su Block Chain; Il Nasdaq sta costruendo un pilota per il Nasdaq Private Market, un’area di scambio per i titoli azionari in fase pre-IPO che consente il trading di azioni tra privati. Fino ad oggi, il trading sul Private Market richiedeva la stipula di contratti legalmente vincolanti con l’intervento degli studi legali. Utilizzando la Block Chain, questa esigenza sparisce: uno scambio viene registrato in modo immodificabile sul registro condiviso, senza bisogno di legali.

Infine, Banco Santander ha identificato 25 aree dove applicare le architetture Block Chain. Tra quelle di interesse ufficialmente annunciate ci sono il money transfer internazionale, la finanza per il commercio, i prestiti sindacati e la gestione del collaterale. La banca spagnola ha costituto un’unità di sviluppo denominata Crypto 2.0  e ha deciso di investire, tramite il proprio fondo specializzato in fintech, Santander InnoVentures con una dotazione di 64 milioni di euro, in una start-up attiva nelle tecnologie Block Chain. L’attività di Santander è particolarmente interessante perché non si limita alle aree “sicure” identificate da EBA. In un recente intervento pubblico, infatti, Julio M.Faura, global head of R&D innovation di Santander, ha chiaramente identificato come area più promettente quella degli ambienti applicativi e in primo luogo i Smart Contracts.

Una trasformazione radicale

A dicembre 2014, Don Tapscott, uno dei massimi esperti di tecnologia ed innovazione ha ammesso di essersi sbagliato a proposito di Bitcoin, dichiarando “… Pensavo non sarebbe mai decollato. Ma ora penso che non solo lo farà come moneta, ma che, con la  sottostante tecnologia Block Chain, diventerà una parte fondamentale della prossima generazione di Internet trasformando radicalmente il commercio e le nostre stesse istituzioni sociali ”

 

Fonti:

  • Kariappa Bheemaiah (Quantitative Research Analyst at Grenoble Ecole de Management)
  • Istituto Centrale delle Banche Popolari Italiane S.p.A.

Digital Disruption: Non temete gli unicorni, esistono solo nelle favole

di Dan Pejeroni [Infosphere]

Il professor Ariely è un esperto di economia comportamentale. Sa che gli esseri umani sono facilmente indotti ad agire contro il proprio interesse personale. Nel suo libro “Prevedibilmente irrazionale”, Ariely spiega come le nostre emozioni ci portino ad affrettate scelte sulle sfere personali ed economiche. Ci mette in guardia di come “la nostra avversione alla perdita, è un’emozione forte, quella che a volte ci fa prendere decisioni sbagliate”.

lampadina

La reazione impulsiva di allarmismo verso la Digital Disruption, avrebbe potuto trovare certamente posto nelle pagine del libro del prof Ariely. Nella misura in cui cresce la preoccupazione per questo fenomeno, diventato ormai virale (la ricerca Google “Digital Disruption” è salita alle stelle), le grandi organizzazioni allocano maggiori quantità di denaro in competenze digitali, nel tentativo di evitare lo spettro di un fallimento causato da l’ultima Airbnb, Uber e via discorrendo.

Questo fatto è prevedibile, quanto irrazionale. Gli skill digitali, di per se porteranno certamente ad un rapido progresso e l’introduzione di un’app per il mobile banking, potrà aumentare la popolarità di una banca tra i millennials, ma non  rappresenterà certo una rivoluzione del settore dei servizi finanziari.

Prendete in considerazione questa statistica: la stragrande maggioranza dei centomila sviluppatori di applicazioni mobili, vive al di sotto della soglia di povertà. Una vera rivoluzione richiede molte più competenze interdisciplinari, che soli “skill digitali”. Considerate Peter Thiel, imprenditore seriale di startup come PayPal e Palantir Technologies, ora sostenitore di molti digital disruptor. Peter non è un hacker archetipico, ha una laurea in Filosofia e un dottorato in Giurisprudenza.

Thiel ha pubblicato un libro intitolato “Da zero ad uno”, nel quale condivide la sua visione su come unicorni e gazzelle (le start-up di grande successo) prendono vita. Si inizia con una squadra ad alto numero di ottani, che risolve un enorme, irrisolto problema, dieci volte meglio della più prossima alternativa disponibile, e quindi lo monopolizza. Se volete “disruption” nell’accezione di Thiel, avrete bisogno di imprenditorialità più che di ogni altra cosa.

Le grandi aziende sono costruite per passare da “uno a n”. General Motors, Toyota e Volkswagen non hanno l’obiettivo di re-inventare l’auto (Tesla, Alphabet e Local Motors sono in grado di farlo meglio di loro), ma di sfornarne milioni di esemplari l’anno. Si sono evolute in organizzazioni gerarchiche (spesso a matrice), per diventare molto bravi a fare le cose in modo prevedibile e su larga scala. Queste priorità hanno trasformato la società moderna in un ambiente caratterizzato da imprenditorialità aggressiva. La loro cultura è refrattaria al fallimento. Tipicamente la conseguenza per questo peccato capitale, è un viaggio di sola andata in qualche Siberia aziendale, se non un definitivo licenziamento. D’altra parte gli HR manager, per i casi di successo, non possono offrire partecipazioni azionarie, un ingrediente fondamentale per il successo imprenditoriale.

Inoltre l’imprenditorialità è imprevedibile ed i profitti richiedono tempo: le buone idee di oggi non potranno influire sui risultati del prossimo trimestre. Inoltre le gerarchie utilizzano processi per qualsiasi cosa. A loro non piacciono le sperimentazioni imprenditoriali (queste sono considerate “distrazioni”). Infine, il processo decisionale nelle gerarchie è lento, disordinato e basato sul consenso; le startup invece hanno bisogno di operare alla velocità della luce e con un focus da laser.

Alla fine, la maggior parte dei CEO, pur rendendosi conto che un certo grado di “imprenditorialità interna” sarebbe assolutamente necessario, sono costretti a sopprimere nella propria azienda questa proattività, anche se non lo ammetteranno mai. I pochi che riescono a cogliere questa illuminata intuizione imprenditoriale, ottengono una vera accelerazione strategica.

Dopo tutto, le società tradizionali hanno un vantaggio sleale rispetto start-up: un accesso privilegiato alla tecnologia ed ai capitali, la fidelizzazione dei clienti e un pool di collaboratori con la conoscenza del dominio, competenze e idee di business. Le iniziative dei loro leader che colgono lo spirito delle startup e stimolano l’iniziativa dall’interno, sono contro-intuitive e non-convenzionali, ma c’è una contropartita.

Innanzi tutto rispediranno gli unicorni come Uber al loro posto, nel mondo delle favole, restituendo al termine gazzella l’originale significato: “preda per i leoni”.