Internet Of Green

di Dan Pejeroni [Infosphere]

Utilizzare l’agrometeorologia con le tecnologie Internet of Thing e Machine Learning per la gestione degli impianti di irrigazione è stata la sfida che mi sono posto progettando e sviluppando questo prototipo. Lo scopo di questo primo articolo è presentare l’abstract del progetto, mentre nei seguenti fornirò i dettagli tecnici degli aspetti funzionali, hardware e software.

Le comuni centraline degli impianti di irrigazione sono in grado di controllare l’erogazione idrica alle diverse zone in cui è suddivisa l’area verde, fornendo quantità d’acqua predefinite (in base al tempo di attivazione dei vari gruppi di erogatori). I cicli di irrigazione sono quindi subordinati a calendari settimanali programmabili. 

L’aspetto critico di questo approccio è rappresentato però dall’ottimizzazione del consumo d’acqua, spesso prelevata dalla rete idrica che impone stringenti limiti a queste forme di utilizzo. Se, per esempio, il nostro programma di irrigazione prevedesse 5 cicli settimanali dalle 3:00 alle 5:00, avremmo un consumo di oltre 2 mq giornalieri e, tenere conto del fattore pioggia per risparmiare cicli, diventerebbe assolutamente prioritario. Purtroppo l’unico strumento spesso disponibile su questi impianti è rappresentato da rudimentali sensori pioggia che quando si bagnano interrompono l’irrigazione fino a quando non si asciugano. Se la precipitazione arrivasse successivamente all’ora di attivazione prestabilita, avremmo sprecato 2000 litri di preziosa acqua potabile. 

Partendo da queste considerazioni ho deciso di creare Internet Of Green, un micro controller basato sulla scheda Arduino MKR 1010, che sfrutta diverse strategie per minimizzare il consumo idrico e garantisce un’erogazione ottimale alle varie zone verdi. Il sistema scambia dati con il cloud Internet Of Things Blink, per il controllo remoto da PC e smartphone.

 

La MKR WIFI 1010 è la versione migliorata della MKR 1000 WIFI. E’ equipaggiata con il modulo ESP32 della U-BLOX. Questa scheda mira a velocizzare e semplificare la prototi-pazione di applicazioni IoT basate su WiFi grazie alla flessibilità del modulo ESP32 ed il suo basso consumo.

La scheda è formata da tre blocchi principali: il processore SAMD21 Cortex-M0+ 32bit Low Power ARM MCU; il modulo WiFi U-BLOX NINA-W10 Series Low Power 2.4GHz IEEE® 802.11 b/g/n; ed il chip ECC508 Crypto Authentication.

 

Per ottenere questi risultati Internet Of Green utilizza congiuntamente diverse strategie:

  • monitoraggio e analisi dell’umidità del terreno delle singole zone;
  • analisi parametri ambientali rilevati dalle sonde;
  • previsioni meteorologiche (ottenute da API OpenWeatherMap);
  • machine learning sulla pluviometria effettiva.

Il micro controllore riceve una serie di dati in tempo reale da una rete di sensori ambientali e mantiene uno storico, successivamente utilizzato dagli algoritmi di machine learning per prendere le decisioni operative sui criteri di irrigazione:

  • temperatura e umidità dell’aria;
  • pressione atmosferica;
  • velocità del vento;
  • radiazione solare;
  • pluviometria;
  • umidità del terreno.

Monitoraggio dell’umidità del terreno

L’umidità del terreno è rilevata da sonde capacitive a minima corrosione che la trasmettono (ogni 10′) al controller che, comparando i valori ottenuti con i trigger impostati, fornisce o inibisce il consenso all’irrigazione. Durante il periodo estivo su terreno argilloso e prato di Festuca arundinacea, valori di umidità compresi tra il 25 e il 30% hanno dato risultati soddisfacenti. Se da un lato questa modalità di gestione dell’irrigazione può

 
 

garantire un livello minimo di umidità del terreno, dall’altro, come metodo consuntivo, non garantisce la minimizzazione del consumo idrico. Non è inoltre in grado di modulare la quantità d’acqua da erogare per ogni ciclo irriguo, non essendo in grado di prevedere il fattore di evapotraspirazione, legato a parametri ambientali quali temperatura, umidità dell’aria, vento e livello di irraggiamento.

Previsioni meteorologiche OpenWeatherMap

La strategia più idonea per un efficace contenimento dei consumi idrici è quella di consultare le previsioni meteo prima di avviare ogni ciclo di irrigazione. Per essere utilizzata praticamente una previsione deve essere però interpretata, poiché é necessario decidere se un determinato scenario di previsione può essere preso con sufficiente sicurezza come segnale di sospensione del normale ciclo irriguo. Trattandosi in ogni caso di una previsione di natura generale, questa decisione deve essere adattata alle caratteristiche orografiche del territorio specifico.

Internet Of Green, immediatamente dopo la mezzanotte, attiva la seguente serie di processi per attuare la strategia predittiva:

  • Utilizza le API messe a disposizione dal network OpenWeaterMap per scaricare la più recente previsione (suddivisa in otto intervalli di tre ore) che copre le successive 24 ore;
  • Traduce la previsione in un indice che rappresenta la probabilità che nelle successive 24 ore si verifichi un evento piovoso significativo e lo salva nella knowledge base;
  • Consolida il valore di pioggia effettiva (ricavata del pluviometro) nelle trascorse 24 ore, lo salva nella knowledge base e conferma o meno la previsione;
  • Attiva il processo di apprendimento (decision tree) sull’intera knowledge base ottenendo un benchmark aggiornato con cui paragonare la previsione ottenuta;
  • Abilita o disabilita l’irrigazione;

Questa strategia, con la crescita della base dati storica, aumenta nel tempo l’attendibilità della previsione effettuata dagli algoritmi di machine learning, adattandola alle condizioni locali e alle specifiche finalità di controllo dei cicli irrigui. Affiancata al monitoraggio dell’umidità del terreno, permette notevoli risparmi idrici evitando inutili irrigazioni.

Evapotraspirazione e bilancio idrico

L’evapotraspirazione (ET) rappresenta la quantità d’acqua che effettivamente evapora dalla superficie del terreno e traspira attraverso gli apparati fogliari delle piante, in determinate condizioni di temperatura, vento, umidità e irraggiamento solare. In estrema sintesi, possiamo affermare che Il nostro bilancio idrico è dato dalla differenza tra la precipitazione (mm di pioggia)

e l’evapotraspirazione. Questa differenza deve essere compensata dall’irrigazione. L’evapotraspirazione aumenta per effetto dell’irraggiamento, del vento e della temperatura, ma dipende anche dalle caratteristiche morfologiche del terreno e ecofisiologiche della coltura.

Internet Of Green, attraverso una rete di sensori ambientali, rileva nel corso delle 24 ore queste grandezze, consolidandole a fine giornata e calcolando quindi l’evapotraspirazione (mm/day). Poiché questo valore anticipa ciò verrà rilevato a consuntivo dalle sonde di umidità del terreno, possiamo utilizzarlo per modulare la quantità d’acqua da fornire alle varie zone, agendo sul tempo di erogazione degli irrigatori.

Una gestione multilivello

Internet Of Green, per realizzare una gestione ottimale dell’impianto d’irrigazione, può quindi avvalersi di tre distinte metodologie che possono essere utilizzare in modo indipendente o combinato. Per un gestione di base, è possibile avvalersi del solo monitoraggio dell’umidità del terreno, che disabilita l’irrigazione quando questo parametro supera la soglia di trigger impostata (per esempio 30%), oppure affidarsi alle sole previsioni meteorologiche, in modo che in previsione pioggia l’irrigazione venga sospesa. Anche utilizzando il solo controllo dell’evaporazione e del bilancio idrico è possibile gestire l’irrigazione, ma è dalla combinazione delle tre strategie che si ottengono

i migliori risultati garantendo un corretto livello di umidità al terreno minimizzando nel contempo i consumi idrici.

Il prototipo Internet Of Green è in fase di beta testing da agosto 2019 offrendo risultati molto positivi. Per la gestione WiFi dei sensori sul campo, è stata sperimentata l’adozione del protocollo MQTT e del cloud ThingSpeak. Nell’ultimo periodo è corso di valutazione anche l’utilizzo della nuova scheda Arduino MKR1310 a basso consumo che implementa la comunicazione LoRa (Long Range) e il cloud The Things Network.

SAS Analytics Experience 2017

Gli Analytics conquistano l’Edge Computing

moven

Si conclude oggi SAS Analytics Experience 2017, la più importante convention europea del colosso degli analytics. Molti gli speakers che si sono succeduti sul palco del centro congressi del Mövenpick di Amsterdam, in un clima estivo che non ha fatto rimpiangere le ottobrate romane. La kermesse è stata moderata da Jon Briggs (il noto giornalista della BBCe ITN) che, con la sua consueta simpatia, ha portato quel briciolo di humor anglosassone, a cui siamo ormai abituati.

A parte le figure istituzionali della corporation (Jim Goodnight, Fritz Lehman, Randy Guard e Oliver Shabenberger), la prima giornata è stata quasi monopolizzata dal tema: come le nuove tecnologie possono supportare le iniziative umanitarie. In primo piano il principe Pieter-Christiaan Michiel della Dutch Royal Family, ieri in veste di Vice Chairman del board della Croce Rossa olandese.

1426461406823

La scena di oggi è stata invece indubbiamente dominata dalla spontaneità di Hannah Fry (relatrice presso Mathematics of Cities al Centre for Advanced Spatial Analysis dell’UCL), che ha presentato una selezione di curiose analisi statistiche, dimostrando le spettacolari prospettive della (big) data analysis applicata.

Jim Goodnight Utilizzare gli analytics per essere “disruptors” e non “disrupted”

“Così come la nascita di Internet ha cambiato il mondo modificando praticamente ogni aspetto della nostra società, gli Analytics hanno oggi il potenziare di fare lo stesso”. Jim Goodnight, fondatore e CEO di SAS, apre così l’Analytics Experience 2017 di Amsterdam.

Goodnight

Ci parla dell’impatto della nascente Economia Analitica attraverso i vari settori di mercato. Le più importanti tendenze convergono, come l’automazione interconnessa e l’intelligenza artificiale. “È alimentata da una apparentemente infinito flusso di dati ed è nutrita dalla nuova democrazia degli Analytics”, sostiene.

Il valore real-time degli Analytics risiede nei milioni di micro-momenti che offrono “opportunità per le organizzazioni di prendere decisioni e stabilire nuove connessioni per andare avanti o restare indietro”. L’economia analitica ci porta in una nuova era di cambiamenti, alcuni positivi, altri che possono risultare veramente distruttivi.

 

Randy Guard: Gli Analytics guidano il valore dell’Internet of Things

L’intervento più atteso di oggi è stato quello di Randy Guard (VP e CMO di SAS), che ci ha offerto uno sguardo sullo stato dell’arte della fortunata convergenza tra IoT (Internet of Things) e Analytics.

Randy

Randy inizia la sua presentazione con due esempi, molto suggestivi: gli Smart Pills (i medicinali intelligenti), che supportano i pazienti nelle loro terapie. Questi sensori inghiottibili sono in grado di monitorare i pazienti nell’assunzione di farmaci e controllare successivamente la loro efficacia nel corso del regime terapeutico.

Il secondo case riguarda minuscoli dispositivi che possono essere posizionati sul corpo delle api per tentare di risolvere il mistero che sta dietro al declino della loro popolazione. Questi dispositivi possono memorizzare il tempo e la distanza percorsa dall’insetto quando si allontana dal proprio alveare, monitorare la loro dieta, le condizioni ambientali a cui sono sottoposte e la loro esposizione a pesticidi e inquinamento.

I settori di mercato come energy e manufacturing impiegano sensori da molto tempo. La novità è rappresentata oggi dalla pervesività dei dispositivi connessi, il loro numero è incredibilmente aumentato, al punto che ora abbiamo più dispositivi connessi che esseri umani. Pensate a tutti gli apparecchi della vostra casa e moltiplicateli per tutti i consumatori del mondo, aggiungete i dispositivi industriali e beni a valore aggiunto come aerei e camion e avrete un’idea dell’impressionante esplosione dei dati disponibili.

Un’altra novità è la nostra abilità di fare analisi e prendere decisioni a livello di “edge” (sui dispositivi periferici, n.d.r.). Sensori, dispositivi di rete, sistemi di storage stanno rapidamente aumentando la loro potenza e la loro velocità rendendo possibile la comprensione dei dati nel momento stesso in cui vengono generati.

Le ecomonie sono guidate dal valore e nella analytics economy il valore dell’IoT deriva dalla scala. Come possiamo capitalizzare su questa opportunità? Non limitandoci a considerare la condizione di un singolo paziente o di una sola ape, ma focalizzando le nostre energie sull’effetto nella rete.

Utilizzando l’esempio della Smart Pill che migliora il trattamento di un paziente per volta, immaginate l’impatto sui costi sanitari di una nazione, quando tutti i pazienti contemporaneamente avranno una cura più efficace ed efficiente.

Possiamo capitalizzare questo tipo di valore se mettiamo gli analytics nel punto dove il dato viene prodotto. Connesso non significa necessariamente intelligente e connettività da sola non aggiunge valore. Sono gli analytics a guidare il valore dell’Internet of Things.

 

I risultati della survey sull’Artificial Intelligence

In occasione dell’Analytics Experience 2017 di Amsterdam è stato inoltre reso pubblico il risultato del recente studio realizzato da SAS, sullo stato dell’adozione delle tecnologie AI (Artificial Intelligence) da parte delle aziende europee.

La buona notizia è che molte tra le organizzazioni intervistate, hanno iniziato a parlare di AI, anche se poche hanno iniziato a implementare progetti reali. C’è molto ottimismo sul potenziale dell’AI, ma pochi sono confidenti che le loro organizzazioni siano pronte a sfruttare questo potenziale.

La lenta adozione dell’AI da parte delle aziende, non pare sia imputabile alla carenza di tecnologie disponibili, quanto ad una diffusa difficoltà a reperire competenze di data science da impiegare nei progetti, nonché a profondi ostacoli organizzativi.

Il 55% degli intervistati ritiene che la sfida più grande collegata all’AI sia rappresentata dal cambiamento che deve essere introdotto nell’organizzazione del lavoro
. L’adozione dell’AI implica una perdita di posti di lavoro, ma ha anche il potenziale di crearne di nuovi.

In seconda posizione compare la questione etica, con il 41% degli intervistati che si chiedono se robot e Intelligenze Artificiali dovrebbero lavorare per “il bene dell’umanità”, piuttosto che semplicemente per una singola azienda e la gestione dei posti di lavoro persi a causa della tecnologia.

Solo il 20% degli intervistati ritiene di avere pronti team di data scientist in grado di affrontare le sfide dell’AI, mentre il 19% non dispone per niente di queste competenze.

Il 28% ha in programma di assumere data scientist, mentre il 32% pensa di sviluppare queste competenze, attraverso corsi, conferenze e workshop, negli attuali team di analisti.

Quasi la metà degli intervistati ha fatto riferimento a sfide culturali, dovute alla mancanza di fiducia nei risultati prodotti dalle tecnologie AI e, più in generale, nelle soluzioni “scatola nera”.

Lo studio si è anche interrogato sulla maturità delle infrastrutture richieste per l’implementazione delle soluzioni AI. Il 24% degli intervistati ritene di disporre già di un’infrastruttura ottimale, un altro 24% pensa che sarà necessario aggiornare e adattare le attuali piattaforme, mentre il 29% non dispone per nulla di ambienti su cui far girare soluzioni AI.

“Abbiamo avuto dei progressi incredibili nel rendere le operazioni degli algoritmi accurate quanto solo un essere umano avrebbe potuto fare”, sostiene Oliver Schabenberger, Executive Vice President and Chief Technology Officer di SAS.

“È notevole che un algoritmo possa battere il miglior giocatore del mondo di Go. Pensavamo che questo gioco non potesse essere computerizzato dall’uomo, ma ora una macchina l’ha fatto per noi. Una volta che il sistema ha conosciuto le regole, ha imparato a giocare e ora lo fa meglio del migliore della nostra specie. Possiamo usare questa conoscenza per costruire sistemi che risolvono problemi di business, meglio di quanto possano fare i sistemi statici che utilizziamo oggi. Possiamo costruire sistemi che apprendono le regole del business e poi le usano per agire e migliorarsi. Questo è ciò su cui SAS sta lavorando”.

L’IoT non funzionerà senza Intelligenza Artificiale

Analytics Experience 2017: SAS esplora i trend delle imprese che innovano

Technology

Internet of Things (IoT) è un argomento sempre più di diffuso, al punto che l’interesse si è esteso al grande pubblico. In ambito aziendale nessuno mette più in discussione i benefici e le opportunità che derivano dall’utilizzo di queste tecnologie. La preoccupazione è piuttosto: come farle effettivamente funzionare.

L’IoT produrrà un tesoro di dati. Dati che potranno aiutare le città a evitare incidenti e crimini, consentire ai medici di ottenere in tempo reale le informazioni dei pacemaker e dei biochip dei pazienti, ottimizzare la produttività industriale attraverso la manutenzione preventiva di attrezzature e macchinari, creare case veramente intelligenti con apparecchi collegati e fornire comunicazioni critiche tra autovetture. Le opportunità offerte da IoT sono praticamente infinite.

La conseguenza della rapida affermazione di dispositivi e sensori collegati all’Internet delle Cose è un incredibile incremento del volume di dati che vengono da loro generati. Questi dati forniranno un prezioso punto di vista su cosa funziona bene e cosa no, fornendo una visione di alto valore su rischi e opportunità per aziende.

Tuttavia, il problema è trovare il modo per analizzare il diluvio di informazioni che tutti questi dispositivi creano. Cercare informazioni in terabyte di dati macchina è molto difficile. Con tecnologie tradizionali è impossibile riesaminare e comprendere questa massa di dati, in quanto richiederebbe troppo tempo.

Affinché l’IoT rispetti la sua promessa, è indispensabile migliorare la velocità e l’accuratezza dell’analisi dei dati. In caso contrario le conseguenze potrebbero essere disastrose. La tecnologia in grado di tenere il passo dei dati generati dall’IoT per ricavarne informazione e significato si chiama Machine Learning e si occupa della costruzione e dello studio di sistemi che apprendono dai dati stessi, piuttosto che seguire istruzioni esplicitamente programmate.

Sarà questo uno dei temi di Analytics Experience 2017, l’evento organizzato da SAS in programma ad Amsterdam dal 17 al 18 ottobre.

Durante l’evento internazionale, centinaia di esperti, thought leader, professionisti e manager si confronteranno sull’importante ruolo degli analytics nel costruire relazioni più forti con i clienti, combattere le frodi, gestire il rischio e migliorare i processi. Ed esploreranno i trend emergenti, come Machine Learning, Internet of Things, Intelligenza Artificiale e la nuova normativa in tema protezione dei dati (GDPR).

Ad Analytics Experience 2017, SAS presenterà i risultati della survey internazionale che vuol far luce sulla maturità delle imprese in ambito Intelligenza Artificiale.

SAS Forum Milan 2017: AI – This Is Our Next Evolution Stage

Digital Trasformation, Analytics, Intelligenza Artificiale, Internet Of Things all’annuale forum di SAS

 

AI

“Ovunque ci siano dati, ci saranno gli analytics per dare valore alle informazioni e trasferirlo ai modelli di business”. Questa è la missione che Marco Icardi, SAS Regional Vice President, attribuisce a SAS. Si apre così al MiCo di Milano la grande convention sugli Analytics, l’Intelligenza Artificiale, L’Internet of Things e, più in generale, sulla Digital Transformation. Un luogo importante perché è da qui che nel 2013 era partita la sfida per “una cultura degli analytics”. In questi anni il tema è diventato una vera rivoluzione tecnologica che sta passando dall’avanguardia alla maturità.

Nel tempo in cui viviamo ogni cosa è collegata, quindi le vie di comunicazione non sono rappresentate esclusivamente dai canali digitali, anche se sicuramente sono quelle preferite dai millienial. In questo contesto gli analytics sono lo strumento per interpretare la realtà, ma l’analisi deve necessariamente essere condotta su canali multipli e soprattutto in tempo reale.

In questi ambiti l’Intelligenza Artificiale, che fa già parte degli strumenti di cui disponiamo, sta giocando un ruolo chiave, permettendoci di sfruttare le nostre capacità adattative.

Ma ci avverte Marco: è necessario agire ora, perché poi potrebbe essere troppo tardi. “E’ necessario partire dal presente per esplorare il possibile” e ci indica i tre percorsi fondamentali della digital transformation: innovazione, sviluppo delle competenze e apertura. Con apertura si riferisce sia alla piattaforma Viya, in quanto cloud e open source, sia all’atteggiamento verso gli oltre sessanta partner con cui SAS collabora.

Maurizio Melis, giornalista scientifico che conduce su Radio 24 il programma Smart City, chiude con qualche battuta l’intervento di Icardi, mentre sul palco viene attrezzata la pedana per un vero e proprio match di fioretto. Ospite d’eccezione la campionessa olimpionica di scherma Margherita Grambassi, che si esibisce in un avvincente match con la nuova promessa della scherma azzurra Carlotta Ferrari.

Margherita
Margherita Grambassi intervistata da Emanuela Sferco

Destrezza e scelta del tempo sono fondamentali nella scherma, così come nelle scelte di ‪business e, in ultima analisi, nella vita. La scherma è uno sport di situazione, strategia e analisi, si calcolano i punti deboli dell’avversario in tempo reale, perché non è possibile seguire uno schema strategico predefinito, il fattore umano prevale. Una bella metafora che collega le parole di Margherita ai temi del convegno.

E’ quindi il momento di Oliver Schabenberger, Executive VP e  CTO SAS, che ci racconta le strategie di SAS a corollario degli analytics. Lo fa ballonzolando qua e la sul palco del MiCo, inforcando un luminescente overboard. Secondo Oliver, le tecnologie chiave del futuro sono: connettività, intelligenza artificiale, machine learning e automazione, ma sottolinea anche la Blockchain, che secondo noi è la tecnologia più rivoluzionaria dopo la stessa Internet, anche se ancora poco compresa dal mainstream. Ci parla poi di Edge-To-Enterprise IoT Analytics, la piattaforma sviluppata con il colosso del networking Cisco, per consentire alle aziende di distribuire sui vari livelli della rete gli analytics in base a criteri di volume, latenza e velocità.

Sas-Viya-Piattaforma

Protagonista indiscussa è poi sempre la piattaforma open SAS Viya, capace di abilitare l’analisi sui dati in streaming, il machine learning e reporting avanzato sui big data e sui dati in memory.

C’era grande attesa per l’intervento di Neil Harbisson, forse non proprio il primo cyborg

Neil-Harbisson
Neil Harbisson

della storia, ma sicuramente un personaggio molto stimolante. Pittore, compositore e fotografo, affetto da una rara patologia che gli impedisce di percepire i colori, è dotato di una speciale antenna impiantata chirurgicamente nel cranio, che traduce i colori in suoni. Avete presente gli Snorkey? Ecco, Neil si presenta più o meno così.

 

E così un’oggetto giallo genera suono diverso da uno rosso e un’insalata produce una complessa armonia. Una nuova traduzione dell’esperienza. “La verità è che la tecnologia si evolve più velocemente rispetto alla capacità umana di digerire il cambiamento. Ritengo sia necessario fare cultura, educare e preparare l’individuo a vivere la trasformazione”.

Molto interessante infine l’intervento di Fabio Sbianchi, l’uomo che ha rivoluzionato i modelli assicurativi per l’auto con la sua Clear Box, un apparato dotato di sensori e GPS che, registrando percorsi e tempi d’uso, permette alle compagnie di assicurazione di ritagliare prodotti assicurativi su misura.

Anche quest’anno SAS Forum Milan si conferma un evento capace di catalizzare l’attenzione di esperti, professionisti, aziende, studenti e rappresentanti del mondo dell’informazione sui temi più attuali legati alla rivoluzione digitale e allo sviluppo delle tecnologie che la abilitano.

 

 

 

 

#IoT Domus: una Goccia nell’Oceano dei Big Data

di Dan Pejeroni [Infosphere]

 L’evoluzione del progetto IoT Domus su hardware Arduino Uno, per utilizzare ora il cloud Blynk.

Temperature

Il progetto Domus prevede una sezione attuatori per il comando dei sistemi di riscaldamento, irrigazione e illuminazione giardino e una sezione sensori che raccoglie e gestisce le varie sonde sul campo (tensione, corrente, flusso acqua, temperatura, umidità terreno, luce, pioggia) e allarmi (blocco caldaia, intrusione, incendio, allagamento, gas).

Nella prima serie di articoli avevo descritto un prototipo di telecontrollo affidato ad un PLC controller (basato su un Asus EEE-Box con Windows 7) che svolgeva funzioni di data logger, reporting e automazione di processo e ad un’applicazione Android (per il comando remoto degli attuatori), sviluppata con Tasker.

Questa nuova versione si basa sul Cloud IoT Blynk.

cwqpfohwiaaj6xg-jpg-large

Blynk è una piattaforma per iOS e Android che permette il controllo di schede Arduino, Raspberry Pi e altre, collegate a Internet tramite Wi-Fi, Ethernet o mediante il nuovo chip ESP8266. Si tratta di un cruscotto digitale dove è possibile costruire una interfaccia grafica per progetti IoT, semplicemente trascinando e rilasciando widget.

Blynk è stato finanziato su Kickstarter da 2.321 sostenitori che hanno creduto nell’idea. È possibile visitare la loro pagina della campagna e sapere di più.

Il Cloud Blynk è in grado di acquisire e memorizzare i dati rilevati dai sensori, collegati ad una scheda tra le molte supportate.

La piattaforma è costituita da tre componenti principali:

Blynk App – che permette di creare interfacce grafiche per i progetti IoT, semplicemente utilizzando vari widget forniti.

Blynk Server – che è responsabile di tutte le comunicazioni tra lo smartphone e l’hardware. È possibile utilizzare il Cloud Blynk o installare un server Blynk localmente. E completamente open-source e può facilmente gestire migliaia di dispositivi in comunicazione con il server (o il Cloud) elaborando tutti i comandi in entrata e in uscita

architecture

Ogni volta che un sensore rileva una nuova misura, oppure viene premuto un pulsante sull’app Blynk, i messaggi di controllo vengono trasferiti verso/dal Cloud Blynk, che acquisisce i dati oppure attiva un attuatore sulla scheda.

cwpaxetwiaqlmcq

Per iniziare con Blynk è necessario scaricare l’app Android o IOS, registrarsi sul sito per ottenere un Auth Token (che dovrà essere utilizzato sia nell’app che nello sketch della scheda), installare la libreria fornita da Blynk e scrivere il codice specifico da installare sulla scheda.

La versione 4.2 Cloud di Domus è disponibile su GitHub.

schermata-2016-11-24-alle-14-27-59