
Big Data è un termine coniato di recente per indicare tutte le tecnologie, le tecniche e i metodi di analisi dedicati a raccolte di dati dove la quantità di valori ricevuti sono molto grandi e numerosi tali per cui i procedimenti tradizionali non sono in grado di elaborare in modo efficace ed efficiente.
Molto spesso i dati raccolti in modo automatico sono non eterogenei perché provenienti da fonti distinte ed in alcuni casi sono anche non strutturati, ovvero provengono sia da sensori elettronici integrati sia da interazioni degli utenti con i sistemi software come, ad esempio, dati digitati ed inseriti oppure la pressione di un pulsante. L’obiettivo è quello di ottenere informazioni da questa grande mole di dati generici in modo che siano utili a prendere decisioni.
La dimensione delle informazioni può crescere fino a diventare classificabile come Big Data a causa del volume, della varietà oppure della velocità. Queste tre caratteristiche vengono chiamate tre V:
Ognuno di questi tre elementi porta il flusso di dati a cresce in velocità e varietà e bisogna quindi capire come immagazzinarli, quali sono importanti per monitorare il nostro impianto e quali per pianificare le strategie future dell’azienda. È importante ricordare che solamente le tecnologie e i metodi che sono stati progettati per i Big Data possono ottenere con successo conoscenza nel caso in cui tutte le tre V sono molto elevate. L’adozione di tecniche dedicate ai Big Data nel processo produttivo nel campo manifatturiero è in esplosione negli ultimi anni dopo essere stato inizialmente adottato nei servizi e nel terziario e si sta espandendo in tutti i settori che possono trarne grande beneficio grazie al
Tuttavia, un approccio poco avveduto o addirittura sconsiderato dell’acquisizione dati nasconde una pericolosa insidia: limitarsi però alla sola raccolta, non garantisce di avere tutte le informazioni necessarie e soprattutto di estrarre conoscenza da essi. Il vero valore risiede nella conoscenza che questi dati possono produrre. In molti casi, raddoppiare la quantità di dati raccolti può portare a quadruplicare lo sforzo necessario per ottenere le informazioni utili al processo di decisione e l’analisi di una quantità di dati mostruosa può richiedere un tempo troppo lungo per produrre risultati utili. Per questo motivo è importante prestare molta attenzione e trovare il giusto compromesso tra i dati raccolti e quelli elaborati per identificare le informazioni che sono davvero necessari.
Arrivati a questo punto dell’articolo, analizziamo il percorso più comune per rendere i dati i nostri alleati per prendere decisioni ponderate.
1. La partenza ovviamente è l’acquisizione dei dati da tutte le fonti disponibili possibilmente in modo automatico e continuo come ad esempio da PLC, da sensori industriali e da centri di lavoro, pannelli operatori.
2. Successivamente si passa ai software che si occupano dell’estrazione, ovvero tutte le operazioni necessarie per avere i valori in formato elettronico e che possono essere gestiti automaticamente da sistemi software. Queste soluzioni applicano delle procedure per pulire tutti i dati dell’impianto: durante questa fase, la soluzione deve individuare e gestire i valori errati o fuori scala provenienti dai sensori, così come è essenziale preveneti casi di dati mancanti, per esempio perché dei sensori sono stati scollegati.
3. Una volta scremati i dati che sono necessari da salvare, si arriva alla parte centrale riguarda invece l’immagazzinamento, l’archiviazione e la conservazione a lungo termine dei numeri e dei dati che sono stati misurati. Esistono molti e differenti software per salvare i dati, tra loro come database relazionali, che archiviano i dati sotto forma di tabella, e database per serie temporali, che invece pongono l’attenzione sull’istante preciso in cui un valore è stato misurato. La scelta deve essere fatta in primis sulla base delle esigenze dei passi successivi, sulle caratteristiche e sui punti di forza, che ogni differente database può offrire, avvalendosi anche della consulenza di esperti del settore. Bisogna fare attenzione che tutti i dati siano conservati in modo corretto, per un tempo sufficientemente lungo rispetto alle analisi che si vogliono svolgere e il formato di immagazzinamento sia scelto alla luce delle elaborazioni, che dovranno essere fatte nella fase successiva.
4. Il quarto passaggio, infatti, richiede un modello, ovvero una rappresentazione astratta delle informazioni, che sia coerente con il processo analizzato. Lo scopo è quello di permettere la rappresentazione di tutte le informazioni in modo da poter essere elaborate automaticamente da altri software secondo il fine previsto. Data la mole di informazioni, i modelli sono spesso statistici, basati su analisi matematiche che utilizzano equazioni per poter elaborare ed analizzare in modo adeguato tutti i dati disponibili. Utilizzando una formula matematica diventa possibile riconoscere dati che sono anomali e fare previsioni riguardo gli andamenti futuri.
Per esempio, nel caso di un forno industriale, la curva della temperatura durante la fase di riscaldamento è una funzione nota che può essere ricavata dai dati, anche in presenza di rumore o piccoli errori di misurazione. Quando si conosce l’equazione completa che corrisponde ad un particolare forno è possibile utilizzare i nuovi dati che vengono raccolti per verificare che il riscaldamento del forno sia ancora efficiente e non sia invece più lento a causa di un bruciatore danneggiato oppure del rivestimento refrattario non più adeguato. Si può anche stimare con buona precisione il tempo necessario per raggiungere una determinata temperatura e prevedere l’orario di conclusione.
5. Solo alla fine del quinto passo si possono finalmente visualizzare le informazioni richieste per poter prendere decisioni ed intervenire di conseguenza sul processo analizzato. Durante tutte queste fasi, l’utilizzo di tecnologie dedicate ai big data è indispensabile per supportare correttamente il ciclo ed il passaggio dei dati nei punti che abbiamo descritto. Utilizzando software dedicati, questo processo diventa automatico e può essere molto veloce: mentre l’analisi delle curve di temperatura del forno svolto manualmente da un impiegato può richiedere giorni, utilizzando nuove tecnologie si possono ottenere i primi riscontri già dopo minuti (naturalmente se tutto il ciclo dei dati è stato progettato e implementato correttamente). Inoltre, durante molte fasi è bene integrare altre tecnologie correlate che possono favorire il processo e portare il massimo beneficio, come ad esempio apprendimento automatico ovvero tecniche di machine learning che consentono l’individuazione automatizzata di dati che si influenzano a vicenda e che sono correlati.
Per evitare di essere sopraffatti dal volume dei dati è importante effettuare delle scelte che consento di addomesticare i dati. Il primo e più importante elemento da stabilire è la selezione di quali dati e valori devono essere raccolti. Tutto ciò che non è utile ai fini della nostra analisi, ci porta ad intasare inutilmente il sistema, con il rischio di rallentare la modellazione in modo superfluo. In molti casi, questa decisione può essere presa prima di effettuare l’analisi, solamente sulla base degli obiettivi aziendali che si vogliono raggiungere. In altri contesti invece, la selezione dei segnali può essere fatta solamente dopo aver analizzato con il modello i dati raccolti, andando a scartare quelli che non sono rilevanti. Quando sono stati scelti i dati da raccogliere, è altrettanto importante che per ognuno di questi si selezioni una frequenza con cui vengono misurati i dati dei sensori che sia adeguata allo scopo. La temperatura interna di un forno può essere misurata anche solamente una volta ogni dieci secondi, la velocità di rotazione di una ventola invece potrebbe avere bisogno di una lettura ogni secondo o anche meno. Naturalmente, potremmo anche selezionare una frequenza di campionamento molto elevata e poi adottare una strategia più intelligente di mantenere ed immagazzinare solamente i dati che hanno avuto una variazione significativa rispetto al normale valore. Si può quindi misurare la temperatura anche una volta al secondo, ma se la variazione è inferiore ad un decimo di grado, non considerarla significativa e non immagazzinare questa informazione che non fornisce nessun valore aggiuntivo e nuovo rispetto alla misurazione precedente. Raccogliere i dati è il punto centrale attorno a cui ruota il concetto di Big Data. La raccolta migliore del mondo però non ci deve distrarre dal fatto che si tratta solamente di un mezzo. Il fine è diverso e potrebbe essere variegato. Più in generale possiamo dire che i Big Data rispondo a quattro esigenze come:
1. Prendere decisioni più rapide – la raccolta quotidiana dei dati consente all’imprenditore di verificare i processi produttivi avendo una nuova prospettiva e avere una maggiore chiarezza su come si sta lavorando. Il monitoraggio in tempo reale dell’impianto permette di intervenire in modo tempestivo dove necessario e più l’analisi sarà avanzata maggiore sarà il vantaggio competitivo.
2. Aumentare l’efficienza – come già detto, per rendere utili i Big Data si deve usarli nel modo giusto. Vanno quindi analizzati correttamente per semplificare i processi, ridurre i costi e ottimizzare la produzione.
3. Aumentare flessibilità – grazie alle informazioni ottenute dall’analisi dei Big Data, una PMI può modificare le proprie strategie in tempi rapidi per adeguarsi alle esigenze del mercato, di produzione e qualità, diventando quindi più competitiva.
4. Salvaguardare l’impianto – grazie alla mole di informazioni che provengono dai macchinari, si può utilizzare la manutenzione predittiva per diminuire i fermi macchina e mantenere in salute il proprio parco macchine, allungandone la vita.
Come abbiamo visto i Big Data in possesso di un imprenditore sono tanti e sempre in crescita e non è possibile gestirli da soli. Per poterli impiegare al meglio si deve quindi scegliere e utilizzare lo strumento migliore per le proprie esigenze aziendali e affidarsi ad un partner che sappia come sfruttare questa miniera di informazioni affiancando l’imprenditore e la sua squadra in questo percorso verso il futuro dell’industria.
Scarica la presentazione per scoprire di più.
Iscriviti alla newsletter per rimanere aggiornato sui nostri eventi e sulle news.