Home » News » Machine Learning, quando la scienza nutre l’industria
Industry 4.0 News

Machine Learning, quando la scienza nutre l’industria

machine learning industria

Quando si parla di Machine Learning, si parla di differenti meccanismi che permettono a una macchina intelligente di migliorare le proprie capacità e prestazioni nel tempo. Questo concetto funge, per così dire, da denominatore comune, anche se definire le caratteristiche e le applicazioni dell’apprendimento automatico non è semplice, vista la sua complessità e la gran varietà di tecniche e strumenti che si utilizzando per realizzarlo

La macchina, indiscussa protagonista trasversale nello scenario delle PMI, impara a svolgere determinati compiti migliorando, tramite l’esperienza, le proprie capacità, le proprie risposte e funzioni. A fondamento del Machine Learning, che ha ormai trovato applicazione negli ambiti più diversi, ci sono degli algoritmi che, partendo da nozioni primitive, sono in grado di scegliere tra diverse opzioni e di effettuare azioni apprese nel tempo.

Il Machine Learning nel contesto di Industria 4.0

L’apprendimento automatico usa gli algoritmi per gestire e lavorare con set di dati di grandi dimensioni e complessi per fare previsioni secondo le necessità. Quando si opera con i sistemi di Machine Learning è opportuno tenere sempre in considerazione il fattore umano e capitalizzare i dati disponibili; è importante convivere con gli errori che le tecniche inevitabilmente portano con sé.

Per introdurre le tecnologie di Machine Learning in un processo produttivo, è necessario dotarsi di software specifici: editor come Sage maker, Azure ML o Vertex AI (legati a servizi Cloud come Microsoft, Amazon e Google) consentono di riconoscere e tracciare oggetti, ad esempio, o trattare testi in linguaggio naturale alla ricerca di informazioni, senza tuttavia dare risposta all’esigenza di comprendere aspetti essenziali del funzionamento delle tecniche di Machine Learning.

Fare spazio al Machine Learning direttamente all’interno dei propri sistemi mediante librerie già pronte è possibile con l’aiuto dei programmatori, che sono in possesso delle nozioni essenziali e della capacità di individuare all’interno del processo produttivo i dati che alimentano correttamente gli algoritmi di apprendimento automatico.

Tecniche diverse per obiettivi comuni

Il Machine Learning è un approccio scientifico volto a risolvere determinati compiti con l’ausilio di vari algoritmi e previsioni. Prima che il modello sia distribuito, i dati di addestramento o un modello matematico sono costruiti usando determinati algoritmi basati su statistiche computazionali per fare previsioni senza realmente programmarli.

Poiché il Machine Learning ha molte applicazioni nella vita reale, i differenti metodi scelti in base alle esigenze applicano differenti algoritmi per prevedere e ottenere il risultato più accurato: nel tempo sono state messe a punto tecniche sempre più moderne, atte a promuovere l’automazione delle cose con meno personale e costi.

Il numero di tecniche caratterizzate dall’apprendimento automatico e finalizzate a inferire una funzione matematica partendo da tante coppie (input, output) che costituiscono i dati da cui si vuole estrarre conoscenza continua ad aumentare. Le tecnologie di analisi avanzata dei dati e di Intelligenza Artificiale consentono di trasformare il modo di operare delle aziende in tutti i settori.

Il funzionamento dei sistemi di Machine Learning si fonda sull’idea di minimizzare l’errore nel generare un output partendo dall’input e misurando la distanza dall’output atteso. L’iterazione di questo processo e l’adattamento degli opportuni parametri di un algoritmo porta alla realizzazione del modello che una volta messo in produzione, sulla scorta degli esempi osservati in fase di apprendimento, associa l’output a un determinato input.

Dai dati le informazioni che fanno crescere l’azienda

Poiché la relazione tra i dati di input e i rispettivi output non è nota, i dati utilizzati per addestrare il modello potrebbero essere incompleti e indurlo in qualche modo in errore nelle previsioni su dati mai visti. A questa difficoltà si cerca di ovviare dividendo in due insiemi i dati usati per addestrare un algoritmo:

  • il primo e più grande da usare per l’addestramento (training set);
  • il secondo per validare il comportamento del modello generato a fronte di casi nuovi (test set).

Quando l’errore nella previsione dei dati del test set resta abbastanza contenuto, l’apprendimento si considera concluso con successo e il modello viene messo in produzione, monitorando l’esecuzione e aggiustando per iterazioni successive del processo arricchendo i dati utilizzati per l’addestramento.

Ogni input può sostanziarsi di centinaia, se non migliaia, di variabili distinte che caratterizzano un aspetto del problema, dette “features”. Il dataset necessario per l’apprendimento va quindi costruito con grande attenzione, con sforzi che vanno ben oltre la mera raccolta di dati, ma che ne includono la pulizia e l’etichettatura per garantirne l’utilità all’algoritmo di apprendimento.

Durante la raccolta dei dati, deve essere tenuto ben presente quale algoritmo si intenda utilizzare, sfruttando competenze interne all’azienda e specifiche nel distinguere le opzioni disponibili, e nel porre a confronto algoritmi differenti per individuare quale possa produrre i risultati migliori.

Algoritmi e tipologie di apprendimento

Esistono numerose tecniche studiate in oltre 50 anni di ricerca e disponibili nelle librerie di apprendimento automatico: tra gli algoritmi più noti figurano: clustering, support vector machines, alberi di decisione. Una volta deciso cosa si vuole apprendere, si individua la tipologia di apprendimento in cui far ricadere il compito:

  • Regressione. Stimare valori dato un particolare input;
  • Classificazione: Classificare un input in due o più classi;
  • Raggruppare i dati. Individuare gruppi di dati presenti nel dataset senza disporre di classi predefinite.

La regressione e la classificazione spesso vengono effettuate con un processo noto come supervisionato, in cui si provvede manualmente alla preparazione del dataset con le etichette e l’individuazione delle feature. Potendo lavorare direttamente sul dato, gli algoritmi capaci di raggruppare autonomamente i dati, utili ad apprendere la struttura di un dataset automaticamente, sono spesso indicati come “non supervisionati”.

Per capire quale algoritmo, a parità di compito, si comporti con più efficienza, sono attualmente allo studio tecniche automatiche di selezione dell’algoritmo migliore (note anche come “automated machine learning”), che si rivelano interessanti strumenti di accelerazione nella costituzione di dataset non troppo complessi.

In ambito industriale, object detection e anomaly detection sono le tecniche di uso più frequente. Soprattutto la rilevazione di anomalie trova numerose applicazioni nell’indagine su comportamenti inattesi di apparati o comunque di letture di sensori.

Il ruolo delle GPU nel Machine Learning

Le GPU sono acceleratori molto efficaci nell’apprendimento automatico quando si fa uso di algoritmi basati su calcolo matriciale, come ad esempio per le reti neurali, mentre nel caso di dataset non troppo grandi l’apprendimento dei modelli si realizza a prescindere.

Visto che in ambito industriale non è sempre possibile effettuare i calcoli in un Data Center ma solo sull’edge, bisogna tenere a mente che la maggiore potenza di calcolo serve nella fase di apprendimento. Dall’ottenimento del modello in avanti, bastano risorse di calcolo più modeste e spesso i modelli possono essere eseguiti su apparati molto più piccoli di quelli usati per l’apprendimento.

Aziende, Machine Learning e AI: occhio agli errori

All’interno di un processo industriale, lo sforzo e gli investimenti per introdurre l’apprendimento automatico sono molto rilevanti e a lungo termine; includono lo sviluppo di skill nel personale sul tema e concentrazione nel costituire i dataset, destinati in azienda a un ruolo centrale da consolidare e sviluppare.

Limitandosi solo a caricare un modello ed eseguirlo, il codice sorgente appare poco strategico: il vero valore risiede infatti nel modello. Si consideri, ad esempio, un modello che verifica un tentativo di frode: in quanto al codice, quello di Amazon è simile in tutto a quello di un piccolo shop, mentre a cambiare radicalmente è la qualità. Il dataset a disposizione del colosso della vendita on-line risulta ovviamente dotato in misura molto più ampia di esempi e situazioni introdotte proprio in fase di apprendimento.

Il modello, se lo si intende come “espressione della conoscenza aziendale”, possiede un valore determinato dalle energie investite nella sua messa a punto (oltre che alla corrente e ai costi di elaborazioni necessari a sintetizzarlo) ma che è di dimensioni contenute; è quindi essenziale proteggerlo poiché consente di affermarsi nei settori competitivi d’interesse.

Quando si lavora con i sistemi del Machine Learning, è determinante saper riconoscere gli errori inevitabilmente connessi all’uso delle tecniche. Nonostante le ormai innumerevoli applicazioni in ambito industriale, resta imprescindibile tenere conto del fattore umano e imparare a capitalizzare i dati disponibili, concependo sistemi abbastanza robusti, nella consapevolezza che anche il modello più accurato può generare output errati.

Commenta

Clicca qui per inserire un commento


Iscriviti

per ricevere aggiornamenti sui trend e le opportunità IOT per il tuo business

Podcast & Smartspeaker

IOTtoday su Spotify IOTtoday su Google Podcast IOTtoday su Apple Podcast IOTtoday su Amazon Alexa IOTtoday su Google Home