Tecnologia e processi industriali: prevedere i rischi grazie ai dati

AI_Machine learning

L’Intelligenza Artificiale (AI) è una delle nove tecnologie abilitanti identificate nel Piano nazionale Industria 4.0, varato in Italia per la prima volta nel 2016, con l’obiettivo di massimizzare l’efficienza delle fabbriche e permettere la trasformazione digitale delle stesse.

Tuttavia, non è uno strumento nuovo. Anzi, la sua nascita si può datare nel 1943 quando Warren S. McCulloch e Walter Pitts introdussero per la prima volta il concetto di “neurone artificiale, ripreso da Frank Rosenblatt nel 1958, che presentò la prima rete neurale artificiale: il perceptron. Nel mezzo Alan Turing (il padre dell’informatica) aveva espresso nel 1950 il concetto di “macchina intelligente”.

Da allora l’AI ha subìto varie altalenanti vicissitudini e, senza volerne qui ripercorrere in dettaglio la storia, possiamo affermare che le alterne fortune sono sempre state legate a successi in casi d’uso reali o alla nascita di favorevoli condizioni tecnologiche, così come i periodi di abbandono sono stati determinati da insuccessi di progetti troppo ambiziosi o non ancora maturi.

La riscoperta dell’AI, tra Machine e Deep learning

A partire dalla metà degli Anni 2000 c’è stata una riscoperta di questa tecnologia, grazie anche alla nascita di una branca che ben si adatta alla risoluzione di problemi predittivi: il Machine learning (Ml). Potremmo definire l’AI come ogni tecnica che rende i computer capaci di imitare il comportamento umano; tra queste ricordiamo le più emblematiche: sistemi esperti, in grado di simulare il ragionamento logico deduttivo; logica fuzzy, che introduce la gestione dell’incertezza nel ragionamento logico; algoritmi genetici, che imitando la selezione naturale sono in grado di individuare la soluzione ottimale a un dato problema; reti neurali artificiali, cioè sistemi che simulando quelle del nostro cervello sono in grado di apprendere dai dati ed estrapolare comportamenti e informazioni.

Il Ml è, invece, un insieme di specifiche tecniche di AI che rendono i computer capaci di imparare. Infine c’è il Dl, un sottoinsieme di procedure di Ml specificatamente basate su reti neurali profonde (o multistrato), adatte alla risoluzione di problemi di visione artificiale, riconoscimento immagini e trattamento dei segnali.

Tuttavia, la nascita del Ml non è stato il solo fattore scatenante alla base della riscoperta dell’AI nel nuovo millennio, bensì si è trattato di un mix di elementi. In primis, l’incremento esponenziale della disponibilità dei dati, grazie a internet e ai sistemi di connettività (sia cablati sia mobili), ai sensori intelligenti (comunemente denominati “Internet of Thinghs, IoT”). Così come la possibilità di raccogliere informazioni in tempo reale, fornendo, quindi, una rappresentazione istantanea della realtà. Infine, il costante incremento della potenza di calcolo, abbinata alla miniaturizzazione dei device disponibili a costi sempre decrescenti (almeno fino al periodo pre covid).

Tutto ciò ha posto i dati al centro delle strategie decisionali, evolvendo di fatto i modelli da knowledge based, ovvero basati sulla conoscenza (spesso empirica e costruita con l’esperienza), a ad altri Data driven. Un primo effetto indotto da questo cambiamento epocale è che mentre i primi erano (e sono tuttora) utilizzati principalmente per l’analisi descrittiva (per spiegare un evento accaduto), i modelli basati sui dati possono essere utilizzati per analisi predittive (preconizzare un evento prima che accada).

Pertanto, se le informazioni costituiscono il carburante dei nuovi modelli decisionali, l’analisi dei dati (Data analytics), compresa quella avanzata (Advanced data analytics), ne costituisce il motore. In particolare, mentre la prima è essenzialmente basata sulle più comuni formule di statistica ed è utilizzata per descrivere un evento e diagnosticarne la causa, quella avanzate è basata su algoritmi di Ml e utilizzata per predire un fenomeno e prescrivere azioni per poterlo influenzare.

L’articolo integrale è pubblicato sul numero di Giugno 2022 di Sistemi&Impresa.
Per informazioni sull’acquisto di copie e abbonamenti scrivi a daniela.bobbiese@este.it (tel. 02.91434400)

Deep learning, Intelligenza Artificiale, machine learning


Antimo Angelino

Antimo Angelino è Membro della Commissione Uninfo CT 519 ‘Tecnologie abilitanti Industria 4.0’, Leader Gruppo di Lavoro 4 ‘Digital Twin’, Membro ISO/IEC JTC1 SC41 ‘Internet of Things & Digital Twin’, Head of Delegation Italy

FabbricaFuturo è il progetto di comunicazione rivolto a tutti gli attori del mercato manifatturiero (responsabili delle direzioni tecniche, imprenditori e direzione generale, responsabili organizzazione e HR) che ha l’obiettivo di mettere a confronto le idee, raccontare casi di eccellenza e proporre soluzioni concrete per l’azienda manifatturiera di domani.

Nasce nel 2012 dalla rivista Sistemi&Impresa come reazione alla crisi finanziaria del 2011. Negli anni il progetto è cresciuto significativamente, parallelamente alla definizione di politiche pubbliche in ambito industria 4.0 (Piano Calenda e successivi).
Oggi FabbricaFuturo affronta i temi legati al Piano Nazionale di Ripresa e Resilienza (PNRR), per offrire alle aziende gli strumenti per affrontare le sfide nella fabbrica di domani.

Contatti

ESTE – Edizioni Scientifiche Tecniche Europee Srl

Via Cagliero, 23 - 20125 Milano
P.IVA: 00729910158
TEL: 02 91 43 44 00

Per informazioni commerciali:
commerciale@este.it
Cookie Policy | Privacy Policy

Iscriviti alla Newsletter