Skip to main content

Competere con le applicazioni industriali di AI

Attualmente non si fa che parlare di Intelligenza Artificiale (AI) e di Machine learning (ML), anche in contesti prima impensabili. Solo qualche tempo fa ‘La cucina’ de La Stampa (Maurizio Molinari) riportava questa notizia: “Riprogettare un quartiere? Ci pensa l’Intelligenza Artificiale. Quando i problemi si fanno complessi, le soluzioni devono diventare complesse.

A riprogettare Torpignattara, uno dei quartieri della periferia di Roma, sarà l’Intelligenza Artificiale. Il progetto, lanciato dal Ministero dei Beni Culturali, prevede che un piccolo robot girerà il quartiere creando relazioni empatiche con i suoi abitanti, raccogliendo i loro desideri, ascoltando i loro problemi e segnalando le possibili soluzioni”.

Sembra che l’AI sia diventata la panacea per tutti i problemi. Mi è anche capitato di sentire da parte di qualche mio studente una frase che, per un addetto ai lavori, lascia perplessi ed è accettabile solo come frase enfatica: “In questo programma ho inserito una AI”.

Già, di cosa si sta parlando? Cos’è l’AI? La definizione classica cita: è un settore dell’Informatica che ha come obiettivo la realizzazione di sistemi che svolgono attività che richiederebbero intelligenza se compiute dall’uomo.

Nel tempo si è differenziata in due approcci. Da una parte il cosiddetto approccio forte, ovvero l’AI come aggregato interdisciplinare che ha come obiettivo la comprensione della natura dell’intelligenza e la sua riproduzione con una macchina (con contributi di informatici neurofisiologi, linguisti, filosofi, sociologi, ecc.).

Dall’altra l’approccio debole, l’AI interessata al comportamento generale che caratterizza l’intelligenza, ma non a un particolare modo di ottenere i risutati, che potrebbe essere diverso da quello usato dall’uomo. Ovviamente è sempre utile sapere come fa l’uomo a svolgere certi compiti.

Breve storia dell’AI

Può essere utile ripercorrere la storia dell’AI: anche se è venuta in auge solo negli ultimi anni, l’AI ha una vecchia storia, anzi si può dire che sia nata insieme con i computer.

Alan Turing negli Anni 40, mentre ideava il computer, studiava le mosse degli scacchi al fine di realizzare una ‘macchina’ in grado di riprodurle. Gli amanti del cinema ricorderanno il film The Imitation Game, in cui si evidenziava che lo stesso Turing è stato tra i primi a dare una risposta alla domanda: “Le macchine possono pensare?”.

Nel 1956, in una famosa conferenza a Dartmouth, John McCarthy, Marvin Minsky, Allen Newell e Herbert Simon, i padri fondatori della moderna AI, si accordano per dare proprio questo nome alla nuova scienza.

Negli Anni 60 l’attenzione fu rivolta al problem solving: si studiava come rappresentare i problemi all’interno delle macchine e le strategie di ricerca delle soluzioni.

In molti studi si utilizzarono i giochi come casi d’uso: la cosa può sembrare bizzarra, ma non lo è se si riflette sul fatto che, per esempio, le possibili configurazioni delle pedine sulla scacchiera del gioco della dama sono un numero rappresentato da un 1 seguito da 40 zeri, e quelle degli scacchi molte di più.

In quegli anni si cominciò anche a utilizzare la logica matematica nell’ambito dell’AI e ci si concentrò sulla dimostrazione automatica dei teoremi: ci fu grande clamore quando un programma basato sull’AI scoprì un teorema che nessun matematico aveva mai dimostrato.

Negli Anni 70 l’attenzione si spostò sul ruolo della conoscenza e sulle tecniche per rappresentarla. Cominciarono gli studi sull’elaborazione del parlato e sulla visione artificiale.

Il decennio successivo è piuttosto concentrato sull’utilizzazione delle metodologie di risoluzione di problemi e della rappresentazione della conoscenza per risolvere problemi del mondo reale: è il gran boom dei Sistemi Esperti.

È solo a metà degli Anni 80, esattamente nel 1986, che David E. Rumelhart, Geoffrey E. Hinton e Ronald J. Williams propongono un nuovo algoritmo (la cosiddetta back propagation) per l’addestramento delle reti neurali.

Il neurone artificiale era stato già proposto da Warren McCulloch e Walter Pitts in un articolo del 1943, ma solo grazie al nuovo metodo di addestramento le reti neurali trovano un innovativo sviluppo e una larghissima diffusione.

A partire dall’anno 2000 poi la diffusione capillare del web e dei servizi a esso connessi (si pensi ai social) mette a disposizione di tutti banche dati sui più svariati ambiti: in questo periodo l’AI si concentra sull’estrazione della conoscenza e trovano rapida diffusione le tecnologie legate al ML.

L’articolo completo è pubblicato sul numero di Marzo 2019 di Sistemi&Impresa.
Per informazioni sull’acquisto di copie e abbonamenti scrivi a daniela.bobbiese@este.it (tel. 02.91434400)