Le reti neurali, la cui implementazione risultava impensabile fino a pochi decenni fa, farebbero affermare a un Julius Verne redivivo che la fantascienza finalmente ha fatto il suo ingresso nella realtà.
I circuiti neurali artificiali sono la base di sofisticate forme di intelligenza artificiale, sempre più evolute, in grado di apprendere sfruttando meccanismi simili (almeno in parte) a quelli dell’intelligenza umana.
Risultato: prestazioni impossibili per altri algoritmi!
Le reti neurali artificiali riescono oggi a risolvere determinate categorie di problemi avvicinandosi sempre più all’efficienza del nostro cervello, e trovando perfino soluzioni inaccessibili alla mente umana.
Dalla nascita del concetto di neurone artificiale ad oggi è stata fatta molta strada.
I continui progressi permettono di ottenere circuiti sempre più sofisticati. Tutto lascia prevedere, insomma, che le reti neurali e il machine learning saranno una parte notevole delle fondamenta del mondo iper tecnologico in cui ci stiamo addentrando.

Come funzionano le reti neurali?
“Pensa ad ogni singolo nodo come a un proprio modello di regressione lineare, composto da dati di input, pesi, una distorsione (o soglia) e un output. La formula sarebbe simile alla seguente:


output = f(x) = 1 if ∑w1x1 + b> = 0; 0 if ∑w1x1 + b < 0
Una volta determinato uno livello di input, vengono assegnati i pesi. Questi pesi aiutano a determinare l’importanza di una qualsiasi data variabile, con quelli più grandi che contribuiscono in modo più significativo all’output rispetto agli altri input. Tutti gli input vengono poi moltiplicati per i rispettivi pesi e quindi sommati. Successivamente, l’output viene passato attraverso una funzione di attivazione, che determina l’output. Se supera una determinata soglia, tale output attiva il nodo, passando i dati al livello successivo nella rete. L’output di un nodo diventa quindi l’input del nodo successivo. Questo processo di passaggio dei dati da un livello a quello successivo definisce questa rete neurale come una rete feedforward.
[…]”
Fonte: IBM