Frontiere

In questo capitolo parleremo di tecniche alternative a quelle che abbiamo visto che si sono messe a punto durante lo studio delle reti neurali. Vedremo in particolare altri algoritmi per l'apprendimento della rete, altri modelli di neuroni e infine altre architetture di reti neurali.

Variazioni all'algoritmo del gradiente decrescente

Modelli alternativi per i neuroni

I modelli di neuroni si distinguono l'uno dall'altro per la diversa funzione che usano per calcolare l'output.

Altre architetture di reti neurali

Finora abbiamo visto reti neurali completamente connesse, ovvero in cui il neurone di un layer riceve un input da ciascun neurone del layer precedente e invia il proprio output a tutti i neuroni dello strato successivo. Si può pensare, però, ad una rete che cerchi di sfruttare il vantaggio della struttura dei dati di input.

Le reti neurali convoluzionali hanno un'architettura speciale che le rende particolarmente adatte a lavorare con le immagini. Questa loro architettura fa sì che queste reti siano veloci da allenare e aiuta lo sviluppo di reti complesse, con molti layer nascosti. Le idee alla base delle reti convoluzionali sono tre.

Infine, solitamente, si usa come ultimo strato una struttura completamente connessa che lega ogni neurone a tutti quelli del pooling layer. Otteniamo quindi un'architettura di questo tipo:


L'architettura più semplice di rete convoluzionale comprende quindi 4 layer: input, convoluzionale, pooling e output.