Che cos’è l’induzione di Solomonoff?

L’induzione di Solomonoff è una forma di induzione matematicamente rigorosa e idealizzata, cioè predire cosa accadrà in futuro sulla base di esperienze precedenti. Fa parte della teoria dell’informazione algoritmica. Questo schema di induzione è teoricamente ottimale, cioè, dati sufficienti dati, sarà sempre in grado di assegnare probabilità ad eventi futuri con la massima accuratezza possibile consentita. L’unico problema con l’induzione di Solomonoff è che non è calcolabile, ovvero richiederebbe un computer con una potenza di elaborazione infinita per funzionare. Tuttavia, tutti gli schemi e le macchine induttive di successo, inclusi animali e umani, sono approssimazioni dell’induzione di Solomonoff.

Ogni argomento verbale contenente consigli per una migliore induzione, nella misura in cui effettivamente funziona, agisce inducendo l’ascoltatore a modificare la propria strategia induttiva in modo tale che si avvicini meglio alla teoria. L’idea che l’induzione possa essere formalizzata matematicamente in questo modo è piuttosto profonda e molte generazioni di logici e filosofi hanno affermato che non si poteva. La teoria è nata dal lavoro di Ray Solomonoff, Andrey Kolmolgorov e Gregory Chaitin negli anni ‘1960. La loro motivazione di fondo era quella di formalizzare la teoria della probabilità e l’induzione usando assiomi, nello stesso modo in cui sono state formalizzate l’algebra e la geometria. La teoria si basa su una regola induttiva chiamata teorema di Bayes, che descrive un preciso modo matematico per aggiornare le credenze in base ai dati in arrivo.

Un punto debole del teorema di Bayes è che dipende da una probabilità a priori per un certo evento. Ad esempio, la probabilità che un asteroide colpisca la Terra nei prossimi 10 anni può essere data sulla base di dati storici sugli impatti di asteroidi. Tuttavia, quando la dimensione del campione degli eventi precedenti è bassa, come il numero di volte in cui un neutrino è stato rilevato in una trappola per neutrini, diventa molto difficile prevedere la probabilità che l’evento si ripeta basandosi esclusivamente sull’esperienza passata.

È qui che entra in gioco l’induzione di Solomonoff. Usando una misura oggettiva della complessità chiamata complessità di Kolmogorov, la teoria può fare un’ipotesi plausibile sulla probabilità che si verifichi un evento futuro. La complessità di Kolmogorov si basa su un principio chiamato MDL (Minimum Description Length), che valuta la complessità di una stringa di bit in base all’algoritmo più breve in grado di produrre quella stringa. Sebbene la complessità di Kolmogorov inizialmente si applicasse solo alle stringhe di bit, può essere tradotta per descrivere la complessità di eventi e oggetti.

L’induzione di Solomonoff integra la complessità di Kolmogorov nel ragionamento bayesiano, dandoci precedenti giustificati per eventi che potrebbero non essere mai accaduti. La probabilità a priori di un evento arbitrario viene giudicata in base alla sua complessità e specificità complessive. Ad esempio, la probabilità che due gocce di pioggia casuali in una tempesta colpiscano lo stesso metro quadrato è piuttosto bassa, ma molto più alta della probabilità che dieci o cento gocce di pioggia casuali colpiscano quel metro quadrato.

Alcuni scienziati hanno studiato la teoria nel contesto della neuroanatomia, mostrando come l’induzione ottimale sia un principio organizzativo nell’evoluzione degli animali che necessitano di un’induzione accurata per sopravvivere. Quando verrà creata la vera Intelligenza Artificiale, i principi saranno una probabile ispirazione alla base della sua costruzione.