Che cos’è la messa a terra dei simboli?

La messa a terra dei simboli è la connessione dei simboli, come le parole scritte o pronunciate, con gli oggetti, le idee o gli eventi a cui si riferiscono. Un problema chiamato problema del fondamento dei simboli riguarda i modi in cui le parole vengono associate ai loro significati e, per estensione, come la coscienza è collegata alla comprensione del significato simbolico. Il problema del fondamento dei simboli, poiché è correlato a queste domande di significato e coscienza, è spesso discusso nel contesto dell’intelligenza artificiale (AI).

Lo studio dei simboli, così come i processi attraverso i quali acquisiscono significato e vengono interpretati, è noto come semiotica. All’interno di questo campo di studio, una branca chiamata sintattica si occupa delle proprietà e delle regole di governo dei sistemi simbolici, come nelle proprietà formali del linguaggio. Il problema del fondamento del simbolo è compreso nell’ambito di questa disciplina, che include la semiosi, il processo che consente a un’intelligenza di comprendere il mondo attraverso i segni.

Il problema della messa a terra dei simboli è stato definito per la prima volta nel 1990 da Steven Harnad della Princeton University. In breve, il problema del symbol grounding si chiede come la comprensione dei significati dei simboli all’interno di un sistema, come il linguaggio formale, possa essere resa intrinseca al sistema. Sebbene l’operatore del sistema possa comprendere i significati dei simboli, il sistema stesso non lo fa.

Harnad fa riferimento al classico esperimento mentale “stanza cinese” di John Searle per illustrare il suo punto. In questo esperimento, a Searle, che non ha conoscenza della lingua cinese, viene data una serie di regole che gli permettono di rispondere correttamente, in cinese scritto, alle domande che gli vengono poste, anche in cinese scritto. Un osservatore fuori dalla stanza potrebbe giungere alla conclusione che Searle capisce molto bene il cinese, ma Searle è in grado di manipolare i simboli cinesi senza mai capire il significato delle domande o delle risposte.

Secondo Harnad, l’esperimento può essere analogo a un’IA. Un computer potrebbe essere in grado di produrre le risposte corrette ai prompt esterni, ma agisce in base alla sua programmazione, come Searle seguendo le regole che gli sono state date nell’esperimento mentale. L’IA è in grado di manipolare simboli che hanno un significato per un osservatore esterno, ma non ha una comprensione semantica dei simboli. Pertanto, non si può dire che l’IA possieda coscienza, perché in realtà non interpreta i simboli o non comprende a cosa si riferiscono. Non raggiunge la semiosi.