Symbolerdung ist die Verbindung von Symbolen, wie geschriebenen oder gesprochenen Wörtern, mit den Objekten, Ideen oder Ereignissen, auf die sie sich beziehen. Ein Problem, das als Symbolgrundierungsproblem bezeichnet wird, befasst sich mit der Art und Weise, wie Wörter mit ihrer Bedeutung in Verbindung gebracht werden, und damit, wie Bewusstsein mit dem Verständnis symbolischer Bedeutung in Beziehung steht. Das Problem der Symbolerdung wird, weil es mit diesen Sinn- und Bewusstseinsfragen zusammenhängt, oft im Kontext der Künstlichen Intelligenz (KI) diskutiert.
Das Studium von Symbolen sowie der Prozesse, durch die sie Bedeutung erlangen und interpretiert werden, wird als Semiotik bezeichnet. Innerhalb dieses Studienbereichs beschäftigt sich ein Zweig namens Syntaktik mit den Eigenschaften und Regelregeln symbolischer Systeme, ebenso wie mit den formalen Eigenschaften der Sprache. Das Problem der Symbolerdung wird im Rahmen dieser Disziplin verstanden, die Semiose umfasst, den Prozess, der es einer Intelligenz ermöglicht, die Welt durch Zeichen zu verstehen.
Das Problem der Symbolerdung wurde erstmals 1990 von Steven Harnad von der Princeton University definiert. Kurz gesagt, das Problem der Symbolerdung fragt, wie das Verständnis der Bedeutungen der Symbole innerhalb eines Systems, wie etwa einer formalen Sprache, systemimmanent gemacht werden kann. Obwohl der Bediener des Systems die Bedeutung der Symbole möglicherweise versteht, versteht das System selbst dies nicht.
Harnad bezieht sich zur Veranschaulichung auf John Searles klassisches Gedankenexperiment „Chinese Room“. In diesem Experiment erhält Searle, der keine Kenntnisse der chinesischen Sprache hat, eine Reihe von Regeln, die es ihm ermöglichen, in geschriebenem Chinesisch korrekt auf Fragen zu antworten, die ihm gestellt werden, auch in geschriebenem Chinesisch. Ein Beobachter außerhalb des Raumes könnte zu dem Schluss kommen, dass Searle Chinesisch sehr gut versteht, aber Searle ist in der Lage, chinesische Symbole zu manipulieren, ohne jemals die Bedeutung der Fragen oder der Antworten zu verstehen.
Laut Harnad lässt sich das Experiment mit einer KI vergleichen. Ein Computer kann zwar auf externe Aufforderungen die richtigen Antworten geben, aber er handelt basierend auf seiner Programmierung, wie Searle nach den Regeln, die ihm im Gedankenexperiment gegeben wurden. Die KI kann Symbole manipulieren, die für einen externen Beobachter eine Bedeutung haben, aber sie hat kein semantisches Verständnis der Symbole. Daher kann nicht gesagt werden, dass die KI ein Bewusstsein besitzt, da sie die Symbole nicht wirklich interpretiert oder versteht, worauf sie sich beziehen. Es erreicht keine Semiose.