Simbolių įžeminimas – tai simbolių, pavyzdžiui, rašytinių ar ištartų žodžių, susiejimas su objektais, idėjomis ar įvykiais, su kuriais jie susiję. Problema, vadinama simbolių pagrindimo problema, yra susijusi su būdais, kuriais žodžiai susiejami su jų reikšmėmis, ir tuo pačiu būdu, kaip sąmonė yra susijusi su simbolinės reikšmės supratimu. Simbolių įžeminimo problema, nes ji susijusi su šiais prasmės ir sąmonės klausimais, dažnai aptariama dirbtinio intelekto (DI) kontekste.
Simbolių, taip pat procesų, kurių metu jie įgyja prasmę ir yra interpretuojami, tyrimas yra žinomas kaip semiotika. Šioje studijų srityje šaka, vadinama sintaktika, nagrinėja simbolinių sistemų savybes ir valdymo taisykles, kaip ir formaliąsias kalbos savybes. Simbolių įžeminimo problema suprantama šios disciplinos rėmuose, apimančioje semiozę – procesą, leidžiantį intelektui suprasti pasaulį per ženklus.
Simbolių įžeminimo problemą 1990 m. pirmą kartą apibrėžė Stevenas Harnadas iš Prinstono universiteto. Trumpai tariant, simbolių pagrindimo problema klausia, kaip sistemos simbolių, pavyzdžiui, formaliosios kalbos, reikšmių supratimas gali būti būdingas sistemai. Nors sistemos operatorius gali suprasti simbolių reikšmes, pati sistema to nesupranta.
Harnadas remiasi klasikiniu Johno Searle minties eksperimentu „Kinijos kambarys“, norėdamas iliustruoti savo mintį. Šiame eksperimente Searle’ui, nemokančiam kinų kalbos, pateikiamos taisyklės, leidžiančios teisingai kinų kalba atsakyti į jam užduodamus klausimus, taip pat kinų kalba. Stebėtojas, esantis už kambario ribų, gali padaryti išvadą, kad Searle puikiai supranta kinų kalbą, tačiau Searle gali manipuliuoti kinų simboliais, niekada nesuprasdamas nei klausimų, nei atsakymų prasmės.
Pasak Harnado, eksperimentas gali būti analogiškas AI. Kompiuteris gali pateikti teisingus atsakymus į išorinius raginimus, tačiau jis veikia remdamasis savo programavimu, pavyzdžiui, Searle’as, laikydamasis taisyklių, kurias jam suteikė minties eksperimente. AI gali manipuliuoti simboliais, kurie turi prasmę išoriniam stebėtojui, bet neturi semantinio simbolių supratimo. Todėl negalima sakyti, kad dirbtinis intelektas turi sąmonę, nes jis iš tikrųjų neaiškina simbolių ir nesupranta, ką jie reiškia. Tai nepasiekia semiozės.