Para a maioria dos investigadores de IA, o problema do quadro é o desafio de representar os efeitos da ação na lógica sem ter que representar explicitamente um grande número de não-efeitos intuitivamente óbvios. Mas para muitos filósofos, o problema dos investigadores da IA é sugestivo de questões epistemológicas mais amplas. Será possível, em princípio, limitar o âmbito de aplicação do raciocínio necessário para obter as consequências de uma ação? E, de um modo mais geral, como é que explicamos a nossa aparente capacidade de tomar decisões apenas com base no que é relevante para uma situação em curso sem termos explicitamente em consideração tudo o que não é relevante?