Introdução à Amostragem de Unidades Monetárias com Aplicações em R

Auditoria e Controle
  1. Introdução

O objetivo deste documento é apresentar uma introdução a técnica de amostragem estatística denominada Amostragem de Unidades Monetárias ( AUM ), que é uma técnica de amostragem bastante utilizada em auditoria financeira, bem como ilustrar sua implementação prática utilizando o software R.

Na auditoria financeira o interesse do auditor está em assegurar-se de que os saldos das contas apresentadas nas demonstrações financeiras não estejam materialmente erradas.

De particular interesse para a aplicação de procedimentos de amostragem são as contas representativas de estoques e contas a receber em razão da grande quantidade de itens que normalmente compõem o saldo destas contas e de estarem sujeitas a superavaliações.

Assim, em face da impossibilidade prática de examinar todos os itens, o auditor lança mão da amostragem para colher as evidências de que necessita para opinar quanto a exatidão dos saldos contábeis das referidas contas. Dada a natureza destas contas, a preocupação principal do auditor está na identificação de possíveis superavaliações.

Da mesma forma, o objetivo buscado na análise de orçamentos de obras ou relações de despesas em prestações de contas de execução de convênios é o de se certificar de que o valor total não esteja superavaliado, o que em essência é o mesmo objetivo da auditoria financeira, de forma que nos parece adequado o uso desta técnica de amostragem também para estas finalidades.

Naturalmente que o risco de se expressar uma opinião equivocada sobre a adequação de um valor monetário não depende apenas do risco de amostragem1, mas também da qualidade e adequação dos procedimentos de auditoria aos quais o auditor submeterá os itens selecionados para compor a amostra. Não serão discutidos neste documento os procedimentos de auditoria aplicáveis a cada caso, sendo certo, contudo, que eles são tão importantes quanto o adequado dimensionamento, seleção e avaliação da amostra.

 

  1. Amostragem em auditorias financeiras

Em auditorias financeiras, como já mencionado, existe o interesse do auditor em “determinar” o valor dos erros que eventualmente possam existir nos saldos das contas constantes dos balanços.

Sendo quase sempre inviável na prática o exame de todos os itens que compõem os saldos das contas a serem auditadas, o auditor verifica apenas uma amostra destes itens e, com base nos resultados obtidos, baseia sua opinião quanto à adequação dos saldos. O problema pode ser colocado da seguinte forma: dada uma população de NN itens que integram o saldo de uma determinada conta contábil, sejam X=∑n1xiX=∑1nxi o saldo contábil da conta em exame e Y=∑n1yiY=∑1nyi o valor auditado da referida conta. O erro existente no saldo da conta é então dado por D=∑n1di=Y−XD=∑1ndi=Y−X, erro esse que o auditor deseja conhecer. Se xi>yixi>yi, diz-se que o item ii está superavaliado, ao passo que quando xi<yixi<yi, diz-se que o item ii está subavaliado.

Se o auditor examinasse todos os itens que compõem o saldo da conta, saberia com exatidão o verdadeiro valor de DD, o que não ocorre na prática. O auditor só conhece os valores contabilizados e os valores auditados de um subconjunto da população de itens, de forma que só conhece os eventuais erros (didi) deste subconjunto. O valor de DD deverá ser então “estimado” pelo auditor.

Na prática, em vez de estimar este erro e um intervalo de confiança para o mesmo, o auditor determina um limite superior para este erro de forma que a probabilidade de DD superar este limite seja no máximo igual a um determinado nível de risco previamente definido pelo auditor.

Este limite máximo de erro denomina-se Limite Superior de Erro ( LSE ) e a probabilidade do erro existente na população superar este limite é conhecido como Risco de Incorreta Aceitação ( RIA ). Estes conceitos serão retomados mais adiante.

Uma característica marcante das populações contábeis é que para a maioria dos itens que integram o saldo de uma conta o valor dos erros (didi) será igual a zero, ou seja, di=xi−yi=0di=xi−yi=0. Este fato tem sérias implicações na utilização de técnicas de amostragem que se baseiam na aproximação normal do estimador para a estimação do erro total (DD) e de intervalos de confiança para esse erro.

Como é sabido, a amostragem clássica utiliza estimadores cujas distribuições amostrais são aproximadas pela distribuição normal e utilizam alguma medida de dispersão, usualmente o desvio padrão, para a definião de um intervalo de confiança para a estimativa. Na prática não é raro que a amostra colhida apresente di=0di=0 para todos os itens da amostra, ou para a maioria deles, fato que prejudica a utilização dos estimadores usualmente empregados na amostragem clássica, já que as estimativas e os intervalos de confiança obtidos não serão confiáveis.

Objetivando contornar este inconveniente, são apresentados na literatura de auditoria métodos de amostragem que não utilizam diretamente os erros didi mas os valores contabilizados yiyi e os valores auditados xixi para a estimação do erro total (DD). Estas metodologias são conhecidas na literatura como média por unidadediferença e razão2.

Além destas técnicas, foi desenvolvida também a Amostragem de Unidades Monetárias que não se baseia na aproximação normal da distribuição amostral do estimador e que fornece estimativas do erro contido na população mesmo quando não se verifica erros na amostra. Esta será a técnica de amostragem apresentada neste documento.

Além da característica de não utilização de aproximação normal, a AUM distingue-se das demais técnicas de amostragem utilizadas em auditoria em dois outros aspectos: a definição da unidade de amostragem e o método de seleção dos itens da amostra.

O uso de amostragem em auditoria é regulamentada pela Resolução CFC 1.222/09 que Aprova a NBC TA 530 – Amostragem em Auditoria.

A norma em referência define unidade de amostragem da seguinte forma: As unidades de amostragem podem ser itens físicos (por exemplo, cheques relacionados em comprovante de depósito, lançamentos de crédito em extratos bancários, faturas de venda ou saldos de devedores) ou unidades monetárias.

No Apêndice 1 a norma volta a fazer referência a esta metodologia de amostragem:

Seleção com base em valor

  1. Ao executar os testes de detalhes, pode ser eficaz identificar a unidade de amostragem como unidades monetárias individuais que compõem a população. Após ter selecionado unidades específicas da população, como por exemplo, o saldo das contas a receber, o auditor pode, então, examinar os itens específicos, como por exemplo, os saldos individuais que contêm essas unidades monetárias. O benefício dessa abordagem para definir a unidade de amostragem é que o trabalho de auditoria é direcionado para itens de valor maior porque eles têm mais chances de serem selecionados e podem resultar em amostras de tamanhos menores. Essa abordagem pode ser usada juntamente com o método sistemático de seleção de amostras (descrito no Apêndice 4) e é muito eficiente quando os itens são selecionados usando a seleção aleatória.

No Apêndice 4, ao tratar dos métodos de seleção dos itens que integrarão a amostra, a norma volta a fazer referência à AUM:

Métodos de seleção da amostra

Existem muitos métodos para selecionar amostras. Os principais são os seguintes:

(…)

(c) Amostragem de unidade monetária é um tipo de seleção com base em valores (conforme descrito no Apêndice 1), na qual o tamanho, a seleção e a avaliação da amostra resultam em uma conclusão em valores monetários.

(…)

 

  1. Teoria da amostragem de unidades monetárias

3.1 – Definição da unidade de amostragem

Enquanto nas demais técnicas de amostragem as unidades de amostragem são definidos como itens físicos, na AUM a unidade de amostragem é definida como sendo cada unidade monetária (cada Real) que compõe o saldo da conta em exame. Daí o nome desta técnica de amostragem.

Suponha que o saldo de uma conta seja composto de 153 itens que somem R$ 325.742,00. Em vez de selecionar alguns dos 153 itens para exame, seleciona-se alguns dos 325.742 Reais que compõem o saldo em questão. É como se houvesse 325.742 moedas de 1 real enfileiradas uma embaixo da outra e as numerássemos de 1 a 325.742, sendo a primeira moeda a de no 1, a segunda moeda a de no 2 e assim sucessivamente até a última moeda, que seria a de no 325.742.

 

3.2 – Cálculo do tamanho da amostra

Na fase de planejamento da auditoria o auditor faz algumas avaliações acerca de materialidade e risco que afetam o tamanho da amostra a ser selecionada para exame. Não serão discutidos aqui estes conceitos, os quais podem ser obtidos na NBC TA 530 ou em textos de auditoria, sendo recomendado o livro de Boynton, Johnson e Kell citado na referência bibliográfica.

O tamanho da amostra pode ser obtido com uma das duas fórmulas a seguir:

 

(a)n=N×FCEMT(a)n=N×FCEMT

 

(b)n=N×FCEMT−(EP×FE)(b)n=N×FCEMT−(EP×FE)

Onde:

Parâmetro Descrição
     
nn Tamanho da Amostra: Quantidade de itens que comporão a amostra a ser testada;
NN Tamanho da População: É a quantidade total de itens contidos em uma população. Em amostragem de unidades monetárias será o saldo contábil da conta a ser auditada;
EMTEMT Erro Máximo Tolerado (ou Distorção Tolerável): É a materialidade definida pelo auditor para a avaliação conta contábil em análise.
EPEP Erro Previsto ou Distorção Presvista: Em amostragem de atributos o auditor deve fazer uma avaliação preliminar do erro que espera encontrar na população. Assim, o Erro Previsto é uma avaliação preliminar, baseada em julgamento profisisonal, do montante de erro que o auditor espera encontrar na papulação (saldo contábil).
FCFC Fator de Confiança: Esse parâmetro indica a taxa máxima de unidades monetárias em erro na população que com probabilidade igual ao risco de incorreta aceitação pode produzir uma amostra com determinada quantidade de itens com erro;
FEFE Fator de Expansão: Utilizado quando se antecipa a possibilidade de erros na população. O valor desse parâmetro depende do nível de risco de incorreta aceitação definido.

À primeira vista a diferença entre as fórmulas reside no termo (EP×FE)(EP×FE) que aparece no denominador da fórmula (b)(b). Mas outra diferença é o valor do FCFC a ser utilizado. Essas diferenças ficarão mais claras no exemplo apresentado.

Para ilustrar como realizar o cálculo do tamanho da amostra na AUM usando as fórmulas apresentadas, vamos considerar um exemplo contido na página 496 do livro do Boynton, cujos dados são apresentados a seguir:

  • Tamanho da população – (NN): 600.000
  • Erro Máximo Tolerado – (EMTEMT): 30.000 (5% da população)
  • Erro Previsto – (EPEP): 6.000 (20% de EMTEMT)
  • Fator de Confiança – (FCFC) = 3.0

Qual fórmula utilizar? Se o auditor não espera encontrar erros na população então EPEP = R$0.00 e as duas formulas são equivalentes e produzirão o mesmo tamanho de amostra já que o termo EP×FEEP×FE será igual a zero e os fatores de confiança a serem utilizados são os mesmos. Mas esse não é o caso do exemplo, onde o auditor espera encontrar 6.000 de erro na população. Também nesse caso as duas formulas poderão ser utilizadas com os devidos cuidados.

Para usar a primeira fórmula o auditor deve utilizar o Fator de Confiança proveniente da tabela C-2 do Guia da AICPA que apresentamos a seguir:

Para utilizar essa tabela o auditor deverá conhecer os seguintes parâmetros: risco de incorreta aceitação (RIARIA), erro esperado (EPEP) e erro máximo tolerado (EMTEMT).

O exercício indica explicitamente o valor do erro esperado (EPEP = 6.000) e do erro máximo tolerado (EMTEMT = 30.000). Com estes valores encontra-se a razão entre o erro esperado e erro máximo tolerado que é igual a 0.200.20 ( 6000÷300006000÷30000 ).

O valor do risco de incorreta aceitação não foi explicitamente fornecido, mas pode ser deduzido a partir de outros parâmetros fornecidos. Vamos considerar um RIA de 5% e mais adiante explicaremos como este valor foi deduzido.

Com estes valores é possível consultar a tabela acima e verificar que o valor do Fator de Confiança correspondente é de 4.634.63. Colocando esses valores na fórmula (a)(a) obtém-se um tamanho de amostra de aproximadamente 93.

N <- 600000

FC <- 4.63

EMT <- 30000

 

N * FC / EMT

## [1] 92.6

Esta fórmula fornece um tamanho de amostra de aproximadamente 93 unidades monetárias.

O uso da fórmula (b)(b) é imediato já que todos os parâmetros foram fornecidos. Fazendo as contas chega-se a um tamanho de amostra de aproximadamente 88 unidades:

N   <- 600000

FC  <- 3.0

EMT <- 30000

EP  <- 6000

FE  <- 1.6

 

(N * FC) / (EMT (EP * FE))

## [1] 88.23529

O valor do Fator de Confiança utilizado nesta fórmula foi diferente do utilizado na primeira e a razão disso é a seguinte: na primeira fórmula, o efeito da expectativa de erro na população é capturado pelo Fator de Confiança e na segunda fórmula pelo Erro Projetado ajustado pelo Fator de Expansão. Nesse caso o Fator de Confiança a ser utilizado na fórmula é aquele que considera não existir erros na população. Na tabela o valor 3.0 pode ser localizado na interseção da linha correspondente ao valor 0.00 (razão entre Erro Esperado e Erro Máximo Tolerado ) e 5% (Risco de Incorreta Aceitação).

Como pode ser visto, as duas formulas fornecem valores um pouco diferentes entre si. No Guia da AICPA existe a observação de que para valores baixos a moderados de Erro Esperado a fórmula que utiliza o Fator de Expasão fornece tamanhos de amostra que são um pouco menores que os fornecidos utilizando a tabela C-2 e que quando o Erro Esperado é alto, por exemplo 40% ou mais do Erro Máximo Tolerado, a fórmula usando Fatores de Expansão fornece tamanhos de amostra bem maiores que os obtidos com a tabela C-2.

O Fator de Expansão utilizado na fórmula é obtido a partir de consulta a tabela. O Guia da AICPA fornece a tabela C-4 contendo tais fatores para alguns níveis de risco.

Pode ser visto que para o nosso exemplo o Fator de Expansão relativo a 5% de Risco de Incorreta Aceitação é 1.60.

Um outro exemplo, agora oriundo do livro de Gramling, Rittemberg e Johnstone (pág. 300), cujo enunciados é o seguinte:

O auditor está planejando confirmar as contas a receber para testar as afirmações de existência e avaliação. Há 450 saldos de clientes, totalizando $ 807.906. O risco de auditoria foi fixado como baixo (5%) e o de detecção calculado é de 15%. A incorreção tolerável é fixada em $ 50 mil. Nenhuma incorreção foi encontrada no ano passado. Entretanto, para se sentir seguro, o auditor usa uma incorreção esperada de $ 5 mil.

Do enunciado extrai-se as seguintes informações:

  • Tamanho da População (NN): 807.906
  • Erro Máximo Tolerado (EMTEMT): 50.000
  • Distorção Prevista (EPEP): 5.000
  • Risco de Incorreta Aceitação (RIARIA): 0.15

Com essas informações, e considerando que existe expectativa de se encontrar erro na população, o tamanho da amostra pode ser cálculado da seguinte forma:

Fórmula (a):

N <- 807906

EMT <- 50000

FC <- 2.25 # Razao: 5000 / 50000 = 0.10; Risco: 15% – consultando a tabela C-2 obtém-se 2.25

 

N * FC / EMT

## [1] 36.35577

 

Fórmula (b):

N   <- 807906

EMT <-  50000

FC  <-   1.90  # Razao: 0.00; Risco: 15% – consultando a tabela C-2 obtém-se 1.90

EP  <-   5000

FE  <-   1.40  # Consultando a tabela C-4 para um risco de 15% obtém-se um FE de  1.40

 

N * FC / (EMT (EP * FE))

## [1] 35.69817

 

3.3 – Seleção da amostra

A seleção das unidades monetárias será feita aleatoriamente, podendo ser utilizada a amostragem sistemática ou um procedimento denominado “amostragem aleatória por intervalo”. Esses métodos de seleção dão a cada unidade monetária igual probabilidade de seleção.

Selecionadas as unidades monetárias será necessário identificar a que itens as mesmas pertencem.

As unidades monetárias sorteadas funcionam como “ganchos” a partir dos quais os itens são selecionados para exame.

Um ponto importante é que embora cada unidade monetária tenha a mesma probabilidade de pertencer à amostra, os itens de maior valor monetário terão maior probabilidade de serem selecionados para compor a amostra já que possuem mais “ganchos” pelos quais poderão ser “puxados”. Assim, por exemplo, um item que tenha o valor R$ 150,00 terá o triplo da probabilidade de ser selecionado que um item cujo valor seja R$ 50,00. Este fato faz com que se diga que os itens são selecionados com probabilidde proporcional ao tamanho (PPT).

Para que os conceitos fiquem um pouco mais claros, serão ilustrados com um pequeno exemplo.

Suponha uma população de 12 itens, de onde desejamos selecionar uma amostra de 4 itens.

Item Valor Valor Acumulado
1 357 357
2 1.281 1.638
3 60 1.698
4 573 2.271
5 691 2.962
6 143 3.105
7 1.425 4.530
8 278 4.808
9 942 5.750
10 826 6.576
11 404 6.980
12 396 7.376

Em ambas formas de seleção da amostra será necessário calcular o intervalo de amostragem (I), que é o resultado da divisão do tamanho da população (NN) pelo tamanho da amostra (nn):

I=NnI=Nn

3.3.1 – Seleção utilizando amostragem sistemática

Na amostragem sistemática a primeira unidade monetária da amostra é sorteada aleatóriamente entre 1 e II (o intervalo de amostragem), sendo os demais elementos da amostra os termos de uma progressão aritmética de razão II. Com base nos dados acima, o sorteio é feito da seguinte forma:

  • Calcula-se o intervalo de amostragem (II) que, como já mencionado, será igual a I=Nn=7.3764=1.844I=Nn=7.3764=1.844
  • Seleciona-se aleatoriamente um número entre 1 e 1.844. Suponha que o número sorteado seja 1.756.
  • Calcula-se as 3 unidades monetárias restantes somando-se, sistematicamente, I=1.844I=1.844 ao valor sorteado conforme mostrado a seguir:

1o elemento da amostra: 1.756
2o elemento da amostra: 3.600 ( 1.756 + 1.844 )
3o elemento da amostra: 5.444 ( 3.600 + 1.844 )
4o elemento da amostra: 7.288 ( 5.444 + 1.844 )

As unidades monetárias sorteadas foram: 1.756, 3.600, 5.444 e 7.288.

Sorteadas as unidades monetárias o passo seguinte é identificar os itens a que pertencem as referidas unidades monetárias. Para tanto utiliza-se a coluna de valores acumulados da tabela acima. À unidade monetária 1.756 corresponde o item 4 já que a este item estão associadas as unidades monetárias 1.699 a 2.271. Da mesma forma, à unidade monetária 3.600 corresponde o item 7, à unidade monetária 5.444 o item 9 e à unidade monetária 7.288 o item 12. Assim, os itens sorteados são: 4, 7, 9 e 12.

Deve-se chamar a atenção para os seguintes fatos:

  • Itens que tenham valores iguais ou superiores ao intervalo de amostragem serão sempre selecionados;
  • A amostragem com probabilidade de seleção proporcional ao tamanho é uma técnica de amostragem com reposição, o que significa dizer que um mesmo item pode ser selecionado mais de uma vez;
  • De um modo geral é possível afirmar que cada um dos nn “blocos” contendo II unidades monetárias em que se divide a população tem um representante na amostra. Este é um aspecto importante para a avaliação dos resultados da amostra como será visto mais adiante.

No R esse procedimento de sorteio aleatório pode ser implementado da seguinte forma:

exemplo <- data.frame(item = 1:12,

valor= c(357, 1281, 60, 573, 691, 143, 1425, 278, 942, 826, 404, 396))

 

exemplo

##    item valor

## 1     1   357

## 2     2  1281

## 3     3    60

## 4     4   573

## 5     5   691

## 6     6   143

## 7     7  1425

## 8     8   278

## 9     9   942

## 10   10   826

## 11   11   404

## 12   12   396

Cálculo do intervalo de amostragem:

I <- sum(exemplo$valor) / 4

I

## [1] 1844

Sorteio aleatório de uma unidade monetária entre 1 e 1844

set.seed(18)

um1 <- round(runif(1, min=1, max=1844))

um1

## [1] 1518

Sorteada a primeira unidade monetária, as outras três são obtidas adicionando-se 1844 sistematicamente a este valor como ilustrado acima. Isso pode ser feito da seguinte forma:

# Amostra de tamanho 4

amostra <- c(um1, um1 + 1:(41) * I)

amostra

## [1] 1518 3362 5206 7050

Sorteadas as unidades monetárias, deve-se selecionar os itens a que as mesmas pertencem. Isso pode ser feito da seguinte forma:

exemplo$valor_acum <- cumsum(exemplo$valor)

exemplo

##    item valor valor_acum

## 1     1   357        357

## 2     2  1281       1638

## 3     3    60       1698

## 4     4   573       2271

## 5     5   691       2962

## 6     6   143       3105

## 7     7  1425       4530

## 8     8   278       4808

## 9     9   942       5750

## 10   10   826       6576

## 11   11   404       6980

## 12   12   396       7376

itens <- numeric(4) # cria um vetor vazio de tamanho 4

for(i in 1:4) itens[i] <- min(which(exemplo$valor_acum >= amostra[i]))

 

exemplo[itens, 3]

##    item valor

## 2     2  1281

## 7     7  1425

## 9     9   942

## 12   12   396

Os itens sorteados foram: 2, 7, 9 e 12.

 

3.3.2 – Seleção utilizando amostragem aleatória por intervalo

Neste procedimento de seleção sorteia-se aleatoriamente uma unidade monetária em cada um dos nn intervalos em que a população é dividada. No nosso exemplo, sorteia-se uma unidade monetária em cada um dos 4 intervalos em que dividimos a população acima:

1a unidade monetária: sorteia-se, aleatoriamente, uma unidade monetária no intervalo 1 a 1.844
2a unidade monetária: sorteia-se, aleatoiramente, uma unidade monetária no intervalo 1.845 a 3.688
3a unidade monetária: sorteia-se, aleatoiramente, uma unidade monetária no intervalo 3.689 a 5.532
4a unidade monetária: sorteia-se, aleatoiramente, uma unidade monetária no intervalo 5.533 a 7.376

Os limites superiores dos intervalos são: II, 2I2I, 3I3I e 4I4I.

Suponha que as unidades monetárias sorteadas sejam as seguintes: 473, 2.470, 4.007 e 5.742.

Sorteadas as unidades monetárias, a identificação dos itens é feita da mesma forma exemplificada para a amostragem sistemática. Os itens sorteados são: 2, 5, 7 e 9.

No R, a implementação dessa metodologia pode ser feita da seguinte forma:

set.seed(1212)

min <- seq(1, 4*I, I)

max <- seq(I, 4*I, I)

amostra2 <- round(mapply(runif, min=min, max=max , MoreArgs = list(n = 1)))

amostra2

## [1]  489 2045 5471 6180

As unidades monetárias sorteadas foram: 489, 2045, 5471 e 6180. A identificação dos itens correspondentes a estas unidades monetárias é feita da mesma forma que para a amostragem sistemática.

itens2 <- numeric(4) # cria um vetor vazio de tamanho 4

for(i in 1:4) itens2[i] <- min(which(exemplo$valor_acum >= amostra2[i]))

 

exemplo[itens2, 3]

##    item valor

## 2     2  1281

## 4     4   573

## 9     9   942

## 10   10   826

Os itens correspondentes às unidades monetárias sorteadas foram: 2, 4, 9 e 10.

 

3.4 – Avaliação dos resultados

3.4.1 – Critério de avaliação

Selecionada a amostra e aplicados aos itens dela constante os procedimentos de auditoria definidos pelo auditor, o passo seguinte é a avaliação dos resultados obtidos, que consistirá no cálculo do Limite Superior de Erro (LSE), que é uma estimativa de um limite máximo que o erro total existente na conta poderá alcançar. Com este valor calculado o auditor poderá tomar uma decisão quanto a adequação ou não do saldo da conta em exame.

O procedimento é semelhante a um teste de hipóteses no qual tem-se:

  • H0: O saldo da conta não está superavaliado por mais de EMT
  • H1: O saldo da conta está superavaliado por mais de EMT

O Risco de Incorreta Aceitação é o risco do auditor ser levado a aceitar H0 como verdadeiro quando H0 é na realidade falso em razão de ter examinado apenas uma amostra dos itens que compõem o saldo da conta, ou seja, em razão do risco de amostragem.

O critério de decisão é então:

Se o LSE ≤≤ EMT, aceita-se H0
Se o LSE >> EMT, rejeita-se H0

Em outras palavras, se a estimativa do limite superior de erro existente no saldo (LSE) for interior ou igual ao máximo de erro que o audidor está disposto a admitir no mesmo sem considerá-lo superavaliado (EMT), então será possível afirmar com certo grau de confiança que não há evidência de que o saldo esteja superavaliado por mais de que o valor definido para o EMT.

Por outro lado, se o LSE for superior ao EMT será possível afirmar com certo grau de confiança que a estimativa do limite superior do erro existente no saldo poderá ser superior ao máximo de erro que o auditor está disposto a admitir na população.

As evidências obtidas com o exame da amostra é que permitirão ao auditor decidir se rejeita ou não o saldo contábil com base no LSE calculado e no EMT definido no planejamento da auditoria.

Na prática é também recomendável uma avaliação qualitativa dos erros eventualmente encontrados a fim de se verificar a natureza e as causas de ocorrência dos mesmos.

Para a avaliação dos resultados da amostra, será útil o uso da tabela C-3 do Guia de Amostragem da AICPA, apresentada a seguir:

3.4.2 – Cálculo do Limite Superior de Erro

O Limite Superior de Erro (LSE) é o resultado da soma de três parcelas, denominadas, respectivamente de: Precisão Básica (PB)Erro Projetado (EP) e Precisão Incremental (PI), ou seja:

LSE=PB+EP+PILSE=PB+EP+PI

Antes de definirmos cada uma destas parcelas e mostrarmos os procedimentos de cálculo de cada uma, apresentaremos algumas ideias necessárias ao entendimento da metodologia de apuração do LSE.

Conforme já observado anteriormente, o intervalo de amostragem (II) divide a população em nn partes contendo, cada uma, igual quantidade de unidades monetárias, cada uma delas estando representada na amostra por uma unidade monetária.

 

Selecionadas as unidades monetárias, cada uma delas pode estar correta (0% de erro), totalmente incorreta (100% de erro) ou parcialmente correta (percentual de erro entre 0% e 100%) dependendo de que os itens a que as unidades monetárias se refiram estejam ou não em erro.

Considere os dados utilizados para ilustrar a metodologia de seleção da amostra no capítulo anterior e suponha que uma unidade monetária selecionada entre as 1.844 que compõem cada uma das 4 partes em que a população foi dividida leve a um item cujo valor contabilizado seja de R$ 942,00. As seguintes situações podem ocorrer:

  1. O valor auditado do item é 0, ou seja, trata-se de um item fictício. Nessa situação, o erro encontrado é de 942, que leva a um percentual de erro de 100%. Ou seja, todas as 942 unidades monetárias do item estão 100% erradas.
  2. O valor auditado do referido item é R$ 942,00, situação em que teríamos zero erro, implicando que cada uma das 942 unidades monetárias do item selecionado estariam 0% erradas, ou seja, estariam corretas.
  3. O valor auditado do item é R$ 720,00, situação em que teríamos um erro de R$ 222,00, implicando um percentual de erro de 23,56%, ou seja, cada uma das 942 unidades monetárias estão erradas em 23,56%, ou seja, estão parcialmente corretas.

Se o item que contém a unidade monetária selecionada está em erro e tem um valor contábil inferior ao do intervalo de amostragem (II), sabemos o percentual de erro apenas das unidades monetárias que compõem o referido item. Quanto às demais 902 (1844 – 942) unidades monetárias da parte da população a que pertence o referido item, não sabemos se estão corretas, incorretas ou o quanto parcialmente corretas.

Em razão da falta de informação quanto ao erro contido nessas unidades monetárias, assumimos que todas as unidades monetárias que compõem o intervalo de amostragem contenham o mesmo percentual de erro verificado nas unidades monetárias do item selecionado. Assim, o erro projetado para o intervalo de amostragem será dado pelo percentual de erro verificado no item selecionado multiplicado pelo intervalo de amostragem.

Caso o item selecionado esteja em erro e tenha um valor contábil igual ou superior ao intervalo de amostragem, saberemos exatamente o erro contido em todo o intervalo de amostragem, de forma que não haverá incerteza associada à parcela da população a que pertence o item selecionado. Neste caso o erro projetado para o intervalo de amostragem será o erro observado no item.

Feitas essas observações preliminares passamos à definição e ao cálculo de cada parcela do LSE. Para tanto, vamos considerar que a aplicação de um procedimento de auditoria em uma amostra de itens tenha produzido o seguinte resultado:

Codigo Quant PUnit Valor Valor Auditado Erro Taxa de Erro
10407 17 400,00 6.800,00 6.000,00 800,00 0,117647
10423 13 1.250,00 16.250,00 15.000,00 1.250,00 0,076923
20004 10.052 17,85 179.428,00 130.173,40 49.254,60 0,274509
20016 3.660 25,30 92.598,00 91.231,80 1.366,20 0,014754
Total 295.076,00 242.405,20 52.670,80

A amostra em questão evidenciou 4 itens em erro, produzindo um erro total na amostra de R$ 52.670,80.

Para essa amostra, foi definido um Risco de Incorreta Aceitação de 37%. O intervalo de amostragem (II) é de R$204.660.

 

3.4.2.1 Precisão Básica (PB)

Esta componente do LSE refere-se ao fato de que é possível selecionarmos, com alguma probabilidade, uma amostra que não contenha erros de uma população que apresente uma certa percentagem de unidades monetárias em erro.

A questão que se coloca é a seguinte: qual é o percentual máximo de unidades monetárias em erro na população que pode resultar em uma amostra sem erros com probabilidade, no máximo, igual ao Risco de Incorreta Aceitação? Este percentual máximo é dado pelo Fator de Confiança.

De posse desse percentual máximo de erro na população, será necessário convertê-lo em expressão monetária. Isso é feito multiplicando-se o Fator de Confiança para zero erros pelo intervalo de amostragem. Assim, a fórmula para o cálculo da precisão básica é dada por:

PB=FC×IPB=FC×I

Para o Risco de Incorreta Aceitação definido (37%) o Fator de Confiança correspondente, consultando a tabela C-3, é de 1.00. O intervalo de amostragem, como já mencionado, é de R$ 204.660. Com estes dados a Precisão Básica pode ser calculada:

FC <- 1.0

I <- 204660

FC * I

## [1] 204660

A Precisão Básica para o exemplo é de R$ 204.660,00

 

3.4.2.2 Erro Projetado (EP)

Esta componente refere-se à projeção dos erros encontrados na amostra para toda a população. Caso não sejam identificados erros na amostra o Limite Superior de Erro (LSE) será igual à Precisão Básica já que não há erros a serem projetados para a população.

A projeção dos erros será feita como já explicitado anteriormente. Considerando o exemplo, tem-se:

Item Valor Contab. Valor Audit. Erro Tx de Erro Interv. Amostragem Erro Projetado
10407 6.800,00 6.000,00 800,00 0,117647 204.660 24.077,65
10423 16.250,00 15.000,00 1.250,00 0,076923 204.660 15.743,08
20004 179.428,00 130.173,40 49.254,60 0,274509 204.660 56.181,01
20016 92.598,00 91.231,80 1.366,20 0,014754 204.660 3.019,57
Total 99.021,31

O Erro Projetado para cada item é o produto da taxa de erro pelo intervalo de amostragem. Deve ser observado que no exemplo nenhum dos itens possui valor contabilizado superior ao intervalo de amostragem. Caso isso ocorra, o erro projetado para esses itens será igual ao erro identificado nos mesmos.

Para o exemplo o Erro Projetado é de R$ 99.021,31.

 

3.4.2.3 Precisão Incremental (PI)

Esta componente refere-se ao incremento que é dado à Precisão Básica à medida que são descobertos erros na amostra. Como visto, a Precisão Básica é determinada sob a hipótese de inexistência de erros na amostra. Sendo, contudo, identificados erros na amostra, o Fator de Confiança deve ser ampliado para refletir a verdadeira quantidade de erros observada na amostra. Esta ampliação do Fator de Confiança é feita mediante o cálculo de Fatores de Incremento.

No exemplo em exame foram identificados 4 itens com erro e os fatores de incrementos são determinados conforme mostrado no quadro a seguir:

Erro Fator de Confiança Fator de Incremento
1 2.14 0.14 (= 2.14 – 1.00 – 1)
2 3.25 0.11 (= 3.25 – 2.14 – 1)
3 4.35 0.10 (= 4.35 – 3.25 – 1)
4 5.43 0.08 (= 5.43 – 4.35 – 1)

Os fatores de confiança para 1, 2, 3 e 4 erros para um risco de incorreta aceitação de 37% são obtidos na tabela C-3. O fator de incremento para cada erro é dado pelo fator de confiança relativo ao erro menos o fator de confiança relativo ao erro anterior menos 1.

Obtidos os fatores de incremento para o cálculo da precisão incremental, os itens da amostra devem ser ordenados de forma decrescente pela taxa de erro verificada.

A tabela a seguir mostra o cálculo da precisão incremental:

Item Erro Projetado Fator de Incremento Precisão Incremental
20004 56.181,01 0.14 7.865,34
10407 24.077,65 0.11 2.648,54
10423 15.743,08 0.10 1.574,31
20016 3.019,57 0.08 241,57
Total 12.329,76

A Precisão Incremental á calculada multiplicando-se o Erro Projetado pelo Fator de Incremento.

Para o nosso exemplo a Precisão Incremental é de R$ 12.329,76.

A ordenação decrescente dos erros projetados é feita para que obtenha um Limite Superior de Erro o mais conservador possível.

Os itens cujos valores contabilizados são superiores ao intervalo de amostragem não são incluídos no cálculo da Precisão Incremental.

 

3.4.2.4 Avaliação final

Com as parcelas calculadas já é possível obter o LSE. Basta adicionar as três parcelas que o compõe. Assim:

LSE=PB+EP+PI=204.660,00+99.021,31+12.329,76=316.011,07LSE=PB+EP+PI=204.660,00+99.021,31+12.329,76=316.011,07

Obtido o LSE esse deve ser comparado com o EMT para se decidir quanto a existência ou não de erro material na conta auditada. Para esse exemplo, o EMT foi estabelecido em R$ 325.000,00.

Como o LSE ≤≤ EMT, então não há evidência, com um nível de risco de 37% de incorreta aceitação de que o saldo da conta examinada esteja errada por mais de R$ 325.000,00.

 

3.4.3 – Cálculo do LSE – Outro Exemplo

Objetivando fixar a metodologia de cálculo do LSE vamos apresentar a seguir o exemplo constante da página 499 do livro do Boynton.

Após o exame da amostra selecionada foram identificados alguns erros. Os resultados obtidos são apresentados a seguir:

Valor Contabilizado Valor Auditado
950 855
2.500 1.250
7.650 6.885
5.300 5.035
8.000 0

O intervalo de amostragem é de 6.818 e o Risco de Incorreta Aceitação de 5%.

Diferentemente de como fizemos anteriormente, vamos realizar todos os cálculos usando o R. O primeiro passo é inserir os dados no programa:

# Intervalo de amostragem

ia <- 6818

 

# Resultado da análise da amostra

dados_harris <- data.frame(vlr_contabilizado = c(950, 2500, 7650, 5300, 8000),

vlr_auditado      = c(855, 1250, 6885, 5035, 0))

 

dados_harris

##   vlr_contabilizado vlr_auditado

## 1               950          855

## 2              2500         1250

## 3              7650         6885

## 4              5300         5035

## 5              8000            0

Como visto acima, o LSE é composto de três parcelas: Precisão Básica (PB), Erro Projetado (EP) e Precisão Incremental (PI).

A Precisão Básica será sempre calculada, tenha o auditor encontrado erros na amostra ou não. Caso não encontre erros o LSE será igual à PB, já que não existem erros a serem projetados e nem haverá necessidade de incrementar o Fator de Confiança.

Para o cálculo da Precisão Básica, são necessários dois elementos: o intervalo de amostragem e o Fator de Confiança correspondente ao Risco de Incorreta Aceitação especificado (nesse exemplo 5%) para zero erros identificados na amostra. No exemplo anterior, o fator de confiança foi obtido a partir de consulta à tabela C-3, que para esse exemplo nos fornece um Fator de Confiança de 3.0.

Também é possível obter os valores dos fatores de confiança utilizando o R. A seguir vamos definir uma função, que chamaremos de uelTable() que calcula os fatores de confiança a partir da quantidade de erros identificada na amostra e do Risco de Incorreta Aceitação especificado:

uelTable <- function(erros=0, ria=5){

# erros: quantidade de itens em erro na amostra

# ria  : risco de incorreta aceitação (expresso em percentual)

if(ria > 50) stop(“O risco máximo permitido é de 50%”)

ria <- ria / 100

lambda <- erros # minimizar a quantidade de iterações?

while(ppois(erros, lambda) >= ria){

lambda <- lambda + 0.0001

}

round(lambda, 2)

}

A função recebe a quantidade de erros (zero é a opção default) e o Risco de Incorreta Aceitação (5% é a opção default) e retorna o correspondente Fator de Confiança. Vamos testar para alguns valores:

# erros: 0 ria=5%

uelTable()

## [1] 3

# 5 erros e 30% de risco de correta aceitação

uelTable(5, 30)

## [1] 7.01

Agora já é possível calcular a Precisão Básica:

PB <- ia * uelTable()

PB

## [1] 20454

Agora vamos calcular o Erro Projetado. Para tanto vamos calcular, passo a passo, os valores necessários à obtenção do EP: (a) cálculo dos erros, (b) cálculo das taxas de erro e (c) cálculo dos erros projetados.

(a) Calculo dos erros:

suppressPackageStartupMessages(library(dplyr))

 

dados_harris <- dados_harris %>%

mutate(erros = vlr_contabilizado vlr_auditado)

 

dados_harris

##   vlr_contabilizado vlr_auditado erros

## 1               950          855    95

## 2              2500         1250  1250

## 3              7650         6885   765

## 4              5300         5035   265

## 5              8000            0  8000

(b) Calculo das taxas de erro

dados_harris <- dados_harris %>%

mutate(tx_erros = ifelse(vlr_contabilizado >= ia, NA, erros / vlr_contabilizado))

dados_harris

##   vlr_contabilizado vlr_auditado erros tx_erros

## 1               950          855    95     0.10

## 2              2500         1250  1250     0.50

## 3              7650         6885   765       NA

## 4              5300         5035   265     0.05

## 5              8000            0  8000       NA

Como foi observado anteriormente é necessário identificar os itens cujos valores contabilizados são superiores ao intervalo de amostragem porque o erro projetado para esses itens será igual ao erro identificado.

(c) Calculo dos erros projetados

dados_harris <- dados_harris %>%

mutate(erros_projetados = ifelse(is.na(tx_erros), erros, ia * tx_erros))

dados_harris

##   vlr_contabilizado vlr_auditado erros tx_erros erros_projetados

## 1               950          855    95     0.10            681.8

## 2              2500         1250  1250     0.50           3409.0

## 3              7650         6885   765       NA            765.0

## 4              5300         5035   265     0.05            340.9

## 5              8000            0  8000       NA           8000.0

Agora já temos condição de obter a segunda componente do LSE:

EP <- sum(dados_harris$erros_projetados)

EP

## [1] 13196.7

Passemos agora ao cálculo da terceira componente do LSE, a Precisão Incremental. Como já mencionado no exemplo anterior, para o cálculo dessa componente os itens cujos valores contabilizados são superiores ao intervalo de amostragem não são considerados.

dados_harris_pi <- dados_harris %>%

filter(!is.na(tx_erros))

dados_harris_pi

##   vlr_contabilizado vlr_auditado erros tx_erros erros_projetados

## 1               950          855    95     0.10            681.8

## 2              2500         1250  1250     0.50           3409.0

## 3              5300         5035   265     0.05            340.9

Outra providência é ordenar os itens de forma decrescente em função das taxas de erro.

dados_harris_pi <- dados_harris_pi %>%

arrange(desc(tx_erros))

dados_harris_pi

##   vlr_contabilizado vlr_auditado erros tx_erros erros_projetados

## 1              2500         1250  1250     0.50           3409.0

## 2               950          855    95     0.10            681.8

## 3              5300         5035   265     0.05            340.9

Agora será necessário calcular e incluir na base de dados os fatores de incremento para os três erros. Já foi visto no exemplo anterior como os mesmos são calculados.

dados_harris_pi <- dados_harris_pi %>%

mutate(fatores_incremento = c(uelTable(1) uelTable(0) 1,

uelTable(2) uelTable(1) 1,

uelTable(3) uelTable(2) 1))

dados_harris_pi

##   vlr_contabilizado vlr_auditado erros tx_erros erros_projetados

## 1              2500         1250  1250     0.50           3409.0

## 2               950          855    95     0.10            681.8

## 3              5300         5035   265     0.05            340.9

##   fatores_incremento

## 1               0.74

## 2               0.56

## 3               0.45

De posse dos fatores de incremento a precisão incremental é obtida multiplicando os erros projetados pelos fatores de incremento:

dados_harris_pi <- dados_harris_pi %>%

mutate(precisao_incremental = erros_projetados * fatores_incremento)

 

dados_harris_pi

##   vlr_contabilizado vlr_auditado erros tx_erros erros_projetados

## 1              2500         1250  1250     0.50           3409.0

## 2               950          855    95     0.10            681.8

## 3              5300         5035   265     0.05            340.9

##   fatores_incremento precisao_incremental

## 1               0.74             2522.660

## 2               0.56              381.808

## 3               0.45              153.405

Agora já temos condição de obter a última parcela do LSE, a Precisão Incremental:

PI <- sum(dados_harris_pi$precisao_incremental)

PI

## [1] 3057.873

Agora já temos condição de obter o LSE:

LSE <- PB + EP + PI

LSE

## [1] 36708.57

Neste exemplo, o Erro Máximo Tolerado foi definido em 30.000. Como o LSE >> EMT, a amostra fornece evidências (95% de confiança) de que o saldo está materialmente errado por mais de 30.000.

 

  1. Implementação da AUM no R com o pacote MUS

Embora tenhamos ilustrado anteriormente como implementar no R as principais tarefas envolvidas no uso da Amostragem de Unidades Monetárias, neste capítulo vamos utilizar um pacote do R desenvolvido especificamente para a implementação da AUM. Este pacote chama-se MUS (Monetary Unit Sampling).

Para ilustrar seu uso vamos utilizar as informações contidas no exercício 13.36 (Mt. Hood Furniture – amostragem PPT) às fls. 527/528 do livro de Boynton, Johnson e Kell, com o conjunto de dados apresentado às fls. 528/538 do referido livro.

O exercício consiste basicamente em avaliar a adequação do valor do inventário de bens acabados da empresa Mt. Hood Furniture. Os parâmetros são os seguintes:

Risco de Incorreta Aceitação (RIA): 37%
Erro Máximo Tolerado (EMT): $ 325.000,00
Erro Esperado (EP): $ 100.000

A partir do conjundo de dados (contido no arquivo hood.RData) é possível obter o valor do tamanho da população (NN).

Vamos começar importando o conjunto de dados:

setwd(“C:\Users\Marcos\OneDrive\Marcos\GitHub2\Amostragem Unidades Monetarias”)

load(“hood.RData”)

Para inspecionar o conjunto de dados vamos visualizar os registros iniciais:

head(hood)

##    item qtd  pu valor qtd.audit pu.audit valor.audit

## 1 10001  13 250  3250        13      250        3250

## 2 10002  12 275  3300        12      275        3300

## 3 10003  15 270  4050        15      270        4050

## 4 10004  11 200  2200        11      200        2200

## 5 10005  10 400  4000        10      400        4000

## 6 10006  10 410  4100        10      410        4100

Cálculo do tamanho da população:

N <- sum(hood$valor)

N

## [1] 6753764

O valor de NN é então $ 6.753.764,00.

 

4.1 – Cálculo do tamanho da amostra

Especificamente para o dimensionamento da amostra, o pacote disponibiliza a função MUS.calc.n.conservative() cuja utilização mostraremos a seguir usando os dados do exemplo:

library(MUS)

 

MUS.calc.n.conservative(confidence.level =  1 0.37,

tolerable.error  =  325000,

expected.error   =  100000,

book.value       = 6753764)

## [1] 33

Calculado o tamanho da amostra, o passo seguinte é realizar o sorteio das unidades monetárias e consequentemente dos itens.

 

4.2 – Sorteio dos itens da amostra

Para o sorteio da amostra, primeiro deve ser definido o plano amostral, o que é feito com a função MUS.planning().

plano_amostral <- MUS.planning(data = hood,

col.name.book.values = “valor”,

confidence.level     =  1 0.37,

tolerable.error      =    325000,

expected.error       =    100000)

Esta função nos retorna uma lista com diversos elementos:

names(plano_amostral)

##  [1] “data”                 “col.name.book.values” “confidence.level”

##  [4] “tolerable.error”      “expected.error”       “book.value”

##  [7] “n”                    “High.value.threshold” “tolerable.taintings”

## [10] “combined”

Definido o plano amostral, este é utilizado para se sortear a amostra. A função MUS.extraction() realiza essa tarefa:

amostra_sorteada <- MUS.extraction(plan = plano_amostral,

seed = 1234)

Igualmente à função anterior, esta também nos retorna diversos elementos:

names(amostra_sorteada)

##  [1] “data”                 “col.name.book.values” “confidence.level”

##  [4] “tolerable.error”      “expected.error”       “book.value”

##  [7] “n”                    “High.value.threshold” “tolerable.taintings”

## [10] “combined”             “start.point”          “seed”

## [13] “obey.n.as.min”        “high.values”          “sample.population”

## [16] “sampling.interval”    “sample”               “extensions”

## [19] “n.qty”                “combined”

De interesse imediato é a componente sample, contendo a amostra sorteada:

head(amostra_sorteada$sample)

##      item qtd   pu valor qtd.audit pu.audit valor.audit MUS.total MUS.hit

## 7   10007   8  400  3200         8      400        3200     24100   23998

## 43  10118   7  900  6300         7      900        6300    236915  235053

## 80  10305  13  400  5200        13      400        5200    448070  446108

## 98  10323  13 1250 16250        13     1250       16250    670940  657163

## 118 10418  17  900 15300        15      900       13500    868270  868218

## 140 10515   7  800  5600         7      800        5600   1084690 1079273

Também seria útil identificar os itens cujos valores são superiores ao itervalo de amostragem e que, por isso, deveriam ser examinados individualmente em sua totalidade. Estes valores, caso existam, estão na componente high.values:

amostra_sorteada$high.values

## [1] item        qtd         pu          valor       qtd.audit   pu.audit

## [7] valor.audit

## <0 rows> (or 0-length row.names)

Na base de dados não existe itens com essa característica.

 

4.3 – Avaliação dos resultados

Sorteada a amostra, o passo seguinte é avaliar os resultados com vistas à obtenção do LSE e tomada de decisão quanto a adequação do elemento contábil em análise. A função MUS.evaluation() nos permite realizar a avaliação dos resultados.

avaliacao_amostra <- MUS.evaluation(extract = amostra_sorteada,

filled.sample = amostra_sorteada$sample,

filled.high.values = amostra_sorteada$high.values,

col.name.audit.values = “valor.audit”)

names(avaliacao_amostra)

##  [1] “data”                           “col.name.book.values”

##  [3] “confidence.level”               “tolerable.error”

##  [5] “expected.error”                 “book.value”

##  [7] “n”                              “High.value.threshold”

##  [9] “tolerable.taintings”            “combined”

## [11] “start.point”                    “seed”

## [13] “obey.n.as.min”                  “high.values”

## [15] “sample.population”              “sampling.interval”

## [17] “sample”                         “extensions”

## [19] “n.qty”                          “combined”

## [21] “filled.sample”                  “filled.high.values”

## [23] “col.name.audit.values”          “Overstatements.Result.Details”

## [25] “Understatements.Result.Details” “Results.Sample”

## [27] “Results.High.values”            “Results.Total”

## [29] “acceptable”                     “tainting.order”

## [31] “UEL.low.error.rate”             “UEL.high.error.rate”

## [33] “MLE.low.error.rate”             “MLE.high.error.rate”

## [35] “MLE.final”                      “acceptable.low.error.rate”

## [37] “acceptable.high.error.rate”     “high.error.rate”

## [39] “combined”

O LSE consta da componente Results.Sample e pode ser obtido da seguinte forma:

avaliacao_amostra$Results.Sample$Net.upper.error.limit[“overstatements”]

## overstatements

##       315759.6

O LSE calculado é de $ 315.759,57. O EMT é de $ 325.000,00. Como o LSE ≤≤ EMT não há evidência, ao nível de risco de 37%, de que o saldo contábil esteja superavaliado por mais de 325.000.

Além das 4 funções apresentadas, o pacote MUS fornece outras funções que podem ser úteis.

Para o cálculo de fatores de confiança para o dimensionamento de amostras o pacote fornece a função MUS.factor(). Para o cálculo do tamanho da amostra utilizamos a tabela C-2 do Guia da AICA. O uso de tabelas tem o inconveniente de fornecer os fatores de confiança apenas para determinados Riscos de Incorreta Aceitação e razões entre o Erro Previsto e o Erro Maximo Tolerado. A função MUS.factor() substitui com muita vantagem a tabela C-2. Seu uso é ilustrado a seguir. Considere os seguintes dados:

Risco de Incorreta Aceitação: 10% Erro Máximo Tolerado: 50.000 Erro Previsto: 10.000

MUS.factor(confidence.level = 1 0.1, # O nível de confiança é 1 – RIA

pct.ratio = 10000 / 50000)

## [1] 3.408531

Para o cálculo do LSE o pacote disponibiliza, além da função MUS.extraction(), outras funções: MUS.binomial.bound(), MUS.moment.bound() e MUS.multinomial.bound().

A função MUS.extraction() implementa o que na literatura de AUM se denomina Stringer bound, um limite superior para o erro contido em uma população contábil proposto por K.W. Stringer em 1963.

Posteriormente outros pesquisadores propuseram diversos bounds que buscavam contornar o conservadorismo do limite proposto por Stringer. Dentre estes, estão o Moment bound (Dworkin and Grimlund, 1984) e o Multinomial bound(Neter, Leitch and Feinberg, 1978). A ajuda das funções citadas pede que as considere funções experimentais.

 

  1. Conclusão

Embora a apresentação da técnica de Amostragem de Unidades Monetárias tenha se dado em um contexto de auditoria financeira sua aplicação a outras áreas é imediata.

Algumas dificuldades práticas não foram abordadas neste documento. Por exemplo, consideramos apenas o caso em que os erros verificados são superavaliações, mas na prática ocorrem tanto superavaliações quanto subavaliações, havendo técnicas que permitem combinar estas duas situações.

O uso da Amostragem de Unidades Monetárias possui vantagens e desvantagens que o auditor deve conhecer para uma boa avaliação quanto ao seu adequado uso na prática.

 

  1. Referências bibliográficas

TCU; Manual de Auditoria Financeira do TCU

IFAC; ISA 530 – Audit Sampling

AICPA; Audit Guide Audit Sampling, New York – Março 2014

Silva, Ângelo Henrique Lopes da; O tamanho da amostra na amostragem por unidade monetária – Revista do TCU

Liebl, Jonas ; Plano de amostragem para testes por atributos; Revista do TCU

Liebl, Jonas ; Correlação entre metodologias de dimensionamento de amostras – Revista do TCU

Boynton, William C.; Johnson, Raymond N.; Kell, Walter G.: Auditoria – Editora Atlas, São Paulo, 2002

Gramling, Audrey A; Rittenberg, Larry E.; Johnstone, Karla M. – Auditoria – São Paulo, Cencage Learning, 2012.

R Core Team (2018). R: A language and environment for statistical computing. R Foundation for Statistical Computing, Vienna, Austria. URL https://www.R-project.org/.

Henning Prömpers; André Guimarães (2017). MUS: Monetary Unit Sampling and Estimation Methods, Widely Used in Auditing. R package version 0.1.5. https://CRAN.R-project.org/package=MUS

  1. Risco de que o auditor expresse uma opinião equivocada em razão de examinar apenas uma amostra da população e não toda a população
  2. Estas metodologias são discutidos com algum detalhe no livro Auditoria de Boynton, Johnson e Kell

 

 

 

 

Marcos F Silva