Dispersão indica até que ponto as observações se desviam de uma medida apropriada da tendência central. As medidas de dispersão caem em duas categorias, isto é, uma medida absoluta de dispersão e uma medida relativa de dispersão. Variância e desvio padrão são dois tipos de uma medida absoluta de variabilidade; que descreve como as observações estão espalhadas pela média. Variação nada mais é do que a média dos quadrados dos desvios,
Ao contrário, desvio padrão é a raiz quadrada do valor numérico obtido ao calcular a variação. Muitas pessoas contrastam esses dois conceitos matemáticos. Portanto, este artigo tenta esclarecer a importante diferença entre variância e desvio padrão.
Base para Comparação | Variação | Desvio padrão |
---|---|---|
Significado | Variância é um valor numérico que descreve a variabilidade das observações a partir de sua média aritmética. | O desvio padrão é uma medida de dispersão de observações em um conjunto de dados. |
O que é isso? | É a média dos desvios quadrados. | É a raiz do desvio quadrado médio. |
Rotulado como | Quadrado sigma (σ ^ 2) | Sigma (σ) |
Expresso em | Unidades ao quadrado | Mesmas unidades que os valores no conjunto de dados. |
Indica | Até que ponto os indivíduos de um grupo estão espalhados. | Quantas observações de um conjunto de dados diferem de sua média. |
Nas estatísticas, a variação é definida como a medida da variabilidade que representa a que distância os membros de um grupo estão espalhados. Ele descobre o grau médio em que cada observação varia da média. Quando a variação de um conjunto de dados é pequena, mostra a proximidade dos pontos de dados com a média, enquanto um valor maior de variação representa que as observações estão muito dispersas em torno da média aritmética e uma da outra.
Para dados não classificados:
Para distribuição de frequência agrupada:
O desvio padrão é uma medida que quantifica a quantidade de dispersão das observações em um conjunto de dados. O baixo desvio padrão é um indicador da proximidade das pontuações com a média aritmética e representa um desvio padrão alto; as pontuações são dispersas em uma faixa mais alta de valores.
Para dados não classificados: Para distribuição de frequência agrupada:
A diferença entre desvio padrão e variância pode ser definida claramente pelos seguintes motivos:
As notas pontuadas por um aluno em cinco disciplinas são 60, 75, 46, 58 e 80, respectivamente. Você precisa descobrir o desvio padrão e a variância.
Primeiro de tudo, você tem que descobrir a média,
Portanto, as marcas médias (médias) são 63,8
Agora calcule a variação
X | UMA | (x-A) | (X-A) ^ 2 |
---|---|---|---|
60 | 63,8 | -3.8 | 14,44 |
75 | 63,8 | 11,2 | 125,44 |
46. | 63,8 | -17,8 | 316,84 |
58. | 63,8 | 5,8 | 33,64 |
80 | 63,8 | 16,2 | 262,44 |
Onde, X = Observações
A = Média Aritmética
Portanto, a variação é 150,56
E o desvio padrão é -
Esses dois são termos estatísticos básicos, que estão desempenhando um papel vital em diferentes setores. O desvio padrão é preferido sobre a média, pois é expresso nas mesmas unidades que as das medições, enquanto a variação é expressa nas unidades maiores que o conjunto de dados fornecido.