Diferença entre variância e desvio padrão

Tanto a variância quanto o desvio padrão são os termos mais usados ​​na teoria das probabilidades e nas estatísticas para melhor descrever as medidas de propagação em torno de um conjunto de dados. Ambos fornecem medidas numéricas da propagação de um conjunto de dados em torno da média. A média é simplesmente a média aritmética de um intervalo de valores em um conjunto de dados, enquanto a variância mede quão longe os números estão dispersos em torno da média, o que significa que a média dos desvios quadrados da média. O desvio padrão é uma medida para calcular a quantidade de dispersão de valores de um determinado conjunto de dados. É simplesmente a raiz quadrada da variação. Enquanto muitos contrastam os dois conceitos matemáticos, apresentamos uma comparação imparcial entre variância e desvio padrão para entender melhor os termos.

O que é variância?

A variação é simplesmente definida como uma medida da variabilidade dos valores em torno de sua média aritmética. Em termos simples, variância é o desvio médio quadrático, enquanto média é a média de todos os valores em um determinado conjunto de dados. A notação para a variação de uma variável é "σ2”(Sigma em minúsculas) ou sigma ao quadrado. É calculado subtraindo a média de cada valor em um conjunto de dados fornecido e agrupando suas diferenças para obter valores positivos e, finalmente, dividindo a soma de seus quadrados pelo número de valores.

Se M = média, x = cada valor no conjunto de dados en = número de valores no conjunto de dados, então

σ2 = ∑ (x - M)2/ n

O que é desvio padrão?

O desvio padrão é simplesmente definido como a medida de dispersão dos valores em um dado conjunto de dados a partir de sua média. Ele mede que a propagação de dados em torno da média é calculada como a raiz quadrada da variação. O desvio padrão é simbolizado pela letra grega sigma “σ”Como no sigma em minúsculas. O desvio padrão é expresso na mesma unidade que o valor médio, que não é necessariamente o caso da variação. É usado principalmente como uma ferramenta em estratégias de negociação e investimento.

Se M = média, x = a valores em um conjunto de dados en = número de valores, então,

σ = √∑ (x - M)2/ n

Diferença entre variância e desvio padrão

Significado da variância e desvio padrão

Variância significa simplesmente até que ponto os números estão espalhados em um determinado conjunto de dados em relação ao seu valor médio. Nas estatísticas, variância é uma medida da variabilidade dos números em torno de sua média aritmética. É um valor numérico que quantifica o grau médio em que os valores de um conjunto de dados diferem de sua média. O desvio padrão, por outro lado, é uma medida de dispersão dos valores de um conjunto de dados a partir de sua média. É um termo comum na teoria estatística calcular a tendência central.

A medida

A variação mede simplesmente a dispersão de um conjunto de dados. Em termos técnicos, variação é a diferença quadrática média dos valores em um conjunto de dados da média. É calculado tomando primeiro a diferença entre cada valor no conjunto e média e calculando o quadrado das diferenças para tornar os valores positivos e, finalmente, calculando a média dos quadrados para renderizar a variação. O desvio padrão mede simplesmente a dispersão dos dados em torno da média e é calculado simplesmente com a raiz quadrada da variação. O valor do desvio padrão é sempre um valor não negativo.

Cálculo

A variação e o desvio padrão são calculados em torno da média. A variação é simbolizada por "S2"E o desvio padrão - a raiz quadrada da variação é simbolizada como"S”. Por exemplo, para o conjunto de dados 5, 7, 3 e 7, o total seria 22, que seria dividido ainda mais pelo número de pontos de dados (4, neste caso), resultando em uma média (M) de 5,5 . Aqui, M = 5,5 e número de pontos de dados (n) = 4.

A variação é calculada como:

S2 = (5 - 5,5)2 + (7 - 5,5)2 + (3 - 5,5)2 + (7 - 5,5)2 / 4

= 0,25 + 2,25 + 6,25 + 2,25 / 4

= 11/4 = 2,75

O desvio padrão é calculado tomando a raiz quadrada da variância.

S = √2,75 = 1,665

Aplicações de variância e desvio padrão

A variação combina todos os valores em um conjunto de dados para quantificar a medida do spread. Quanto maior a dispersão, maior a variação, o que resulta em uma lacuna maior entre os valores no conjunto de dados. A variação é usada principalmente para a distribuição estatística de probabilidade para medir a volatilidade a partir da média e a volatilidade é uma das medidas da análise de risco que pode ajudar os investidores a determinar o risco nas carteiras de investimento. É também um dos aspectos principais da alocação de ativos. O desvio padrão, por outro lado, pode ser usado em uma ampla gama de aplicações, como no setor financeiro, como uma medida da volatilidade do mercado e da segurança.

Variação vs. desvio padrão: gráfico de comparação

Resumo da variância e desvio padrão

Tanto a variância quanto o desvio padrão são os conceitos matemáticos mais comuns usados ​​na estatística e na teoria das probabilidades como medidas de propagação. Variância é uma medida de quão longe os valores estão espalhados em um determinado conjunto de dados a partir de sua média aritmética, enquanto o desvio padrão é uma medida de dispersão de valores em relação à média. A variação é calculada como desvio ao quadrado médio de cada valor da média em um conjunto de dados, enquanto o desvio padrão é simplesmente a raiz quadrada da variação. O desvio padrão é medido na mesma unidade que a média, enquanto a variação é medida na unidade quadrada da média. Ambos são usados ​​para fins diferentes. A variação é mais parecida com um termo matemático, enquanto o desvio padrão é usado principalmente para descrever a variabilidade dos dados..