·
Engenharia Química ·
Estática para Engenharia
Send your question to AI and receive an answer instantly
Recommended for you
Preview text
wwwcatolicascorgbr REVISÃO DA DISCIPLINA ESTATÍSTICA Estatística o É fundamental para as atividades contemporâneas sendo desejável o seu conhecimento por profissionais independente da área de atuação o É aplicada de modo a obter e organizar dados distintos principalmente dados numéricos para que seja possível entender eou prever o que aconteceu ou o que ainda está por acontecer o Auxilia na interpretação dos dados em informações de melhor compreensão para a tomada de decisão o Sua função é estudar diversos fenômenos que podem ser naturais econômicos e sociais auxiliar na organização e entendimento do comportamento das informações possibilitar estimativas futuras utilizando cálculos matemáticos e probabilísticos o Medidas de tendência central ou de posição o As medidas de tendência central são grupos de valores calculados com o objetivo de representar os dados de uma forma mais compacta e organizada sem se utilizar somente do método de tabelas o Se o objetivo for representar por meio de um único valor é feita a escolha de um valor central único mesmo sendo este um número considerado abstrato o Existem vários tipos de medidas de tendência central porém as mais utilizadas são a média aritmética a mediana e a moda o Média aritmética o É a representação de um valor provável de uma variável o Também pode ser considerada como ponto de gravidade de uma distribuição de dados o É a medida de tendência central mais utilizada o É o método útil para cálculos de comparações entre populações e outras situações que envolvam inferências o A média aritmética é calculada pela soma dos valores dos N elementos do universo de estudo seguida pela divisão desta soma por N o Mediana o Em uma série ordenada de dados a mediana será o valor que dividirá esta série de dados em dois subgrupos de mesmo tamanho o Moda o É o valor mais frequente de uma série de dados o Se os dados estiverem dispostos em uma série de intervalos de classe será indicado o intervalo modal o Se for necessário estimar um único número modal costumase usar o ponto médio do intervalo modal o No caso de representações gráficas temos a moda como um pico de frequência o Podem ocorrer casos de dois picos de frequência então temos uma distribuição bimodal o Sendo bimodal ocorre a suspeita de que o grupo estudado seria uma mistura de duas populações estatísticas o A bimodalidade só pode ser identificada com clareza em amostras grandes pois nos casos de amostras pequenas podem ocorrer depressões ou também chamados de picos espúrios hipotéticos o Nos casos de mais de dois picos de frequência temos uma distribuição polimodal Organização de dados quantitativos A estatística é de grande importância no que diz respeito a criação de procedimentos para resumo e organização de grandes quantidades de dados Estes dados podem ser organizados em tabelas ou gráficos além de envolver as medidas de tendência central e dispersão A organização dos dados em tabelas de frequência auxilia na indicação dos valores obtidos e na frequência que aparecem Distribuição de frequência Tabela de Grupamento simples Nessa classificação de tabelas podese observar valores obtidos e o número de vezes frequência em que foi encontrado wwwcatolicascorgbr Esse tipo de tabela é inicialmente construído com a procura do menor valor obtido e em seguida se organiza uma lista em ordem crescente de todos os outros dados depois disso observase novamente os números em uma lista desorganizada e lendo um a um deverá ser marcado um traço vertical ao lado do valor correspondente na tabela esse passo é chamado de tabulação ou contagem No passo da tabulação é recomendado que se agrupam de quatro em quatro traços e o quinto traço corte os quatro primeiros como forma de facilitar a contagem para facilitar e evitar o erro já que a tabela terá de ser lida várias vezes O valor da variável quantitativa é chamado de x e os traços obtidos na contagem de cada x serão então a frequência absoluta simples sendo chamado de f e por fim o símbolo é usado para identificar a soma assim temse a soma dos valores de f f é o que equivale ao número de indivíduos pesquisados que também é correspondido por n assim obtémse f n já dividindo f por f temse a frequência relativa simples que representa a proporção que os valores ocorrem A tabela ainda pode apontar a frequência acumulada ou cumulativa que identifica os valores iguais ou menores que outro valor sabendo que a frequência relativa pode ser transformada em frequência percentual multiplicando por 100 Essas tabelas estatísticas não são aconselhadas para publicações em artigos ou relatórios já que para publicação de tabelas não se deve apontar a contagem dos dados nem apresentar informações redundantes Para tabela poder ser publicada algumas regras devem ser seguidas como A tabela deve ter título claro sobre qual seu assunto Apresentar linhas limitantes que indiquem o início e final da tabela O cabeçalho deve ser separado do restante A separação das colunas deve ser feita por espaços em branco No rodapé deve conter as explicações de símbolos e abreviaturas pouco conhecidos Deve conter a indicação das fontes dos dados utilizados para sua elaboração Tabela de grupamento por intervalo de classe Essa classificação de tabela é utilizada em casos onde os valores da característica pesquisada tem uma variação muito grande Em casos como esse o uso da tabela de grupamento simples seria muito extensa e assim poderia perder as propriedades de condensar a informação por isso o mais aconselhado é utilizar o grupamento por intervalos de classe Cada um dos intervalos de classe são divididos entre extremos Existe um limite mínimo e um limite máximo A indicação desses limites é feita por alguns símbolos como esse que significa intervalo aberto a direita que simboliza que o limite mínimo está incluído junto aos demais dados porém o limite máximo não entrará no conjunto Na elaboração de tabelas de frequências para variáveis contínuas é importante o uso dos intervalos abertos a direita abertos a esquerda ou ainda fechados em ambos os lados O número de classes geralmente fica entre 6 e 8 sendo que pode oscilar entre 5 e 20 variando do detalhamento buscado pelo pesquisador e do tamanho da amostra Distribuição de frequências Gráficos Os gráficos representam os dados de uma forma mais imediata ou seja podese observar de cara como se distribuem os indivíduos nos distintos valores da variável Histograma Tipo de gráfico mais utilizado para variáveis contínuas É formado por uma sucessão de retângulos contíguos onde a base é o intervalo das classes já a altura é a frequência relativa em cada classe dividida pela amplitude do intervalo Através da montagem do gráfico obtémse uma figura geométrica que equivale a 100 que vem a partir da soma de toda a frequência relativa Descrição de Dados Análise Monovariada Esse tema é relacionado com a estatística descritiva Envolve conjuntos de técnicas utilizadas para avaliar as características externas das determinadas séries de dados Essas técnicas são a representação e sintetização de dados ou seja sua distribuição em tabelas ou gráficos As tabelas e gráficos são uma das principais ferramentas e forma de apresentação de dados estatísticos wwwcatolicascorgbr Dados Nominais ou categóricos Se uma variável mostra apenas a variabilidade capturada por uma escala não métrica nominal seu conjunto de dados na maioria das vezes pode ser exposto na forma de gráficos simples como o de barras ou o de pizza Gráficos de Pizza e de Barra Gráficos simples como o de pizza ou de barras tem as categorias apresentadas por fatias de mesmo tamanho as da sua frequência de ocorrência dentro do conjunto dos determinados dados Por meio dessa representação podese perceber de forma mais rápida a natureza dos dados Porém mesmo com a vantagem da rapidez devese tomar cuidado para possíveis distorções de dados ou ainda as possíveis omissões de dados relevantes No caso dos gráficos de pizza e de barras o mais importante é manter a proporcionalidade entre os setores dos círculos no caso do gráfico pizza e a altura das barras no caso no gráfico de barras e ao mesmo tempo a proporcionalidade entre as frequências das variadas categorias Essa característica da proporcionalidade é o que faz com que possamos compreender a nossa visualização do gráfico A quantidade de categorias representadas será o que determinará a capacidade informacional das tabelas e gráficos Nem sempre as informações trazidas pelo gráfico se comparam a informação transmitida pelo mesmo isso se dá pela quantidade de categorias superar a capacidade de compactação do gráfico Nesse caso se torna interessante a representação em agrupamentos das categorias menos representadas dando assim um destaque maior para as informações mais relevantes para isso se utiliza o princípio de Pareto Com a distribuição dos dados agrupados para dar ênfase às informações mais relevantes os gráficos se tornam mais claros ao entendimento de quem os analisa Nas situações de agrupamento devese atentar para o bom senso no caso da preservação das informações ou seja agrupar os dados julgados semelhantes Medidas descritivas As margens para se produzir medidas descritivas para os dados categóricos são poucas mas pode se utilizar as proporções de respostas em cada categoria como na situação dos gráficos anteriormente vistos Dados Métricos As escalas métricas podendo ser intervalares ou de razão são consideradas mais sofisticadas assim se a variável apresenta esse tipo de variabilidade existem várias maneiras de apresentar os dados sendo gráficas e não gráficas Histogramas O histograma é semelhante ao gráfico de barras que usamos para descrever variáveis nominais As categorias seriam então intervalos regulares de variação ajustados aos dados atribuídos e fixados O que diferencia esse gráfico dos gráficos usados para variáveis categóricas é a apresentação sobreposta aplicadas das barras A medida de dispersão tem o objetivo de medir quão próximos uns dos outros estão os valores de um grupo de forma que possa também em alguns casos expressar a dispersão dos dados em torno de uma medida de posição Podem ser apresentadas com ajuda de várias formas e fórmulas são elas os intervalos a variância o desvio padrão e o coeficiente de variação percentual Intervalo é a medida mais simples de dispersão Consiste em identificar os valores extremos do conjunto mínimo e máximo podendo ser expresso pela diferença entre o valor máximo e o mínimo e pela simples identificação dos valores A desvantagem do uso do intervalo é a de não dar a ideia de como os dados estão agrupados entre os extremos Variância a variância é uma das medidas de dispersão mais importantes É a média aritmética dos quadrados dos desvios de cada valor em relação à média proporciona uma mensuração da dispersão dos dados em torno da média A unidade da variância é o quadrado da unidade dos dados e portanto o quadrado da unidade da média causando dificuldades para avaliar a dispersão wwwcatolicascorgbr Desvio padrão é a raiz quadrada positiva da variância apresentando a mesma unidade dos dados e da média permitindo avaliar melhor a dispersão Se os dados se referem a uma população usase N no denominador da expressão Quanto maior o desvio padrão maior a dispersão dos dados em torno da média Se a média apresentar um valor fracionário os desvios de cada valor em relação à média acumularão erros de arredondamento Cálculo do desvio padrão a partir de uma tabela de frequências tal como no caso da média os valores da variável ou os pontos médios das classes e os quadrados desses valores serão multiplicados por suas respectivas frequências onde x é o valor da variável discreta ou do ponto médio da classe e f a sua frequência Novamente se o conjunto de dados se referir a uma população devese usar N no denominador Coeficiente de variação percentual o coeficiente de variação percentual é uma medida de dispersão relativa pois permite comparar a dispersão de diferentes distribuições com diferentes médias e desvios padrões assim podese observar que quanto menor o valor desse coeficiente mais dados estarão homogêneos em relação ao valor da média e quanto maior o valor desse coeficiente menos os dados estarão homogêneos em relação ao valor da média O conceito de probabilidade está diretamente ligado a chances e ao raciocínio lógico bem como simulações análises de dados e tentativas prévias Tratase do estudo contínuo o qual engloba os números e tentativas de antecipar resultados O seu valor numérico sempre será sempre um número entre 0 e 1 ou 0 a 100 Normalmente são utilizadas medidas numéricas de fração e porcentagem para representar a probabilidade No quesito representativo comumente são empregados os dados gráficos tabelas e números A probabilidade teórica de que algo ocorra pode ser caracterizada através da quantidade do possível acerto sendo o número de resultados de um evento dividido pelo número total de resultados possíveis Na probabilidade experimental a probabilidade de alguns eventos pode ser determinada apenas pela coleção de dados aliado à quantidade suficiente de testes para assegurarse da frequência relativa A Lei dos Grandes Números referese à relação entre a aproximação da frequência relativa com a probabilidade real ou teórica conforme o tamanho de dados coletados que seriam as amostras aumenta Logo quanto maior o tamanho dos dados coletados mais representativa será a amostra da população O espaço de amostra para uma experiência ou situação é o conjunto de todos os resultados possíveis para aquela experiência Para determinar a probabilidade teórica de um evento de múltiplas fases é preciso listar todos os resultados possíveis e contar aqueles que são favoráveis isto é aqueles que compõem o evento A simulação é uma técnica a qual toma decisões em situações complexas Nesta o passo inicial é identificar os componentes e hipóteses do problema Em seguida escolher um dispositivo auxiliar e definir uma tentativa Depois criar teses e registrar as informações para então finalmente criar conclusões Ideias Importantes 1º Por mais repetidos que sejam os testes de uma situação simples os resultados anteriores não terão impacto sobre os seguintes sendo assim a chance sempre permanece meio a meio 2º A caracterização ao longo de uma quantidade contínua indo do errado ao certo pode ser comum na probabilidade de um evento futuro 3º A probabilidade sempre será entre um número de 0 a 1 assim sendo quando indicar 0 será uma probabilidade de impossibilidade e sendo 1 será uma probabilidade de possibilidade e no caso do ½ será meio a meio de chances 4º A probabilidade experimental ou seja a frequência relativa de resultados de um evento pode ser utilizada como estimativa para a probabilidade exata de um determinado evento assim sendo quanto maiores os teste melhor será a estimativa 5º A probabilidade teórica é caracterizada quando um evento tem a probabilidade exata determinada somente por uma análise do próprio evento 6º Em situações complexas onde um elemento de chance esteja envolvido ou para responder questões do mundo real podese usar a simulação wwwcatolicascorgbr Conexões de Conteúdos A probabilidade tem grande relação com a análise de dados podese observar o quão interligadas estão quando passamos dos anos iniciais de estudo e vamos para o estudo mais avançado A relação da probabilidade com as frações e porcentagens diz respeito à semelhança dos resultados entre 0 e 1 A relação da probabilidade com a razão e proporção diz respeito a comparação feita na probabilidade e que também é feita na razão o que exige uma raciocínio proporcional A relação da probabilidade com a análise de dados é de que ambas relacionam dados na probabilidade coletamos os dados de experimentos realizados inúmeras vezes já na análise de dados os dados são coletados para determinar uma reta para se ajustar a análise Probabilidade como uma quantidade contínua A probabilidade é determinada pelo conceito de extremos da quantidade contínua ou seja ou temos o certo ou o impossível o certo é algo que será de certeza absoluta já o impossível é o oposto direto já que é algo incerto Probabilidade teórica versus probabilidade experimental Sabemos que a probabilidade de algo acontecer é uma medida da probabilidade desse evento acontecer Essa medida pode ser determinada de duas formas diferentes sendo a análise lógica da situação ou seja probabilidade teórica e a outra é gerada pela coleção de dados obtidos ou seja probabilidade experimental Quando todos os dados dos resultados prováveis a probabilidade teórica desse determinado evento pode ser determinada pelo número de resultados de um evento dividido pelo número total de resultados possíveis As frequências relativas são obtidas através do número de ocorrências observadas do evento divididas pelo número total de testes realizados Quanto mais lances forem feitos mais próximo a frequência relativa chegará da probabilidade teórica e assim teremos mais confiança nos resultados Na probabilidade experimental a probabilidade de um evento é determinada apenas pela coleção de dados ou seja conduzse um número suficientemente grande de testes para ficar seguro de que a frequência relativa resultante é uma aproximação da probabilidade teórica A lei dos grandes números O fenômeno da aproximação da frequência relativa da probabilidade teórica conforme o tamanho dos dados coletados ou seja a amostra vai aumentando é conhecido como lei dos grandes números Implicações para o ensino O ensino de probabilidade é de extrema importância e assim temos que existem inúmeras razões de por que uma abordagem experimental ou seja estudar a probabilidade por meio de experimentos testes e assim examinando os resultados é importante para o ensino fundamental 1º é mais intuitiva 2º Elimina apostar em probabilidades e ficar na dúvida do está certo ou errado 3º Fornece uma base experimental para examinar o modelo teórico 4º Auxilia o estudante a perceber como a razão entre resultados particulares e o número total de teste converge para o número fixo considerado o limite 5º Desenvolve uma posição favorável a abordagem de uma simulação para resolver problemas 6º Realizar experimentos para chegar a uma conclusão muitas vezes é mais divertido e interessante Espaço de amostra e cálculo de probabilidades teóricas Outros conceitos de extrema relevância para o entendimento da probabilidade são os de resultado e espaço O espaço de amostra para uma determinado evento de sorte ou azar é o conjunto de todos os resultados possíveis para aquela experiência Um evento é um subconjunto do espaço de amostra Uma experiência pode ser classificada em fases Uma experiência de uma fase é um experiência que exige apenas uma atividade para determinar um resultado wwwcatolicascorgbr Uma experiência de duas ou mais fases é uma experiência que requer duas ou mais atividades para determinar um resultado Eventos independentes O acontecimento de um evento ou não não irá ter efeito sobre outros eventos Probabilidades teóricas com um modelo de área A probabilidade teórica de um evento de múltiplas fases pode ser determinada listando todos os resultados possíveis e contar os mais favoráveis ou seja os que fazem parte do evento Esse método tem algumas limitações Primeira limitação é de que teremos problemas já que nem sempre os eventos são todos iguais Segunda limitação é difícil transpor essa abordagem para outros métodos mais completos Uma abordagem diferente que pode ser usada é o modelo de área O modelo de área consiste em reunir os resultados do evento em um desenho representando a área compreendida pelos resultados Eventos dependentes O acontecimento de um evento irá depender de outro evento para ocorrer Simulações É uma técnica usada para resolver questões do mundo real ou ainda tomar decisões em situações complexas onde elementos de chance estejam envolvidos As simulações acontecem por ser perigoso complexo e caro manipular uma situação real Para fazer a observação do que será provável que ocorra nesse evento real é necessário a projeção de um modelo com as mesmas probabilidades que a situação real Para se realizar uma simulação são necessárias algumas etapas como 1ª identificar os componentes e as hipóteses básica do problema 2ª escolher um dispositivo randômico para os componentes básicos 3ª definir uma tentativa 4ª conduzir um grande número de testes e registrar as informações 5ª usar os dados para estabelecer conclusões As etapas 4 e 5 são equivalentes a resolver um problema de probabilidade por meios experimentais Um exemplo onde as simulações são usadas é a venda de mercadorias onde está irá depender de uma variedade de fatores de chance A partir desse exemplo pode se construir um modelo para simular esses fatores então seguindo da experiência realizada saberá se é uma boa ideia utilizar determinadas técnicas antes de outras na venda daquela mercadoria As probabilidades podem seguir um formato padronizado que pode ser evidenciado pela distribuição de frequências que quando contínuo é chamada de Distribuição de Probabilidade A Distribuição de Probabilidade Normal é a mais importante na estatística pois abrange um grande número de fenômenos Ela oferece base para inferência estatística clássica devido a sua afinidade com o teorema do limite central Possui um gráfico simétrico em formato de sino e as medidas de tendência central média moda e mediana são todas idênticas Os valores das probabilidades obtidos pela distribuição normal podem ser padronizadas e obtidas por valores calculados pela área abaixo da curva do gráfico em forma de sino ou seja o valor da integral da função entre os limites de integração definidos Estes valores podem ser obtidos por tabelas précalculadas ou por planilhas de cálculo Uma aplicação prática para a Distribuição de Probabilidade Normal é o cálculo de valores previstos em função da média e do desvio padrão dos dados Cálculos de Regressão pelo método dos Mínimos Quadrados Modelos de regressão são modelos matemáticos que relacionam o comportamento de uma variável Y com outra X Em seu modelo mais simples a função de regressão é representada por uma linha reta através da fórmula fx a bx onde y f x X é a variável independente da equação enquanto Y é a variável dependente das variações de X Quando envolve uma relação causal entre duas variáveis o modelo é chamado simples Já quando envolve uma relação causal com mais de duas variáveis é chamado multivariado wwwcatolicascorgbr R² coeficiente de determinação corresponde a uma medida de qualidade de ajuste mostrando o percentual de variação na variável dependente custo que é explicada por uma variação na variável independente atividade Normalmente R² é calculado sob número decimal no entanto devese considerar como taxa percentual A reta de regressão que se obtém por meio do método dos mínimos quadrados tratase de uma aproximação da realidade a qual indica a tendência de dados Uma planilha de computador como o MSExcel marca registrada ou software equivalente pode ser utilizado para resolver a regressão dos mínimos quadrados mas não é tão completo como quanto os sistemas estatísticos próprios para isso O MSExcel fornece o valor do R² ou seja Quantidade do ajuste através da função RQUAD Essa quantidade do ajuste mostra o percentual de variação na variável dependente Para obter os coeficientes A e B da reta do ajuste usase as funções Inclinação que é o valor de A e Intercepção que é o valor de B Assim com a reta na forma de uma função podese calcular qualquer valor interpolado ou extrapolado para x e y onde x será a variável independente e y a variável dependente Um gráfico de dispersão de dados também é útil para a melhor visualização da distribuição dos mesmos em relação à reta do ajuste linear
Send your question to AI and receive an answer instantly
Recommended for you
Preview text
wwwcatolicascorgbr REVISÃO DA DISCIPLINA ESTATÍSTICA Estatística o É fundamental para as atividades contemporâneas sendo desejável o seu conhecimento por profissionais independente da área de atuação o É aplicada de modo a obter e organizar dados distintos principalmente dados numéricos para que seja possível entender eou prever o que aconteceu ou o que ainda está por acontecer o Auxilia na interpretação dos dados em informações de melhor compreensão para a tomada de decisão o Sua função é estudar diversos fenômenos que podem ser naturais econômicos e sociais auxiliar na organização e entendimento do comportamento das informações possibilitar estimativas futuras utilizando cálculos matemáticos e probabilísticos o Medidas de tendência central ou de posição o As medidas de tendência central são grupos de valores calculados com o objetivo de representar os dados de uma forma mais compacta e organizada sem se utilizar somente do método de tabelas o Se o objetivo for representar por meio de um único valor é feita a escolha de um valor central único mesmo sendo este um número considerado abstrato o Existem vários tipos de medidas de tendência central porém as mais utilizadas são a média aritmética a mediana e a moda o Média aritmética o É a representação de um valor provável de uma variável o Também pode ser considerada como ponto de gravidade de uma distribuição de dados o É a medida de tendência central mais utilizada o É o método útil para cálculos de comparações entre populações e outras situações que envolvam inferências o A média aritmética é calculada pela soma dos valores dos N elementos do universo de estudo seguida pela divisão desta soma por N o Mediana o Em uma série ordenada de dados a mediana será o valor que dividirá esta série de dados em dois subgrupos de mesmo tamanho o Moda o É o valor mais frequente de uma série de dados o Se os dados estiverem dispostos em uma série de intervalos de classe será indicado o intervalo modal o Se for necessário estimar um único número modal costumase usar o ponto médio do intervalo modal o No caso de representações gráficas temos a moda como um pico de frequência o Podem ocorrer casos de dois picos de frequência então temos uma distribuição bimodal o Sendo bimodal ocorre a suspeita de que o grupo estudado seria uma mistura de duas populações estatísticas o A bimodalidade só pode ser identificada com clareza em amostras grandes pois nos casos de amostras pequenas podem ocorrer depressões ou também chamados de picos espúrios hipotéticos o Nos casos de mais de dois picos de frequência temos uma distribuição polimodal Organização de dados quantitativos A estatística é de grande importância no que diz respeito a criação de procedimentos para resumo e organização de grandes quantidades de dados Estes dados podem ser organizados em tabelas ou gráficos além de envolver as medidas de tendência central e dispersão A organização dos dados em tabelas de frequência auxilia na indicação dos valores obtidos e na frequência que aparecem Distribuição de frequência Tabela de Grupamento simples Nessa classificação de tabelas podese observar valores obtidos e o número de vezes frequência em que foi encontrado wwwcatolicascorgbr Esse tipo de tabela é inicialmente construído com a procura do menor valor obtido e em seguida se organiza uma lista em ordem crescente de todos os outros dados depois disso observase novamente os números em uma lista desorganizada e lendo um a um deverá ser marcado um traço vertical ao lado do valor correspondente na tabela esse passo é chamado de tabulação ou contagem No passo da tabulação é recomendado que se agrupam de quatro em quatro traços e o quinto traço corte os quatro primeiros como forma de facilitar a contagem para facilitar e evitar o erro já que a tabela terá de ser lida várias vezes O valor da variável quantitativa é chamado de x e os traços obtidos na contagem de cada x serão então a frequência absoluta simples sendo chamado de f e por fim o símbolo é usado para identificar a soma assim temse a soma dos valores de f f é o que equivale ao número de indivíduos pesquisados que também é correspondido por n assim obtémse f n já dividindo f por f temse a frequência relativa simples que representa a proporção que os valores ocorrem A tabela ainda pode apontar a frequência acumulada ou cumulativa que identifica os valores iguais ou menores que outro valor sabendo que a frequência relativa pode ser transformada em frequência percentual multiplicando por 100 Essas tabelas estatísticas não são aconselhadas para publicações em artigos ou relatórios já que para publicação de tabelas não se deve apontar a contagem dos dados nem apresentar informações redundantes Para tabela poder ser publicada algumas regras devem ser seguidas como A tabela deve ter título claro sobre qual seu assunto Apresentar linhas limitantes que indiquem o início e final da tabela O cabeçalho deve ser separado do restante A separação das colunas deve ser feita por espaços em branco No rodapé deve conter as explicações de símbolos e abreviaturas pouco conhecidos Deve conter a indicação das fontes dos dados utilizados para sua elaboração Tabela de grupamento por intervalo de classe Essa classificação de tabela é utilizada em casos onde os valores da característica pesquisada tem uma variação muito grande Em casos como esse o uso da tabela de grupamento simples seria muito extensa e assim poderia perder as propriedades de condensar a informação por isso o mais aconselhado é utilizar o grupamento por intervalos de classe Cada um dos intervalos de classe são divididos entre extremos Existe um limite mínimo e um limite máximo A indicação desses limites é feita por alguns símbolos como esse que significa intervalo aberto a direita que simboliza que o limite mínimo está incluído junto aos demais dados porém o limite máximo não entrará no conjunto Na elaboração de tabelas de frequências para variáveis contínuas é importante o uso dos intervalos abertos a direita abertos a esquerda ou ainda fechados em ambos os lados O número de classes geralmente fica entre 6 e 8 sendo que pode oscilar entre 5 e 20 variando do detalhamento buscado pelo pesquisador e do tamanho da amostra Distribuição de frequências Gráficos Os gráficos representam os dados de uma forma mais imediata ou seja podese observar de cara como se distribuem os indivíduos nos distintos valores da variável Histograma Tipo de gráfico mais utilizado para variáveis contínuas É formado por uma sucessão de retângulos contíguos onde a base é o intervalo das classes já a altura é a frequência relativa em cada classe dividida pela amplitude do intervalo Através da montagem do gráfico obtémse uma figura geométrica que equivale a 100 que vem a partir da soma de toda a frequência relativa Descrição de Dados Análise Monovariada Esse tema é relacionado com a estatística descritiva Envolve conjuntos de técnicas utilizadas para avaliar as características externas das determinadas séries de dados Essas técnicas são a representação e sintetização de dados ou seja sua distribuição em tabelas ou gráficos As tabelas e gráficos são uma das principais ferramentas e forma de apresentação de dados estatísticos wwwcatolicascorgbr Dados Nominais ou categóricos Se uma variável mostra apenas a variabilidade capturada por uma escala não métrica nominal seu conjunto de dados na maioria das vezes pode ser exposto na forma de gráficos simples como o de barras ou o de pizza Gráficos de Pizza e de Barra Gráficos simples como o de pizza ou de barras tem as categorias apresentadas por fatias de mesmo tamanho as da sua frequência de ocorrência dentro do conjunto dos determinados dados Por meio dessa representação podese perceber de forma mais rápida a natureza dos dados Porém mesmo com a vantagem da rapidez devese tomar cuidado para possíveis distorções de dados ou ainda as possíveis omissões de dados relevantes No caso dos gráficos de pizza e de barras o mais importante é manter a proporcionalidade entre os setores dos círculos no caso do gráfico pizza e a altura das barras no caso no gráfico de barras e ao mesmo tempo a proporcionalidade entre as frequências das variadas categorias Essa característica da proporcionalidade é o que faz com que possamos compreender a nossa visualização do gráfico A quantidade de categorias representadas será o que determinará a capacidade informacional das tabelas e gráficos Nem sempre as informações trazidas pelo gráfico se comparam a informação transmitida pelo mesmo isso se dá pela quantidade de categorias superar a capacidade de compactação do gráfico Nesse caso se torna interessante a representação em agrupamentos das categorias menos representadas dando assim um destaque maior para as informações mais relevantes para isso se utiliza o princípio de Pareto Com a distribuição dos dados agrupados para dar ênfase às informações mais relevantes os gráficos se tornam mais claros ao entendimento de quem os analisa Nas situações de agrupamento devese atentar para o bom senso no caso da preservação das informações ou seja agrupar os dados julgados semelhantes Medidas descritivas As margens para se produzir medidas descritivas para os dados categóricos são poucas mas pode se utilizar as proporções de respostas em cada categoria como na situação dos gráficos anteriormente vistos Dados Métricos As escalas métricas podendo ser intervalares ou de razão são consideradas mais sofisticadas assim se a variável apresenta esse tipo de variabilidade existem várias maneiras de apresentar os dados sendo gráficas e não gráficas Histogramas O histograma é semelhante ao gráfico de barras que usamos para descrever variáveis nominais As categorias seriam então intervalos regulares de variação ajustados aos dados atribuídos e fixados O que diferencia esse gráfico dos gráficos usados para variáveis categóricas é a apresentação sobreposta aplicadas das barras A medida de dispersão tem o objetivo de medir quão próximos uns dos outros estão os valores de um grupo de forma que possa também em alguns casos expressar a dispersão dos dados em torno de uma medida de posição Podem ser apresentadas com ajuda de várias formas e fórmulas são elas os intervalos a variância o desvio padrão e o coeficiente de variação percentual Intervalo é a medida mais simples de dispersão Consiste em identificar os valores extremos do conjunto mínimo e máximo podendo ser expresso pela diferença entre o valor máximo e o mínimo e pela simples identificação dos valores A desvantagem do uso do intervalo é a de não dar a ideia de como os dados estão agrupados entre os extremos Variância a variância é uma das medidas de dispersão mais importantes É a média aritmética dos quadrados dos desvios de cada valor em relação à média proporciona uma mensuração da dispersão dos dados em torno da média A unidade da variância é o quadrado da unidade dos dados e portanto o quadrado da unidade da média causando dificuldades para avaliar a dispersão wwwcatolicascorgbr Desvio padrão é a raiz quadrada positiva da variância apresentando a mesma unidade dos dados e da média permitindo avaliar melhor a dispersão Se os dados se referem a uma população usase N no denominador da expressão Quanto maior o desvio padrão maior a dispersão dos dados em torno da média Se a média apresentar um valor fracionário os desvios de cada valor em relação à média acumularão erros de arredondamento Cálculo do desvio padrão a partir de uma tabela de frequências tal como no caso da média os valores da variável ou os pontos médios das classes e os quadrados desses valores serão multiplicados por suas respectivas frequências onde x é o valor da variável discreta ou do ponto médio da classe e f a sua frequência Novamente se o conjunto de dados se referir a uma população devese usar N no denominador Coeficiente de variação percentual o coeficiente de variação percentual é uma medida de dispersão relativa pois permite comparar a dispersão de diferentes distribuições com diferentes médias e desvios padrões assim podese observar que quanto menor o valor desse coeficiente mais dados estarão homogêneos em relação ao valor da média e quanto maior o valor desse coeficiente menos os dados estarão homogêneos em relação ao valor da média O conceito de probabilidade está diretamente ligado a chances e ao raciocínio lógico bem como simulações análises de dados e tentativas prévias Tratase do estudo contínuo o qual engloba os números e tentativas de antecipar resultados O seu valor numérico sempre será sempre um número entre 0 e 1 ou 0 a 100 Normalmente são utilizadas medidas numéricas de fração e porcentagem para representar a probabilidade No quesito representativo comumente são empregados os dados gráficos tabelas e números A probabilidade teórica de que algo ocorra pode ser caracterizada através da quantidade do possível acerto sendo o número de resultados de um evento dividido pelo número total de resultados possíveis Na probabilidade experimental a probabilidade de alguns eventos pode ser determinada apenas pela coleção de dados aliado à quantidade suficiente de testes para assegurarse da frequência relativa A Lei dos Grandes Números referese à relação entre a aproximação da frequência relativa com a probabilidade real ou teórica conforme o tamanho de dados coletados que seriam as amostras aumenta Logo quanto maior o tamanho dos dados coletados mais representativa será a amostra da população O espaço de amostra para uma experiência ou situação é o conjunto de todos os resultados possíveis para aquela experiência Para determinar a probabilidade teórica de um evento de múltiplas fases é preciso listar todos os resultados possíveis e contar aqueles que são favoráveis isto é aqueles que compõem o evento A simulação é uma técnica a qual toma decisões em situações complexas Nesta o passo inicial é identificar os componentes e hipóteses do problema Em seguida escolher um dispositivo auxiliar e definir uma tentativa Depois criar teses e registrar as informações para então finalmente criar conclusões Ideias Importantes 1º Por mais repetidos que sejam os testes de uma situação simples os resultados anteriores não terão impacto sobre os seguintes sendo assim a chance sempre permanece meio a meio 2º A caracterização ao longo de uma quantidade contínua indo do errado ao certo pode ser comum na probabilidade de um evento futuro 3º A probabilidade sempre será entre um número de 0 a 1 assim sendo quando indicar 0 será uma probabilidade de impossibilidade e sendo 1 será uma probabilidade de possibilidade e no caso do ½ será meio a meio de chances 4º A probabilidade experimental ou seja a frequência relativa de resultados de um evento pode ser utilizada como estimativa para a probabilidade exata de um determinado evento assim sendo quanto maiores os teste melhor será a estimativa 5º A probabilidade teórica é caracterizada quando um evento tem a probabilidade exata determinada somente por uma análise do próprio evento 6º Em situações complexas onde um elemento de chance esteja envolvido ou para responder questões do mundo real podese usar a simulação wwwcatolicascorgbr Conexões de Conteúdos A probabilidade tem grande relação com a análise de dados podese observar o quão interligadas estão quando passamos dos anos iniciais de estudo e vamos para o estudo mais avançado A relação da probabilidade com as frações e porcentagens diz respeito à semelhança dos resultados entre 0 e 1 A relação da probabilidade com a razão e proporção diz respeito a comparação feita na probabilidade e que também é feita na razão o que exige uma raciocínio proporcional A relação da probabilidade com a análise de dados é de que ambas relacionam dados na probabilidade coletamos os dados de experimentos realizados inúmeras vezes já na análise de dados os dados são coletados para determinar uma reta para se ajustar a análise Probabilidade como uma quantidade contínua A probabilidade é determinada pelo conceito de extremos da quantidade contínua ou seja ou temos o certo ou o impossível o certo é algo que será de certeza absoluta já o impossível é o oposto direto já que é algo incerto Probabilidade teórica versus probabilidade experimental Sabemos que a probabilidade de algo acontecer é uma medida da probabilidade desse evento acontecer Essa medida pode ser determinada de duas formas diferentes sendo a análise lógica da situação ou seja probabilidade teórica e a outra é gerada pela coleção de dados obtidos ou seja probabilidade experimental Quando todos os dados dos resultados prováveis a probabilidade teórica desse determinado evento pode ser determinada pelo número de resultados de um evento dividido pelo número total de resultados possíveis As frequências relativas são obtidas através do número de ocorrências observadas do evento divididas pelo número total de testes realizados Quanto mais lances forem feitos mais próximo a frequência relativa chegará da probabilidade teórica e assim teremos mais confiança nos resultados Na probabilidade experimental a probabilidade de um evento é determinada apenas pela coleção de dados ou seja conduzse um número suficientemente grande de testes para ficar seguro de que a frequência relativa resultante é uma aproximação da probabilidade teórica A lei dos grandes números O fenômeno da aproximação da frequência relativa da probabilidade teórica conforme o tamanho dos dados coletados ou seja a amostra vai aumentando é conhecido como lei dos grandes números Implicações para o ensino O ensino de probabilidade é de extrema importância e assim temos que existem inúmeras razões de por que uma abordagem experimental ou seja estudar a probabilidade por meio de experimentos testes e assim examinando os resultados é importante para o ensino fundamental 1º é mais intuitiva 2º Elimina apostar em probabilidades e ficar na dúvida do está certo ou errado 3º Fornece uma base experimental para examinar o modelo teórico 4º Auxilia o estudante a perceber como a razão entre resultados particulares e o número total de teste converge para o número fixo considerado o limite 5º Desenvolve uma posição favorável a abordagem de uma simulação para resolver problemas 6º Realizar experimentos para chegar a uma conclusão muitas vezes é mais divertido e interessante Espaço de amostra e cálculo de probabilidades teóricas Outros conceitos de extrema relevância para o entendimento da probabilidade são os de resultado e espaço O espaço de amostra para uma determinado evento de sorte ou azar é o conjunto de todos os resultados possíveis para aquela experiência Um evento é um subconjunto do espaço de amostra Uma experiência pode ser classificada em fases Uma experiência de uma fase é um experiência que exige apenas uma atividade para determinar um resultado wwwcatolicascorgbr Uma experiência de duas ou mais fases é uma experiência que requer duas ou mais atividades para determinar um resultado Eventos independentes O acontecimento de um evento ou não não irá ter efeito sobre outros eventos Probabilidades teóricas com um modelo de área A probabilidade teórica de um evento de múltiplas fases pode ser determinada listando todos os resultados possíveis e contar os mais favoráveis ou seja os que fazem parte do evento Esse método tem algumas limitações Primeira limitação é de que teremos problemas já que nem sempre os eventos são todos iguais Segunda limitação é difícil transpor essa abordagem para outros métodos mais completos Uma abordagem diferente que pode ser usada é o modelo de área O modelo de área consiste em reunir os resultados do evento em um desenho representando a área compreendida pelos resultados Eventos dependentes O acontecimento de um evento irá depender de outro evento para ocorrer Simulações É uma técnica usada para resolver questões do mundo real ou ainda tomar decisões em situações complexas onde elementos de chance estejam envolvidos As simulações acontecem por ser perigoso complexo e caro manipular uma situação real Para fazer a observação do que será provável que ocorra nesse evento real é necessário a projeção de um modelo com as mesmas probabilidades que a situação real Para se realizar uma simulação são necessárias algumas etapas como 1ª identificar os componentes e as hipóteses básica do problema 2ª escolher um dispositivo randômico para os componentes básicos 3ª definir uma tentativa 4ª conduzir um grande número de testes e registrar as informações 5ª usar os dados para estabelecer conclusões As etapas 4 e 5 são equivalentes a resolver um problema de probabilidade por meios experimentais Um exemplo onde as simulações são usadas é a venda de mercadorias onde está irá depender de uma variedade de fatores de chance A partir desse exemplo pode se construir um modelo para simular esses fatores então seguindo da experiência realizada saberá se é uma boa ideia utilizar determinadas técnicas antes de outras na venda daquela mercadoria As probabilidades podem seguir um formato padronizado que pode ser evidenciado pela distribuição de frequências que quando contínuo é chamada de Distribuição de Probabilidade A Distribuição de Probabilidade Normal é a mais importante na estatística pois abrange um grande número de fenômenos Ela oferece base para inferência estatística clássica devido a sua afinidade com o teorema do limite central Possui um gráfico simétrico em formato de sino e as medidas de tendência central média moda e mediana são todas idênticas Os valores das probabilidades obtidos pela distribuição normal podem ser padronizadas e obtidas por valores calculados pela área abaixo da curva do gráfico em forma de sino ou seja o valor da integral da função entre os limites de integração definidos Estes valores podem ser obtidos por tabelas précalculadas ou por planilhas de cálculo Uma aplicação prática para a Distribuição de Probabilidade Normal é o cálculo de valores previstos em função da média e do desvio padrão dos dados Cálculos de Regressão pelo método dos Mínimos Quadrados Modelos de regressão são modelos matemáticos que relacionam o comportamento de uma variável Y com outra X Em seu modelo mais simples a função de regressão é representada por uma linha reta através da fórmula fx a bx onde y f x X é a variável independente da equação enquanto Y é a variável dependente das variações de X Quando envolve uma relação causal entre duas variáveis o modelo é chamado simples Já quando envolve uma relação causal com mais de duas variáveis é chamado multivariado wwwcatolicascorgbr R² coeficiente de determinação corresponde a uma medida de qualidade de ajuste mostrando o percentual de variação na variável dependente custo que é explicada por uma variação na variável independente atividade Normalmente R² é calculado sob número decimal no entanto devese considerar como taxa percentual A reta de regressão que se obtém por meio do método dos mínimos quadrados tratase de uma aproximação da realidade a qual indica a tendência de dados Uma planilha de computador como o MSExcel marca registrada ou software equivalente pode ser utilizado para resolver a regressão dos mínimos quadrados mas não é tão completo como quanto os sistemas estatísticos próprios para isso O MSExcel fornece o valor do R² ou seja Quantidade do ajuste através da função RQUAD Essa quantidade do ajuste mostra o percentual de variação na variável dependente Para obter os coeficientes A e B da reta do ajuste usase as funções Inclinação que é o valor de A e Intercepção que é o valor de B Assim com a reta na forma de uma função podese calcular qualquer valor interpolado ou extrapolado para x e y onde x será a variável independente e y a variável dependente Um gráfico de dispersão de dados também é útil para a melhor visualização da distribuição dos mesmos em relação à reta do ajuste linear