Resumo bioestatística - Parte 1



Resumo de bioestatística para ensino superior.

Estatística descritiva: que organiza a coleta, a apuração, a classificação e a descrição dos dados
Inferência estatística: que fornece as ferramentas para a análise, fazendo testes de hipóteses, calculando estimativas e fornecendo previsões.

Variável é qualquer característica ou atributo que possa ter valores diferentes quando se observam diferentes indivíduos (ex: gênero, peso). Dado é o valor assumido pela variável quando se examina um indivíduo.

Variáveis qualitativas/categorizadas
A variável é qualitativa ou categorizada quando seus valores são distribuídos em categorias mutuamente exclusivas. As variáveis qualitativas ou categorizadas são classificadas em dois tipos:
Nominal: quando os valores da variável se distribuem em categorias mutuamente exclusivas, indicadas em qualquer ordem (ex: sexo e tipo sanguíneo). OBS: Não há ordem entre as subcategorias da categoria.
Ordinal: quando os dados são distribuídos em categorias mutuamente exclusivas que possuem ordem (ex: escolaridade – analfabeto, fundamental, médio e superior -, classe social – A, B, C, D e E -, comportamentos de escolares). OBS: Há ordem entre as subcategorias da categoria.

Variáveis quantitativas/numéricas
Uma variável quantitativa ou numérica é expressa por números que têm significado em uma escala numérica. As variáveis quantitativas ou numéricas são classificadas em dois tipos:
Discreta: só pode assumir alguns valores em um dado intervalos (ex: número de filhos, número de batimentos cardíacos, número de dentes presente na boca).
Contínua: pode assumir qualquer valor em um dado intervalo (ex: peso, tempo de espera em uma fila, temperatura corporal).

Teste estatísticos e intervalos de confiança
Para generalizar os resultados obtidos por meio de amostras para toda a população de onde a amostra foi retirada, os pesquisadores aplicam testes estatísticos e calculam intervalos de confiança.
Supondo a análise de um tratamento que se quer analisar que ele é efetivo ou não, os pesquisadores, com base nos dados de uma amostra, fazem inferência estatística, isto é, calculam a probabilidade (p-valor) de obter uma diferença tão grande ou maior do que a observada quando o tratamento não tem efeito. Se o p-valor for pequeno, os pesquisadores decidem que o tratamento estudado na amostra tem efeito similar na população. No entanto, os pesquisadores não podem ter certeza de que a decisão tomada com base na amostra esteja correta para a população. Sabem, apenas, a probabilidade de essa decisão estar errada.
p-Valor é, então, a probabilidade de obter uma diferença entre grupos tão grande ou maior do que a obtida quando essa diferença não existe. Ou seja, é a probabilidade de o pesquisador estar errado quando diz que os grupos em comparação são diferentes.
Se você comparar dois grupos e encontrar um p-valor de 3%, pode dizer: “se não houver diferença entre grupos na população, 3% dos ensaios mostrarão diferença entre grupos pelo menos tão grande como a observada – por puro acaso”.
Talvez você se sinta tentando a dizer: “se a diferença encontrada ocorre por acaso com probabilidade de 3%, a probabilidade de essa diferença ser real é 97%”. Mas isso está errado. Um p-valor de 3% significa somente que sob a hipótese de nulidade, 3% dos ensaios mostrarão diferença entre grupos pelo menos tão grande como a observada. Logo, 97% dos ensaios mostrarão diferença entre grupos menor do que a observada.
Assim sendo, o p-valor mostra tão somente quão raro é observar diferença tão grande ou maior do que a encontrada entre grupos se Ho for verdadeira. Não informa a probabilidade de essa hipótese ser verdadeira. O pesquisador deve resolver – mediante o resultado que obteve – se a hipótese da nulidade parece improvável o bastante para que ele corra o risco de dizer que essa hipótese deve ser rejeitada.
Poder do teste estatístico: é a probabilidade de o teste rejeitar a hipótese da nulidade quando a hipótese alternativa é verdadeira, isto é, é a probabilidade de o teste detectar, com base na amostra, uma diferença que realmente existe na população. Vários fatores afetam o poder de um teste estatístico, tais como a grandeza de diferença entre os grupos, nível de significância adotado e do tamanho da amostra. Quando se calcula o tamanho da amostra, é comum adotar – embora não haja qualquer justificativa teórica para isso – nível de significância de 5% e poder de teste de 80%. Isso significa que você admite até 5% de probabilidade de estar errado ao dizer que os grupos são diferentes e 80% de probabilidade de detectar uma diferença que realmente existe.
Testes unilaterais e bilaterais: Para aplicar um teste de hipóteses é preciso, primeiro, decidir se o teste será unilateral ou bilateral. Um teste é unilateral quando a hipótese da nulidade só pode ser rejeitada se a diferença entre grupos tiver o sentido especificado pelo pesquisador (por exemplo, o pesquisador diz no projeto que espera efeito positivo do novo tratamento). Um teste é bilateral quando – se o p-valor valor for pequeno – a hipótese da nulidade é rejeitada qualquer que seja o sentido (o sinal) da diferença entre grupos.
Exemplo de teste unilateral em teste de um medicamento:
- H0: o medicamento não tem efeito sobre a taxa de sobrevivência dos indivíduos;
- H1: o medicamento aumenta (efeito positivo) a taxa de sobrevivência dos operados.
Exemplo de teste bilateral em um teste de ração para ratos:
- H0: em média, o peso dos ratos tratados com a nova ração é igual ao peso dos ratos tratados com a ração conhecida.
- H1: a média dos pesos dos ratos que receberam a nova ração é estatisticamente diferente da média dos ratos tratados com a ração conhecida.
Vantagens dos testes bilaterais:
- Os testes bilaterais são mais seguros, porque o tratamento pode dar resultado contrário ao esperado. O pesquisador ficaria em situação constrangedora se a diferença for significante, mas tiver sentido contrário ao esperado;
- Os testes bilaterais são mais conservadores, isto é, tem menor probabilidade de rejeitar H0. Como grande parte dos experimentos não satisfaz às pressuposições exigidas para aplicar os testes estatísticos, é melhor trabalhar com testes que têm menor probabilidade de detectar significância.
Testes paramétricos e não paramétricos: Na área médica, são muito usados o teste t de Student, a análise de variância e o teste de Tukey. Tais testes exigem, para sua aplicação, que a variável em análise seja numérica e as hipóteses sejam feitas sobre parâmetros, como médias e variâncias. Por exemplo, para estudar a altura de meninos e meninas da mesma idade, o pesquisador pode optar por testes paramétricos – e comparar médias (pelo teste t de Student) e variâncias (pelo teste F de Snedecor). Mas os testes paramétricos têm, ainda, outras exigências. Por exemplo, o teste t, muito usado para a comparação de duas médias (parâmetros), exige pressupor que a variável em análise tenha distribuição normal (Gaussiana), ou, pelo menos, simétrica.
Os testes não paramétricos não exigem que a variável em análise seja numérica e não exigem pressuposição a respeito da distribuição da variável. Assim sendo, os testes não paramétricos também servem para variáveis qualitativas/categorizadas.
As hipóteses de testes paramétricos e não paramétricos são diferentes. Quando você aplica um teste t de Student (paramétrico), a hipótese da nulidade é de que as médias populacionais são iguais. E quando você aplica um teste de Mann-Whitney (não paramétrico), a hipótese da nulidade é de que as distribuições são iguais.
De modo geral, os testes não paramétricos têm menor probabilidade de rejeitar a hipótese da nulidade quando essa hipótese é falsa.

Quando usar um e quando usar outro?
Teste paramétrico
Teste não paramétrico
Os dados obtidos são quantitativos;
As pressuposições exigidas para aplicação do teste escolhido estão satisfeitas ou razoavelmente satisfeitas e/ou a amostra é grande.

Os dados são qualitativos;
As pressuposições exigidas para aplicação de testes paramétricos definitivamente não estão satisfeitas;
A amostra é pequena;
Existem dados discrepantes (outliers) ou censurados que podem tornar mais indicado calcular as medianas – e não as médias.

Intervalos de confiança: A margem de erro refere-se ao intervalo dentro do qual se espera que esteja o valor verdadeiro. O intervalo de confiança, por sua vez, é a probabilidade do valor verdadeiro estar dentro das margens de erro. Por exemplo:
Em uma pesquisa eleitoral, verificou-se que 33% dos entrevistados votariam no candidato A. Além disso, por meio de cálculos estatísticos, calculou-se a margem de erro em 2% e o intervalo de confiança em 95%. Isso significa que há 95% de chance de a quantidade de votos real na eleição estar entre 31% e 35%.

Significância nas tabelas 2x2
Exemplo:
Prevalência de tabagismo segundo o sexo
Sexo
Não
Sim
Total
Homens
423
177
600
Mulheres
287
204
491
Total
710
381
1.091

As tabelas 2x2 em estudos transversais: Para saber se duas variáveis são independentes ou estão associadas, pode ser feito um estudo transversal. Pesquisadores obtêm uma amostra de tamanho n de uma grande população e classificam cada indivíduo amostrado segundo as variáveis de interesse. Quando as variáveis são apenas duas (por exemplo, as características A e B) e binárias (Sim e Não), os dados são apresentados em tabelas 2x2.
As tabelas 2x2 em estudos prospectivos: Para saber se determinada característica da pessoa (sedentarismo, por exemplo) predispõe a determinado desfecho (sobrepeso), pode ser feito um estudo prospectivo. Pesquisadores acompanham n1 pessoas que têm a característica sob suspeita (no exemplo, sedentarismo) e n2 pessoas sem essa característica (o sedentarismo) durante um tempo relativamente longo para obter, no final, a proporção de pessoas com o desfecho procurando (sobrepeso) em cada um dos dois grupos (no grupo de pessoas que têm a característica e no grupo de pessoas que não têm a característica).
As tabelas 2x2 em estudos retrospectivos: Para saber se determinado desfecho (ter doença cardiovascular, por exemplo) depende de antecedentes (hábitos alimentares errados), pode ser feito um estudo retrospectivo. Pesquisadores amostram n1 pessoas com a doença (no exemplo, doença cardiovascular) e n2 pessoas sem a doença. Os dois grupos devem ser em tudo comparáveis exceto pelo fato de, em um deles, as pessoas terem a doença em estudo e no outro, não. Depois, o pesquisador estuda a história pregressa das pessoas para obter a proporção, tanto no grupo de doentes como no grupo sem a doença, de pessoas que foram expostas ao antecedente que se suspeita estar associado à doença em estudo.
Os estudos retrospectivos são menos confiáveis do que os estudos prospectivos porque neles se pede que as pessoas relatem fatos do passado, que podem ser sobrevalorizados se as pessoas suspeitarem de que tais fatos expliquem as condições presentes. De qualquer forma, os pesquisadores fazem estudos retrospectivos porque são rápidos e baratos – ao contrário dos estudos prospectivos que demandam tempo e podem – por conta do tempo que exigem – ficar muito caros.
As tabelas 2x2 em ensaios clínicos: Para fazer um ensaio clínico randomizado e controlado, o pesquisador divide uma amostra de n pacientes ao acaso em dois grupos: um grupo n1 pacientes recebe o tratamento em teste (grupo tratado) e outro, de n2 pacientes, constitui o controle (controle positivo, se os pacientes receberem um tratamento convencional e controle negativo, se os pacientes receberem um placebo). Se o desfecho do tratamento só puder ser “sim” ou “não”, os dados do ensaio são apresentados em uma tabela 2x2.                  

Teste de x² de Pearson
O teste de qui-quadrado de Pearson serve para testar a hipótese de que duas variáveis categorizadas são independentes. Exemplo:
Participantes da pesquisa segundo sintomas de desordens temporomandibulares (DTM) e uso de aparelho ortodôntico
Sintomas de DTM
Não
Sim
Total
Não
115
113
228
Sim
55
87
142
Total
170
200
370
Nesse teste, a hipótese de nulidade é a de que sintomas de desordens temporomandibulares independem do uso de aparelho ortodôntico. Calcule então o qui-quadrado e verifica-se, através de uma tabela de correspondência, o valor crítico. Se o valor de qui-quadrado for maior que o valor crítico, descarta-se a hipótese nula.

Teste exato de Fisher
O teste exato de Fisher serve para testar a hipótese de que duas variáveis nominais, apresentadas em uma tabela 2x2, são independentes. É indicado para casos em que o teste de x² não se aplica – ou seja, quando a amostra é pequena ou quando as frequências marginais são pequenas.
Teste de proporções/Teste Z
Os estudos prospectivos e os ensaios clínicos são feitos para comparar proporções. O teste de proporções, ou teste z, serve para testar a hipótese de que, nas populações, as proporções são iguais.
Exemplo: Em um ensaio randomizado, 136 pacientes com trauma esplênico foram sorteados para tratamento não operatório (32) e cirurgia conservadora (104). São, portanto, dois grupos independentes, e o desfecho é haver ou não complicações. Dos 32 não operados, três tiveram complicações e dos 104 submetidos à cirurgia, 25 tiveram complicações. A hipótese em teste é a de que a proporção de pacientes sem complicações é a mesma nos dois grupos.

Significância nas tabelas 2xs
Grau de liberdade: Número de observações que podem variar livremente – ou o número de observações “livre para variar”.
                                                                                                                                                                                                                             

Resumo bioestatística - Parte 1 Resumo bioestatística - Parte 1 Reviewed by Anônimo on 19:04 Rating: 5

Nenhum comentário:

Tecnologia do Blogger.