[ABE-L] pesquisas eleitorais: Qual o problema?

Elias T. Krainski eliaskrainski em yahoo.com.br
Ter Out 7 10:41:54 -03 2014


Prezado professor Carlos,

Infelizmente eu não entendi alguns detalhes, por exemplo, da 
"verossimilhança FLAT". Mas isso é discussão não para esta lista... 
Gostaria de colocar três pontos. 1) usar informações disponíveis para 
simular pesquisas no computador. 2) necessidade de considerar todas as 
variáveis dos indivíduos. 3) viabilidade de um plano amostral econômico.

1) usar informações disponíveis para simular pesquisas no computador. 
Quanto à fazer pesquisa de campo usando métodos estatísticos, além de 
dinheiro, precisaria um grupo interessado. Uma alternativa é que talvez 
possamos simular essas coisas no computador. O IBGE divulgou a lista de 
endereços nos quais realizou o censo 2010. São 78 milhões de endereços. 
Uma amostra completamente aleatória é inviável na prática, mas é viável 
em computador. Que tal pensar um plano prático, considerando toda a 
informação disponível, isto é, lista de endereços, informações de cada 
setor censitário e dados dos orgãos eleitorais. Que tal propor um plano 
amostral com base nessas informações considerando localização, condição 
sócio economico demográfica, teoria de amostragem, minimização de custo, 
entre outras...

2) necessidade de considerar todas as variáveis dos indivíduos. Mas 
pensar em tudo isso é necessário? Na minha humilde opinão acho que não. 
Exemplo: Um professor deseja estimar a proporção de alunos que 
assistiram ao último debate dos candidatos a presidente. Há 24 mulheres 
e 36 homens na turma. O professor resolveu selecionar 4 mulheres e 6 
homens, sem considerar a faixa etária (que varia muito nessa turma). O 
procedimento de seleção foi: Na ele lança um dado. O número que sair e' 
acrescido dos números 0, 6, 12, 18 para mulheres e 0, 6, ..., 30 para 
homens. Ele considerará a posição dos alunos sentados na sala, numerando 
as mulheres de 1 a 24 e os homens de 1 a 36; e entrevistará o aluno 
correspondente à numeração definida pelo lançamento do dado. O ponto 
principal é que o efeito de faixa etária é "integrado" pela 
randomização. O efeito de sexo também poderia ser, recorrendo-se à 
amostragem aleatória simples considerando a população como um único 
grupo. Ou seja, a palavra chave é randomização.

3) viabilidade de um plano amostral economico. O fato de não ser 
possível amostragem aleatória simples pode fazer parecer difícil fazer 
um plano amostral econômico. Mas realmente não é tão difícil assim! 
Concordo que seja trabalhoso, como é mais trabalhoso estratificar os 
alunos por gênero. Há planos amostrais complexos em dois ou três 
estágios que podem ser factíveis. Exemplo: Seleciona-se m municípios. 
Seleciona-se s_j setores em cada município. Seleciona-se os domicílios 
d_ji. Considerando 2010, temos o numero de domicílios em cada setor. Com 
auxílio da lista de endereços, a seleção é toda automática. Para a 
aplicação na rua basta usar os mapas de cada setor censitário 
(disponíveis). Basta o entrevistador de campo olhar esses mapas 
sobrepostos ao google mapas.

Comentário:
Pelo que se vê, os institutos eleitorais usam probabilidade "alta" de 
seleção de municípios e "baixa" de pessoas nos municípios. Por exemplo, 
5 mil entrevistados em 500 municípios. Os planos de amostragem complexa 
me parecem sugerir coisa diferente...

Abs,
Elias.

On 07/10/14 03:48, Carlos Alberto de Bragança Pereira wrote:
>
> Prezados companheiros de rede:
>
> Peço inicialmente desculpas por esta minha mensagem. Principalmente 
> pelo tamanho.
>
> Eu vejo o problema de uma forma muito diferente dos colegas.  É claro 
> que todos que vão ao mercado das pesquisas querem fazer o melhor mesmo 
> que estejam equivocados na melhor forma de coletar uma amostra.  Assim 
> vou considerar alguns pontos que acho relevantes, pois vejo que os 
> colegas, sem terem ido a luta das pesquisas ficam argumentando sobre 
> erros de coleta.  Só podemos contestar resultados no momento que 
> dermos nossas caras para bater e realisarmos uma pesquisa por nossa 
> própria conta e obtermos melhores resultados do que os institutos de 
> pesquisa.  Se não temos recursos para fazer isso, podemos submeter um 
> projeto aos nossos institutos de apoio, como CNPq, CAPES, FAPESP etc.  
> Façamos isso como fizemos tempos atrás na eleição do Covas em segundo 
> turno aqui em São Paulo.  Fomos financiados pela FAPESP. Posso dizer 
> aos colegas que tivemos sim muito sucesso, entretanto como nossas 
> previsões ficavam muito fora do que se publicava só pudemos falar de 
> nosso trabalho após a eleição, quando já não havia interesse e ninguém 
> iria acreditar nos nossos acertos.  Não era eu, nem o Sérgio, quem 
> dirigia o processo administrativo da pesquisa.  Claro que posso um dia 
> contar a vocês o que fizemos se minha memória ainda estiver em 
> condições.  Mas devo dizer que a chance de errarmos era também muito 
> grande.
>
> O risco de um erro de previsão em uma eleição com 150 milhões de 
> eleitores prováveis (111 milhões votaram efetivamente) será tão grande 
> quão pequeno for o tamanho da amostra.  O Instituto Data Folha só 
> conseguiu fazer uma amostragem com 20 mil eleitores na pesquisa de 
> boca de urna porque nas outras foram no máximo de 9 mil perto das 
> eleições e menos de 5 mil nas anteriores.  Não há dinheiro que aguente 
> uma amostra considerando os 5 mil municípios brasileiros. Perdoem-me 
> os “teóricos”, mas uma boa amostra teria de considerar vários aspectos 
> como rural e urbano, estados, municípios, condição sócio econômica, 
> qualidade de vida etc. Se colocarem a necessidade de medir 
> variabilidade em cada ponto, só ai daria uma amostra impossível para 
> nós.  O ruim das cotas é que se faz otimização marginal, pois não 
> iriam conseguir uma amostra contemplando a otimização global com todas 
> as interações possíveis.
>
> Falemos agora sobre a amostra completamente aleatória (levando-se em 
> conta agrupamentos etc.).  Vamos pensar em uma grande urna com bolas 
> coloridas, a população de interesse. Construir uma amostra é dividir 
> essa grande urna em duas urnas, a amostra e a não amostra.  Olhamos a 
> amostra e queremos predizer o que está na não amostra.  Usar a 
> probabilidade de seleção como a distribuição de seleção para fazer a 
> predição estatística é um erro do ponto de vista da teoria de 
> verossimilhança.  Pode-se mudar toda a composição da não amostra que a 
> distribuição de seleção é a mesma.  Isto é verossimilhança FLAT!  Quer 
> dizer que a verossimilhança é não informativa com relação a composição 
> do parâmetro de interesse; a composição da não amostra.  É evidente 
> que se a amostra for bem grande a chance de obtermos na amostra uma 
> composição semelhante a não amostra aumenta, mas não é garantido meus 
> caros amigos.
>
> A solução adequada em minha opinião seria lembrarmos-nos do teorema da 
> permutabilidade de DeFinetti e ai sim pensarmos em nossas informações 
> subjetivas obtidas das eleições anteriores e do conhecimento que 
> teríamos sobre as características das subpopulações dentro dos 
> subgrupos obtidos da otimização global. Não vou me alongar, pois os 
> detalhes são muitos para discutirmos num ambiente como o da rede.
>
> Termino com uma provocação grande aos meus queridos amigos 
> randomizeiros.  Se a mostra obtida de alguma forma é um possível 
> resultado de seleção, qual o problema de usar a estatística comum para 
> fazer as predições?  Chacoalhar a urna e obter o mesmo resultado salva 
> a amostragem?  Então não falo em cotas no relatório, pois ninguém 
> consegue provar que não randomizei.
>
> Tenho dito!!!!!!!!
>
> Saudações indutivas e subjetivistas
>
> Carlinhos
>
>
>





Mais detalhes sobre a lista de discussão abe