[ABE-L] Uma provocação acadêmica

Raphael Nishimura raphael_nishimura em yahoo.com.br
Qua Out 22 15:01:18 -03 2014


Caro prof. Carlinhos,
É sempre um prazer ouvir (ou ler) o que o senhor tem a dizer sobre assuntos tão interessantes como esse! Muito obrigado por enviar o paper para a lista. Já tinha ouvido falar sobre esse estudo em ocasiões anteriores, mas é ainda mais interessante ler os detalhes dela. 
Relacionado a amostragem intencional: assim como o senhor, sempre que possível, eu também gosto de trabalhar com amostras balanceadas. Recentemente (mas não tão recentemente assim) Deville e Tillé (Biometrika, 2004) desenvolveram um método para seleção de amostras balanceadas que pode agradar gregos e troianos. Esse método, chamado de método cubo, permite a seleção de amostras probabilísticas (com probabilidades de seleção iguais ou desiguais) de forma que as estimativas para variáveis auxiliares usadas para balanceamento da amostra, quantitativas ou qualitativas, sejam iguais ou aproximadamente iguais aos totais populacionais. 
Agora eu gostaria de lançar uma outra provocação acadêmica na lista. Alguns bayesianos criticam (e com razão, na minha opinião) o chamado "empate técnico", como muitas pesquisas de intenção de voto publicam quando os intervalos de confiança de cada candidato se sobrepõem, o que pode passar a impressão que cada candidato tem a mesma chance de vencer a eleição. Como alternativa, alguns recomendam o cálculo da probabilidade de cada candidato ganhar a eleição (no caso do 2o turno), usando métodos bayesianos, como o Neale vem fazendo no Pollingdata.com.br. Não sei se vocês vem acompanhando o site do Neale, mas nesse momento ele apresenta uma probabilidade de 51% para o Aécio e 49% para Dilma. Digamos que um dia antes do 2o turno cheguemos a 50% para cada candidato. Seria esse o "empate técnico" bayesiano? 
Um abraço,Raphael 

     Em Terça-feira, 21 de Outubro de 2014 21:08, Carlos Alberto de Bragança Pereira <cpereira em ime.usp.br> escreveu:
   

 
Caros redistas:

É com muita satisfação ver uma discussão em nossa rede de craques:  
Pelé, Maradona, Neymar e Messi - Zé, Pedro, Rafael e Neale. Como um  
coadjuvante, vou tentar bater uma bola com esse pessoal da pesada.

Nas minhas últimas intervenções tentei colocar alguns pontos  
esquecidos e agora vejo pelos artigos apresentados que a análise sim é  
fundamental.  Por sinal devo dizer que tive ótimas discussões com  
alguns redistas fora do nosso fórum.  Mas o que mais me chamou  
atenção foi a palavra probabilística acompanhando a amostragem como  
sendo um qualificativo.  E claro o outro qualificativo cotas tende a  
ser pejorativo para parte do nosso fórum.  O Carvalho sim explicou  
como as pessoas fazem a amostragem por cotas e creio que ele está  
correto na forma equivocada como são realizadas.  Contudo, creio que  
se feita com propriedade pode ser útil e auxiliar na coleta de uma  
amostra “boa”.  Vou simplificar bastante minha discussão para que  
possamos discutir com talvez mais clareza, pelo menos para mim.

Representemos nosso problema pela nossa conhecida urna com bolinhas  
coloridas: vermelho para o PT, verde para os tucanos e brancas para o  
resto (brancos; nulos; e não votantes).  Consideramos uma amostra  
informativa (paramétrica) se a verossimilhança depender das  
frequências de cada uma das categorias e ai ter-se-ia um modelo  
hipergeométrico multivariado, com parâmetros P, T e B, população N  
(Número de bolas da urna) e amostra n (número de bolas na amostra).  
Este modelo é muito bom para partes da população onde os eleitores, em  
nossa opinião seriam permutáveis.  Assim lembrando o famoso artigo de  
Lindley e Novick do Annals of Statistics, a permutabilidade é  
equivalente às estratificações e aglomerações da amostragem.  Em cada  
núcleo pequeno teríamos assim uma urna de 3 cores.  Daí teríamos para  
cada núcleo uma hipergeométrica específica dando a verossimilhança  
necessária para compor a verossimilhança do aglomerado que em uma  
composição posterior formar a verossimilhança do estrato e por fim a  
verossimilhança global que nos daria o conjunto de credibilidade para  
formar a verossimilhança global.  Esse foi um dos dois modelos usado  
por nós na eleição da Nicarágua.

Agora pensemos na urna com as bolinhas marcadas com os nomes dos  
eleitores e ai diferenciados uma a um.  O modelo agora é selecionar  
uma amostra de tamanho n da população de tamanho N. Neste caso cada  
uma das amostras teria probabilidade igual ao inverso de C(N;n) que é  
a combinação de N, n a n.  Todas as amostras de tamanho n tendo a  
mesma probabilidade de ser extraída ao chacoalharmos a urna do  
escritório do estatístico.  Neste caso, muda-se o valor dos parâmetros  
P, T e B e a verossimilhança continua sendo a mesma, o que chamei de  
flat.  Lembrem-se os colegas que por esta razão chamei de flat a  
verossimilhança.  Assim, não há como usar o estimador de Máxima  
verossimilhança e sim estimadores não viciados com a verossimilhança  
Flat, sendo a variável aleatória o indicador de um eleitor pertencer  
ou não a amostra sem referência ao fato de ele ser de alguma cor.  Com  
o fato de usarmos estratificação e conglomeração usamos esses métodos  
para melhorar o indicador de o eleitor i pertencer ou não a amostra.  
Esse foi o segundo modelo usado por nós na eleição da Nicarágua como o  
Carvalho mencionou.  Nosso artigo está nos anais do SINAPE de 1990.  
Devido ao tamanho do documento que preparei tentarei enviar uma cópia  
em um próximo e-mail, pois no e-mail do IME normalmente não  
conseguimos enviar pastas com mais de 1 megabyte.  Como o Carvalho  
mencionou, foi um trabalho hercúleo do grupo do grande mestre OSCAR  
mostrar as convergências dos estimadores não viciados (estimador  
razão) deste tipo de modelo.  Como irão ver em nosso artigo os  
resultados foram equivalentes.

Finalmente gostaria de mencionar a amostragem intencional que é obtida  
por otimização global.  Nossa receita é copiar na amostra as  
proporções populacionais para aquelas variáveis consideradas  
relacionadas com a variável que temos interesse, a frequência de  
eleitores em cada núcleo (estratificação e aglomeração).  O problema é  
que somos obrigados a usar um otimizador: isto é, quais as mostras de  
tamanho n da população de tamanho N que melhor copia a população  
daquele pequeno núcleo. Note que como a amostragem não paramétrica é  
flat e esta amostra otimizada é uma possível seleção daqueles modelos  
não paramétrico! Então, qual o problema de usarmos a mesma inferência  
daquele modelo?  Esta é a diferença que eu e o Zé teríamos.  
Lembrem-se que o modelo de cotas usadas pelos institutos não fazem a  
otimização global e sim marginal, isso se usarem o descrito pelo  
Carvalho.

Finalizo esta minha singela intervenção dizendo que a composição das  
verossimilhanças pode ser pensada como uma meta análise de  
verossimilhanças que descrevi no artigo convidado da revista Ciência e  
Natura do nosso colega Fábio.
Como provocação, coloco aqui o paradigma: Por que uma amostra por  
cotas (da forma otimizada que coloquei) passaria de ruim a boa apenas  
porque foi selecionada por um mecanismo não informativo? Uma urna que  
não tem nada haver com a população pode transformar uma amostra ruim  
em boa só porque é um ponto amostral possível daquele mecanismo?

Saudações acadêmicas de um perna de pau.

Carlinhos
Vou tentar enviar o paper aqui na rede
Se não chegar os interessados que usam outros emails mais flexíveis  
por favor me escrevam que eu mando para vocês.

-- 
Carlos Alberto de Bragança Pereira
http://www.ime.usp.br/~cpereira
http://scholar.google.com.br/citations?user=PXX2AygAAAAJ&hl=pt-BR
Stat Department - Professor & Head
University of São Paulo


_______________________________________________
abe mailing list
abe em lists.ime.usp.br
https://lists.ime.usp.br/mailman/listinfo/abe


   
-------------- Próxima Parte ----------
Um anexo em HTML foi limpo...
URL: <https://lists.ime.usp.br/archives/abe/attachments/20141022/c8710134/attachment.html>


Mais detalhes sobre a lista de discussão abe