<div dir="auto"><div dir="ltr"><div><div><div>Oi Hedibert,<br><br></div>Obrigado por enviar o link da matéria. <br><br></div>Um detalhe interessante que poucas pessoas comentam é que a estrutura do <i>deep neural
network</i> pode ser interpretada como um modelo multivariado linear generalizado com função de ligação recursiva. A função de ligação é conhecida como a função de ativação nessa área. O modelo é não-identificável, mas mesmo assim é possível definir uma função de estimação clássica (e.g., função de verossimilhança, soma dos erros ao quadrado, entre outras) para estimar centenas de milhares de parâmetros por meio do algoritmo <i>stochastic gradient descent</i> e suas variantes. A prática mostra que esses métodos funcionam bem em muitos domínios (reconhecimento de imagens, por exemplo), apesar de não ter estimadores unicos. Vale notar que o interesse aqui se concentra principalmente na predição correta.  <br></div><div><br></div><div>A técnica de <i>reinforcement learning</i> conhecida como Q-<i>learning</i> tenta encontrar a ação que maximiza a recompensa acumulada esperada. A função Q de aprendizado é estimada por meio do Teorema do Limite Central (ou Teorema Central do Limite), além disso não se define nenhuma distribuição a priori para a função Q, ela é estimada por meio de replicações do 'experimento'.</div><div><br></div><div>Parece-me que muita gente interpreta esses métodos como Bayesianos só porque eles tem uma estrutura hierárquica. Os modelos estatísticos clássicos comportam facilmente estruturas hierárquicas tanto aleatórias (variáveis latentes) como não-aleatorias (parâmetros relacionados recursivamente). </div><div dir="auto"><br></div><div dir="auto">No <i>deep neural network</i>, os parâmetros são os pesos  das arestas no grafo, os quais são considerados não-aleatórios. Até vi um artigo que considera centenas de milhares de prioris, mas não me parece que seja esse o método mais utilizado na prática. </div><div dir="auto"><br></div><div dir="auto">No Q-learning, nunca vi ninguém colocar uma distribuição de probabilidade a priori para a função Q. Mas talvez seja possível, alguém da lista já viu?</div><div dir="auto"><br></div><div dir="auto">Abs</div></div></div><div class="gmail_extra"><br><div class="gmail_quote">On 8 December 2017 at 06:24, Hedibert Lopes <span dir="ltr"><<a href="mailto:hedibert@gmail.com" target="_blank">hedibert@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><span style="background-color:rgba(255,255,255,0)">Bom dia,<br><br>Aparentemente, e naturalmente, a maior comunidade de Machine Learning do mundo finalmente percebeu que “Bayesian statistical learning” é o caminho a se seguir.  </span><div><span style="background-color:rgba(255,255,255,0)"><br></span></div><div><span style="background-color:rgba(255,255,255,0)">O trecho (abaixo) que está relacionado a minha insistência em dizer que “aprendizagem estatística” (Bayesian statistical learning) eleva “machine learning” (aprendizado de máquina) ao status de modelagem e tratamento apropriado de incertezas, algo pouco familiar, até recentemente, aos “machine learners”</span></div><div><span style="background-color:rgba(255,255,255,0)"><br></span></div><div><span style="background-color:rgba(255,255,255,0)">Vale citar o livro que gosto muito do Kevin P. Murphy “Machine Learning: A Probabilistic Perspective”.   Conheço menos o livro do David Barber “Bayesian Reasoning and Machine Learning”.</span></div><div class="m_-1121803447710728780m_6449652229650678035autor_div" style="box-sizing:border-box"><li style="text-align:start;box-sizing:border-box;display:block;margin-top:5px;margin-bottom:4px"></li></div><div><span style="background-color:rgba(255,255,255,0)"><br>Abs,<br>Hedibert<br><br>“Mr Smiroldo does put his finger on one of the main trends at this year’s NIPS: the merging of Bayesian statistics with deep learning. Instead of algorithms presenting deterministic “yes” or “no” results to queries, new systems are able to offer up more probabilistic inferences about the world. This is particularly useful for Mercedes-Benz, which needs driverless cars that can handle tricky situations. Instead of an algorithm simply determining if an object in the road is a pedestrian or a plastic bag, a system using Bayesian learning offers a more nuanced view that will allow AI systems to handle uncertainty better.”<br><br><br><br>The Economist | Algorithm is gonna get you <br><a href="http://www.economist.com/news/science-and-technology/21732081-machine-learnings-big-event-all-buzz-ais-big-shindig?frsc=dg%7Ce" dir="ltr" target="_blank">http://www.economist.com/news/<wbr>science-and-technology/2173208<wbr>1-machine-learnings-big-event-<wbr>all-buzz-ais-big-shindig?frsc=<wbr>dg%7Ce</a><br><br></span></div></div><br>______________________________<wbr>_________________<br>
abe mailing list<br>
<a href="mailto:abe@lists.ime.usp.br" target="_blank">abe@lists.ime.usp.br</a><br>
<a href="https://lists.ime.usp.br/listinfo/abe" rel="noreferrer" target="_blank">https://lists.ime.usp.br/listi<wbr>nfo/abe</a><br>
<br></blockquote></div><br><br clear="all"><br>-- <br><div class="m_-1121803447710728780gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr">Prof. Dr. Alexandre G. Patriota,<br>Department of Statistics,<br>Institute of Mathematics and Statistics,<br>University of São Paulo, Brazil.<br></div></div></div></div></div></div></div></div></div></div></div></div>
</div>