[ABE-L] Main trends at this year’s NIPS: the merging of Bayesian statistics with deep learning.

Alexandre Galvão Patriota patriota.alexandre em gmail.com
Sex Dez 8 14:18:55 -03 2017


Oi Hedibert,

Obrigado por enviar o link da matéria.

Um detalhe interessante que poucas pessoas comentam é que a estrutura do *deep
neural network* pode ser interpretada como um modelo multivariado linear
generalizado com função de ligação recursiva. A função de ligação é
conhecida como a função de ativação nessa área. O modelo é
não-identificável, mas mesmo assim é possível definir uma função de
estimação clássica (e.g., função de verossimilhança, soma dos erros ao
quadrado, entre outras) para estimar centenas de milhares de parâmetros por
meio do algoritmo *stochastic gradient descent* e suas variantes. A prática
mostra que esses métodos funcionam bem em muitos domínios (reconhecimento
de imagens, por exemplo), apesar de não ter estimadores unicos. Vale notar
que o interesse aqui se concentra principalmente na predição correta.

A técnica de *reinforcement learning* conhecida como Q-*learning* tenta
encontrar a ação que maximiza a recompensa acumulada esperada. A função Q
de aprendizado é estimada por meio do Teorema do Limite Central (ou Teorema
Central do Limite), além disso não se define nenhuma distribuição a priori
para a função Q, ela é estimada por meio de replicações do 'experimento'.

Parece-me que muita gente interpreta esses métodos como Bayesianos só
porque eles tem uma estrutura hierárquica. Os modelos estatísticos
clássicos comportam facilmente estruturas hierárquicas tanto aleatórias
(variáveis latentes) como não-aleatorias (parâmetros relacionados
recursivamente).

No *deep neural network*, os parâmetros são os pesos  das arestas no grafo,
os quais são considerados não-aleatórios. Até vi um artigo que considera
centenas de milhares de prioris, mas não me parece que seja esse o método
mais utilizado na prática.

No Q-learning, nunca vi ninguém colocar uma distribuição de probabilidade a
priori para a função Q. Mas talvez seja possível, alguém da lista já viu?

Abs

On 8 December 2017 at 06:24, Hedibert Lopes <hedibert em gmail.com> wrote:

> Bom dia,
>
> Aparentemente, e naturalmente, a maior comunidade de Machine Learning do
> mundo finalmente percebeu que “Bayesian statistical learning” é o caminho a
> se seguir.
>
> O trecho (abaixo) que está relacionado a minha insistência em dizer que
> “aprendizagem estatística” (Bayesian statistical learning) eleva “machine
> learning” (aprendizado de máquina) ao status de modelagem e tratamento
> apropriado de incertezas, algo pouco familiar, até recentemente, aos
> “machine learners”
>
> Vale citar o livro que gosto muito do Kevin P. Murphy “Machine Learning: A
> Probabilistic Perspective”.   Conheço menos o livro do David Barber
> “Bayesian Reasoning and Machine Learning”.
> -
>
> Abs,
> Hedibert
>
> “Mr Smiroldo does put his finger on one of the main trends at this year’s
> NIPS: the merging of Bayesian statistics with deep learning. Instead of
> algorithms presenting deterministic “yes” or “no” results to queries, new
> systems are able to offer up more probabilistic inferences about the world.
> This is particularly useful for Mercedes-Benz, which needs driverless cars
> that can handle tricky situations. Instead of an algorithm simply
> determining if an object in the road is a pedestrian or a plastic bag, a
> system using Bayesian learning offers a more nuanced view that will allow
> AI systems to handle uncertainty better.”
>
>
>
> The Economist | Algorithm is gonna get you
> http://www.economist.com/news/science-and-technology/2173208
> 1-machine-learnings-big-event-all-buzz-ais-big-shindig?frsc=dg%7Ce
>
>
> _______________________________________________
> abe mailing list
> abe em lists.ime.usp.br
> https://lists.ime.usp.br/listinfo/abe
>
>


-- 
Prof. Dr. Alexandre G. Patriota,
Department of Statistics,
Institute of Mathematics and Statistics,
University of São Paulo, Brazil.
-------------- Próxima Parte ----------
Um anexo em HTML foi limpo...
URL: <https://lists.ime.usp.br/archives/abe/attachments/20171208/abd51d35/attachment.html>


Mais detalhes sobre a lista de discussão abe