<div dir="ltr"><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small">Prezados(as)</div><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small"><br></div><div class="gmail_default"><font face="verdana, sans-serif">Com esta última apresentação encerraremos nossa sequencia de seminários. </font></div><span style="color:rgb(0,0,0)"><font face="verdana, sans-serif"><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small;display:inline"><b>​</b>Titulo</div></font></span><div><font color="#000000" face="verdana, sans-serif"><br></font><div><span style="color:rgb(0,0,0)"><b><font face="verdana, sans-serif"><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small;display:inline">​</div>"Kernel-based text classification in large scale, distributed computing framework".</font></b></span><div><br></div><div><font color="#000000"><font face="verdana, sans-serif"><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small;display:inline">​Resumo:</div></font></font></div><div><i><span style="color:rgb(0,0,0);font-size:16px"><font face="verdana, sans-serif">A direct acyclic graph (DAG) is used to define the tasks and dependencies, and a model is built to describe the task executions and determine the graph optimizations. The first step is speeding up text classification by distribution and, then more complex and demanding knowledge-integrating learning techniques, such as Bayesian methods and ensemble approaches are pursued.</font></span><font color="#000000"><font face="verdana, sans-serif"><div class="gmail_default" style="font-size:small;display:inline">​</div></font></font></i></div><div><font color="#000000"><font face="verdana, sans-serif"><br></font></font></div><div><font color="#000000"><font face="verdana, sans-serif"><div class="gmail_default" style="display:inline">​</div></font></font></div><div><font color="#000000"><font face="verdana, sans-serif"><div class="gmail_default" style="display:inline"><br></div></font></font></div><div><font color="#000000"><font face="verdana, sans-serif"><div class="gmail_default" style="display:inline">Vimos anteriormente, como os modelos CART podem ser simples, de fácil entendimento, e de certa maneira, natural de se usar como modelos de regressão/classificacao. </div></font></font><font color="#000000" face="verdana, sans-serif">Entre<div class="gmail_default" style="display:inline">​tanto, apesar destas facilidades, é pouco útil como modelo de previsão, desde que pode produzir uma enorme variabilidade.</div></font></div><div><font color="#000000" face="verdana, sans-serif"><div class="gmail_default" style="display:inline">Vimos então que para corrigir esta desvantagem, devemos utilizar as metodologias <i>Random Forest and Bagging</i>   </div></font></div><div><font color="#000000" face="verdana, sans-serif"><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small;display:inline">​</div></font></div><div><font color="#000000"><font face="verdana, sans-serif"><div class="gmail_default" style="display:inline"><br></div></font></font></div><div><font color="#000000"><font face="verdana, sans-serif"><br clear="all"></font></font><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr"><div><div>Ronaldo Dias</div>Professor<div>Dept. of Statistics-IMECC, UNICAMP</div><div><a href="http://www.ime.unicamp.br/~dias" target="_blank">www.ime.unicamp.br/~dias</a></div><div><br></div></div></div></div>
</div></div></div></div>