SAUDAÇÕES!

Seja bem vindo à página do professor Pedro Albuquerque. Para saber mais sobre meu currículo, disciplinas ministradas e interesses de pesquisa, navegue no menu disponível no topo da página.

Apresentações

(2017) Aprendizagem Adaptativa.
Resumo: O objetivo deste trabalho foi apresentar como as metodologias de Aprendizado de Máquina podem e são utilizados pelas corporações de Educação por meio de Tecnologia para desenvolver sistemas de Aprendizagem Adaptativa.

(2017) Filtro econômico em dois estágios para identificação de cartéis.
Resumo: O objetivo deste trabalho foi propor um novo método de filtro comportamental que possa ser aplicado a qualquer mercado para o qual os dados de preços estão disponíveis. Especificamente, aplicamos o método desenvolvido no mercado de varejo de combustível através de duas etapas: estimativa da correlação gaussiana global e local. O método desenvolvido é capaz de identificar se há evidências de formação de cartel para o mercado relevante e também sugerir os períodos de tempo para os quais essa colusão econômica foi mais provável de ter ocorrido.

(2017) A era da automação e o papel do gestor.
Resumo: Atualmente, os sistemas automatizados para a tomada de decisão gerencial têm sido amplamente utilizados por grandes organizações, tais como: Amazon, Uber, Facebook dentre outras. Buscando esclarecer ainda mais o assunto, o seminário tratará da utilização do Aprendizado de Máquina por essas grandes organizações e pelo gestor, como forma de preparação para a nova era.

(2014) Imputação de dados em pesquisas amostrais.XIX Encontro Nacional e I Encontro Internacional das Instituições de Planejamento, Pesquisa e Estatística.
Resumo: Nesse curso, os principais métodos de imputação para dados amostrais são apresentados bem como alternativas para o tratamento de não-respostas usualmente frequentes em pesquisas domiciliares.

(2012) Support Vector Clustering na formulação da segmentação dos consumidores cariocas sobre o serviço de TV Móvel.20º SINAPE - Simpósio Nacional de Probabilidade e Estatística.
Resumo: A segmentação de clientes é um curso natural que as organizações seguem quando desejam construir um relacionamento individualizado com seus consumidores. Entretanto, a construção de métodos e modelos que particionem clientes em grupos homogêneos não é absoluto. O presente texto apresenta uma proposta de segmentação de clientes por meio do Support Vector Clustering, metodologia que vem ganhando destaque na literatura acadêmica devido aos bons resultados usualmente obtidos. Uma aplicação desse método para um conjunto de dados amostrados de consumidores cariocas sobre o serviço de TV móvel é realizada; compara-se a abordagem de SVC com os métodos clássicos de análise hierárquica de conglomerados. Conclui-se que a metodologia apresentada é eficaz na redução da heterogeneidade frequentemente presente nos dados. O presente texto contribui para a literatura ainda incipiente de segmentação de clientes por meio da aprendizagem de máquinas em um contexto nacional, fornecendo assim, além de uma visão mais robusta para a segmentação da clientela, um direcionamento para pesquisadores interessados em modelar perfis e padrões de clientes no Brasil promovendo assim a integração além da disseminação desse conhecimento.


(2011) Escolha Do Corte Ótimo Para Correção De Matrizes De Variâncias E Covariâncias Segundo Método Gmm Espacial De Conley.XII Escola de Modelos de Regressão.
Resumo: Esse trabalho tem como principal objetivo descrever a metodologia Generalized Method of Moments na presença de dependência espacial proposta por Conley (1999) com o intuito corrigir a dependência espacial usualmente presente nos dados regionais (Lattice Data). Particularmente, uma aplicação utilizando os dados provenientes do Censo 2000 é apresentada; nesta aplicação, estamos interessados em estudar como os aglomerados subnormais estão relacionados com o total do rendimento nominal mensal das pessoas responsáveis por domicílios particulares permanentes em Brasília. Esse texto também apresenta uma simulação utilizando dados gerados com o intuito de avaliar a capacidade do modelo em corrigir a matriz de variâncias e covariâncias das estimativas obtidas. Fica claro no entanto que a abordagem tradicional de regressão não pode ser imediatamente aplicada, uma vez que os dados regionais tendem a apresentar autocorrelão espacial a qual é indesejável aos resíduos segundo o pressuposto de regressão clássica, justificando assim a aplicação do método GMM espacial de Conley.

(2011) Evidências Empíricas: Arbitragem no Mercado Brasileiro com Fundos ETFs. XI ENCONTRO BRASILEIRO DE FINANÇAS.
Resumo: Este artigo investiga a possibilidade de arbitragem a partir dos descontos entre os valores das cotas dos fundos ETFs transacionadas e seu valor fundamental, com dados de alta frequência entre os anos de 2009 e 2010. O trabalho tem como objeto de estudo o mercado brasileiro com o fundo ETF iShare Ibovespa. Primeiramente e empregado uma análise das s eries do ETF e o Ibovespa, seguido de simulações de estratégias que contemplem os descontos entre as séries dos ativos, sem e com custos de transação. Afim de evitar efeitos de Data-Snooping nos resultados das operações, foi usado a técnica de Bootstrap (WHITE; SULLIVAN; TIMMERMANN, 1999). No primeiro momento a estratégia alcança retornos de 213%. No segundo, verifica-se que apesar da introdução dos custos operacionais reduzirem substancialmente os ganhos, ainda assim superam o mercado. Entretanto, os resultados apurados através do processo de reamostragem, não apontam para retornos excedentes, sendo atribuídos ao fenômeno de Data-Snooping.

(2010) Two No-Arbitrage Conditions in Housing Markets, Variance Decomposition of Rent-Installment Ratio. XII ENCONTRO BRASILEIRO DE FINANÇAS.
Resumo: The interaction of spatial equilibrium model and financial economics results seems a very promising strand of research. In particular an integration of a financial-no-arbitrage condition (the indifference decision of a buyer-investor regarding real estate and alternative financial instruments) with a spatial-noarbitrage condition (related to the indifference decision of a seller-renter regarding housing units) can lead to interesting results and clarification of some stylized facts in real estate markets. One quantitative approach used by Glaeser & Gyourko (2009) and others that has been used in this discussion is the decomposition of the rent-price ratio (R/P) variance very much in a similar way that Campbell-Shiller (1988,a,b) did for the stock and bond markets using the dividend/price (d/P) ratio. Our paper provides a first order Vector Auto-Regressive (VAR) for a close variable to R/P ratio. We work with the rent—installment(R/I) ratio. The installment variable is used in place of housing price given availability of data in the Brazilian case (there is no broad data base related to housing prices in Brazil for a substantive period of time). Besides the empirical feasibility aspect the way we model the R/I ratio gives an interesting theoretical opportunity to analyze the (no-arbitrage) decision of a buyer-renter while keeping most of the framework used to study the P/R ratio. The results of the R/I variance decomposition for Brazil points to a dominance of housing premia influence vis-a-vis other factors (interest rate, rent grow, income, employment). This is true for both studied periods (1982-1993 and 1996-2006). In line with results reported by Campbell, David, Gallin and Morris (2009) we find a small level of predictability (housing) returns compared to reported results in the financial literature. Our work is to the best of our knowledge the first to provide such decomposition for R/I in the Brazilian real estate market. Throughout the paper we compare our results to the relevant empirical papers on the issue of variance decomposition for R/P.

(2010) Augmenting the Solow-Romer Model with Spatial Externalities: An Application to the Brazilian Case. 32º Meeting of the Brazilian Econometric Society.
Resumo: The main objective of this paper is to show how the results obtained with traditional economic growth models will change with the introduction of spatial elements. Specifically we show how the Arrow-Romer externalities coupled with spatial externalities will change the results obtained with the use of the traditional Solow-Swan Model for economic growth. We use a spatial econometric specification based on Ertur and Koch (2007) and Koch (2010) and applied the model to the analysis of per capita income for the 645 municipalities in the state of Sao Paulo. The results show that spatial externalities are important. Using various ways for constructing the spatial weigh matrix we also identify what are the most important municipalities in terms of the elasticity of per capita income for Sao Paulo with respect to the rates of saving of its neighbors. Explicit formulae for this Spatial version of the Solow model are provided throughout the paper.

Nenhum comentário:

Postar um comentário