SAUDAÇÕES!

Seja bem vindo à página do professor Pedro Albuquerque. Para saber mais sobre meu currículo, disciplinas ministradas e interesses de pesquisa, navegue no menu disponível no topo da página.

Publicações

(2021) Understanding COVID-19 in Brazil: Socioeconomic Impacts, Statistical Analysis and Future Challenges. In: Azar A.T., Hassanien A.E. (eds) Modeling, Control and Drug Development for COVID-19 Outbreak Prevention. Studies in Systems, Decision and Control, vol 366. Springer, Cham. ISBN 978-3-030-72834-2DOI: https://doi.org/10.1007/978-3-030-72834-2_20.
Abstract: In this chapter, we analyzed the impacts of the COVID-19 outbreak in Brazil, one of the most severely affected countries by the pandemic in the world. We discussed the overall characteristics of the pathogen (SARS-CoV-2) and its diffusion in Brazil over time and its main differences compared to other common infectious diseases in Brazil, such as Dengue and Zika. We then performed quantitative experiments to forecast the trend of confirmed cases and deaths from COVID-19 using a machine learning method for both country and state levels. We also estimated the instantaneous reproducing number over time for each Brazilian state and grouped them into clusters, aiming at identifying the heterogeneity between the Brazilian States. We also analyzed the magnitude of underreporting of COVID-19 cases in Brazil’s most affected states during the early stages of the pandemic. Moreover, we summarized the impacts of the pandemic on Brazil’s economic activities and social life, analyzing the dynamics of macroeconomic indicators, the effectiveness of the emergency financial assistance granted by the Brazilian government, and the relative level of adherence to social distancing in the Brazilian states since the beginning of lockdown measures. Finally, we presented the main challenges for Brazil after the pandemic fades away, focusing on the economic recovery and future public policies.

(2021) Artificial intelligence in portfolio formation and forecast: Using different variance-covariance matrices. Communications in Statistics - Theory and Methods. ISSN 0361-0926, vol. 50, 24, pp. 1-18, 2021.
Abstract: Portfolio optimization relies on three main elements: the utility function, the use of multivariate dependence measure between assets, and the assets’ returns. The first problem is well known in finance since one can use several different types of portfolio utility functions depending on her objective function and constraints. The two remaining problems are relevant topics of research: the measure and forecast of the dependence between assets and the forecast of the returns of assets. In this paper, we present a new method with artificial intelligence to estimate the variance and covariance matrices of financial time series data accounting for small sample size, large number of assets and presences of outliers. We compare results using different approaches, e.g., Minimum covariance determinant (MCD), Minimum Volume Ellipsoid (MVE), Minimum Regularized Covariance Determinant (MRCD) and Orthogonalized Gnanadesikan-Kettenring (OGK). The proposed approach is robust under several financial stylized facts and presents good performance concerning the cumulative returns in the US markets (NASDAQ Stock Exchange) for 95 assets during 2015 to the beginning of 2019. This study contributes to filling the literature gap in covariance estimation for small sample size, a large number of assets, and presences of outliers and contributes to investors making better portfolio management.

(2021) Fair and balance rate for benefits not scheduled in defined contribution plans. Revista de Contabilidade e Finanças da USP. ISSN 1808-057X, vol. 32, 87, pp. 1-14, 2021.
Abstract: The objective of this study is to propose a methodology that, using multiple decreases, in addition to classified by actuarial profile and source of social security costs, calculates actuarially fair and balanced rates for unscheduled collective costing benefits from Defined Contribution (DC) pension plans. There are no studies in Brazil about costing rates for benefits not scheduled in pension plans of the DC modality. Any institution that pays collective cost social security benefits must determine an actuarial rate that is not insufficient, generating a financial imbalance in the fund, nor excessive, compromising the participant’s income. This work is the first study on costing rates for collective costing benefits from pension plans with DC modalities. Actuarially fair rates are obtained considering multiple decreases and equalizing the present value of contributions and the present value of pension and disability benefits, classified by actuarial profile and source of social security cost. The specific balance rate is determined for each source of social security costs and is obtained considering the actuarially fair rates for each actuarial profile. The general balance rate is obtained by the marginal contribution of each specific balance rate. The proposed methodology was used to calculate the rates of unscheduled benefits with collective costing in DC modality plans. The proposed methodology estimated that the legal changes, resulting from Constitutional Amendment 103/2019, indirectly increased by more than 4% the general balance rate of the unscheduled benefits of the Supplementary Social Security Foundation of the Federal Public Servant of the Executive Branch of the Federal Government (FUNPRESP-Exe).

(2021) Feature selection and deep neural networks for stock price direction forecasting using technical analysis indicators. Machine Learning with Applications. ISSN 2666-8270, vol. 5, 15, pp. 1-30, 2021.
Abstract: This paper analyzes the factor zoo, which has theoretical and empirical implications for finance, from a machine learning perspective. More specifically, we discuss feature selection in the context of deep neural network models to predict the stock price direction. We investigated a set of 124 technical analysis indicators used as explanatory variables in the recent literature and specialized trading websites. We applied three feature selection methods to shrink the feature set aiming to eliminate redundant information from similar indicators. Using daily data from stocks of seven global market indexes between 2008 and 2019, we tested neural networks with different settings of hidden layers and dropout rates. We compared various classification metrics, taking into account profitability and transaction costs levels to analyze economic gains. The results show that the variables were not uniformly chosen by the feature selection algorithms and that the out-of-sample accuracy rate of the prediction converged to two values – besides the 50% accuracy value that would suggest market efficiency, a “strange attractor” of 65% accuracy also was achieved consistently. We also found that the profitability of the strategies did not manage to significantly outperform the Buy-and-Hold strategy, even showing fairly large negative values for some hyperparameter combinations.

(2021) Survey on-demand: A versatile scientific article automated inquiry method using text mining applied to Asset Liability Management. International Journal of Business Intelligence and Data Mining. ISSN 1743-8195, vol. 18, 3, pp. 1-30, 2021.
Abstract: We proposed a methodology that automatically relate content of text documents with lexical items. The model estimates whether an article addresses a specific research object based on the relevant words in its abstract and title using text mining and partial least square discriminant analysis. The model is efficient in accuracy and the adjustment and validation indicators are either superior or equal to the other models in the literature on text classification. In comparison to existing methods, our method offers highly interpretable outcomes and allows flexible measurements of word frequency. The proposed solution may aid scholars regarding the process of searching theoretical references, suggesting scientific articles based on the similarities among the used vocabulary. Applied to the finance area, our framework has indicated that approximately 10% of the publications in the selected journals that address the subject of asset liability management. Moreover, we highlight the journals with the largest number of publications over time and the key words about the subject using only freely accessible information.

(2020) Conditional autoregressive value-at-risk: all flavours of CAViaR. International Journal of Business Forecasting and Marketing Intelligence. ISSN 1744-6643, vol. 6, 3, pp. 238-254, 2020.
Abstract: In this article, we studied 13 parametric CAViaR models for 27 stock’s indices concerning the bias-variance dilemma, providing an empirical golden rule for choosing the CAViaR structure over unknown information distributional features of financial data. Our findings pointed out that the adaptive model should be chosen when no prior information is available since it presented the smallest MSE in 23 of 27 assets. Furthermore, we also noted that in most cases, the CAViaR models overestimate the validation value-at-risk. This might not be troublesome from a regulators’ point of view, since firms and financial institutions that would use those models will likely overestimate risk and hence adopt more conservative politics. However, from the firm’s point of view, this means that they will likely operate in a suboptimal risk regime.

(2020) Mapping regional business opportunities using geomarketing and machine learning. Gestão e Produção. ISSN 1806-9649, vol. 27, pp. 1-15, 2020.
Abstract: The objective of this study is to develop a quantitative tool, based on Machine Learning and Geomarketing to identify business opportunities and contribute to the strategic process of local choice of franchises’ network selecting regions that have a high demand forecast and a lack of product supply. In addition, we conducted a qualitative analysis of the selected business places based on defined criteria. This prediction is given by constructing a consumption pattern, defined by a classifier, based on the characteristics of the reserved rights. Initially, for a better understanding on this subject, a theoretical background was made covering the main concepts about Geomarketing and Machine Learning and its applications. After that for a demonstration of the results, we opted for the application of the method for the market of fine chocolates (Cacau-Show) in the Distrito Federal. The main databases used in this paper were Pesquisa de Orçamentos Familiares and from Instituto Brasileiro de Estatística e Geografia (IBGE). As a result, the Standardized Spend was obtained, which indicates the requirement for each Censitar Sector, as georeferenced information of the competition, containing 44 stores that have as their main product of fine chocolate, and as digital meshes of the Federal District. The crossing is available for the elaboration of a map that facilitates the identification of the business opportunities for the market of fine chocolates in the Distrito Federal, Brazil.

(2020) Evaluating company bankruptcies using causal forests. Revista de Contabilidade e Finanças. ISSN 1808-057X, vol. 1, pp. 1-18, 2020.
Abstract: This study sought to analyze the variables that can influence company bankruptcy. For several years, the main studies on bankruptcy reported on the conventional methodologies with the aim of predicting it. In their analyses, the use of accounting variables was massively predominant. However, when applying them, the accounting variables were considered as homogenous; that is, for the traditional models, it was assumed that in all companies the behavior of the indicators was similar, and the heterogeneity among them was ignored. The relevance of the financial crisis that occurred at the end of 2007 is also observed; it caused a major global financial collapse, which had different effects on a wide variety of sectors and companies. Within this context, research that aims to identify problems such as the heterogeneity among companies and analyze the diversities among them are gaining relevance, given that the sector-related characteristics of capital structure and size, among others, vary depending on the company. Based on this, new approaches applied to bankruptcy prediction modeling should consider the heterogeneity among companies, aiming to improve the models used even more. A causal tree and forest were used together with quarterly accounting and sector-related data on 1,247 companies, 66 of which were bankrupt, 44 going bankrupt after 2008 and 22 before. The results showed that there is unobserved heterogeneity when the company bankruptcy processes are analyzed, raising questions about the traditional models such as discriminant analysis and logit, among others. Consequently, with the large volume in terms of dimensions, it was observed that there may be a functional form capable of explaining company bankruptcy, but this is not linear. It is also highlighted that there are sectors that are more prone to financial crises, aggravating the bankruptcy process.

(2020) The genealogy of service innovation: the research field tells its own story. The Service Industries Journal. ISSN 1743-9507, vol. 1, pp. 1-23, 2020.
Abstract: This paper examines the development of service innovation as a research field since the publication of Richard Barras’ seminal paper ‘Towards a Theory of Innovation in Services’ in 1986. It presents an exhaustive literature review of 31 years of research on service innovation. It offers some cross-sectorial perspectives on twelve key themes emerging from the literature, and on the broader research landscape and trajectories. Researchers, technologists and policy makers in the field of service innovation face issues arising from theories borrowed from economics since the 1980s and evolving through operationalization of its core themes over the last 20 years. After a description of the field, theoretical underpinnings of the field drawn from organization and management theory are discussed. The field has reached a stage where it can provide theoretical knowledge beyond the scope of the original service innovation theory, such as social innovations. A research agenda is suggested in both theoretical and thematic perspectives.

(2020) RMCriteria: a decision making support system package for R. Communications in Statistics - Simulation and Computation. ISSN ‎0361-0918, vol. 50, pp. 1-14, 2020.
Abstract: In this paper we present the RMCriteria package to support the decision making system in the R software environment for statistical computing and graphics. The RMCriteria is a support decision system that implements all PROMETHEE family methods and also graphical and sensitivity analysis assisting the analysts to make their own decision process and also facilitating the analysis of the decisions.

(2019) Probability of informed trading: a Bayesian approach. International Journal of Applied Decision Sciences. ISSN 1755-8085, vol. 13, pp. 183-214, 2019.
Abstract: One of the most popular models for measuring information asymmetry of financial assets is the probability of informed trading model (PIN). Its theoretical foundation and its wide possibility of application made PIN a benchmark in insider trading studies. In view of the interpretability of PIN and its parameters, this study aims to evaluate and propose a Bayesian version for the probability of informed trading model. The proposed approach brings the possibility to include expert opinions about PIN parameters and represents a new contribution to the theoretical scope of market microstructure models..

(2019) Bayesian factor analysis for mixed data on management studies. RAUSP Management Journal. ISSN 2531-0488, vol. 54, pp. 430-445, 2019.
Abstract: Factor analysis is the most used tool in organizational research and its widespread use in scale validations contribute to decision-making in management. However, standard factor analysis is not always applied correctly mainly due to the misuse of ordinal data as interval data and the inadequacy of the former for classical factor analysis. The purpose of this paper is to present and apply the Bayesian factor analysis for mixed data (BFAMD) in the context of empirical using the Bayesian paradigm for the construction of scales.

(2019) VOLATILITY FORECASTING: THE SUPPORT VECTOR
REGRESSION CAN BEAT THE RANDOM WALK.
Economic Computation and Economic Cybernetics Studies and Research. ISSN 1842–3264, vol. 53, pp. 115-126, 2019.
Abstract: Financial time series prediction is important, and it is a challenger task in empirical finance due to its chaotic, nonlinear and complex nature. Machine learning techniques that have been employed to forecast financial volatility. In this paper, we implement a standard Support Vector Regression model with Gaussian and Morlet wavelet kernels on daily returns of two stock market indexes - USA(SP&500) and Brazil (IBOVESPA) - over the period 2008-2016. The random walk, GARCH(1,1) and GJR(1,1) on the skewed Student’s t-distribution serve as comparison models by using Mean Squared Error (MSE) and the Diebold-Mariano test. The empirical analysis suggests that the SVR can beat the random walk model in the USA (S&P500) and Brazilian (Ibovespa) markets at one-period ahead forecasting horizon.


(2019) Bayesian LDA for mixed-membership clustering analysis: The Rlda
package.
Knowledge-Based Systems. ISSN 0950-7051, vol. 163, pp. 988-995, 2019.
Abstract: The goal of this paper is to present the Rlda package for mixed-membership clustering analysis based on the Latent Dirichlet Allocation model adapted to different types of data (i.e., Multinomial, Bernoulli, and Binomial entries). We present the corresponding statistical models and illustrate their use with several examples using the Rlda package. Because these types of data frequently emerge in fields as disparate as ecology, remote sensing, marketing, and finance, we believe this package will be of broad interest for users interested in unsupervised pattern recognition, particularly mixed-membership clustering analysis for categorical data.

(2019) The Robot from Ipanema goes Working: Estimating the Probability of Jobs Automation in Brazil. Latin American Business Review. ISSN 1097-8526, vol. 1, pp. 1-22, 2019.
Abstract: In this paper, we replicated the method applied by Frey and Osborne to investigate the automation probability of jobs in Brazil, using data from Brazilian labor market administrative records between 1986 and 2017. We categorized each job listed on Brazil’s Occupational Classification System into Job Zones based on its technical qualifications requirements and estimated the future demand for workers of each Job Zone from 2018 to 2046. To estimate the probability of automation for each occupation, we first collected the expert opinion of 69 specialists on artificial intelligence and then applied a Gaussian process using as input the text description of each occupation. The results showed that in 2017 55% of all formally employed workers in Brazil are in jobs with high or very high risk of automation, a value consistent with similar works found in the literature for other countries. The findings of this paper can aid policy makers to anticipate potential increased unemployment for occupations with high risk of automation, anticipate future transformations of the Brazilian labor market, and consequently support the planning of economic and social interventions.

(2019) Between Nonlinearities, Complexity, and Noises: An Application on Portfolio Selection Using Kernel Principal Component Analysis. Entropy. ISSN 1099-4300, vol. 21, 376 pp. 1-27, 2019.
Abstract: This paper discusses the effects of introducing nonlinear interactions and noise-filtering to the covariance matrix used in Markowitz’s portfolio allocation model, evaluating the technique’s performances for daily data from seven financial markets between January 2000 and August 2018. We estimated the covariance matrix by applying Kernel functions and applied filtering following the theoretical distribution of the eigenvalues based on the Random Matrix Theory. The results
were compared with the traditional linear Pearson estimator and robust estimation methods for covariance matrices. The results showed that noise-filtering yielded portfolios with significantly larger risk-adjusted profitability than its non-filtered counterpart for almost half of the tested cases. Moreover, we analyzed the improvements and setbacks of the nonlinear approaches over linear ones, discussing in which circumstances the additional complexity of nonlinear features seemed to
predominantly add more noise or predictive performance.


(2019) Non-Linear Interactions and Exchange Rate Prediction: Empirical Evidence Using Support Vector Regression. ISSN 1350-486X , Applied Mathematical Finance. ISSN 0950-7051, vol. 1, pp. 1-33, 2019.
Abstract: This paper analysed the prediction of the spot exchange rate of 10 currency pairs using support vector regression (SVR) based on a fundamentalist model composed of 13 explanatory variables. Different structures of non-linear dependence introduced by nine different Kernel functions were tested and the predictions were compared to the Random Walk benchmark. We checked the explanatory power gain of SVR models over the Random Walk by applying White’s Reality Check Test. The results showed that the majority of SVR models achieved better out-of-sample performance than the Random Walk, but in overall they failed to achieve statistical significance of predictive superiority. Furthermore, we observed that non-mainstream Kernel functions performed better than the ones commonly used in the machine-learning literature, a finding that can provide new insights regarding machine-learning methods applications and the predictability of exchange rates using non-linear interactions between the predictors.

(2019) Na era das máquinas, o emprego é de quem? Estimação da probabilidade de automação de ocupações no brasil. Texto de Discussão. ISSN 1415-4765, vol. 2457, pp. 1-40, 2019.
Abstract: O objetivo deste trabalho foi reproduzir a metodologia de Carl Benedikt Frey e Michael Osborne, de 2017, para estimação das probabilidades de automação das ocupações no Brasil. Essas estimativas são de potencial importância para os formadores de políticas públicas e profissionais por ser passível de nortear a carreira de trabalhadores, bem como definir cursos prioritários que as instituições de ensino deveriam oferecer visando maximizar as oportunidades de emprego no país. A opinião especializada de 69 acadêmicos e profissionais atuantes em aprendizado de máquinas foi levantada para embasar a estimação dessas probabilidades. Os achados apontam que boa parte das ocupações pode ser automatizada nos próximos anos. Ademais, percebe-se que essas profissões com maior risco de automação apresentam uma tendência de crescimento ao longo do tempo, o que poderá resultar em um elevado nível de desemprego nos próximos anos caso os profissionais e o Estado não se preparem para esse cenário.

(2018) Adoção de Tecnologia para Fins de Leitura: Um Estudo
da Aceitação de E-Books.
BBR - Brazilian Business Review. ISSN 1808-2386, vol. 15, no. 6, pp. 568-588, 2018.
Resumo: Este estudo teve como objetivo verificar a aceitação de e-books por meio do efeito das variáveis Expectativa de Performance, Expectativa de Esforço,
Influência Social, Condições Facilitadoras, Hábito, Custo-Benefício e Motivação Hedônica, moderadas por Idade, Gênero e Experiência sobre a intenção de uso e o comportamento de uso dessa tecnologia. Para verificar os efeitos dessas relações entre variáveis, aplicou-se o modelo Unified Theory of Acceptance and Use of Technology 2 (VENKATESH; THONG; XU, 2012). De um universo de 118.456 brasileiros selecionados através de uma base de dados de cidadãos envolvidos com a área de educação, 1.013
responderam a um questionário online. Os dados foram analisados via modelagem de equações estruturais, mínimos quadrados generalizados, e os erros-padrão foram obtidos via reamostragem (Jackknife). Foi concluído no estudo que o Hábito, a Expectativa de Esforço e as Condições Facilitadoras são importantes para a adoção de e-books e que a idade, o gênero e a experiência são moderadores cruciais dessas relações.


(2018) Estrutura de capital: uma revisão bibliográfica das publicações dos periódicos nacionais. RCC - Revista Contemporânea de Contabilidade. ISSN 1807-1821, vol. 15, no. 34, pp. 94-114, 2018.
Resumo: A estrutura de capital está sendo estudada profundamente desde os trabalhos de Modigliani e Miller (1958 e 1963). Neste contexto, os pesquisadores vêm buscando explicar a utilização das mais diversas estruturas de capital utilizadas e suas aplicações. Assim, esta pesquisa busca identificar como está sendo pesquisada a estrutura de capital em periódicos nacionais. Para tal, foi realizado um levantamento bibliométrico na base Periódicos Capes com os termos estrutura de capital e estrutura da dívida, no título ou palavras-chave. Foram encontrados, ao todo, 80 artigos. De maneira geral, os resultados dos trabalhos apontaram que as empresas brasileiras tendem a adotar uma estrutura de capital baseada na hierarquia de fontes de financiamento. Contudo, na presença de incentivos governamentais, possivelmente, as teorias não seriam aplicadas. Diante da diversidade de variáveis empregadas nos trabalhos foram propostas algumas categorias a serem incorporadas nos modelos, tais como: tamanho, tangibilidade, rentabilidade, gestão, risco, macroeconômico e alavancagem.

(2018) Government corruption on Brazilian capital markets: A study on Lava Jato (Car Wash) investigation. RAE - Revista de Administração de Empresas. ISSN 2178-938X, vol. 58, no. 4, pp. 405-417, 2018.
Abstract: In recent years, Brazil has faced economic and political crises resulting from the actions of an elaborate syndicate of corruption in the government. The financial literature points to two lines of thought related to corruption. One line defends the existence of benefits and the other points to losses in the public network. An event study based on the GARCHX-in-Mean model was conducted to understand the relationship between corruption and the decrease in the level of investment and identify the potential impact of corruption on selected assets. The results indicate that there was a significant devaluation of the largest state-owned companies traded on the Brazilian Stock Exchange and in American Depositary Receipts, leading to money laundering and a decrease in economic growth. This supports the theory of long-term crisis due to corruption.

(2018) Construção de Índices de preços de imóveis para o Distrito Federal por meio de vendas repetidas e GWR. Nova Economia. ISSN 0103-6351, vol. 28, no. 1, pp. 181-212, 2018.
Resumo: A necessidade de monitoramento do mercado imobiliário como instrumento de avaliação da efetividade das políticas de planejamento urbano no território é etapa crucial para a boa gestão pública, nesse sentido, o presente texto tem por objetivo construir o índice de preços para os imóveis transacionados no Distrito Federal entre 2003 e 2012 por meio do método de vendas repetidas. O índice proposto permite a avaliação de políticas públicas e seus impactos territoriais no preço dos bens imóveis, por meio do monitoramento contínuo da evolução dos preços de imóveis no Distrito Federal. Esse acompanhamento contínuo constitui-se em instrumento da política urbana no âmbito da capital federal, o qual servirá não somente para avaliação de políticas públicas, como também de operacionalização das mesmas, a partir da integração com instrumentos urbanísticos, tais como a outorga onerosa.

(2018) IT Job Hunting: Looking for The Most Suitable Location of Public Employment Offices in Brazil. Inter-American Development Bank 2018.
Abstract: The location of offices of public employment services matters. It can bring jobseekers and vacancies closer together to accelerate the matching process and make the best use of resources. In the case of Brazil, financial consolidation calls for better job placement and better spending of public resources. In this line, the Labor Markets and Social Security Division (LMK) in cooperation with the Ministry of Labor developed a tool to objectively identify where offices of public employment services (PES) could be (re)located to spend resources more efficiently. Using a three-stage methodology, this technical note presents and discusses the tool to indicate where the most suitable locations for offices of employment services should be to increase the probability of finding a job and filling a vacancy. The first stage computes a ranking of PES offices employing variables of demand and supply of labor as well as the intermediation capacity of PES offices. The second stage replicates this index at a municipality level to determine the potential of municipalities to host PES offices. Finally, we combine both stage with georeferenced parameters such as distance to transport stations and capital cities to map where PES offices should be located, allowing end-users to control the influence of variables in determining spatial suitability.

(2018) The best of two worlds: Forecasting high frequency volatility for cryptocurrencies and traditional currencies with Support Vector Regression. Expert Systems with Applications, vol. 97, no. 1, pp. 177-192, 2018.
Abstract: This paper provides an evaluation of the predictive performance of the volatility of three cryptocurrencies and three currencies with recognized stores of value using daily and hourly frequency data. We combined the traditional GARCH model with the Machine Learning approach to volatility estimation, estimating the mean and volatility equations using Support Vector Regression (SVR) and comparing to GARCH family models. Furthermore, the models' predictive ability was evaluated using Diebold-Mariano test and Hansen's Model Confidence Set. The analysis was reiterated for both low and high-frequency data. Results showed that SVR-GARCH models managed to outperform GARCH, EGARCH and GJR-GARCH models with Normal, Student's $t$ and Skewed Student's $t$ distributions. For all variables and both time frequencies, the SVR-GARCH model exhibited statistical significance towards its superiority over GARCH and its extensions.

(2017) Wealth Management: Modeling the nonlinear dependence. Algorithmic Finance, vol. 6, no. 1-2, pp. 51-65, 2017.
Abstract: This work aims the development of an enhanced portfolio selection method, which is based on the classical portfolio theory proposed by Markowitz (1952) and incorporates the local Gaussian correlation model for optimization. This novel method of portfolio selection incorporates two assumptions: the non-linearity of returns and the empirical observation that the relation between assets is dynamic. By selecting ten assets from those available in Yahoo Finance from S&P500, between 1985 and 2015, the performance of the new proposed model was measured and compared to the model of portfolio selection of Markowitz (1952). The results showed that the portfolios selected using the local Gaussian correlation model performed better than the traditional Markowitz (1952) method in 63% of the cases using block bootstrap and in 71% of the cases using the standard bootstrap. Comparing the calculated Sharpe ratios, the proposed model yielded a better-adjusted risk-return in the majority of the cases studied.

(2017) Clusterização Espacial e Não Espacial: Um Estudo Aplicado a Agropecuária Brasileira. Tendências em Matemática Aplicada e Computacional. ISSN 1677-1966, v. 18, n. 1, p. 69-84, jan./mai. 2017.
Resumo: Este trabalho apresenta uma análise de clusterização de Áreas Mínimas Comparáveis (AMC’s) para traçar um mapa de agrupamentos homogêneos a partir de uma combinação de variáveis climáticas, de características do solo e de produção agropecuária. A metodologia permite a visualização de interações entre as diversas variáveis utilizadas, identificando-se, por exemplo, padrões de coexistência, no nível municipal, de diferentes culturas agrícolas. A discussão apresenta os algoritmos tradicionais sem contiguidade (aglomerativo hierárquico e k-means) e o algoritmo aglomerativo hierárquico com imposição de contiguidade. Busca-se, dessa forma, explorar diferenças entre as tipologias construídas com diferentes abordagens, além de prover configurações alternativas de agrupamentos. Ainda, as metodologias discutidas permitem a incorporação de critérios tradicionais de escolha do número de clusters, tais como estatísticas CCC, pseudo-F e pseudo-t2.

(2017) Regressão Logística Geograficamente Ponderada Aplicada a Modelos de Credit Scoring. Revista Contabilidade & Finanças. ISSN 1808-057X, v. 28, n. 73, p. 93-112, jan./abr. 2017.
Resumo: O presente estudo utilizou dados reais de uma instituição financeira nacional referentes à operação de Crédito Direto ao Consumidor (CDC) concedidas a clientes domiciliados no Distrito Federal (DF) para a construção de modelos de credit scoring utilizando as técnicas Regressão Logística e Regressão Logística Geograficamente Ponderada (GWLR), com os objetivos de verificar se os fatores que influenciam o risco de crédito se diferem de acordo com localização geográfica do tomador, comparar o conjunto de modelos estimados via GWLR frente ao modelo global estimado via Regressão Logística em termos de capacidade de previsão e perdas financeiras para a instituição e verificar a viabilidade da utilização da técnica GWLR para desenvolver modelos de credit scoring. As métricas utilizadas para comparar os modelos desenvolvidos por meio das duas técnicas foram o critério informacional AICc, a acurácia dos modelos, o percentual de falsos positivos, a soma do valor da dívida dos falsos positivos e o valor monetário esperado de inadimplência da carteira frente ao valor monetário de inadimplência observado. Os modelos estimados para cada região do DF se mostraram distintos em suas variáveis e coeficientes (parâmetros), concluindo que o risco de crédito foi influenciado de maneira distinta em cada região do estudo. A metodologias Regressão Logística e GWLR apresentaram resultados bem próximos em termos de capacidade de previsão e perdas financeiras para a instituição e o estudo demonstrou a viabilidade da utilização da técnica GWLR para desenvolver modelos de credit scoringpara o público alvo do estudo.

(2016) Volatility Forecasting via SVR-GARCH with Mixture of Gaussian Kernels. Comput. Manag. Sci., 13(46):1-18, 2016.
Abstract: The Support Vector Regression (SVR) is a supervised machine learning technique that has been successfully employed to forecast financial volatility. As the SVR is a kernel-based technique, the choice of the kernel has a great impact on its forecasting accuracy. Empirical results show that SVRs with hybrid kernels tend to beat single-kernel models in terms of forecasting accuracy. Nevertheless, no application of hybrid kernel SVR to financial volatility forecasting has been performed in previous researches. Given that the empirical evidence shows that the stock market oscillates between several possible regimes, in which the overall distribution of returns it is a mixture of normals, we attempt to find the optimal number of mixture of Gaussian kernels that improve the one-periodahead volatility forecasting of SVR based on GARCH(1,1). The forecast performance of a mixture of one, two, three and four Gaussian kernels are evaluated on the daily returns of Nikkei and Ibovespa indexes and compared with SVR-GARCH with Morlet wavelet kernel, standard GARCH, Glosten–Jagannathan–Runkle (GJR) and nonlinear EGARCH models with normal, student-t, skew-student-t and Generalized Error Distribution (GED) innovations by using Mean Absolute Error (MAE), Root Mean Squared Error (RMSE) and robust Diebold–Mariano test. The results of the out-of-sample forecasts suggest that the SVR-GARCH with a mixture of Gaussian kernels can improve the volatility forecasts and capture the regime-switching behavior.

(2016) Índices de Preço e o Mercado Imobiliário: Literatura e Ilustração – O Caso de São Paulo. Texto de Discussão - IPEA., 2200(1):1-40, mai./jun, 2016.
Resumo: Este texto faz uma revisão teórica de índices de preço ao consumidor, com ênfase nas especificidades do mercado imobiliário, apontando vantagens e limitações de cada um. Discute, assim, os índices de médias de preço, quais sejam: Laspeyres, Paasche, Fisher e Jevons. Adicionalmente, apresenta as duas variações de construção por métodos hedônicos: com inserção de variáveis dummies e por imputação. As especificidades típicas do mercado imobiliário, os atributos do imóvel, sua longa temporalidade e inserção urbana sugerem maiores cuidados para a construção de índices para o mercado imobiliário. O texto apresenta alguns avanços teóricos recentes para o mercado imobiliário e conclui com uma aplicação possível a partir de dados disponíveis para São Paulo.

(2016) Atitudes e Habilidades Sociais para Trabalho em Equipe: Desenvolvimento de uma Escala. RAC - Revista de Administração Contemporânea., 20(2):261-278, fev./mar, 2016.
Resumo: Este estudo objetivou desenvolver uma escala de medida com foco em componentes afetivos de competências (atitudes e habilidades sociais) para Trabalho em Equipe (AHTE), em grupos de pesquisa. A escala foi desenvolvida com base em pesquisas anteriores e nos estudos de Odelius e Sena (2009) e Odelius et al. (2011). Os dados foram coletados por meio de entrevistas, que submetidas à análise de conteúdo, subsidiaram a elaboração de questionário. Este, após ser submetido à análise semântica e teórica, foi testado e depois respondido por 396 participantes de grupos de pesquisa. A análise fatorial policórica revelou o agrupamento das competências em quatro fatores (abertura à diversidade humana, habilidades sociais, cooperação, responsabilidade), responsáveis por 55% da variância total explicada, com índice de confiabilidade α = 0,96. Os resultados são parcialmente semelhantes aos realizados em outros contextos. Ao final, são apontadas direções para realização de novas pesquisas.

(2015) Portfolio Selection with Support Vector Machines in Low Economic: Perspectives in Emerging Market. Economic Computation and Economic Cybernetics Studies and Research., 49(4):261-278, nov./dez, 2015.
Abstract: Some of the innovations are presented here are the use of the ranking probability forclassification of assets and the balance of the cost by the type of forecast error.The study was conducted on two different samples. The first sample consists on assets that are part of the Ibovespa, considering the portfolio valid from January to April 2015 and this sample was compared to the portfolio generated by SVM and the BOVA11 index fund. The second sample consists of the assets comprising the IBrX-100 index, the portfolio valid from January to April 2015 which similarly was compared with the portfolio generated by SVM and the BRAX11 index fund. In order to evaluate the proposed strategy results were also compared to the free return indicator CDI risk.The portfolio cumulative return of the sample selected by SVM was 94.15%, compared to -14.42% of BOVA11 that replicates the Ibovespa. While the portfolio selected on the portfolio of IBrX100 was 38.25% against 13.86% of BRAX11 index fund. For the period rated the CDI presented a return of 53.75%. The average cumulative return of assets in the study period was in the case of portfolio of the Ibovespa 57.1% and 34.4% for IBrX100 portfolio.

(2015) Promethee IV Through Kernel Density Estimation. Communications in Statistics - Theory and Methods., 44(25):1-18, nov./dez, 2015.
Abstract: This paper presents a new version of Promethee IV which considers the empirical distribution of the criteria through kernel density estimation to evaluate alternatives. The developed method has the ability to treat criteria according to their distribution. The classic Promethee IV can produce divergent integrals, and this could be the cause for its insufficient exploration in literature. The proposed method overcomes this situation since large values have little weight compared to values near the mean.

(2015) Customer Relationship Management Scale for Video Games’ Players: Exploratory and Ordinal Factor Analysis. Revista Organizações em Contexto (ROC)., 11(22):285-312, nov./dez, 2015.
Resumo: Customer Relationship Management (CRM) turns out to be a relevant source of competitive advantage in a highly competitive scenario, as in the video game’s industry. Thereby, the main objective of this study is to develop and validate a scale to assess players’ perceptions regarding aspects they consider relevant in their relationship with Nintendo Wii games, the world’s market leader in the video game’s industry. We conducted a qualitative and quantitative study with 493 subjects using both exploratory and ordinal factor analysis to compare the results. We’ve also assessed the influence of some demographics (age, gender, and frequency of playing) on players’ perceptions concerning their relationship with video games, specifically Nintendo Wii games. The results of both factor analyzes were pretty similar and the scale showed good psychometric parameters. This research is a starting point to provide a comprehensive valid measure of CRM based on customers’ perspectives regarding video games.
As practical implications, the CRM scale for video games may be used as an important diagnostic tool for Nintendo as well as for companies that develop electronic games in general. Moreover, it contributes to the deepening of studies on CRM measures for the business-to-consumer (B2C) market, still scarce on the marketing literature.


(2015) A Eficácia das transferências de renda: as tendências da desigualdade antes e depois do programa bolsa família. Revista de Administração Pública (RAP)., 49(4):889-913, jul./ago, 2015.
Resumo: Ao propor a utilização dos métodos cadeia de Markov e diferenças em diferenças na análise da eficácia do Programa Bolsa Família este trabalho buscou contribuir para o estado da arte na temática de estudos aplicados das políticas públicas de transferência de renda. Fez-se uso combinado desses métodos em dois períodos: antes da implantação do Programa e após sua implantação. Os resultados revelaram que, após a implantação do Bolsa Família, o "ciclo da pobreza" apresentou sinais de ruptura, devido a uma tendência de convergência para níveis de renda mais elevados e probabilidade de mitigar a pobreza nas classes de renda menos favorecidas da população brasileira. Assim, no longo prazo, vislumbra-se a possibilidade de alterar e combater a dinâmica do ciclo da pobreza e exclusão social.

(2015) A aceitação do Moodle na educação a distância: uma aplicação do modelo conceitual UTAUT. REAVI - Revista Eletrônica do Alto Vale do Itajaí., 3(4):47-71, abr./mai, 2015.
Resumo: Aplicou-se nesta pesquisa o modelo Unified Theory of Acceptance and Use of Technology (UTAUT) de Venkatesh et al. (2003) buscando verificar efeitos de fatores influenciadores da Intenção de Uso e o Uso Real da plataforma Moodle no ensino a distância. A amostra da pesquisa corresponde a 1.370 questionários válidos, de um universo de 300.000 sujeitos que utilizam ou utilizaram o Moodle no Brasil. A análise dos dados foi feita por meio de modelagem de equações estruturais, mínimos quadrados generalizados e do método de reamostragem Jackknife para identificar o efeito entre variáveis. Como o UTAUT exige muitos parâmetros, concluiu-se que o modelo pode estar saturado. A pouca variabilidade nas respostas sugere que mais investigações sejam realizadas.

(2015) Promoção da concorrência no setor portuário: uma análise a partir dos modelos mundiais e aplicação ao caso brasileiro. Rev. Adm. Pública., 49(1):47-71, jan./fev, 2015.
Resumo: O crescimento da demanda por serviços em setores de infraestrutura, associado à falta de investimentos públicos, induziu políticas de promoção da participação privada. No setor portuário isso se deu no início da década de 1990, quando o crescimento do comércio internacional decorrente do aumento da globalização evidenciou a ineficiência generalizada desse setor. Este artigo tem por objetivo discutir a participação privada no setor portuário a partir da análise de formas de organização e evolução do setor em diferentes países, analisando os possíveis modelos de competição associados a diferentes estruturas de propriedade em áreas do porto. O artigo inova em relação à literatura ao especificar a propriedade privada de áreas de uso restrito localizadas dentro do porto. O artigo apresenta, ainda, a evolução e a organização atual do setor portuário brasileiro. Ao longo da discussão, exemplos de portos são apresentados para ilustrar os conceitos apresentados.

(2015) PROMETHEE IV as a Decision Analyst’s Tool for Site Selection in Civil Engineering. Decision Models in Engineering and Management (SPRINGER)., Decision Engineering, p.257-267, 2015.
Abstract: Choosing the correct location for a construction project is a crucial decision in the practice of civil engineering; in fact, knowledge of the economic potential of available locations can orient the analyst in the decision analysis process to optimise her/his resources, aiming for a profit that overcomes the cost of construction. In this context, PROMETHEE IV and its kernel density estimator can help the analyst through her/his decision analysis process in what is known as decision-making for civil engineering. In this chapter, we present how PROMETHEE IV and the kernel density estimator (KDE) could be used to choose available locations for construction, aiming to choose the best locations and to avoid the worst. In addition, an application using Columbus data from Anselin (1988) is also presented.

(2014) Previsão de séries temporais financeiras por meio de máquinas de suporte vetorial e ondaletas. Relatório de Pesquisa (USP/UnB)., Instituto de Matemática e Estatística - IME-USP, 2014.
Resumo: O estudo e utilização de Séries Temporais Financeiras é considerada desafiadora, pois são séries permeadas de ruídos, não-estacionariedade e presença de um caos determinístico. Nesse sentido, o presente relatório de estágio pós-doutoral revisou, avaliou e implementou Máquinas de Suporte Vetorial para núcleos via ondaletas simétricas, a saber: Ondaleta de Morlet e Chapéu Mexicano, com o intuito de mensurar a acurácia na previsibilidade de retornos financeiros. A abordagem aqui apresentada, desenvolvida e implementada é inovadora e inédita por ter sido aplicada em um contexto nacional, por utilizar núcleos que até o momento da finalização desse relatório não estavam disponíveis aos usuários de softwares estatísticos, por construir uma revisão teórica completa e exaustiva do uso das Máquinas de Suporte Vetorial em finanças e por utilizar as Séries Temporais Financeiras no contexto da previsibilidade de retornos. Ademais, nesse trabalho o contexto de análise e avaliação dos núcleos via Ondaletas foi expandido, pois além de comparar esses núcleos com o núcleo Gaussiano, comparou-se ainda com outros núcleos popularmente utilizados, quais sejam: Núcleo Linear , Fourier, Tangente Hiperbólica, Quadrático Racional, Multi-Quadrático ,Circular e Esférico. Conclui-se após análise empírica que para todos os núcleos avaliados, exceto pelo núcleo Gaussiano, os núcleos via ondaletas de Morlet e Chapéu Mexicano apresentaram resultados estatisticamente significantes para a qualidade da previsibilidade dos retornos financeiros estudados no que tange ao Teste de Diebold e Mariano (2002) e medida de acurácia dada pelo Erro-Quadrático Médio, achado esse concordante com os textos de Zhang, Zhou e Jiao (2004), Yang e Wang (2008) e Wei (2012). O relatório é finalizado apresentado-se propostas de trabalhos futuros e as limitações da análise aqui desenvolvida.

(2014) Estimação da influência de variáveis macroeconômicas sobre o faturamento de organizações siderúrgicas usando o ARMAX. Gestão & Produção (UFSCAR)., v.21, n.3, p.648-659, 2014.
Resumo: Este artigo utiliza a metodologia ARMAX para a previsão de faturamento de empresas inseridas na indústria siderúrgica nacional. O artigo buscou evidenciar as relações existentes entre os faturamentos futuros contra informações macroeconômicas bem como os próprios dados defasados das receitas das companhias siderúrgicas. A análise foi empregada no período do segundo trimestre de 2002 ao último de 2010 e compreendeu quatro empresas: CSN, Gerdau, Usiminas e Vicunha. Para cada uma das tais companhias, foram estimadas 6.480 estruturas distintas, sendo selecionadas as que detinham os melhores critérios de informação (AIC). O estudo mostra que, de fato, os dados passados são relevantes para as estimativas futuras dos faturamentos das companhias. Além disto, a principal variável exógena do ARMAX foi a taxa de juros, representada pela SELIC, seguida do PIB e da inflação. A partir desta dinâmica, é possível auxiliar gestores, investidores e analistas de mercado para melhor gerenciamento de seus ativos.

(2014) Support Vector Clustering for customer segmentation on Mobile TV service. Communications in Statistics - Simulation and Computation., v.44, n.6, p.1453-1464, 2014.
Resumo: This article presents a proposal for customer segmentation through Support Vector Clustering, a technique that has been gaining attention in the academic literature due to the good results usually obtained. An application of this method to a sample from consumers in Brazil about mobile TV service is performed; we compare this approach with the classical hierarchical methods of cluster analysis. It is concluded that this methodology is effective in reducing the heterogeneity often present in customers’ data, improving the cluster segmentation analysis for managers.

(2014) Cuidados necessários em pesquisas sociais e domiciliares. Brasília em Debate., n.8, p.31-32, nov. 2014.
Resumo: Sempre sou questionado por pesquisadores e gestores interessados na elaboração e execução de pesquisas domiciliares, visando principalmente monitorar e avaliar o impacto de programas e políticas governamentais, sobre qual o tamanho da amostra necessário para a execução desse tipo de pesquisa. Apesar de ser fundamental essa informação, esse questionamento é supervalorizado e outros, tão importantes, quanto são subvalorizados, ou por vezes, completamente ignorados. Esse é o caso, por exemplo, da ocorrência de não respostas durante o período de coleta das informações...

(2013) Um estudo das metodologias e funcionalidades dos índices de segregação. RBEP - Revista Brasileira de Estudos de População., v.30, n.2, p.567-594, jul./dez. 2013.
Resumo: Os índices de segregação têm o intuito de avaliar a distribuição, mais especificamente, a dispersão ou a concentração de certo grupo em determinado espaço, como uma região geográfica. Enquanto uma análise mais qualitativa dos fatores definidores da mobilidade das pessoas foca em questões sociais, econômicas e culturais, os índices de segregação procuram determinar os fatores da mobilidade geográfica de forma quantitativa para, posteriormente, associar a fatores qualitativos. Este trabalho tem por objetivo tratar da metodologia dos índices de segregação, da forma como eles são construídos e a aplicação das medidas propostas. Assim, o foco é abordar os índices de segregação do tipo uniformização (evenness), exposição (exposure), concentração (concentration), agrupamento (clustering) e centralização (centralization) e, em seguida, construir uma aplicação empírica utilizando dados da Relação Anual de Informações Sociais (Rais). A análise consiste em avaliar a segregação espacial do rendimento anual recebido pelos trabalhadores formais nos municípios da Região Metropolitana de São Paulo (RMSP).

(2013) Analyzing Local Government Financial Performance: Evidence from Brazilian Municipalities 2005-2008. RAC - Revista de Administração Contemporânea., v.17, n.6, pp. 704-719, 2013.
Resumo: Municipality size has become an issue since the New Public Management doctrine of disaggregating structures into manageable units. In some countries, this doctrine led to the creation of small-scale agencies relying heavily upon transfers from upper-level governments. This paper aims to contribute to performance management literature by providing empirical evidence about some determinant factors that are likely to endow local governments with superior financial performance. Data came from a sample of Brazilian municipalities and refers to the period 2005-2008. The main conclusion of this investigation is that larger cities are more likely to manage revenue and expenditure better than are smaller cities, which aligns with the discussion of amalgamation versus fragmentation. This conclusion stems from the findings that in small municipalities mayors have fewer conditions to improve financial performance due to the difficulty of raising and collecting taxes and of reducing expenditures, which makes their administrations far more dependent upon external sources of money. Therefore, this dependent relationship can be seen as the cause of poor financial performance to the extent that it lowers mayoral discretion when making decisions. Another contribution this paper proposes to theory and practice relates to the fact that in the strong-mayor form of local government, mayoral qualification is likely to have little effect upon performance.

(2013) O efeito de conflitos armados no preço de ações brasileiras: um estudo de eventos. Rev. Bras. Biom., v.31, n.1, pp. 157-175, 2013.
Resumo: Este trabalho pesquisou sobre o efeito de conflitos armados em ações da bolsa de valores brasileira por meio de um Estudo de Eventos. Trabalhos analisados demonstram que conflitos armados afetam a economia de países europeus e dos Estados Unidos, mas não foram encontrados estudos sobre o efeito na economia brasileira. Este trabalho buscou identificar, o impacto desse evento sistêmico na economia nacional. O objetivo foi identificar se os conflitos armados resultavam em retornos anormais para duas das principais ações da BM&FBovespa. Os resultados demonstraram que os conflitos analisados resultaram em impactos nos retornos das ações da Petrobras e da Vale. Dependendo das características do conflito, o mercado irá reagir de maneira positiva ou negativa a ocorrência desses conflitos. A medição de relações entre o conflito armado e a variação dos preços das ações ajuda a entender o comportamento do mercado de ações, proporcionando a oportunidade de traçar estratégias de investimentos.

(2013) Negociação com Informação Privilegiada e Retorno das Ações na BM&FBOVESPA. RAE - Revista de Administração de Empresas., v.53, n.4, pp. 350-374, 2013.
Resumo: No Brasil, conforme a Lei nº 10.303/2001, o uso indevido de informação privilegiada no mercado acionário é crime. Contudo, na literatura, é possível encontrar estudos que apontam a existência de negociações com informação privilegiada nesse mercado (BOPP, 2003; BARBEDO, SILVA, LEAL, 2009). Por isso, este estudo tem o objetivo de investigar a probabilidade de negociação com informação privilegiada (PIN) na negociação de ações na BM&FBOVESPA, buscando identificar sua relação com o retorno dessas ações. Com base nas Teorias dos Mercados Eficientes e da Agência, foram analisadas 198 ações durante o ano de 2011. Por meio do modelo de mensuração de assimetria de informação de Easley, Hvidkjaer e O’Hara (2002), a PIN foi estimada e relacionada ao retorno das ações por meio do modelo de Fama e MacBeth (1973) ajustado. Os resultados indicam que há 22,9% de probabilidade de terem ocorrido negociações com informação privilegiada, que os segmentos com maiores exigências de governança reúnem as ações com menor assimetria e que um aumento de 10,0% na PIN leva a um aumento de 8,0% no retorno das ações.

(2013) Empirical Evidence: Arbitrage with Exchange-traded Funds (ETFs) on the Brazilian Market. Revista Contabilidade & Finanças - USP., v.24, n.61, pp. 64-74, 2013.
Abstract: According to risk management literature, diversification helps mitigate risk. Index funds, known as exchange-traded funds (ETFs), which were recently introduced into the Brazilian market, make diversification straightforward to accomplish. This paper investigates the efficiency of the valuation process of the Ibovespa iShares with respect to the fair value of the shares. For this purpose, a high-frequency time series analysis of ETFs and Ibovespa was used, followed by strategy simulations that included goodwill and negative goodwill between asset sets with and without transaction costs. To avoid data-snooping effects on the transaction outcomes, a time series bootstrap was applied. The results initially indicated share-pricing inefficiency because the inclusion of goodwill and negative goodwill in the strategy resulted in returns of 172.5% above the fund’s index. Additionally, it became apparent that even with the introduction of operating costs, the gains continued to exhibit inefficiency. However, after applying the bootstrap technique, the results did not suggest excess returns, which could be attributed to data snooping. Therefore, the results demonstrate the impossibility of agents earning abnormal returns from the differences between the values of the ETF share and its corresponding index, thereby indicating that the Ibovespa iShare fund pricing is efficient.

(2013) Gerenciamento da apresentação: uma análise da utilização de gráficos nos relatórios da administração. Revista Universo Contábil., v.9, n.1, pp. 46-64, 2013.
Resumo: Dada a relevância dos relatórios da administração nas organizações, a finalidade informativa da Contabilidade e o número reduzido de estudos voltados para a apresentação dos recursos visuais utilizados nesses relatórios, o presente trabalho identifica o emprego de recursos visuais nesses relatórios e analisa a influência dos gráficos na neutralidade das informações apresentadas. Foram analisados os relatórios de 203 empresas, dos mais diferentes setores, referentes ao período compreendido entre 1997 e 2009. Destes, buscou-se analisar a quantidade, tipos e características dos elementos visuais apresentados. A pesquisa evidenciou que a utilização de gráficos, tabelas e outros recursos visuais em geral foi crescente ao longo do período. Entretanto, os tipos de gráficos exibidos não sofreram variação, sendo os que utilizam colunas em sua composição os mais empregados. O estudo mostrou também que uma parcela desses diagramas pode dar margem a uma interpretação indevida em consequência das técnicas empregadas em sua elaboração.

(2013) Cooperar ou não, eis a questão: variáveis associadas à Propensão a Cooperar por parte de Micro e Pequenas Empresas (MPE) do Turismo. Revista Turismo em Análise., v.24, n.1, pp. 41-64, 2013.
Resumo: O objetivo do artigo é explorar variáveis possivelmente associadas à propensão a participar de ações de cooperação por parte de micro e pequenas empresas do turismo. Foram selecionadas sete variáveis a partir da literatura: (1) atividade principal, (2) faturamento, (3) formalização do empreendimento, (4) localização, (5) consolidação da empresa, no que diz respeito a sua idade e número de funcionários, (6) qualificação e (7) participação em conflitos. O estudo empírico foi realizado com 209 MPE localizadas em três estados brasileiros (Ceará, Piauí e Maranhão). Valendo-se de uma abordagem quantitativa multivariada, aplicou-se um questionário estruturado e a técnica de regressão logística para a análise estatística dos dados. Os efeitos apurados mostram que, na realidade investigada, as MPE que apresentam menos propensão a cooperar com outras empresas do turismo da cidade são as mais antigas e do setor de alimentação. Por outro lado, as empresas que mais tendem a cooperar são as formais e que participaram de cursos de qualificação. Não há indícios de que as demais variáveis analisadas tenham influência sobre a propensão a cooperar.

(2013) Urban Centrality: A Simple Index. Geographical Analysis, v.45, n.1, pp. 77-89, 2013.
Resumo: This study introduces a new measure of urban centrality. The proposed urban centrality index (UCI) constitutes an extension to the spatial separation index. Urban structure should be more accurately analyzed when considering a centrality scale (varying from extreme monocentricity to extreme polycentricity) than when considering a binary variable (monocentric or polycentric). The proposed index controls for differences in size and shape of the geographic areas for which data are available, and can be calculated using different variables such as employment and population densities, or trip generation rates. The properties of the index are illustrated with simulated artificial data sets and are compared with other similar measures proposed in the existing literature. The index is then applied to the urban structure of four metropolitan areas: Pittsburgh and Los Angeles in the United States; São Paulo, Brazil; and Paris, France. The index is compared with other traditional spatial agglomeration measures, such as global and local Moran's I, and density gradient estimations.

(2012) Aplicação de método multicritério na escolha de escritório de advocacia. Rev. Bras. Biom., São Paulo, v.30, n.4, p.509-527, 2012.
Resumo: O presente estudo se baseia no processo de tomada de decisão do cliente, analisando sua avaliação quanto as características, atributos de qualidade e notoriedade dos serviços prestados. Constatação essencial para empresa, uma vez que o estudo das escolhas pessoais do consumidor, além de aperfeiçoar a prestação do serviço almejado, propicia o reconhecimento da empresa no mercado. Finda a pesquisa exploratória, faz-se possível oferecer aos gestores essa ferramenta de decisão, imperativa para se angariar novos clientes e obter notoriedade na área jurídica. Por meio do método AHP para tomada de decisão multicriterial, foi viável a análise e comparação dos dados obtidos de questionários aplicados ao gestor e aos potenciais clientes de um escritório de advocacia. A partir das análises dos resultados, observou-se que, mesmo para empresas já atuantes e experientes no mercado de Brasília, existem espaços para melhoras estratégicas de modo que a empresa ofereça com precisão o aspirado pelos clientes.

(2012) A eficiência dos gastos públicos em educação: evidências georreferenciadas nos municípios goianos. Revista Economia Aplicada, Vol. 16, nº 3, pp. 419-441, 2013.
Resumo: Este artigo busca avaliar a eficiência dos gastos públicos em educação nos municípios goianos. A eficiência das redes municipais no período 2005-2009 foi avaliada através da comparação dos resultados obtidos no modelo de Análise Envoltória de Dados clássico com os calculados pelo método da fronteira invertida. Os resultados revelam o nível de ineficiência (67,44%) e suas causas: a) ineficiência de escala (11,63%), b) impacto do entorno (4,01%), c) ineficiência de gestão (16,92%). Este trabalho ainda estima e georreferência o custo da ineficiência e os municípios que conseguiram alcançar o desempenho mais equilibrado.

(2012) Dinâmica da Produtividade e Eficiência dos Gastos na Educação dos Municípios Goianos. Revista de Administração Contemporânea., v.16, n.6, pp. 845-865, 2012.
Resumo: Em um contexto de escassez e maior necessidade de racionalidade na utilização das finanças municipais, ganha relevância o tema da produtividade dos gastos e da eficiência escolar. Este artigo busca avaliar a evolução da produtividade e da eficiência dos gastos com ensino feitos pelos municípios goianos, nos anos de 2005, 2007 e 2009, por meio do Índice de Produtividade de Malmquist combinado com o método Análise Envoltória de Dados (DEA) e da técnica de Cadeias de Markov. Os resultados revelam o progresso nos níveis de produtividade e suas causas: variação da eficiência produtiva e das mudanças tecnológicas. Mostram também que, se as redes de ensino mantiverem a dinâmica apresentada no período analisado, o número inicial de estados de eficiência (nove) deve ser mantido. A tendência não forma classes fechadas, todos os estados são acessíveis e se comunicam. Porém, o estado mais eficiente é o único que cresceu no longo prazo e isso se dá em razão da redução da participação dos municípios nos outros estados. Esse fato deve estar refletindo o ganho de produtividade evidenciado e rejeitando as hipóteses de tendências de divergência na evolução da eficiência. Os resultados obtidos demonstraram que o método utilizado pode ser uma interessante alternativa para a avaliação da dinâmica de desempenho das finanças públicas e no apoio à decisão.

(2012) Bayesian rates for homicide mapping in Brazilian municipalities. Cad. Saúde Pública [online]., v.28, n.7, pp. 1249-1262, 2012.
Resumo: This study analyzes homicide incidence per municipality (county) in Brazil in the year 2008. The authors estimate and compare homicide rates according to different methods, finding evidence that depending on the method employed, the results can differ significantly, especially for small municipalities. Bayesian spatial procedures were employed, allowing minimization of variation in the rate estimates. The methods consider a priori distributions and information on contiguity of municipalities. According to the findings, the impact of corrective procedures is not relevant for large municipalities, but such estimates present significant differences for small municipalities. Comparing the different estimates, the authors conclude that there may be distortions in the rates published in the literature. To overcome such potential distortions, it is necessary to take the main goal in each analysis into account. When the emphasis is on overall visualization of the homicide phenomenon, the best option is spatial corrections. However, to obtain more accurate local estimates, Bayesian methods are more appropriate.

(2012) Estimating the professions that contribute most to IT innovation in Brazil. Revista Brasileira de Biometria, v. 30, n.1, p. 136-149, 2012.
Resumo: This article aims to examine which groups of the Brazilian classification of occupations (BCO) contribute most to innovation in information technology in Brazilian companies. The paper uses the rank-ordered logit model to model the variables in the form of posts (ranks), based on a set of explanatory variables. In this approach, the estimation is performed using the well-known form of the proportional risk regression model. This model assumes an equivalent form to the rank-ordered logit model. The paper presents results through databases such as the Brazilian Annual Register of Social Information (BARSI) and the hundred most-innovative companies for IT in Brazil according to research from InfoWeek Brazil in consultation with Deloitte.

(2012) Tomada de Decisão usando o Analytic Hierarchy Process (AHP) para a Seleção de um Curso para Concurso Público. TAC - Tecnologias de Administração e Contabilidade., v.2, n.1, pp. 19-32, 2012.
Resumo: O processo de tomada de decisão do cliente é fundamentado na avaliação de características, atributos de qualidade e alternativas disponíveis dos produtos ou serviços. Essa análise é importante para a empresa, pois afeta diretamente a procura pelo seu produto. Um serviço em especial vem se destacando pela grande demanda de consumidores: os cursos preparatórios para concursos públicos. Este artigo procurou identificar quais são os principais critérios que os estudantes consideram quando escolhem um curso preparatório, bem como oferecer uma ferramenta de decisão aos gestores deste tipo de empreendimento. Nessa perspectiva, realizou-se uma pesquisa exploratória com o intuito de descobrir os principais atributos para a tomada de decisão no ramo de serviços educacionais. Utilizando, para tanto, o método Analytic Hierarchy Process (AHP) para tomada de decisão multicriterial, os dados advindos de questionários aplicados ao gestor e aos estudantes de um curso preparatório foram analisados e comparados. Os resultados indicaram a existência de opiniões contraditórias sobre a valorização de atributos entre o gestor do curso e os estudantes, assim, comprovando a necessidade de alinhar os desejos e expectativas dos clientes com os recursos ofertados pela instituição para alterar a realidade percebida.

(2012) Ampliando As Dimensões De Indicadores Compostos Municipais: A Inclusão Da Dinâmica Econômica.
Brasília: Instituto de Pesquisa Econômica Aplicada. (Texto para discussão Nº 1684).
Resumo: Este trabalho tem por objetivo construir indicadores que possam auxiliar os agentes econômicos sobre a situação de cada município em termos de características de desenvolvimento humano, econômico, fiscal e bancário e de dinamismo.
A partir desses indicadores, busca-se criar tipologias de municípios homogêneos em termos de características socioeconômicas. O trabalho apresenta também a discussão sobre a regularidade empírica da distribuição do tamanho das cidades, denotada na literatura pela Lei de Zipf, com algumas evidências empíricas para o caso brasileiro. É feita também uma breve exposição sobre a construção de índices compostos, cujo objetivo é apresentar e justificar o uso da técnica estatística de componentes principais.
Posteriormente, discute-se a construção dos indicadores, principal objeto do trabalho. Apresenta-se, então, a composição de um índice
geral a partir de seis índices parciais, bem como a descrição de cada um destes e as variáveis que os denotam. Na sequência, realiaza-se uma comparação dos municípios por dimensão do indicador. Por fim, apresentam-se algumas conclusões do trabalho.


(2011) Evaluation Of Business Efficiency In Generating Intangible Assets. Revista Brasileira de Biometria, v. 29, n.4, p. 643-656, 2011.
Resumo: In this paper, we study the intangibility of organizations using data envelopment analysis as a tool for evaluating organizational efficiency. The companies from the Brazilian capital market are studied, focusing their efficiency in generating intangible assets. However, since there are only a few observations for the traditional analysis, we use the MCMC approach, associated with the data envelopment analysis with missing data, aiming at increasing the number of informative observations, thus allowing for a more complete analysis. Finally, we
present how the types of organizations (according to their efficiency scores) are associated with the company's volatility, thus suggesting a relation between the efficiency in generating intangible assets and the investment risk of the organizations.


(2011) Clusterização Hierárquica Espacial Com Atributos Binários. Revista Brasileira de Biometria, v. 19, p. 147-197, 2011.
Resumo: Este artigo apresenta aplicações da nova metodologia para clusterização dos municípios brasileiros, com base nas variações do número de empregos formais entre os anos de 1997 e 2007. Diversos métodos de clusterização são estudados, assim como diferentes tipos de distâncias entre vetores de variáveis binárias. Apresenta-se uma discussão sobre alguns métodos comumente utilizados para seleção do número de clusters.
Finalmente, estudos de casos são apresentados para: (a) comparar a formação dos algoritmos espaciais versus a agrupamentos políticos existentes (micro-regiões, meso-regiões e unidades da federação); (b) identificar áreas no território brasileiro onde houve crescimento diversificado, em termos de atividades econômicas.


(2011) Adoção de prontuário eletrônico do paciente em hospitais universitários de Brasil e Espanha. A percepção de profissionais de saúde. Revista de Administração Pública (Impresso), v. 45, p. 1303-1326, 2011.
Resumo: O artigo descreve a percepção de profissionais de saúde a respeito do prontuário eletrônico do paciente na gestão de hospitais e o impacto dessa tecnologia no trabalho. A coleta de dados ocorreu em 2009 e 2010 com 336 usuários deste prontuário, em dois hospitais universitários, sendo um no Brasil e outro na Espanha. Os participantes da pesquisa preencheram um questionário contendo respostas padronizadas em escala de concordância do tipo Likert. Foram realizadas análises estatísticas descritivas e inferenciais e os resultados mostram que: a) esta tecnologia é percebida como um mecanismo que contribui com a gestão e a assistência hospitalar mediante mecanismos de controle; b) os respondentes com maior domínio de informática concordam mais do que aqueles com menor domínio a respeito do impacto desse prontuário no respectivo desempenho; c) há diferenças estatisticamente significativas nas médias de percepção do papel desse prontuário no desempenho quando considerado o tempo de serviço e o hospital (ou o país) onde o participante da pesquisa trabalha. Estudos adicionais são sugeridos no final.

(2011) Métodos e modelos em econometria espacial: uma revisão. Revista Brasileira de Biometria, v. 29, p. 273-306, 2011.
Resumo: Este texto apresenta uma discussão sobre diversos modelos econométricos para
estimação de modelos paramétricos na presença de dependência espacial, com dados crosssection. O foco inicial são modelos de dependência espacial com lags espaciais da variável resposta ou lags espaciais do resíduo, com estimação dos parâmetros feita via máxima verossimilhança. Uma análise crítica destes modelos é apresentada em seguida, além de se discutirem testes para detectar presença de dependência espacial. Finalmente, discutem-se métodos de estimação mais robustos, os quais permitem a contabilização de endogeneidade em
algumas das variáveis explicativas.


(2011) Tópicos em Econometria Espacial para dados Cross-section. In: Bruno de Oliveira Cruz;Bernardo Alves Furtado;Leonardo Monasterio;Waldery Rodrigues Júnior. (Org.). Economia Regional e Urbana: Teorias e Métodos com ênfase no Brasil. 1 ed. Brasília: IPEA, 2011, v. 1, p. 333-364.

(2011) Um estudo das metodologias e funcionalidades dos índices de segregação espacial.
Brasília: Instituto de Pesquisa Econômica Aplicada. (Texto para discussão Nº 1655).
Resumo: Os índices de segregação medem o quão irregular é a distribuição de certo grupo em uma área geográfica. Este trabalho tem por objetivo tratar dos índices de segregação, mais especificamente, da metodologia de como são obtidos e a funcionalidade das medidas propostas. Em seguida é feita uma aplicação para o rendimento do trabalho formal para os municípios da Região Metropolitana de São Paulo (RMSP).

(2011) Mapeamento de Taxas Bayesianas, com Aplicação ao Mapeamento de Homicídios.
Brasília: Instituto de Pesquisa Econômica e Aplicada (Texto para discussão Nº 1662).
Resumo: O mapeamento da taxa de ocorrência de eventos é uma importante ferramenta para o direcionamento de políticas públicas. Apesar disso, o tema não tem recebido a devida atenção por parte da maioria dos pesquisadores.
Em muitos trabalhos, os índices utilizados apresentam sérios problemas quando as unidades geográficas possuem uma pequena população sob risco e quando o número de casos observados é muito baixo, como visto em Pringle (1996). Este trabalho pretende fazer uma revisão sobre o uso da estatística bayesiana como possibilidade para minimização da variabilidade dos dados.
A estatística bayesiana discutida é chamada empírica, pois utiliza informação amostral para composição da distribuição a priori. As taxas estudadas serão exemplificadas por meio da análise de ocorrência de homicídios por município, em todo o Brasil, no ano de 2008.


(2011) Quantificando a Centralidade Urbana: Uma Proposta de Índice Simples e Comparação Internacional.
Brasília: Instituto de Pesquisa Econômica e Aplicada (Texto para discussão Nº 1675).
Resumo: Este estudo introduz uma nova medida de centralidade urbana, que identifica estruturas urbanas distintas devido a diferentes configurações espaciais de empregos e população residente. O Índice de Centralidade Urbana (UCI) proposto é uma extensão do índice de Separação Espacial (MIDELFART-KNARVIK et al., 2000).
Esta adaptação serviu ao propósito de analisar mais detalhadamente a estrutura urbana, de maneira a considerar uma escala de centralidade variando da monocentralidade extrema à policentralidade extrema, em vez de considerar o fenômeno como uma questão binária: monocentralidade ou policentralidade. Além disso, o índice proposto pode ser aplicado para diferentes áreas urbanas, e seu método de cálculo permite a comparação entre elas, apesar de suas diferenças em termos de forma e tamanho. Ele também pode ser utilizado para outras variáveis de interesse, como o número de viagens produzidas. As propriedades do índice são ilustradas na aplicação para conjuntos de dados artificiais.
Esses resultados são comparados aos de outras medidas similares propostas pela literatura prévia. O índice é então aplicado à estrutura urbana de quatro regiões metropolitanas: Pittsburgh, Los Angeles, São Paulo e Paris. Os resultados também são comparados a outras medidas de aglomeração espacial como os índices de Moran global e local e as estimativas de gradientes de densidade.


(2010) Distribuição de renda, transferências federais e imigração: Um estudo de dados em painel para as unidades da federação do Brasil.
Brasília: Instituto de Pesquisa Econômica e Aplicada (Texto para discussão Nº 1471).
Resumo: Este trabalho verifica a influência da distribuição de renda e das transferências federais para as Unidades da Federação (UFs) sobre o fluxo de migrantes recebido por UF. O estudo inova ao adotar dados agregados para mensurar o efeito de políticas públicas sobre a imigração. Os resultados econométricos sugerem um efeito positivo das transferências federais para as UFs sobre a imigração, mostrando que o incremento de tais transferências estimula o fluxo imigratório para determinadas UFs.
Há também evidências de que uma alta concentração de renda desestimula a imigração. A segunda inovação deste estudo consiste na separação geográfica dos fatores determinantes dos fluxos imigratórios.


(2010) Tópicos Em Econometria Espacial Para Dados Cross-Section.
Brasília: Instituto de Pesquisa Econômica e Aplicada (Texto para discussão Nº 1508).
Resumo: Este texto apresenta uma discussão sobre diversos modelos econométricos para estimação de modelos paramétricos na presença de dependência espacial, com dados cross-section. O foco inicial são modelos de dependência espacial com lags espaciais da
variável resposta ou lags espaciais do resíduo, com estimação dos parâmetros feita via máxima verossimilhança. Uma análise crítica destes modelos é apresentada em seguida, além de se discutirem testes para detectar presença de dependência espacial. Finalmente, discutem-se métodos de estimação mais robustos, os quais permitem a contabilização de endogeneidade em algumas das variáveis explicativas.


(2009) Spatial Hierarchical Clustering. Revista Brasileira de Biometria, v. 27, p. 411-442, 2009.
Resumo: This paper studies a methodology for hierarchical spatial clustering of contiguous polygons, based on a geographic coordinate system. The studied algorithm is built upon a modification of traditional hierarchical clustering algorithms, commonly used in the multivariate analysis literature. According to the method studied in this paper, at each step of the sequential process of collapsing clusters, only neighboring clusters (groups of original polygons, i.e. municipalities, census tracts, states) are allowed to be collapsed to form a bigger cluster.
Twotypes of neighborhood are used: polygons with one edge in common (rook neighborhood) or polygons with at least one point in common (queen neighborhood). In this paper, the methodology is employed to create clusters of Brazilian municipalities, for the year 2000, based
on a group of socio-economic variables. Several clustering methods are investigated, as well as several types of vector distances. The studied methods were: centroid method, single linkage, complete linkage, average linkage, average linkage weighted, Ward minimum variance and median method. The studied distances were: Lp norm (particularly, L1 and L2 norms), Mahalanobis distance and variance corrected Euclidian distance. Finally, a discussion on selection of the number of clusters is presented.


(2009) Clusterização Hierárquica Espacial Com Atributos Binários.
Brasília: Instituto de Pesquisa Econômica e Aplicada (Texto para discussão Nº 1428).
Resumo: Este trabalho discute uma metodologia para clusterização hierárquica espacial de polígonos
contíguos e homogêneos de acordo com um conjunto de variáveis binárias. O algoritmo proposto é construído a partir de uma modificação do algoritmo aglomerativo de clusterização hierárquica tradicional, comumente utilizado na literatura de análise multivariada. De acordo com o método proposto neste estudo, a cada passo do processo sequencial de junção de clusters, impõe-se que somente conglomerados – grupos de polígonos originais, como municípios, estados ou setores censitários – vizinhos possam ser unidos para formar um novo cluster maior. Neste caso, foram definidos enquanto vizinhos polígonos que possuem um vértice em comum (vizinhança do tipo queen) ou uma aresta em comum (vizinhança do tipo rook). O texto apresenta aplicações da nova metodologia para clusterização dos municípios brasileiros, com base nas variações do número de empregos formais entre os anos de 1997 e 2007. Diversos métodos de clusterização são estudados, assim como diferentes tipos de distâncias entre vetores de variáveis binárias. Os métodos estudados foram: centroid, single linkage, complete linkage, average linkage e average linkage weighted, Ward minimum variance e método da mediana. As distâncias utilizadas foram: Jaccard, Tanimoto, simple matching, Russel e Rao, Dice, Kulczynski.
Apresenta-se uma discussão sobre alguns métodos comumente aplicados para seleção do número de clusters. Finalmente, estudos de casos são apresentados para: i) comparar a formação dos algoritmos espaciais versus agrupamentos políticos existentes (microrregiões,
mesorregiões e Unidades da Federação); e ii) identificar áreas no território brasileiro onde se verificou crescimento diversificado, em termos de atividades econômicas.


(2009) Clusterização Hierárquica Espacial.
Brasília: Instituto de Pesquisa Econômica e Aplicada.
Resumo: Este estudo apresenta uma nova metodologia para clusterização hierárquica espacial de polígonos contíguos, com base em um sistema de coordenadas georreferenciadas.
O algoritmo proposto é construído a partir de uma modificação do algoritmo de clusterização hierárquica tradicional, comumente utilizado na literatura de análise multivariada. De acordo com o método proposto neste trabalho, a cada passo do processo sequencial de junção de clusters, impõe-se que somente conglomerados (grupos de polígonos originais, como municípios, estados ou setores censitários) vizinhos possam ser unidos para formar um novo cluster maior. Neste caso, foram definidos como vizinhos polígonos que possuem um vértice em comum (vizinhança do tipo queen) ou uma aresta em comum (vizinhança do tipo rook).
O estudo apresenta aplicações da nova metodologia para clusterização dos municípios brasileiros, no ano de 2000, com base em um conjunto
de variáveis socioeconômicas. Diversos métodos de clusterização são estudados, assim como diferentes tipos de distâncias entre vetores. Os métodos estudados foram: centroid, single linkage, complete linkage, average linkage e average linkage weighted, Ward’s minimum
variance e método da mediana. As distâncias utilizadas foram: norma Lp (em particular, as normas L1 e L2), Mahalanobis e distância euclidiana corrigida pela variância (variance corrected) – caso particular da distância de Mahalanobis. Finalmente, apresenta-se uma
discussão sobre alguns métodos comumente utilizados para seleção do número de clusters.

Nenhum comentário:

Postar um comentário