Last updated: 8 June 2013
2013 Mexican Stata Users Group meeting
3 May 2013
Centro de Investigación y Docencia Económicas, CIDE
Carretera México-Toluca 3655
México, D.F.
Proceedings
Deep analysis of progressivity for taxes or transfers using cprog and cprogbt DASP modules for Stata
Luis Huesca Reynoso
Centro de Investigación en Alimentación y Desarrollo (CIAD)
In order to determine whether a tax or transfer is progressive, this
presentation shows the benefits offered by the modules cprog and cprogbt
within the environment of STATA through the distributive analysis stata
package (DASP). The goal is to compute progressivity curves and check whether
taxes or transfers are progressive and whether a given transfer is
more progressive than a given tax. An empirical case for both taxes and
transfers is shown for the current Mexican situation.
Additional information
mex13_hesca.pptx
Inflation and poverty in México 1993–2009
Carlo Alcaraz
Banco de México
In this paper, we analyze the effects of inflation on poverty in Mexico from
1993 to 2009. We also include sector composition of GDP and informal work as
determinants of poverty in Mexico. We use two measures for poverty: the
percentage population whose household income per capita is below the poverty
line, and poverty gap. We estimate a fixed-effects model and obtain the
following results: 1) a 10% increase in inflation translates into
13% more poverty and a 17% increase in the poverty gap; 2) there is
a positive relation between poverty and informal employment; and 3) relative
growth of the services sector has contributed to the reduction of poverty.
Additional information
mex13_alcaraz.pptx
Aplicación del método de regresión en
discontinuidad para la medición del impacto del programa de
créditos fiscales a la investigación, desarrollo
tecnológico e innovación de las empresas en solicitudes de
registro de patentes
Angel Calderón-Madrid
Carlos Chiapa-Labastida
Alberto Aguilar López
COLMEX
Entre 2001 y 2008, la manera en que el gobierno incentivaba a que las
empresas privadas en México aumentaran su actividad innovadora
relacionada con la investigación científica y con el desarrollo
tecnológico era a través de su programa EFIDE T, acrónimo
correspondiente a Programa de Estímulos Fiscales al Gasto en
Investigación y Desarrollo de Tecnología de las Empresas
Privadas en México. El estímulo fiscal consistía en el
otorgamiento de un crédito fiscal que se concedía a las
empresas para la realización de proyectos de investigación,
desarrollo tecnológico e innovación (IDTI). Se determinaba a
partir de una tasa máxima fija de 30% sobre la base total (no
incremental) de los gastos e inversiones que las empresas realizaran en ese
rubro durante el año en que resultaron beneficiarios del programa.
La Ley de Ingresos de la Federación de cada ejercicio fiscal
establecía el monto total del estímulo fiscal a distribuir
entre los aspirantes del beneficio. La disponibilidad de recursos del
programa, en ninguno de los años en que éste se
implementó, alcanzó para apoyar a todas las empresas cuyos
proyectos de IDTI fueron evaluados con una calificación por
arriba del mínimo establecido por el CONACYT para ser candidatas a
recibir el apoyo económico ofrecido.
La participación en el programa requería que las empresas
presentaran de manera detallada los proyectos de IDTI que pretendían
realizar y que éstos fueran calificados por evaluadores acreditados
por el CONACYT.
La necesidad de decidir entre empresas para dar o negar el estímulo
económico solicitado hizo que el CONACYT, ante la limitación de
recursos disponibles durante cada año, seleccionara a las empresas
beneficiarias a partir de un criterio basado en un orden descendente de
calificaciones promedio que los evaluadores de los proyectos otorgaron a cada
una de las empresas. Es decir, las calificaciones sirvieron para fijar un
umbral, que en última instancia estuvo determinado por los fondos
disponibles para apoyar a las empresas: aquellas cuyos proyectos tuvieron
calificación igual o por arriba de éste resultaron
beneficiarias del programa y a las que lo tuvieron por debajo se les
negó el apoyo financiero solicitado.
Additional information
mex13_calderon.pdf
Combinación de Stata y LATEX en la evaluación de estudiantes de un curso de estadística o econometría
Rodrigo Taborda
Universidad del Rosario
El aprendizaje de estadística o econometría en la actualidad
implica evaluar la aplicación de métodos en programas
(
software) de análisis estadístico. En términos
usuales esta evaluación se lleva a cabo a partir de una (1) base de
datos y una(s ) pregunta(s) que genera(n) una(s) respuesta(s)
única(s). Desafortunadamente esta opción de evaluación
es abusada por los estudiantes que al saber que existe una sola respuesta
copian y pegan resultados conocidos sin la utilización del
método o el programa (
software). En este ambiente el profesor
tiene el problema de no poder discriminar es- fuerzo real y premiar
aprendizaje real.
Stata ofrece la capacidad de escribir un archivo .tex, ordenar su
compilación a través de LATEX, y generar un archivo .pdf.
Mediante el uso de esta opción, a partir de una (1) base de datos, y
el mismo grupo de preguntas a evaluar (taller/
problem set), se
propone la generación de una submuestra (para cada estudiante) de la
base de datos, y la generación automática de un texto
diferente (para cada estudiante) con respuestas diferentes (para cada
estudiante) del cuestionario.
El procedimiento implica incluir en un "
loop" la
generación de la submuestra y la generación automática
de documentos. El procedimiento tiene como puntos a favor: 1. Solucionar el
problema de la copia de la misma respuesta. En el momento que cada
estudiante tiene una única base de datos, se ve forzado a obtener un
resultado que es único, reportarlo y comentarlo. 2. Esfuerzo
mínimo para el profesor, la repetición del
"
loop" es indiferente si se tienen 5 o 50 estudiantes. 3.
Conocer las respuestas de antemano puede ayudar a identificar errores
involuntarios y de aprendizaje en los estudiantes. 4. La calificación
de los reportes de los estudiantes es directa. En contra se puede argumentar
la necesidad de nivel de aprendizaje medio de Stata y LATEX.
Additional information
mex13_taborda_en.pdf (English)
mex13_taborda_sp.pdf (Español)
Herramientas de Stata para resolver retos analíticos frecuentes en la evaluación de pruebas de tamizaje
Eduardo Ortiz-Panozo
INSP
Introducción: Las pruebas de tamizaje se usan ampliamente en salud
pública para identificar fases tempranas de enfermedad. Generalmente
los resultados del tamizaje se categorizan como positivo o negativo, y es
común que sólo se evalúe el resultado positivo, lo cual
puede ocasionar el denominado sesgo de verificación. Además es
frecuente que a un mismo individuo se le aplique más de una prueba de
tamizaje en un mismo estudio, lo cual origina correlación entre
observaciones.
Objetivo: Explorar las herramientas de Stata para la evaluación de
pruebas de tamizaje, tomando en cuenta los retos analíticos que
frecuentemente se presentan en este tipo de estudios
Métodos y resultados: En este análisis, se usan datos reales
para explorar las bondades de Stata para la evaluación de pruebas de
tamizaje. Se revisa el programa escrito por usuario
diagt y
aplicaciones de modelos log-lineales, con errores estándar ajustados
por mediciones repetidas y por el sesgo de verificación. Los datos
usados corresponden a la comparación de la prueba de detección
del virus del papiloma humano (VPH) y el Papanicolaou en el programa de
detección de cáncer cervicouterino de Morelos, México
(n=5,980). A diferencia del módulo de modelos lineales generalizados,
el programa
diagt no permitió ajustar por el sesgo de
verificación ni por la correlación entre observaciones. Con el
módulo de modelos lineales generalizados, hubo diferencias
importantes en las estimaciones según se ajustó o no por el
sesgo de verificación y por la correlación entre observaciones.
Mediante modelos log-lineales se estimaron tanto indicadores relativos como
absolutos de la sensibilidad, especificidad y valores predictivos comparando
prueba de detección de VPH contra Papanicolaou.
Conclusión: El módulo de modelos lineales generalizados de
Stata permite hacer las especificaciones necesarias para la evaluación
de las pruebas de tamizaje, ajustando por los retos comunes en este tipo de
estudios, como lo son la correlación entre observaciones y el sesgo
de verificación.
Additional information
mex13_ortiz_en.pptx (English)
mex13_ortiz_sp.pptx (Español)
Forecasting tools in Stata
Gustavo A. Sánchez
StataCorp
After one fits regression models, it is quite common to produce
out-of-sample forecasts to evaluate the predictive accuracy of the model or
simply to estimate the expected behavior of one or more dependent variables
(assuming that the model is valid be yond the estimation sample). I selected
a few examples to illustrate some of the tools available in Stata to produce
single or joint forecasts based on parameter estimates from a set of
regression models.
Additional information
mex13_sanchez_forecast.pdf
The alternative of a smoother parameter in the Hodrick-Prescott filter
Miguel Angel Ramirez
UNAM
From its beginnings in the second half of the nineteenth century until
today, the study of economic time series has involved a variety of research
anchored in stylized mathematical methods in order to simulate, verify, test,
and forecast the behavior of key economic variables to describe economic
activity and its phenomena intertemporally.
Despite the proliferation of studies, it was not until the 1980s that the
procedure outlined by Robert James Hodrick and Edward Christian Prescott
acquired special relevance. Their method, isolating the effects and
trend-cycle series, denoted a turning point in modern econometric modeling.
However, the spread of the "HP filter" in economic applications used by
researchers, academics, students, and policy-makers has led to implausible
results because of inadequate specifications in the decomposition of the
series.
In this context, this analysis attempts to overcome the methodological
problems inherent in the filter, indicate a brief theoretical outline of the
time series, formulate a sui generis consistent parameter of variables, and
show in Stata a simulation of the real exchange rate in Norway.
Additional information
mex13_angel_en.pptx (English)
mex13_angel_sp.pptx (Español)
Commands for financial data management and portfolio optimization
C. Alberto Dorantes
Tecnológico de Monterrey, EGA, Campus Querétaro
Several econometric software offer portfolio management tools for
practitioners and researchers. For example, MatLab and R offer a great variety
of tools for the simulation, optimization, and analysis of financial time
series. Stata, together with Mata, offers powerful programming tools for the
simulation, optimization, and analysis of financial data. However, related
user commands are scarce. In this presentation, commands for online market
data collection, data manipulation, and financial analysis for portfolio
optimization are presented. Besides illustrating how these commands work,
I will present the optimization algorithm used for portfolio optimization.
Some of the commands include
retornosyh. Based on the
stockquote user command, this command retrieves online market data
about stocks and indices (prices), computes returns—simple and
continuously compounded—and then integrates the data into a formatted
time-series dataset ready for further analysis.
The following commands can be used to analyze data obtained with this
command:
gmvportws and
gmvportwos, using series of
continuously compounded returns, estimate the global minimum variance
portfolio with and without short sales; and
efrontier generates N
portfolios in the efficient frontier and provides a graph showing the
efficient frontier with and without short sales.
The optimization algorithm was designed to estimate minimum variance
portfolios according to Markowitz portfolio theory. When allowing for short
sales, the minimum variance portfolio is analytically estimated based on
Lagrange multipliers. When short sales are not allowed (nonnegative
weights), there is no analytical solution, so the literature recommends
using quadratic programming to find the minimum variance portfolio. Instead
of following this numeric algorithm, I used an algorithm based on iterations
and the analytical formula derived from Lagrange multipliers to estimate the
minimum variance portfolio. Details and results will be described in the
presentation.
Additional information
mex13_dorantes.pdf
Implementing new econometric tools in Stata
Christopher F. Baum
Boston College and DIW, Berlin
I discuss the implementation of two state-of-the-art econometric estimators
in Stata. The first addresses the problem of estimating a binary response
with one or more limited endogenous variables. Lewbel, Dong, and Yang
(Canadian J. Econ., 2012) present a solution based on Lewbel's "special
regressor" method, a version of which I have implemented in Stata as
sspecialreg. The second considers the problem of estimating an equation with
instrumental variables techniques where sufficient instruments may not be
available. Lewbel (J. Bus. Econ. Stat., 2012) presents a solution based on
generated instruments that take advantage of heteroskedasticity. I have
implemented that routine as an extension of Baum, Schaffer, and Stillman's
ivreg2 (Stata J., 2003, 2007) as
ivreg2h. I will motivate
these two extensions to Stata's econometric capabilities with illustrations
of their use.
Additional information
mex13_baum.pdf
Economic Outlook: An application with cointegrating VAR models and probability forecasting
Gustavo A. Sánchez
StataCorp
In this presentation, I discuss two applications of the
vec commands.
First, I use the cointegrating VAR approach discussed in Garratt et al.
(2006) to fit a vector error-correction model. In contrast with the
application of the traditional Johansen statistical restrictions for the
identification of the coefficients of the cointegrating vectors, I use Stata
to show an alternative specification of those restrictions based on the
theoretical framework for the long-run cointegrating relationships. Second,
I apply probability forecasting to simulate probability distributions for
the forecasted periods. This approach produces probabilities for future
single and joint events instead of only producing point forecasts and
confidence intervals. For example, we could estimate the joint probability
of two-digit inflation combined with a decrease in the GDP.
Additional information
mex13_sanchez_vec.pdf
Introduction to contingent valuation using Stata
Alejandro López-Feldman
CIDE
Cost-benefit analysis is a key input for the ex-ante evaluation of public
projects and policies. An ideal cost-benefit analysis incorporates all the
social costs and benefits of a project for all members of a society. One of
the big challenges to achieve this is the need to place monetary values on
nonmarketed goods and services. The objective of the presentation is to
provide the audience with the basic tools to obtain estimates of willingness
to pay from a contingent valuation survey using Stata. The use of the
user-written commands
singleb and
doubleb is illustrated.
Additional information
mex13_lopez.pdf
A double-hurdle count model for completed fertility data from the developing world
Alfonso Miranda
CIDE
I report on a study of the socioeconomic determinants of completed fertility
in Mexico. An innovative Poisson double-hurdle count model is developed for
the analysis. This methodological approach allows low- and high-order
parities to be determined by two different data-generating mechanisms and
explicitly accounts for potential endogenous switching between regimes.
Unobserved heterogeneity is properly controlled. Special attention is given
to study how socioeconomic characteristics such as religion and ethnic
group affect the likelihood of transition from low- to high-order parities.
Findings indicate that education and Catholicism are associated with
reductions in the likelihood of transition from parities lower than four to
high-order parities. However, being an indigenous language speaker
increases the odds of a large family.
Additional information
mex13_miranda_en.pdf (English)
mex13_miranda_sp.pdf (Español)
Treatment Effects using Stata
Enrique Pinzon
StataCorp
Treatment-effects estimation is a fundamental tool in the empirical analysis
of program and policy evaluations. Its importance in this area is reflected
in the ample body of work that has been done in the last decades. Using
Stata, I will illustrate estimation of the more traditional
treatment-effects estimators used by researchers in this area and some of
the more recent advances.
Additional information
mex13_pinzon.pdf
Sistemas geo-referenciados en Stata y su aplicación a los procesos de focalización de acciones en desarrollo social
Ignacio Ibarra López
UPAEP and BUAP
La presentación de información enfrenta el reto de integrar la
mayor cantidad y calidad de información. Por otro lado, aunque no es un asunto estrictamente necesario, también es importante que en este
proceso se considere la estética de las gráficas y tablas que
se generan. Finalmente, si se integra una mayor cantidad de
información, es posible que se confunda en cierta medida a quien la
interpreta. Stata es un software que permite crear una serie de recursos
gráficos que a lo largo de los años han sido mejorados y
expandidos por la comunidad de usuarios. Tal es el caso del comando spmap,
desarrollado por Maurizio Pisati (Pisati, 2008), el cual permite desarrollar
información espacial que facilita tanto el análisis como la
presentación de la misma. En el presente trabajo, se aplica este
comando para la generación de mapas temáticos del estado de
Puebla así como de sus municipios y localidades. Los diferentes mapas
ilustran la relación que tienen a nivel geoestadístico las
causas de mortalidad (catálogo CIE-10 para México) y carencias
sociales (medidas por el CONEVAL). La finalidad es conocer si las denominadas
enfermedades de la pobreza siguen un patrón geográfico y
económico en el estado, identificando aquellas localidades cuya
atención debería ser prioritaria. Para el análisis se
ha construido una rutina (
do-file) que comprende los siguientes
procesos:
- Integración de la información en sus distintos niveles.
- Generación de los mapas en archivos legibles en Stata.
- Identificación de regiones y localidades prioritarias.
- Desarrollo de mapas temáticos.
- Presentación de estadísticas a nivel región y a
nivel localidad prioritaria.
Additional information
mex13_ibarra_en.ppt (English)
mex13_ibarra_sp.pptx (Español)
Análisis geoespacial con STATA. Elaboración de mapas de rezago social a nivel de AGEB urbana para México, 2010.
Enrique Minor-Campa
David Rojas-Rosey¡
Martí Lima
CONEVAL
En la actualidad existen diferentes programas en el mercado que permiten
realizar análisis de información geográfica. Sin embargo, estos
programas presentan limitaciones para realizar análisis
geográficos a partir de datos estadísticos, debido a que no
siempre aceptan algoritmos que ejecuten una misma rutina. Gracias a los
comandos shp2dta y spmap, STATA permite realizar rutinas para construir mapas
con información estadística georeferenciada sin importar el nivel de
desagregación geográfica. El objetivo de este trabajo consiste
en presentar el uso de STATA para generar aproximadamente 10 mil mapas de
rezago social a nivel AGEB con una sola rutina (
do file), las
cualidades, ventajas y desventajas para realizar este tipo de análisis y
obtener información geográfica a partir de este ejercicio
realizado por el Consejo Nacional de Evaluación de la Política
de Desarrollo Social (CONEVAL).
Additional information
mex13_coneval.pptx
Report to users and Wishes and grumbles
Gustavo A. Sánchez
StataCorp
Scientific organizers
Alfonso Miranda, (co-chair) CIDE
Alejandro López-Feldman, (co-chair) CIDE
Logistics organizers
MultiON Consulting, the official distributor
of Stata in Mexico.