SciELO - Scientific Electronic Library Online

 
vol.24 issue49Naturaleza de la ley económica: Concepto de necesidad y validez gnoseológicaRevistas argentinas de economía: de tiempos de la colonia a internet author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Estudios Económicos

On-line version ISSN 2525-1295

Estud. Econ. vol.24 no.49 Bahía Blanca Jul. 2007

 

Investigación aplicada: entonces y hoy*

Victor J. Elías **

* Conferencia inaugural de la XLII° REUNION ANUAL de la ASOCIACION ARGENTINA DE ECONOMIA POLITICA, noviembre 2007, Bahía Blanca.
** Profesor Emérito de la Universidad Nacional de Tucumán. Director del Instituto de Economía Aplicada de la Fundación Banco Empresario de Tucumán.

Es un gran honor para mí hablar en la Sesión Inaugural de la XLII Reunión Anual acá en Bahía Blanca, en la que se festeja medio siglo de desarrollo sustentable de la AAEP.

El título de mi charla me fue sugerido o fijado por el "harvardiano" Juan Carlos de Pablo con la idea que pueda transmitir algo a la juventud de cómo hacíamos antes y cómo se hace ahora nuestro trabajo de economía aplicada. Por lo tanto perdí un grado de libertad, pero aun me quedan bastantes ya que me corresponde fijar el contenido de la charla, con la ventaja que si la hago larga va perdiendo peso el grado de libertad cedido. A su vez, quizás yo no sea el más indicado para hablar de este tema, ya que sigo haciendo lo mismo. Por ello no creo llegar a dar un mensaje conciso, sino que será más un conjunto de historias y ustedes verán cuál de ellas están dispuestos a comprar por supuesto pagando un precio implícito mayor que cero.

¿Cómo se hacía entonces IA? ¿Cómo se hace ahora IA? ¿Hay diferencias? ¿Qué pudo haber cambiado?: Me hubiera gustado presentarles una tabla resumida de lo ocurrido a los temas, la metodología, la base de datos, el proceso de cómputos, trabajo individual o en equipos, grupos locales o internacionales, el lugar de trabajo tanto en el ámbito académico como fuera de él. No es fácil separar el Entonces con el Hoy. Quizás un criterio de corte podría ser en que Entonces se insistía en buenos datos y Hoy en buenos métodos. Desde ya les adelanto que hay algo que no cambió y es el muy buen olfato para encontrar un caso que hable por si solo. Antes lo citábamos a Theodore W. Schultz y ahora a Steven Levitt. Pienso que es importante hacer puentes entre el Entonces y el Hoy y así generar los enfoques y temas más apropiados. Los biólogos sostienen que tienen que integrar mejor el análisis teórico con el análisis tradicional experimental que se estuvo haciendo en el pasado.

De acuerdo a mi área podríamos seguir los pasos de las Cuentas Nacionales, uno de los grandes inventos de nuestra ciencia (aunque no pase la condición de agregación). Siguiendo las publicaciones del National Bureau of Economic Research (NBER) se puede tener una buena descripción de la evolución de esta área. Su primer libro se edita en 1921. Su serie Studies in Income and Wealth que comienza en 1937 sigue vigente hasta hoy. La IA de Entonces se limitaba a incluir solamente las transacciones que se manifiestan en el mercado y no incluía toda la información que requiere una función de producción. Hoy se está incluyendo transacciones fuera del mercado (actividad familiar, medio ambiente) se utilizan encuestas sobre el uso del tiempo de las personas, se integran los datos micro con los macro, se combinan distintas fuentes de información: productivas, financieras, impositivas, se presta especial atención a los cambios tecnológicos, etc. Creo que Richard Stone y Wassily Leontief deben estar muy contentos ya que se cumplieron en gran parte sus aspiraciones (y sus descendientes pretenden cobrar esta herencia). Una medida de las mejoras de estas Cuentas podría estar dada por el incremento que sufriría la estimación de la tasa de cambio promedio anual del PBI per cápita si incluye la valoración del aumento de la Esperanza de Vida. En muchos casos es más del 40 por ciento.

Si uno se limitara solamente a los estudios econométricos podría ser más sencillo brindar una descripción histórica de la evolución de la IA. Pagan y Wickens con respecto al Entonces y Hoy dijeron hace unos dieciocho años en A Survey of Some Recent Econometric Methods: " ..hemos sido testigo de una fragmentación de la Econometría. La mayor1 división ha sido entre micro y macro econometría. El investigador aplicado en la primera necesita ahora un fuerte conocimiento de estimación por máxima verosimilitud y más precisamente de métodos de estimación no paramétricos. Para lo segundo necesita del método de estimación de los momentos, tratar algunos problemas de teoría estadística cuando los regresores tienen tendencia y la construcción de modelos dinámicos". Luego se quejan de que " existe un rechazo entendible de los investigadores aplicados para hacer el esfuerzo de aprender y mantenerse actualizado de los métodos econométricos, desde que la marcha y diversidad de estos desarrollos son intimidatorios. Lógicamente es más fácil para ellos defenderse argumentando que los datos son pobres, o que el modelo es muy preliminar". El enfoque de "data mining" complicó la forma de reportar las regresiones al exigir un enfoque apropiado sobre lo planeado y lo realizado, para así poder determinar el nivel de significación de los resultados considerados positivos. Ya Henri Theil me lo había advertido en 1968.

Detallemos ahora una de las historias que quiero contarles. Quizás podríamos comenzar con Ernst Engels quien dedicó gran parte de su vida estudiando la relación consumo-ingreso tratando de detectar si había mucha diferencia entre los distintos bienes, y de allí clasificarlos en inferiores, normales o superiores. El diseño de política tributaria requería mucho de esta información para generar impuestos progresivos. Las encuestas de consumo familiar proveían la información necesaria y se deseaba conocer esta relación para numerosos productos. Más adelante Houthakker, Barten y Theil se encargaron de formalizar más y estimar sistemas de demandas incluyendo restricciones que surgían de la teoría. Los economistas agrícolas que impulsaron los primeros trabajos econométricos estaban interesados en estimar demandas de productos primarios utilizando regresiones uniecuacionales, el método de mínimos cuadrados ordinarios, datos temporales y de corte transversal. Los productos agrícolas eran apropiados para utilizar métodos de estimación uniecuacionales, ya que era más factible que fuera la oferta que se moviera y no la demanda. Como se aplicaba a Estados Unidos, en donde el sector doméstico era preponderante, también resultaban apropiados la metodología y los datos utilizados. De ellos aprendimos que la elasticidad de la demanda en general estaba cerca de menos uno que era muy raro encontrar productos con elasticidades muy superior a menos uno como asimismo casos muy inelásticos. El libro de Henry Schultz es un muy buen testigo de estos trabajos, libro en el que colaboró como ayudante Milton Friedman. Luego estos autores se interesaron en estimar funciones de producción porque les interesaba conocer el rol de los llamados nuevos insumos en la explotación agrícola (semillas, irrigación, fertilizantes, etc.) y aquí también este sector era interesante porque había mucha información. Ellos también construían grandes bases de datos sobre precios domésticos e internacionales de diversos productos agrícolas con el objetivo de generar predicciones de estos precios. Tenían la ventaja de contar también con datos de precios de futuros que podría servir como base predictiva de los precios en el futuro. En 1988 visitando el Food Research Institute en la Universidad de Stanford, me asignaron la oficina que supo tener Holbrook Working, fallecido en 1985 (hermano de Elmer Working el de que muestran las demandas empíricas)2 quien en forma manual registraba millones de datos de precio en una carpeta preparada en forma especial con las hojas con columnas apropiadas para los registros. Muchas de esas carpetas estaban alli, al parecer abandonadas, y estuve tentado de llevarme "prestada" una pero pesó más la ética histórica y las dejé. No fue un hallazgo arqueológico porque al comenzar a ver la información y cómo estaba organizada lo impulsaba a uno a continuar este trabajo. Recientemente leyendo "Irrational Exuberance" de Robert Shiller notaba que cita casos parecidos como los de Benjamin Graham y David Dodd, y G. Warren y F. Pearson (a los de Finanzas les gusta trabajar de a dos o tres).

Luego vino el aporte macroeconómico al estilo keynesiano que impuso el interés por estimar ecuaciones simultáneas generando metodologías más apropiadas para una economía agregada. A partir de alli creo que se comenzó a vivir una etapa en donde prevalecía la metodología frente a los temas de investigación.

La etapa industrial generó el interés por estudiar las interrelaciones entre los sectores, tablas de insumo-producto, ello brindó un gran apoyo al desarrollo de las cuentas nacionales. Economía Laboral se constituyó más tarde en un gran propulsor de lo que se conoce hoy como Microeconometría. Así como en la mejor época de ecuaciones simultáneas volvió a prevalecer el temor que las variables exógenas resultaron endógenas y muy correlacionadas con el término aleatorio de la ecuación. Parecía que no les convencía el criterio de Herman Wold para descartar este problema, el cual está basado en el porcentaje explicado de la variación de la variable dependiente, ni tampoco el de Ragnar Frisch de estimar intercambiando la dependiente con la independiente y así generar un intervalo para el parámetro. La metodología de variables instrumentales se convirtió en un enfoque muy común a pesar que siempre fue difícil encontrar instrumentos idóneos. El área de Finanzas atrajo el empleo de series temporales con períodos muy cortos generando métodos complicados para tratar este tipo de información y distribuciones del error muy distintas a la muy querida distribución normal. La época del tratamiento sencillo para separar estacionalidad de ciclos y tendencias quedó muy atrás. El simple residuo de la estimación por mínimos cuadrados ordinario que surge de una regresión lineal fue perdiendo peso ante la aparición de nuevos tipos de residuos, y el famoso y sencillo test de autocorrelación de Durbin-Watson dejó paso a numerosos otros tests que dicen ser generales. El área de Economía Internacional por diversas razones no se constituyó en un motor de desarrollo de métodos econométricos y de estudios empíricos a pesar que Keynes había establecido algunas relaciones muy atractivas para estimarlas (como lo es la relación entre movimientos de capitales y las bandas fijadas por las brechas entre precio presente y precio futuro con tasas de interés local e internacional). Una de las cosas que aprendí fue que si uno no quería involucrarse de lleno en toda la nueva metodología que crecía a una tasa geométrica, era mejor seguir de cerca a Griliches y Maddala quienes ponían en términos sencillos y relacionados con la metodología tradicional a los nuevos métodos. Hoy, creo que no hay todavía sucesores de ellos. Otra fue que si deseo estudiar la relación de la variable Y con la variable X primero debo hacer un diagrama de dispersión simple. Si mirando el gráfico desde lejos se ve claramente que tienen una relación estrecha debo seguir con la investigación. Pero si el gráfico muestra una circunferencia lo mejor es olvidarse de ella. Nunca, se ha de continuar con el estudio de una relación si el coeficiente de correlación no es por lo menos 0,30.

Es interesante la evolución que tuvieron los métodos más sencillos utilizados por entonces por los investigadores que miran mucho a los datos. Damos varios ejemplos: tratamiento de "outliers", selección de modelos (niveles y primera diferencia), estabilidad de las estimaciones (análisis confluencial), desvío standard móvil que extiende Promedios Móviles Lineales (y que en parte llevó a los enfoques ARCH y GARCH). Creo que es muy importante generar un puente entre el Entonces y el Hoy para poder entender bien el problema que se estudia. Hay algunos que lo intentan.

Otra forma interesante de unir el pasado con el presente es seguir la evolución de la estimación de una dada relación. La ecuación de Mincer, por ejemplo, que relaciona eln salario individual con el nivel de educación es una muy buena candidata. El gráfico de Houthakker que relaciona salario con edad para un dado nivel de educación y sexo, sigue siendo el mejor comienzo. Esta es una ecuación que se impuso a pesar de proveer de bajas correlaciones. Parece que todos estaban de acuerdo que los individuos difieren en numerosas características no correlacionadas con la educación lo cual permitía aceptar la estimación del coeficiente de regresión salario-educación aun con un bajo coeficiente de correlación. Esta ecuación semilogarítmica tiene una solvente teoría por detrás y es una buena candidata para demostrar el poder de la regresión lineal simple. Un gran competidor de ella es la ecuación que generó el modelo CAPM en Finanzas. La otra fue la curva de Philipps pero terminaron "torciéndola" a pesar que hoy la usa la Reserva Federal de Estados Unidos para "fijar" su política de tasa de interés. El método que aplicó William A. Philipps en los años cincuenta para estimar su curva es bien interesante, ya que brinda un tratamiento de los "outliers", un método para estimar funciones no lineales, y deja parte de las observaciones sin usar para luego verificar la predicción del ajuste. Mis amigos Hildegart Ahumada, Walter Sosa Escudero y Alfredo Navarro estarían sobresaltados por el manejo de la información de este ingeniero eléctrico-economista.

La ecuación de Mincer sirvió no sólo para estimar la tasa de retorno a la educación sino que también ayudó a estimar el grado de discriminación salarial por raza, sexo, por riesgo, el poder sindical en la fijación de salarios, y la tasa de aprendizaje por edad o experiencia. También sirvió para estimar la importancia de los padres y hermanos en el proceso de formación de capital humano. En reverso también sirvió para medir la importancia del entrenamiento en el trabajo (de acuerdo al uso que Theodore W. Schultz hizo de esta ecuación: si la educación formal explica el 30 o 40 por ciento de los salarios, entonces el resto debe ser el entrenamiento en el trabajo). También sirvió para desechar las hipótesis de que la educación no era lo que importaba, ganándoles a competidores como la habilidad de las personas y que la educación significa más una señal que información sobre productividad. Otros la utilizaron para clasificar a la fuerza laboral entre capacitados y no capacitados y así determinar el "premium" de salario para los primeros.

A lo largo del tiempo se le fueron agregando más variables a la ecuación minceriana. La edad entraría en forma polinomial ya que para un intervalo de edades el salario parecía más bien estable y luego decaía. Se utilizaron nuevas metodologías econométricas para solucionar el problema de errores de selección, interacciones y otras cuestiones. Como la derivación original de esta ecuación no incluía la parte de la oferta, o sea cómo se genera la educación, se desarrollaron modelos que la incorporaban y exponía bajo que tipo de supuestos quedaría apropiado la ecuación original de Mincer, lo cual parece necesario cuando se desea estimar tasas de retorno para diferentes niveles de educación. Hubo críticas sobre si era correcto interpretar el coeficiente de la variable educación como tasa de retorno. Hace poco le surgió un nuevo competidor, que es la calidad de la educación y Eric Hanushek anda diciendo por allí que la calidad importa más que la cantidad.

Seguramente muchos conocen el trabajo de James Heckman sobre 40 años y hoy 50 años de la ecuación de Mincer que brinda un resumen muy preciso de todos los problemas metodológicos y que es muy útil considerar. A pesar de todas las críticas, el griego Psacharopoulos ayudó a popularizar la ecuación de Mincer estimando tasas de retorno a la educación para numerosos países y es una importante referencia. Ello fue factible gracias a la globalización que se hizo de la encuesta de hogares y al trabajo de homogenización de algunas instituciones. Lo que antes era muy difícil de obtener ahora se encuentra al por mayor. Base de datos de gran tamaño y en muchos países y regiones, una característica de hoy, presentan un nuevo desafío. Circunstancialmente encontramos que la esclavitud no es solo tema de historiadores ya que hubo países que muy recientemente aun la tenían. Por otro lado, los modelos de crecimiento basados en el capital humano dependen de que la tasa de retorno a la educación no decrezca a mayor nivel de educación, por lo que la ecuación de Mincer tendrá otro servicio que prestar.

Pensando en mi actividad en Tucumán tuvimos varias experiencias que nos sirve para analizar el entonces y el hoy. En 1967 tuvimos la visita de Jacob Mincer y en 1998 la de James Heckman. Con instrumentales muy distintos ambos interesados en detectar efectos parecidos. Uno considerando el efecto de la educación formal y el otro analizando efectos de la capacitación. Mincer presentaba sus ideas en forma pausada y siempre enfatizando la teoría, "implicancias" y verificación empírica de las mismas. Heckman pasaba una transparencia cada 30 segundos, y, tal como un prestidigitador, de un total de 1.300 transparencias que me hizo preparar lograba encontrar en dos segundos una transparencia que la había presentado 10 minutos antes y que ya estaba sin orden en un stock (Arrufat me comentó que ello puede ser ahora visto en la página de los premios Nobel). Las bases de datos que manejaba Heckman eran una maravilla, pero a pesar de ello no brindaban resultados más contundentes que los pocos que usaba Mincer.

Otra experiencia interesante es poder preguntarle a los autores de trabajos importantes cómo llegaron a ello o porqué utilizaron cierto enfoque o información. Marc Nerlove, estimando ofertas de productos agropecuarios, introdujo el enfoque adaptativo de predicción para introducir el precio esperado en la ecuación de oferta, utilizando en algunos casos solamente el precio del período anterior. Como en estos productos también existían precios futuros que podrían considerarse como precios esperados, le pregunté porque no los había utilizado en lugar de generar el enfoque adaptativo basado en precios pasados. Me contestó rápidamente que efectivamente los había utilizado al comienzo pero que no obtuvo los resultados que esperaba, que era que la oferta sea creciente a los precios, y de allí tuvo que utilizar los precios pasados. Otro caso interesante que noté fue que se utilizaba en forma intensiva los datos sobre el mercado de profesionales en ingeniería. Primero lo había notado en el trabajo de George Stigler sobre economía de la información en el mercado laboral. Luego en los de Barro y Romer para las regresiones de convergencia condicional y manteniendo constante el capital humano per cápita, y más tarde en la conferencia que Sherwin Rosen dio en la reunión anual de la AAEP de Mendoza en 1998. Le pregunté a Rosen si había algo en particular con los ingenieros, ya que me empezaba a preocupar que Economía era de segunda línea. El me dijo que simplemente se debía a que había mucha más información sobre los ingenieros.

Por último menciono mi trabajo de tesis doctoral para Chicago3 en los sesenta. Harberger me pidió que creara un índice de precios de bienes de capital relevante a cada sector industrial (18 en total) para así poder deflactar las inversiones en cada sector y de alli estimar el stock de capital controlando por los cambios en calidad. Se trataba del sector manufacturero argentino, período 1935-1963. Hace poco Harberger volviendo a trabajar con fuentes del crecimiento económico, establecía que para ello sólo hacían falta dos deflactores: salarios e índice de precios implícitos del PBI. En 2003, festejando sus 50 años de excelencia académica en Los Angeles, tuve la oportunidad de reclamárselo.

Hagamos un pequeño paseo por la IA de los economistas argentinos y de temas argentinos. Una parte importante de la IA estaba relacionada con las tesis doctorales que se hicieron para diversas Universidades de Estados Unidos y de Inglaterra. Todas tenían la dificultad de que al trabajar con la economía argentina tenían que utilizar información menos detallada y precisa que la que ya existía en Estados Unidos o Inglaterra. Por lo tanto, no entraban en el círculo de interés de los que trabajaban en la frontera de la investigación empírica. A pesar de ello, algunos trabajos llegaron a interesar a los líderes de la profesión. Como existía la presión metodológica del entorno académico de las universidades en que estaba cada uno, no había lugar para hacer demasiadas hipótesis o teorías de lo que se estaba estudiando. En cambio economistas que realizaron lo principal de su trabajo en el país tenían mas grado de libertad para proyectarse, arriesgarse y dar más rienda suelta a la imaginación. Carlos F. Díaz Alejandro, en su Ensayos de Historia Económica Argentina, provee de un excelente Survey de las contribuciones de economistas argentinos y extranjeros sobre la economía argentina, por lo que creo que habría que cambiarle el nombre al libro y ponerle Ensayos de los aportes de Economistas Argentinos en lugar de Historia. Narra muy bien la discusión de los pro y contra de los acuerdos internacionales y las relaciones agro-industria (protección) y agricultura-ganadería (sistema de arrendamiento). Parecía que ello era importante para entender el desarrollo argentino.

En otros trabajos se notaba mucho interés por la inflación, la protección comercial, la devaluación, economía regional, la productividad y economía agropecuaria. Un caso interesante es la inflación. Se analizaba su dinámica y determinantes, pero creo que nadie estudiaba la curva Philipps. Será que no había desempleo o datos de ello? (pero había PBI) Creo que tampoco se estudió empíricamente el porqué de que el gobierno se financiara en parte con emisión al estilo de "Political Economy" de hoy. En el caso de la protección comercial se trataba de medir el nivel de protección y discutir si la política de sustitución de importaciones era buena o no, pero no se estudió los determinantes de la protección. Insisto en estos puntos porque creo que teníamos en nuestras manos un gran laboratorio pero no lo explotábamos4. Quizás pueda interpretarse que el enfoque estructuralista para explicar la inflación sea un avance temprano de Political Economy (y también de causa de la volatilidad que preocupa a los de finanzas-pequeños shocks que producen cambios grandes y permanentes). Faltaba quizás una masa crítica de economistas?. La marcha de la economía agropecuaria en la argentina era otro gran laboratorio, pero dada la escasez de información no pudo ser explotada, y los trabajos se hacían solo para los grandes agregados.

En los últimos años ésto fue cambiando. La generación de micro datos en nuestro país facilitó la investigación en temas de frontera a pesar que la información cubra solo una región. Lo que aun falta es detectar ejemplos muy claros que hablen por sí solo. En la crisis del 2002 se desarrollaron "mercados" de trueque en diversas ciudades de nuestro país. La determinación de los precios en estos mercados fue analizada por Mariana Colacelli para su tesis en la Universidad de Harvard, para lo cual realizó una encuesta a los que participaban en este mercado y los que no. Un caso parecido sucedió en Estados Unidos en la crisis de 1929 y fue reflejado en una tesis de Joel William C. Harper para la Universidad de Chicago y citado por Milton Friedman en su libro de Historia Monetaria de Estados Unidos, lo cual ayudó para que los de Harvard se interesaran en el tema. Todavía hay mucho para aprender del mercado informal y nuestro país brinda un caso interesante. En el libro de D. Hammermesh sobre La Demanda Laboral se describe muy bien lo que se cree saber sobre los efectos de la intervención en el mercado laboral. Stigler decía que los salarios mínimos provocaban desempleo en los más jóvenes o trabajadores menos preparados, circunstancia que no se observó. A partir de allí surgieron diversas teorías. Una sería que a raíz de dicha regulación se generaba un mercado secundario o informal, el cual determinaría un salario menor y con mayor fluctuación. Ello tampoco se verificó. El tema de la calidad educacional es muy atractivo. En una de las tesis en nuestro programa de posgrado se pudo observar que las escuelas públicas mejoran cuando tienen mayor competencia de las escuelas privadas. Estos son unos pocos ejemplos que ilustran nuestra trayectoria y posibilidades.

La IA hoy no es todo econométrico. Herbert Simon (1978) enfatizó la necesidad de prestar más atención a los aspectos normativos, propiciando el desarrollo de enfoques que generan las conductas óptimas ante diversas circunstancias. Entre ellos tenemos la investigación operativa, ciencia de la administración e inteligencia artificial. Ello en parte impulsó el avance del área de "complejidades computacionales" y hoy podemos ver cursos específicos sobre el tema en las principales universidades. De allí surgieron nuevas metodologías para tratar de entender diversos problemas que parecían más apropiados que el enfoque tradicional del uso de datos y métodos econométricos. En los sesenta parecía que la discusión positivo-normativo era que estos enfoques eran excluyentes. Creo que ahora son enfoques complementarios para entender algunos problemas o determinar el precio de algunos productos. En Finanzas hay varios ejemplos como el de Black-Scholes. Richard Freeman (históricamente asociado a datos) ofrece hoy un curso para estudiantes de grado en Harvard titulado "Economía de los cambios discontinuos". Se estudian problemas tales como el crecimiento y el declive de las uniones comerciales, segregación de grupos, cambios en la cultura del trabajo de las sociedades comerciales, el crecimiento de patologías sociales en vecindarios, preocupación Malthusiana sobre el medio ambiente. Para ello se utilizan simulación no lineal, "networks" neurales, automatización finita, estrategias evolucionarias estables, conjeturas causales, simulaciones basadas en agentes y algoritmos genéticos. El énfasis se pone en el uso de modelos y programas de cómputos, no en datos ni en la matemática. Pero a Harvard, como le gusta diversificar al mismo tiempo, Zvi Griliches (históricamente asociado a métodos) ofrecía un curso sobre la generación de los datos accesibles a los de IA. Presenta la forma que lo generan y la necesidad de conocer y participar en la generación de los datos. Hoy en la Argentina este curso tendría mucha demanda.

Por otro lado, en el curso que Levitt ofrece en Chicago pretende que los alumnos piensen no solo analíticamente sino también creativamente. Recomienda primero leer un gran libro en búsqueda de ideas (tal como "A Whack on the Side of the Head: How you can be more creative", de Roger Von Oech, 1998, Warner Books). Luego sugiere ser el primero en atacar un problema, reestablecer alguna literatura que esté quebrada, encontrar nuevos datos, generar nuevas y mejores fuentes de identificación, trabajo de laboratorio y experimento de campo, integrar la teoría con lo empírico (no-estructurado y estructurado). Hace poco pensé en dos casos "parecidos" a la búsqueda de Levitt. Uno es analizar los datos que pueden extraerse de los cajeros automáticos contestando a la pregunta si uno desea o no donar cinco pesos. El otro surge de un libro reciente de un francés titulado "Cuarenta razones para no tener hijos" y ver de contrastarlo con las teorías de la familia.

Es interesante destacar que así como hubo un movimiento en favor de la introducción de la heterogeneidad para explicar ciertos problemas, también hubo una "reacción" de los que usan "la firma o el individuo representativo" para defender su relevancia aun en estas situaciones. Por ejemplo los movimientos de la participación del trabajo en el ingreso nacional puede conectarse con el coeficiente de desigualdad de los ingresos personales.

La información utilizada en la IA tuvo grandes cambios. Antes básicamente eran cuantitativas y pocas. Hoy son cuantitativas y cualitativas, y las cuantitativas al por mayor habiendo demandado el desarrollo de métodos apropiados para extraer toda la información que ello provee. La información cualitativa que antes era tímida y apenas pretendía indicar direcciones, hoy quiere competir con la cuantitativa. El manejo de la observación cualitativa parece que aun necesita de un mayor avance para entender las conclusiones que pueden sacarse de ella. En un caso reciente vi que si bien las familias como consumidores eran optimistas de las perspectivas futuras, deseaban en el presente ahorrar menos. En los setenta Kevin Lancaster había desarrollado las predicciones de los cambios basado en información cualitativa. Es de esperar que ahora con tantas encuestas cualitativas podamos tener un mayor respaldo teórico para usarlas mejor. Recientemente han empezado a competir con los indicadores tradicionales de los ciclos. Espero que no avancen a fuentes del crecimiento. Acá podemos notar que hubo una complementariedad entre datos y métodos. Los avances metodológicos hicieron útiles el uso de variables con valores cero y uno, si y no, acotadas, etc. Pero todavía no podemos decir que postraron del todo al MCO.

Los datos generados por los sistemas de remates (auctions) han permitido estimar ciertas características que antes no se habían logrado, especialmente en aspectos que hacen a la calidad del producto o servicio. Los llamados paneles sintéticos (al estilo de los "wage-education profile" de Houthakker) nos han permitido viajar a través del tiempo pasado y futuro (antes sólo se podía viajar a través del tiempo utilizando la nave tasa de interés).

Un tema importante es saber cómo pueden detectarse los fenómenos relevantes para estudiar y explicar. La gran depresión del 29 atrajo la atención de los principales economistas. Las grandes inflaciones también o las grandes caídas en la actividad económica tras los cambios en los sistemas económicos del Este europeo. Parece que estos fenómenos son como los grandes terremotos y aun más, ya que cubren una mayor zona geográfica. Me pregunté si uno puede tomar los temas a partir de la información periodística. Pensé que quizás allí se publican más temas que nosotros podemos considerarlos como "outliers" y no relaciones o aspectos sistemáticos. La econometría ha generado métodos para "podarlos" y utilizarlos juntos con los datos "normales". ¿Podemos generar teorías solo a partir de ellos? Me parece que la econometría subestima el rol de los mismos y trata de desprenderse de ellos como si fueran una molestia. Los "outliers" pueden ser como la punta del iceberg. Quizás se podría decir que la escasez de "outliers" hace que no tengamos buenas explicaciones de muchos fenómenos, o bien considerar que cada uno de ellos es distinto de los otros.

Hoy vivimos la expansión de los métodos experimentales. Acá se hace todo a la vez. Se desarrolla la teoría de tal forma de poder formalizar un experimento que brinde la información necesaria para poder contrastarla. Al principio me parecía un mero juego (ya que a su vez recurre a una profusa utilización de teoría de los juegos para llevar a cabo el experimento) y un poco alocado ya que una vez Charles Plott (uno de los pioneros de esta área) nos propuso participar de un experimento en finanzas en el que había que estar listo para actuar a las tres de la mañana. Luego fui cambiando de parecer, ya que el diseño del experimento requería tratar de entender muy bien cómo funciona el mercado, y de paso aprender bien Teoría de los Precios. En algunos casos los experimentos se diseñan en situaciones que el mercado no genera los datos necesarios para verificar ciertas hipótesis. Mi temor es que de tanto diseñar experimentos uno se convierta en un fanático de la planificación.

Otro enfoque interesante es el "contrafactual" impulsado por los historiadores económicos. En los sesenta Robert Fogel aplicó este enfoque para concluir que el crecimiento económico logrado hasta entonces se hubiera demorado solo en un mes si no hubieran introducido los ferrocarriles. Hubo luego una euforia de este procedimiento, pero actualmente no he visto que siga consiguiendo adeptos. Quizás fue sustituido o complementado con los métodos de simulación, pero creo que no son totalmente equivalentes. El método contrafactual puede ser útil cuando queremos identificar la relevancia de una cierta variable "exógena" sobre una endógena que no presenta mucha variabilidad.

La especialización en los Journals nos va indicando también en cierta medida la marcha de la IA. El Journal of Business anunció hace casi un año su discontinuidad por considerar que ya había muchas revistas especializadas que no justificaban la variedad de temas del JB. Recientemente me interesé por analizar los determinantes del precio del vino para ver el rol que tenían distintos aspectos que hacen a su calidad. Choqué con varios especialistas en Marketing que no creían totalmente que los precios indicaran calidad, ya que había muchas formas de lograr un precio alto de un vino de no muy buena calidad. Para el economista el precio es sagrado, así que me ofendí. Indagando en la literatura encontré que había varios trabajos de estimaciones de precios hedónicos del vino, donde entre otras cosas se analizaban el rol de la reputación, reputación colectiva (Tirole), lugar, cosecha, y otras cosas. Me sorprendí de encontrar un Journal of Wine Economics (2006). Con ello amplié mi concepto de liquidez, ya que no sólo lo era el dinero. El mensaje de esta pequeña historia es que muchas veces hay que buscar nuevos campos de aplicación para poder verificar diversas hipótesis que surgen de la teoría económica. Este es un caso interesante para ver el rol de la adicción lo que genera otras conductas de la utilidad marginal de los individuos. La reputación colectiva puede analizarse acá y ver su relevancia. Los precios hedónicos en este caso pueden servir para estimar cuánto hay de emotivo y cuánto de real en los cambios en los precios. Esto es algo que hoy preocupa mucho por el gran aumento registrado en los precios de las acciones en los últimos 15 años, en donde muchos temen que sea otro caso similar al de los tulipanes de Holanda (este país ya nos aportó los "bubbles" y la enfermedad holandesa y nosotros le aportamos una princesa). Otro caso interesante es el del deporte. Las reglas de competitividad de la NBA son bien interesantes analizarlas para ver el rol del mercado y su grado de eficiencia. Recientemente se encontró discriminación de los árbitros quienes parecían cobrarle más faltas a los jugadores negros que a los blancos. A veces en estas nuevas aplicaciones se requieren métodos más avanzados para poder sacarle provecho a los datos, pero muchas veces hay que esperar que se cansen los que aplican metodologías avanzadas para uno acercarse con un método más simple y tradicional.

¿Que queríamos estimar o conocer antes y que queremos hoy? Antes se quería cuantificar elasticidades precio de demanda y de oferta, elasticidades ingreso, elasticidades de sustitución entre factores, la propensión marginal a consumir, retornos de escala en la producción, tasas de retorno, entre otros parámetros. Cada uno de ellos tenía muchas aplicaciones y servirían para verificar ciertas hipótesis. Hace poco hemos encontrado que un buen ejercicio de aprendizaje es tratar de replicar algunos de estos estudios con datos actuales. Un caso interesante fue el de la demanda de energía eléctrica estimada por Hendrik Houthakker para Gran Bretaña con datos de corte transversal, utilizando ciudades en el año 1937. Tratando de replicar su ejercicio para el año 2003 solo aprendimos un poco del mapa de Gran Bretaña actual y que mucha de la variabilidad de los precios de energía y de los ingresos familiares se redujo notablemente, lo que dificultaba repetir exitosamente el resultado logrado por Houthakker. Otro caso interesante es el del modelo de Klein I.

Hoy se tratan de estimar muchos efectos propuestos para debilitar el rol del mercado, pero que no son fáciles de identificar. Hay muchos de estos ejemplos: cuan importante es la asimetría de la información en la solución que surgirá del mercado; cuan relevante es el papel que juega la señal para explicar los precios; cuan importante son todas las externalidades que se mencionan; cuan importante es la selección adversa en los mercados; en qué medida la existencia de incertidumbre afecta los parámetros o modelos ya conocidos; cuan públicos son los bienes así llamados; asimetría de los efectos de una suba con respecto a una baja en los precios; cuan importante es el efecto social en el comportamiento individual; entre otros. Si uno se fija en todas las condiciones que se mencionaban para establecer que un mercado era competencia perfecta, se puede ver fácilmente la evolución que tomó nuestra ciencia, ya que poco a poco fue modificando cada una de ellas para ver qué resultados brindaba y cómo servía para explicar los "nuevos fenómenos" que se iban observando en la economía. Ello es muy claro en el área de economía internacional a partir del modelo de dos factores, dos productos finales y dos países. La competencia perfecta "requería" muchos consumidores y muchos productores, libre entrada y salida de las firmas, transparencia en el sentido que todos sabían de todos, costo de transporte cero, homogeneidad de los productos e insumos, ausencia de externalidades internas, certidumbre, entre otros supuestos. A medida que vamos tocando cada uno de esos supuestos uno puede encontrar que el modelo de competencia perfecta no se verá afectado sustancialmente, si uno introduce el mercado relevante. Noto que se puso mucho peso en las implicancias de los diversos modelos propuestos y muy poco en la verificación empírica de estas implicancias. Pienso que sería más promisorio investigar el rol de la competencia para lograr ciertos objetivos. Un caso interesante que ya mencioné es el de la calidad de la educación. ¿En cuanto puede aumentar la calidad de las escuelas públicas si tuviera más competencia de las escuelas privadas? Este problema se da en numerosos programas sociales.

Antes teníamos numerosas paradojas que llevó su tiempo explicar o cuasi explicar. Dos famosas fueron las de Leontief en economía internacional, y la de Gibson en teoría monetaria. Hoy tenemos la paradoja de Lucas en economía internacional (pero ya referida al movimiento de factores y no al movimiento de bienes). Antes teníamos el efecto Ricardo y hoy tenemos la equivalencia de Ricardo. Hoy tenemos como desafíos el "equity premium" y el "schooling premium", la persistencia del diferencial de salarios debido al género. La baja convergencia es un problema de entonces y de hoy. Es curioso ver que la expectativa racional reemplazó a la expectativa adaptativa y sin embargo en los comienzos de cada crisis bursátil o proceso inflacionario se termina recordando períodos como la crisis del 29 y de las hiperinflaciones.

En un libro reciente de David Galenson sobre la creatividad analizando el caso de los pintores impresionistas y modernos (y hoy extendido a músicos, directores de cine, y poetas) uno se podría plantear de otra forma el tema de esta charla. El separa entre los conceptualistas (más bien teóricos) y los experimentalistas (teóricos o aplicados). Encuentra que la principal contribución de los conceptualistas aparece cuando tienen una edad menor a los treinta años. En cambio los experimentalistas que buscan y no se cansan de buscar, la principal contribución se da normalmente cuando se tiene setenta o más años, algunos a los ochenta. Lo interesante es que este "profile" se da para dos grupos de pintores muy distantes en el tiempo. En un entorno académico apropiado la misma persona evoluciona con los datos y los métodos en el caso de ser experimentalista. Si uno es conceptualista habría que luchar con lo más moderno. Este análisis pienso es muy útil para entender la economía de las superestrellas y así termina mi paseo de casos que espero los haya entretenido.

Notas
1 Pagan, A. R & Wickens, M R, 1989. Economic Journal, Royal Economic Society, vol. 99(398), pp. 962-1025, december.
2 Cuando estuvo Hendrik Houthakker en Buenos Aires para dar la conferencia en la Reunión Anual de la AAEP en La Plata, me hizo notar que había dos Working, hermanos. Vicente Vazquez Presedo, organizador de la cena, sonreía de mi confusión, y se acordaba de varios casos similares todos famosos (Muth, John y Richard; Alemann, Roberto y Juan). También hay casos de padre e hijo y matrimonios.
3 Victor J. Elias, "Estimates of Value Added, Labour and Capital in the Manufacturing Sector of Argentina: 1935-1963", Ph. D dissertation, University of Chicago, Illinois, 1969.
4 Guillermo Calvo, en la entrevista reciente que le hizo de Juan Carlos de Pablo, manifestó que la marcha de la economía argentina le sirvió de inspiración para muchos de sus trabajos.