Falacias, dilemas y paradojas, 2a ed.

- -
- 100%
- +
Mientras que la aceleración sería la derivada de la velocidad, es decir, la segunda derivada de la posición respecto del tiempo dos veces. Por lo tanto, la aceleración se puede interpretar como «la velocidad a la que cambia la velocidad», mientras que «la velocidad con que cambia la aceleración» sería la tercera derivada. Del mismo modo, hablar de «acelerar la velocidad a la que cambia la velocidad» consistiría matemáticamente en la cuarta derivada de la posición respecto del tiempo cuatro veces, y así sucesivamente, hasta la n-ésima derivada.
La interpretación del concepto de aceleración que hacemos cuando en el lenguaje coloquial hablamos de un objeto que se acelera o, lo que es lo mismo, que varía (incrementa o disminuye) la velocidad respecto de la variable tiempo es la correcta. ¿Se puede hablar de «acelerar la velocidad»? Seguro, todo es posible, pero nos estaríamos refiriendo entonces a la «velocidad de cambio de la aceleración» (tercera derivada) y así sucesivamente con todos los términos (y derivadas) que se nos puedan ocurrir.
La velocidad de la velocidad o aceleración (segunda derivada) la puedo cambiar a mi gusto (tercera derivada, etc.). La puedo aumentar, acelerando, es decir, aumentando la velocidad. También la puedo disminuir, ralentizando, es decir, disminuyendo la velocidad de cambio en el tiempo. La aceleración es la variación de la velocidad con el tiempo y, por tanto, no se mide en kilómetros por segundo, como se podría pensar, sino en kilómetros dividido por segundos al cuadrado, ya que hay que dividir la velocidad (km/s) por el tiempo (s).
La noción de crecimiento en economía es exactamente la misma que en la naturaleza, como puede ser, por ejemplo, el crecimiento de una planta. Por eso, la fórmula del tipo de interés compuesto continuo –que necesita del uso de los límites y de los logaritmos neperianos para su cálculo– explica por qué, en este asunto, no hay ninguna diferencia con la física.
La lengua castellana y el lenguaje físico-matemático no coinciden siempre al cien por cien. En castellano, la palabra acelerar –y supongo que, por su significado en física, también en otras lenguas– significa ‘incremento de la velocidad en la unidad de tiempo’, es decir, aumentar la velocidad de alguna cosa en una unidad de tiempo. En física también tiene el mismo significado. Desgraciadamente, el diccionario de la RAE no nos clarifica si este incremento es constante y estable, es decir, en el sentido de una segunda derivada con valor constante, o por el contrario, variable en el sentido, por ejemplo, de una función de crecimiento exponencial.
Si el aumento de la velocidad no es continuo en el tiempo, sino que sólo se produce en un intervalo temporal finito, entonces la velocidad se incrementa hasta un nuevo valor, pero se estanca o –lo que es lo mismo– se estabiliza. Por eso, aunque no lo recoja el diccionario, el «sentido» del verbo acelerar, en la forma en que habitualmente lo utilizamos, es el de incremento continuo, que podría tomar la forma de función parabólica, exponencial u otra distinta, y no el de un salto discreto desde un nivel anterior de velocidad en la unidad de tiempo –y, por tanto, desde un nivel «estable» de velocidad– a otro nivel «estable» de velocidad.
En resumen, matemáticamente todas las derivadas son posibles. La interpretación «física», por su parte, determina el «sentido» de las funciones y se refiere a «cosas», siendo posibles todas las derivadas de esas cosas y, por lo tanto, «la función o variable posición de una partícula y la función o variable economía» podrían interpretarse del mismo modo.
Retomando el inicio de la píldora, cuando el ministro de Economía y Hacienda afirmaba que existía una «desaceleración acelerada», ello suponía y supone, según lo expuesto, que la desaceleración con el tiempo sigue una función que no es lineal –ya sea parabólica, exponencial o polinomio de orden mayor que la unidad– y, por lo tanto, hay que entender sus palabras como que «nos desaceleramos cada vez más rápidamente», ya que en el caso de que fuese una función lineal ese ritmo de desaceleración sería constante.
En otras palabras, si hoy la economía se desacelerase a razón de un cierto valor/día, digamos 10, mañana nos desaceleraríamos a razón de, por ejemplo, 100, pero pasado mañana no a razón de 1.000 (como cabría esperar si la relación fuera lineal), sino a razón de una magnitud superior, digamos 10.000, y el día siguiente, digamos 10.000.000.000, y así sucesivamente. Por suerte, el señor ministro de Economía no concretó si la aceleración de la desaceleración era constante o acelerada. En el caso de que fuese constante, la desaceleración se aceleraría de forma vertiginosa y se haría casi incalculable. Pero si la aceleración de la desaceleración se incrementase con el tiempo, es decir, fuese a su vez acelerada... ¡Qué mareo! En su lugar, casi que habría preferido utilizar la palabra recesión, o el término crisis económica, no sé... algo más tranquilo... ¿no?
Píldora 4
El dilema Goodhart
Las variables económicas tienen vida propia y, cuando se sacralizan, todavía más. Conviene tener esto muy en cuenta cuando se aborda cualquier análisis de tipo económico. En primer lugar, porque tanto la buena investigación empírica como el buen análisis económico requieren, para empezar, un examen detenido de los escollos y las trampas que nos tienden los propios datos, lo cual, en muchas ocasiones, sitúa la economía más cerca de un arte que de una ciencia. En segundo lugar, porque los datos están cargados de teoría la mayor parte de las veces, y este hecho produce un debilitamiento del proceso de objetivación en economía y del valor pretendidamente objetivo del análisis económico, de las verificaciones empíricas y de su carácter predictivo y, por lo tanto, científico.
Por esta razón, es conveniente que, antes de empezar cualquier investigación, sopesemos con cuidado lo apropiado que resulta elegir una u otra serie de datos; valoraremos lo que llamaría «limpieza de los datos». También conviene evaluar qué problemas nos pueden crear las observaciones extremas, las interacciones y, sobre todo, las variables irrelevantes que tantas malas pasadas juegan a los sistemas abiertos y complejos, como es el caso de la economía, cuyas predicciones no pueden tomar en cuenta dichas variables a pesar de que vienen determinadas por ellas. Por eso, muchas veces, éstas impiden que se le pueda aplicar a la economía la definición clásica de conocimiento, es decir, la de creencia verdadera justificada.
La importancia de utilizar datos económicos apropiados, limpios y descargados de teoría quedaría en parte englobada en lo que los económetras han etiquetado con el nombre de «errores de medida» (measurement errors), y que tienen una importancia capital, especialmente en los análisis económicos relativos a las cuestiones del mercado de trabajo. Pero hay más. Aun teniendo datos «limpios» y evitando la influencia de las variables irrelevantes, todavía es posible un comportamiento perverso de éstos, y aquí es donde entra en juego el famoso dilema Goodhart.
El origen de este dilema se encuentra en otro que veremos en la píldora que se refiere a la controversia entre la instrumentación de la política económica, ya sea mediante reglas o normas (rules) –como, por ejemplo, ocurría en los años setenta y ochenta con el establecimiento de normas monetarias para el crecimiento anual del stock de dinero– ya sea, por el contrario, mediante la discrecionalidad y el buen juicio económico (judgment) (Sanchis y Bekx, 1994: 21). En efecto, el dilema Goodhart nos habla de la capacidad que tienen algunas variables económicas para comportarse de forma caprichosa e inconsistente con lo que había sido, hasta ese momento, su trayectoria vital, una vez que las autoridades las sitúan bajo los focos de la observación pública y atribuyen a su evolución un elevado valor político. De este modo, se encuentran sometidas a un estricto control y presión políticos.
Charles Goodhart, profesor de la London School of Economics, criticaba el pretendido valor taumatúrgico que los monetaristas atribuían al control –mediante el establecimiento de reglas– de las distintas definiciones de stock monetario al analizar la estabilidad de la demanda de dinero, y planteó el dilema que subyacía a la relación entre magnitud monetaria y gasto nominal, en los siguientes términos: «cualquier relación estadística estable tenderá a debilitarse tan pronto como pretenda utilizarse como mecanismo de control».
Pero el dilema Goodhart se extiende más allá de lo monetario e invade otros terrenos de la economía, como puedan ser el de la política fiscal o el del mercado de trabajo, entre otros. También va más allá de lo económico e invade cualquier otro ámbito del comportamiento humano que se encuentre bajo presión, ya sea la política o de otro tipo, siempre que tenga lugar bajo los mismos presupuestos. En definitiva, el dilema Goodhart no es otra cosa que nuestro castizo: «hecha la ley hecha la trampa». En el terreno de la industria armamentística, por ejemplo, España prohibió hace poco la fabricación de bombas antipersonas, pero sigue fabricando cuatro tipos distintos de bombas racimo cuyos efectos sobre el terreno son equivalentes a los de las bombas antipersonas.
Recordemos también el período anterior a los informes de convergencia de la Comisión Europea y del Banco Central Europeo que hicieron luego posible el nihil obstat del consejo Europeo para permitir la entrada de los países de la Unión Europea en el euro. En aquellos años, la prensa europea hablaba continuamente de «contabilidad creativa» al referirse a los criterios estadísticos y de contabilización para determinadas operaciones de la contabilidad nacional que establecían algunos países con el fin de alcanzar la cifra objetivo de déficit a la que obligaba el Tratado de Maastricht.
Algo parecido empezó a ocurrir en materia de empleo desde que se lanzó en 1997, durante la Cumbre de Luxemburgo, la Estrategia Europea para el Empleo. Y sigue ocurriendo hoy, sólo basta con leer algunos de los titulares de aquella época y otros más recientes: (i) «El paro se reduce en 202.600 personas hasta marzo tras los cambios introducidos en la EPA» (El País, 20/05/1999); (ii) «Los métodos de la EPA, en entredicho. Los cambios metodológicos en la Encuesta de Población Activa desatan la polémica sobre la fiabilidad de la muestra» (El País, 1999), y (iii) «La nueva EPA endurece los requisitos para calificar a los parados y los reduce en 334.600. Un cambio por imperativo europeo» (El País, 3/02/2002). En realidad, lo que está actuando sobre la EPA es el dilema Goodhart; por eso, como señalaba en el prólogo a la primera edición de este libro, es conveniente que en economía procuremos siempre discernir entre apariencia y realidad.
Bibliografía
Conthe, M. (1998): «El dilema de Goodhart», El País, 15 de julio de 1998, p. 44.
El País (1999): «El paro se reduce en 202.600 personas hasta marzo tras los cambios introducidos en la EPA», El País, 20 de mayo de 1999, p. 57.
— (1999): «Los métodos de la EPA, en entredicho. Los cambios metodológicos en la Encuesta de Población Activa desatan la polémica sobre la fiabilidad de la muestra», El País, 20 de mayo de 1999, p. 58.
El País (2002): «La nueva EPA endurece los requisitos para calificar a los parados y los reduce en 334.600. Un cambio por imperativo europeo», El País, 3 de febrero de, 2002, p. 42.
Sanchis, M. y P. Bekx (1994): «Money Demand and Monetary Control in Spain», Brookings Discussion Papers in International Economics, 105: 21, The Brookings Institution, Washington, D.C.
Píldora 5
Còmo medir variables cualitativas en economía
Aunque a veces somos capaces de observar con facilidad las diferencias de calidad que hay entre distintos bienes –en principio, más o menos homogéneos– en un momento del tiempo, los cambios en la calidad también suelen ocurrir a lo largo del tiempo para un mismo bien. Tanto es así que una de las cuestiones del análisis económico más debatidas en la actualidad consiste en saber cómo se deben medir los cambios en la calidad a lo largo del tiempo para un mismo bien que –aunque se supone homogéneo en el tiempo– ha sufrido mejoras en la calidad debido, sobre todo, a los cambios tecnológicos asociados al desarrollo de la nueva economía.
Al estudiar la posibilidad de medir la calidad en términos económicos, el análisis se centró, al principio, en los índices de precios, pero uno de los defectos de estos índices consistía –y aún consiste– en que no eran capaces de reflejar debidamente los cambios en la calidad de un mismo producto. Para remediar este problema, el análisis económico propuso los precios hedónicos como base para poder analizar los cambios en la calidad. La construcción de índices de precios hedónicos, es decir, de índices de precios ajustados por la calidad para distintos tipos de bienes, se realiza mediante la utilización de métodos econométricos de regresión múltiple, que permiten tomar buena nota de los cambios en la calidad de unos mismos bienes a lo largo del tiempo o de unos mismos bienes entre sí –y, en principio, homogéneos– en un mismo momento del tiempo. En otras palabras, el enfoque hedónico convierte el problema de la «calidad» en una medida de cantidad.
El padre fundador del análisis de los precios hedónicos es Zvi Griliches (1961), aunque el trabajo más ampliamente citado en la literatura que dio origen a esta forma de abordar la medición de las variables cualitativas en economía fue el desarrollado por Andrew T. Court (1939). Aunque Andrew Court se ha llevado toda la gloria, en realidad, este método de medir la calidad tiene su origen, en realidad, en los trabajos pioneros de Haas (1922) para estimar el valor de las tierras agrícolas. Haas desarrolló una metodología consistente básicamente en estimar una regresión con el precio final del producto como función de las características actuales de las casas.
Sea como fuere, la General Motors le encargó a Court un estudio para que demostrara que las quejas que GM recibía por parte de los consumidores sobre los elevados precios de los automóviles no estaban justificadas. Esto era debido a que el aumento en la calidad del vehículo –que el consumidor suponía invariable en el tiempo– no se veía reflejado en el incremento de precios. Partiendo del paradigma del utilitarismo inglés de finales del siglo xviii y de principios del siglo xix, según el cual, el único fin legítimo de cualquier institución era «la mayor felicidad para el mayor número»,8 Andrew T. Court definió las comparaciones de precios hedónicos en los automóviles como aquellas que tenían en cuenta la contribución potencial de cualquier elemento constitutivo del automóvil –como, por ejemplo, el motor– al bienestar material del comprador y de la comunidad.
Además, señaló que los automóviles proporcionaban toda una serie de servicios para el disfrute de los usuarios y que, por lo tanto, sería deseable poder medir directamente el incremento en el bienestar y la felicidad derivado de dichos servicios. Aunque esto es lógicamente imposible, sí que podemos relacionar la satisfacción y el bienestar que recibe con el automóvil el consumidor con las características físicas –como, por ejemplo, el diseño, la maniobrabilidad, etc.– y los atributos operativos y técnicos –como, por ejemplo, la potencia, la velocidad, la seguridad, etc. –del vehículo. Combinando los datos que reflejan dichos atributos se puede construir un índice de utilidad y deseabilidad, es decir, de contenido hedónico, y, si dividimos los precios del automóvil por dicho índice hedónico, podemos obtener comparaciones relevantes en términos de calidad.
Pero la utilidad del enfoque hedónico no se ha limitado a los automóviles o a los índices de precios. Esta metodología se ha usado también en otros productos como, por ejemplo, los ordenadores (Chow, 1967: 1117-1130) o los espárragos, estudiando la influencia de los atributos de los espárragos sobre su precio (Waugh, 1928: 185-196). Y se ha hecho uso de ella con profusión en otras áreas de la economía como las primas en la industria del seguro o los costes del transporte por camión, no mediante una medida de output única –como toneladas por kilómetro recorrido–, sino ajustado por los atributos de lo transportado, dado que el output transportado es muy heterogéneo (Spady y Friedlaender, 1978: 159-178). Idealmente, se podrían construir índices hedónicos para medir la calidad de otras variables económicas con mayor contenido político, y obtener mediciones del gasto público o del PIB, por ejemplo, ajustadas por la calidad. Es muy probable, sin embargo, que las enormes dificultades metodológicas a las que tendríamos que hacer frente hiciesen inviables o controvertidas dichas estimaciones hedónicas.
Otro aspecto de la realidad económica sobre el que también podríamos medir la calidad es la fuerza de trabajo, la cual constituye un elemento determinante en los modelos de crecimiento. Tanto es así, que algunos de los economistas americanos más prestigiosos consideraron clave el deterioro de la calidad de la fuerza de trabajo para explicar la caída de la productividad en EE. UU. después del primer shock del petróleo (Baily y Gordon, 1988: 370).
Tomemos entonces este último caso, por ser un ejemplo importante y porque nos concierne de cerca, pues recordemos que el Consejo Europeo de Lisboa de marzo del 2000 estableció como objetivo para el año 2010, entre otros, obtener «más y mejores puestos de trabajo». Esto se ha traducido en una serie de importantes trabajos elaborados por la Comisión Europea, que ha sido la encargada de reflexionar sobre el mejor modo de alcanzar «mejores» puestos de trabajo, y de analizar y medir las transformaciones que los cambios tecnológicos asociados al desarrollo de la nueva economía podían inducir en la calidad del trabajo.
Teniendo en mente todo lo anterior, sería interesante explorar las posibilidades que puede ofrecer el enfoque hedónico en el análisis de la calidad del trabajo, ya que puede resultar relativamente fácil transponer el mismo procedimiento que se utiliza en la construcción de índices de precios ajustados por la calidad, para construir índices de ganancias salariales ajustadas por la calidad del trabajo.
Del mismo modo que ocurre en el estudio de Andrew T. Court, sería plausible asociar la satisfacción de los trabajadores en el trabajo al conjunto de atributos de ese puesto de trabajo. Aunque los salarios son un elemento importante en la calidad de un trabajo, no son el único. Sin embargo, dado que hay una estrecha relación entre ganancias salariales y calidad en el trabajo, sería razonable considerar las ganancias salariales como una variable (proxy) que se aproxime a la calidad del trabajo. Por consiguiente, podríamos defender que la calidad de un trabajo, medida por el nivel de sus ganancias salariales, puede ser ajustada a un conjunto de características adicionales de calidad, y que dicho conjunto de atributos puede evolucionar a lo largo del tiempo. Se trataría de atributos tales como el nivel de educación, la formación profesional, la formación profesional en el puesto de trabajo, las condiciones de salud y seguridad en el trabajo, la satisfacción en el trabajo debido a la distancia entre el lugar de trabajo y el domicilio del trabajador, el tipo de trabajo y las condiciones del contrato de trabajo según fuese a tiempo completo, a tiempo parcial, contrato indefinido, contrato temporal, etc.
Bibliografía
Adelman, Irma y Zvi Griliches (1961): «On an Index of Quality Change», American Statistical Association Journal, septiembre, pp. 535-548.
Baily, Martin Neil y Robert J. Gordon (1988): «The Productivity slowdown, Measurement Issues, and the Explosion of Computer Power», The Brookings Papers on Economic Activity, 2, Washington, D.C., pp. 347-431. Bentham, Jeremy (1990): Falacias Políticas, Centro de Estudios Constitucionales, Madrid, 227 pp.
Berndt, Ernst R. (1990): «The Measurement of Quality Change», capítulo 4 de The practice of Econometrics, Addison-Wesley, pp. 102-149.
Chow, Gregory C. (1967): «Technological Change and the Demand for Computers», American Economic Review, 57:5, diciembre, pp. 1117-1130.
Comisión Europea (2001): Políticas sociales y de empleo: un marco para invertir en calidad, Comisión Europea, Bruselas, COM(2001) 313 final.
Court, Andrew T. (1939): «Hedonic Price Indexes with Automotive Examples», en The Dynamics of Automobile Demand, The General Motors Corporation, Nueva York, pp. 99-117.
Griliches, Zvi (1961): «Hedonic Price Indexes for Automobiles: Аn Econometric Analysis of Quality change», The Price Statistics of the Federal Government, General Series, 73, Columbia University Press for the National Bureau of Economic Research, Nueva York, pp. 137-196.
Haas, G. C (1922): «Sales prices as a basis for farm land appraisal», Technical Bulletin, 9, University of Minnesota, Agricultural Experiment Station, St Paul, Minnesota.
Spady, Richard H. y Ann F. Friedlaender (1978): «Hedonic cost functions for the regulated trucking industry», The Bell Journal of Economics, primavera, pp. 159-178.
Waugh, Frederick V. (1928): «Quality Factors Influencing Vegetable Prices», Journal of Farm Economics, 10:2, abril, pp. 185-196.
ejercicios
1 Indique si es correcta la siguiente frase y justifique su respuesta: «Un argumento es válido o correcto en el ámbito de la lógica formal si no puede darse el caso de tener las premisas verdaderas y la conclusión falsa».
2 Indique si es correcta la siguiente frase y justifique su respuesta: «En lógica formal es posible que un argumento sea correcto y, al mismo tiempo, falso».
3 Indique si es correcta la siguiente frase y justifique su respuesta: «Un argumento es válido o correcto en el ámbito de la teoría de la argumentación si es válido desde el plano de la lógica, coherente desde el ámbito de la semántica y cogente para la psicología del receptor».
4 Indique si es correcta la siguiente frase y justifique su respuesta: «En la teoría de la argumentación, el triángulo RAS define las condiciones de relevancia, aceptabilidad y significatividad que debe cumplir todo argumento genuino».
5 Indique si es correcta la siguiente frase y justifique su respuesta: «falacia, sofisma y paralogismo son términos equivalentes entre los que no existen matices».
6 En una de las píldoras se menciona: «El señor Trichet se enfrenta a un nuevo dilema: gestionar una política monetaria que sea eficaz tanto para países con inflación, como para otros en peligro de deflación». Defina dilema y explique por qué podemos hablar de ello en este caso.
7 Indique si es correcta la siguiente frase y justifique su respuesta: «La economía no tiene nada que ver con la teoría de juegos y con los dilemas».
8 Acuda a un periódico de información económica y descubra titulares o noticias que contengan argumentos económicos falaces del tipo: «Si no aumenta la productividad laboral o aumenta la tasa de empleo, la economía española no crecerá». ¿Por qué es falaz este argumento? ¿Qué tipo de falacia representa?
9 Acuda a un periódico de información económica y descubra titulares o noticias que contengan argumentos económicos falaces del tipo: «Si se reducen los salarios disminuirá el consumo agregado». ¿Por qué es falaz este argumento? ¿Qué tipo de falacia representa?
10 Indique si es correcta la siguiente frase y justifique su respuesta: «Los datos económicos son siempre fiables pues reflejan la cruda realidad, y utilizarlos como observaciones de una muestra estadística nos permite elaborar predicciones económicas, lo que constituye uno de los atributos de la economía y nos permite hablar de ella como de una ciencia».
11 El director del Servicio de Estudios de FUNCAS, Ángel Laborda, escribió en el periódico El País (18 de enero del 2009, p. 22): «... la inflación se redujo bruscamente, cerrando el año [2008] en un 1,4%. [mientras que] La inflación media anual se situó en el 4,1%, la más alta desde 1995». Explique cómo es posible que la economía española tenga dos cifras de inflación tan distintas en un mismo año.
actividades de la web
En la dirección de la página web se pueden encontrar una serie de actividades relacionadas con este capítulo que se consideran de alto nivel formativo.