La Macroeconomía del Capital: Otra mirada

La economía, como la geometría, es el arte                                                                     de razonar correctamente sobre figuras mal hechas

La macroeconomía basada en el capital (MBC) es una teoría económica muy propia de la Escuela Austríaca de Economía (EAE) que se inicia a finales del siglo XIX con Carl Menger y fue desarrollada por su alumno Eugen von Böhm-Bawerk y continuada después por su discípulo Ludwig Von Mises y su talentoso seguidor Friedrich A. Von Hayek.

La confrontación de la MBC y la macroeconomía basada en el trabajo (MBT), iniciada por John Maynard Keynes y sus seguidores, constituye la mayor confrontación ideológica del siglo XX, y extiende sus ramas al siglo XXI sin dar muestra de extinguirse. Las propuestas contenidas en MBT tienen una descomunal aceptación en el mundo moderno en virtud de la acogida que le ha dado la Social Democracia. Es una teoría que invita al equipo gubernamental a intervenir la economía, otorgándole la responsabilidad del crecimiento económico.

Es interesante advertir, casi paradójico, que Hayek y Keynes, quienes eran amigos, que vivieron las mismas épocas de depresión y de auge económico, que padecieron las dos grandes guerras, hayan llegado a diagnosticar, y proponer soluciones, el problema económico de forma diametralmente opuesta. No cabe la menor duda que el debate Hayek vs Keynes fue, y lo es ahora, el más sonado debate académico-económico de toda la historia de ésta, la ciencia triste, como la llamó Thomas Carlyle.

Sería casi imposible, y no es el propósito de este artículo, citar y reseñar toda la literatura que se ha escrito, y se escribe hoy, sobre aquel apasionante debate, en el que destacados economistas participan con mucho talento y fogosidad.

Los economistas gustan de exponer sus argumentos con el uso de gráficas porque ellas son sugestivas y de rápida comprensión. La MBT tiene su famosa gráfica IS LM, llamado el modelo macroeconómico Hicks – Hansen, en cambio la MBC carecía de un modelo satisfactorio hasta cuando en 1976 Roger W Garrison desarrolló un método gráfico para explicar la teoría MBC y consignado en un ensayo que tituló Austrian macroeconomics: a diagramatical exposition. Finalmente Garrison amplió su exposición en un famoso libro titulado Time and money: the macroeconomics of capital structure. En la figura se muestra los tres esquemas ensamblados que usa Garrison en su análisis,

grafica

La tradicional macroeconomía del capital hace uso de la función de producción Y=f(K,T) en donde K determina el capital y T el trabajo. Esta visión macroeconómica no distingue entre los diferentes elementos constitutivos del capital y el trabajo dándoles un carácter de homogeneidad que le impide un análisis detallado de la macroeconomía.

Como una respuesta a aquella visión tradicional de la macroeconomía, la teoría de la macroeconomía basada en el capital se ocupa de las relaciones profundas que existen entre el ahorro, la inversión, el consumo, la tasa de interés y el carácter temporal de la producción. La importancia de la teoría reside en que explica el crecimiento económico y los ciclos de auge y depresión que son recurrentes en todas las economías de los países.

Quienes han hecho importantes avances en MBC lo han hecho con explicaciones verbales o, como nos la ofrece Garrison, en forma gráfica. Yo creo que esas maneras de explicar la teoría puede ser mejorada con el uso de herramientas matemáticas sencillas que aportan exactitud y transparencia argumental. Ese es el objetivo del presente artículo.

Primero es necesario hacer algunas advertencias importantes que ambienten la metodología que emplearemos en este trabajo. No es propio de la EAE hacer uso de argumentos matemáticos en sus explicaciones, ello es debido al impropio rechazo que sus fundadores le imprimieron a sus discusiones y al abuso que muchas escuelas de pensamiento económico han hecho de la matemática obscureciendo innecesariamente sus argumentos. No obstante creo que muchos de los cultores de la EAE se ponen de espaldas de uno de los instrumentos más valiosos del pensamiento humano.

No existen relaciones matemáticas precisas y bien definidas entre ahorro, inversión, consumo, tasa de interés y producción. No existe, por ejemplo, una fórmula matemática que relacione la tasa de interés y la inversión, o la tasa de interés y el consumo, etc, pero es saludable pensar que sí existen tales relaciones aunque nunca lleguemos a conocerlas. Esas relaciones que, en modelos matemáticos, pudiesen ser representadas por curvas complicadas, las podemos aproximar por expresiones lineales que simplifican los análisis. Este será el método que optaremos. Cómo se sugiere en la figura, una curva la podemos aproximar a una línea recta.

curva-aproximada

Sabemos cuatro relaciones entre aquellos conceptos:

1.Un incremento del ahorro hace descender la tasa de interés.(efecto de oferta y demanda de dinero)

2. Un incremento de la tasa de interés hace descender la inversión. (efecto de oferta y demanda de dinero)

3. El ahorro se compone del consumo y la inversión.

4. Un incremento de la inversión hace descender el consumo. (ley de preferencia temporal)

Denotaremos con R la tasa de interés, con I la inversión, con A el ahorro, con C el consumo y con P la producción, que se mide, ésta última, en tiempo o en número de etapas necesarias en la producción de bienes de capital o de consumo. Las relaciones anteriores las modelamos de la siguiente forma

R + m.A = α      (1)

R + n.I = β         (2)

A – I – C =0       (3)

C + s.I = γ           (4)

en donde m, n, s, α, β, γ son parámetros positivos.

Puesto que α es constante, de la ecuación (1) se deduce que un incremento del ahorro A implica una disminución de la tasa de interés R, ello corresponde al punto 1) anterior. El mismo argumento aplica para las relaciones 2), 3) y 4) con relación a las ecuaciones (2), (3) y (4) respectivamente. Observemos que la ecuación (4) es la expresión analítica que hemos escogido para caracterizar la frontera de posibilidades de producción (FPP).

La matriz del sistema de ecuaciones anterior es

1

m

0

0

1

0

n

0

0

1

-1

-1

0

0

s

1

El determinante de la matriz anterior es d = -n + m(s-1). El sistema lo podemos simplificar, sin perder generalidad, haciendo los parámetros m = n = s =1. Observamos que el sistema, así simplificado, está unívocamente determinado ya que la matriz que define el sistema tiene determinante no nulo d = -1. Llegamos, entonces, a que las soluciones del sistema de ecuaciones son:

R + A = α           (5)

A = γ                  (6)

I = β – α + A     (7)

C = α – β           (8)

De otra parte, en una economía real el consumo C no puede ser nulo, por lo tanto de la ecuación (8) obtenemos que α > β.

La tasa de interés R = α – γ debe ser considerada como la tasa de interés natural conseguida con nuestro sistema de ecuaciones. Garrison asume en su esquema que el triángulo hayekiano formado por el tiempo o las distintas etapas de producción P, en el cateto horizontal, y el consumo C en el cateto vertical, define la tasa de interés como la pendiente de hipotenusa del triángulo. En ese caso tendríamos que P = C/ R y constituye el enlace entre la producción, la FPP y el mercado de fondos prestables. Esto es,

P = C/ R      (9)

P = C/(α-A) = (α – β)/(α-A)      (10)

Son varias las conclusiones que podemos extraer de la ecuación (9) y (10). Primero observemos que el parámetro α denota la máxima tasa de interés del mercado, ésto es: cuando el ahorro A = 0; el parámetro β denota la máxima tasa de interés del mercado aplicada a la inversión, ésto es: cuando la Inversión I = 0. Entonces el consumo C está determinado por la diferencia de aquellas dos tasas de interés.

Conclusiones

De la ecuación (10) concluimos que

1). Un incremento en el ahorro voluntario A implica que el denominador (α-A) de la ecuación (10) disminuye, ésto es: α – A > α – (A + ε), con ε > 0. Por lo tanto las etapas de producción P se alargan. Además, por la ecuación (7), la inversión I se incrementa.

2). También, una disminución del ahorro voluntario A implica un acortamiento de las etapas de producción P. Además, por la ecuación (7), la inversión I disminuye.

En términos de la tasa de interés R, las dos conclusiones anteriores las podemos expresar así:

3). Con una disminución de la tasa de interés R, las etapas de producción P se alargan. Además, por la ecuación (2), la inversión I se incrementa.

4). Un incremento de la tasa de interés R implica un acortamiento de las etapas de producción P. Además, por la ecuación (2), la inversión I disminuye.

Los casos 1) y 3) son conocidos como una economía de crecimiento o expansiva. Los casos 2) y 4) como una economía regresiva.

Otras conclusiones

De la ecuación (10) se desprende que

5). Un incremento de la máxima taza de interés aplicada a la inversión, β, lleva a una disminución del consumo C y un acortamiento de las etapas de producción P.

6). Una disminución de la máxima taza de interés aplicada a la inversión, β, lleva a un aumento del consumo C y a un alargamiento de las etapas de producción P.

El caso 5) nos conduce al peor escenario que puede vivir una economía. Es casi al que se puede vivir en un estado de guerra, una situación en la que ni se produce ni se consume.

Por el contrario, el caso 6) es el más esplendoroso: se presenta un alargamiento de las etapas de producción y un incremento en el consumo lo que indica una expansión de la FPP. Veámoslo: El consumo está definido como C = α – β. Si hacemos que β disminuya, digamos β – ε, ε > 0, tendremos un nuevo consumo C1 = α – ( β – ε ) = C + ε. Ahora, como la FPP esta definida como C = – I + A, obtenemos que la nueva FPP queda como C1 = – I + A + ε Es decir la frontera de posibilidades se ha expandido, lo que indica un sano crecimiento económico. Es importante anotar que se trata de la misma situación cuando lo que consideramos es un incremento del ahorro voluntario A + ε, ε > 0. Es decir: una rebaja en las tasas de interés o un incremento en el ahorro voluntario producen el mismo efecto macroeconómico.

Finalmente, con la expansión de la FPP se advierte un sano fenómeno deflacionario de los precios del consumo. Puesto que el precio del consumo se define como q = A/C, con la expansión de la FPP el nuevo precio del consumo será q1 = (A + ε)/ C1 = (A + ε)/ (– I + A + ε). Es fácil ver que q1 < q. Ello indica que los salarios reales de los trabajadores se ven incrementados.

Ciclos económicos

Para estudiar el fenómeno de ciclos económicos de auge y depresión es importante tener en cuenta que la ecuación (10) P = C/(α-A) nos indica que las etapas de producción P tienen un tiempo, o una longitud de las etapas de producción bien definido, dependen del ahorro voluntario A y del consumo C del momento; no pueden ser alargadas o recortadas arbitrariamente sin que el empresario sufra pérdidas.

La pregunta fundamental es ¿qué sucede cuando el ahorro voluntario A es incrementado artificialmente por una fuente externa, las autoridades monetarias por ejemplo, en una cantidad ε ?, ya sea imprimiendo billetes o con líneas de crédito (Mises llamaba a ese ε crédito circulatorio o como se usa hoy en la literatura crédito creado, nombre que le asignó Fritz Machlup). Lo primero que observamos es que se genera un nuevo alargamiento de las etapas de producción P1 = C/(α-A+ε) y es claro que P1 > P.

Con el alargamiento de las etapas de producción a causa de ese repentino incremento artificial y momentáneo del ahorro que pasa de A a A + ε el empresario es víctima de una desinformación. Veamos por qué: por un lado el empresario observa que las etapas de producción se han alargado. El empresario se siente, por lo tanto, estimulado a iniciar planes productivos a más largo plazo, P1, en virtud de la caída de las tasas de interés R. Pero por otro lado, es claro que ante un incremento rápido y artificial del ahorro A lo primero que se incrementa es el consumo C, la inversión I siempre crecerá más lentamente que aquel. Este incremento repentino del consumo C implica, por la ecuación (4), una caída de la inversión I, y por la ecuación (2) esta caída de la inversión implica un incremento de la tasa de interés R. En este punto el empresario pierde la brújula puesto que no sabrá si la ecuación (9) es confiable ya que no sabrá cuál sera el comportamiento del cociente P = C/ R ya que tanto numerador como denominador están creciendo y ello puede conducir a que P crezca o decrezca.

En el caso en que P decrezca y el empresario haga uso de la primera información que le dice que P1 > P, la trampa está servida.

La nueva FPP, como lo vimos antes, se transforma artificialmente en C1 = – I + A + ε que determina una sobre inversión por parte del engañado empresario quien tiene que pagar los costos en que incurrió en las etapas de producción correspondientes a P1 – P. En este punto la economía se encuentra en auge. Ahora bien, las pérdidas ocasionadas en las etapas de producción P1 – P le implican al empresario un desahorro de recursos δ que puede ser muy grande. Ahora, el Ahorro pasará entonces de (A + ε) a (A + ε – δ), es decir el ahorro se disminuyó y, como lo vimos en el punto 2) de las conclusiones, las nuevas etapas de producción P2 se acortan y la nueva inversión disminuye. Cae, entonces, la economía en fase recesiva. Una nueva intervención de las autoridades monetarias con nuevo crédito creado vuelve a iniciar el ciclo de auge y depresión. También en la fase recesiva se presenta el fenómeno inflacionario de los precios puesto que (A + ε)/ (– I + A + ε) < (A + ε – δ)/ (– I + A + ε -δ) y por lo tanto los salarios reales de los trabajadores disminuyen.

Como bien lo dice Jesús Huerta de Soto en su libro Dinero, Crédito Bancario y Ciclos Económicos, la enfermedad económica se inicia en la fase del auge artificial (cuando se inicia la fiesta) con A+ε y la recuperación se inicia con la sana recesión A + ε – δ.

 

 

Categorías:Economía

Mis controversias con un amigo

El tres de febrero de 2015, en la universidad Francisco Marroquín, el profesor Gabriel Zanotti, eminente filósofo argentino, hizo una presentación de su último libro titulado Crisis de la razón y crisis de la democracia ante profesores y estudiantes de aquella magnífica casa de estudios. Véase http://newmedia.ufm.edu/gsm/index.php?title=Zanotticrisisrazondemocracia

Le profeso a Gabriel una enorme admiración, he tenido oportunidad de presenciar algunas de su charlas, lo he escuchado en muchos videos, lo he tratado personalmente y me ha impresionado su amabilidad, su tolerancia con sus contradictores, su sentido del humor y su descomunal ilustración.

Es tal su espíritu de tolerancia con sus contradictores que en todas las charlas que le he escuchado a Gabriel invita al público a que lo controvierta incluyendo aún su petición misma a hacerlo: un fino e inteligente chascarrillo.

Comparto con Gabriel el amor por la libertad, él se define como un liberal clásico. Como yo me considero un racionalista libertario y estoy invitado a controvertir haré unos comentarios críticos a su presentación.

Mi primera dificultad con la presentación de Gabriel es el primer título Crisis de la razón. No entiendo por qué la razón puede estar en crisis si sabemos que la razón es la facultad de discurrir, es el acto de discurrir el entendimiento, además desde Aristóteles hasta hoy, científicos y filósofos se han ocupado de los métodos correctos de razonar. Razonar es lo que nos caracteriza como humanos y nos ha permitido desarrollar la ciencia, el arte, la cultura en general. Afirmar que el acto de discurrir el entendimiento está en crisis es lo mismo que afirmar que las alas de los pájaros que le permiten volar, o las aletas de los peces que le permiten nadar sufren de una crisis, o una contradicción interna, como Gabriel lo afirma.

En su crítica a la facultad de discurrir, Gabriel hace alianzas con Hayek quien, con mucho acierto, señala los errores de regímenes autocráticos cuando intentan modelar las estructuras sociedades. Hayek se oponía al constructivismo de la organización social, para ello desarrolló su método del orden espontáneo en contraposición al diseño planificado. Sus ejemplos paradigmáticos de ese orden espontáneo son la evolución de la vida, el lenguaje, el derecho, las reglas de tránsito, la economía de libre mercado…ctc. No obstante todo lo que sabemos sobre los ejemplos anteriores se lo debemos a la facultad de discurrir, es decir, a la razón. Recordemos que la praxeología de Mises se define como la lógica de la acción humana, o mejor, como la más perfecta facultad de discurrir sobre la acción.

Sería un error y una injusticia con Gabriel y con Hayek y todos sus seguidores afirmar que ellos se oponen a la facultad de discurrir cuando sabemos que son ellos un excelsos usuarios del discernimiento. Pero al oponerse a las sociedades diseñadas por autócratas corrieron con la mala fortuna de equiparar el diseño social autocrático con la razón o lo que es lo mismo, la facultad de discurrir. A Gabriel y a Hayek les ocurre lo del hombre aquel que por matar un mosquito en la ventana rompen todo el vidrio.

Lo anterior es poco comparado cuando Gabriel en su presentación incursiona en el tema de la ciencia y su método. Se introduce en arenas movedizas y hace alianzas con Paul Fayerabend el más extraño y voluble epistemólogo del siglo pasado. Fayerabend se paseó por todas las corrientes de la epistemología, abrazándolas hoy y rechazándolas luego. Su trabajo más representativo es un libro que tituló Against the Method. En este trabajo Fayerabend ataca el método científico empirista hipotético deductivo y eleva el mito, la fe religiosa, las visiones políticas, las creencias populares..ctc como alternativas válidas para llegar a un conocimiento de la naturaleza. Olvida Fayerabend que el mito y la fe religiosa sumió a la civilización occidental en siglos de oscuridad y terror. Es ese relativismo epistemológico el que Gabriel abraza y defiende en la presentación de su libro y agrega: los científicos imponen coactiva-mente sus opiniones y proclama una separación entre la ciencia y el estado, así como en los estados modernos de occidente existe una separación entre la Fe religiosa y el Poder del estado. Esto para mí es incomprensible puesto que la ciencia no opera de manera dogmática, una de sus principales características es el remplazo de explicaciones menos satisfactorias por otras mejor formuladas, los ejemplos abundan. La ciencia avanza no por imposición sino por argumentaciones elaboradas por la facultad de discurrir que la asiste. Que los gobernantes administradores del estado la apoyen no implica su paternidad ni su propiedad, la ciencia y su método es hija del espíritu libre del pensador independiente, de sus logros y beneficios somos testigos todos desde que amanece hasta el anochecer. La ciencia y su método no necesita defensores, es innegable que es la causante de los grandes prodigios de nuestro tiempo y por fortuna sobrevivirá con estado o sin él.

Comparto con Gabriel la crisis que sufren las democracias modernas, el germen de su destrucción estaba inoculado en el mismo momento en el que la revolución francesa la parió, dando tránsito al nuevo régimen. La democracia se basa en el traslado de un poder que el pueblo no tiene a un gobierno que monopoliza todos los poderes e instrumentos de dominación. La democracia sí sufre, como afirma Gabriel, de una contradicción interna puesto que lo que no se tiene o no existe no es transferible. Un interesante trabajo sobre el tema de la democracia es Democracy: The God That Failed de H.H Hoppe.

Mi visión de estos temas, que difieren de la de Gabriel, no disminuye mis sentimientos de admiración y aprecio por este importante filósofo argentino.

Categorías:Blogroll

Lo que Thomas Piketty no vió del siglo XXI

En este artículo nos proponemos mostrar cómo, en los primeros trece años del siglo XXI, el crecimiento de las diez más grandes fortunas (nominales) del mundo está por debajo del crecimiento producto interno bruto (PIB) de todas las naciones. Así mismo mostraremos cómo la riqueza de aquellas ha sufrido una desaceleración en todo el período considerado, mientras que el PIB mundial se ha acelerado. Al comparar el desempeño de aquellos dos agregados no dudamos en hablar de la década perdida de las grandes fortunas.

Esto contrasta con el estudio de Thomas Piketty quien, en su libro El capital en el siglo XXI, pretende verificar la tendencia del capital privado a superar el crecimiento de la economía global, aumentando con ello el grado de desigualdad que dice reinar en la economía mundial. Con ello Piketty revive la vieja idea de Karl Marx quien creía que bajo un régimen capitalista la riqueza global terminará en manos de una pocas personas.

El error que cometen muchas personas en sus análisis proviene del uso de razonamientos inductivos. La inducción lógica no puede proporcionar conocimiento cierto. Por ejemplo, si ha estado lloviendo durante los últimos quince días, ello no nos da pié para afirmar que mañana lloverá. Bertrand Russel decía que sólo hay dos clases de lógicas: la deductiva y la mala. La inducción, que comparada con la deducción es muy mala, sólo tiene valor para la formulación de hipótesis, no para llegar a resultados concluyentes. La inducción puede ser el primer paso hacia el conocimiento pero por si sola está muy lejos de concluyentes conocimientos.

Eso es lo que le sucede a Piketty en su estudio cuando compara la riqueza total de las 30 personas más ricas en 1987 con la riqueza total de las 45 personas más ricas en 2010 y observa que dicha riqueza se incrementó en 6.8%, mientras que el crecimiento del PIB mundial lo hizo en 2.1%. Concluir de aquello la existencia de una tendencia al crecimiento de la riqueza de los más adinerados y el empobrecimiento del resto de los no afortunados es, sin duda, un grave error de lógica formal.

Como bien señala Juan Ramón Rallo en su artículo ¿Qué pasó con los superricos de 1987? [1], los ricos de 1987 no son los mismos de 2010, muchas de aquellas fortunas desaparecieron y otras surgieron, refutando una idea implícita en el trabajo de Piketty quien sugiere que la riqueza se reproduce automáticamente sin la necesidad de una empresarialidad de su propietario.

Las muestras estadísticas que muchos economistas escogen, sirven para “demostrar” una teoría, o rebatirla con otras. Si bien Piketty compara lo ocurrido en 1987 y en el 2010 para apoyar sus visiones preconcebidas, bien podemos nosotros, arbitrariamente, mirar que sucedió con las grandes fortunas en la primera década del siglo XXI y “concluir” lo contrario . El período del 2000 al 2012 es muy interesante porque fue la época de grandes florecimientos y grandes catástrofes económicas que muestra, cómo nos lo dice el profesor Rallo, lo difícil que resulta conservar una fortuna.

Los análisis que se desprenden de las estadísticas de la primera década del siglo XXI nos permiten concluir que el desempeño de las diez más grandes fortunas fue calamitoso mientras que el PIB global (la riqueza de toda la humanidad) tuvo un crecimiento armonioso con una ligera caída en el 2009 y una muy exitosa recuperación hasta el 2012.

No obstante sería una irresponsabilidad concluir que estamos ante una tendencia cierta, Lo que mostraremos abajo refleja muy bien lo sucedido en un período de trece años, que si bien es corto es muy significativo económicamente. Lo que sucedió en estos primeros trece años del presente siglo puede repetirse o no, lo único que nos queda claro es que en estos trece años las súper fortunas han tenido un desempeño muy pobre comparado con el PIB mundial.

Sin ninguna duda, el trabajo del profesor Piketty apunta hacia el favorecimiento de políticas estatistas y liberticidas. Lo que a Piketty le preocupa, y a los gobernantes de la social democracia también, es la desigualdad del ingreso y para corregirla propone medidas fiscales exorbitantes. La desigualdad y la pobreza son consideradas por muchos economistas como palabras sinónimas, pero no lo son. Piketty, como Marx, considera que cuando la fortuna de la humanidad esté en manos de un puñado de personas habremos llegado a los extremos de desigualdad. Pero no, se equivocan, en ese hipotético caso la sociedad mundial será rematadamente igual, todos pobres. No en vano Piketty es llamado el Marx del siglo XXI.

Hay un pasaje en el opúsculo Trabajo Asalariado y Capital de Karl Marx que muestra cómo su preocupación no es la pobreza sino la desigualdad, así dice:

Sea grande o pequeña una casa, mientras las que la rodean son también pequeñas cumple todas las exigencias sociales de una vivienda, pero, si junto a una casa pequeña surge un palacio, la que hasta entonces esa casa se encoge hasta quedar convertida en una choza. La casa pequeña indica ahora que su morador no tiene exigencias, o las tiene muy reducidas; y, por mucho que, en el transcurso de la civilización, su casa gane en altura, si el palacio vecino sigue creciendo en la misma o incluso en mayor proporción, el habitante de la casa relativamente pequeña se irá sintiendo cada vez más desazonado, más descontento, más agobiado entre sus cuatro paredes”.

En cortas palabras: la envidia es, para Marx, una poderosa categoría de la filosofía política.

La desigualdad del ingreso no sólo es inevitable, es necesaria. Es la desigualdad del ingreso la que permite la acumulación de capital necesaria para las grandes realizaciones que necesitan las sociedades modernas. Otra cosa muy distinta es la pobreza, las sociedades pueden ser desiguales mas no pobres. Pero las sociedades iguales todas son pobres, ¿será necesario poner ejemplos? Bien lo decía Peter Bauer, la pregunta no es indagar por las causas de la pobreza, la pobreza es inherente a los seres vivos, la pregunta es cómo salir de ella, cómo una sociedad llega a ser rica.

Es bien conocido los nexos compinches del gran capital con las esferas superiores del gobierno. Ese gran capital que busca protección estatal, subsidios, gabelas y ventajas no es el capitalismo del libre mercado que pregonamos los libertarios. Es aquel capitalismo odioso y favorecedor de grupúsculos el que necesariamente termina apoyando los regímenes que desconfían de las libertades individuales. Es en esa dirección en la que se mueve espectacularmente el profesor Piketty.

Resultados

La idea central del artículo es comparar dos cuadros de datos estadísticos, uno referente a las diez más grandes fortunas y el otro correspondiente al PIB mundial. Es pertinente dar algunas explicaciones de los cuadros que presentaremos: En las segundas columnas estamos poniendo los montos totales de la riqueza de las diez más grandes fortunas correspondiente a cada año, lo mismo para el PIB mundial. En las terceras columnas estamos poniendo las variaciones ínter anuales que sufren los respectivos montos. En las cuartas columnas estamos poniendo los porcentajes correspondientes a las variaciones ínter anuales de los distintos montos, indicando con ello los incrementos o disminuciones de las correspondientes cuantías.

La última columna amerita una explicación inmediata, se forma haciendo las diferencias porcentuales ínter anuales, queremos indicar con ello la forma cómo se acelera el crecimiento de la riqueza. Por ejemplo: si de un año al siguiente la diferencia de porcentajes es positiva ello nos indicará cierto “grado” de aceleración de la riqueza que, suponemos, es debido a una acción empresarial exitosa. Si la diferencia es negativa, nos indicará una desaceleración en el crecimiento. Si dos años consecutivos tienen el mismo porcentaje de crecimiento, la aceleración de la riqueza será nula e indica que no se ha experimentado ninguna acción empresarial. Por ejemplo,cuando una persona presta sus recursos a una tasa de interés constante es claro que su capital nominal está creciendo pero su crecimiento no sufre variaciones, es decir, no está acelerado ni desacelerado y por lo tanto, pensamos, que su acción empresarial es pasiva y la calificamos con cero.

Las diez más grandes fortunas
según la revista FORBES [2]

Tabla 1(Las cifras se miden en miles de millones de dólares)

 

Año

monto $

variación $

crecimiento %

Aceleración % por año

2000

255.2

2001

267

11.8

4.4

2002

266.2

-0.8

-0.03

−4.43

2003

217.2

-49

-18

−17.97

2004

255

37.8

17

35

2005

262

7

2

−15

2006

277.4

15.4

5

3

2007

343

65.6

23

18

2008

417

74

21.5

−1.5

2009

253.9

-163.1

-39.1

−60.6

2010

342.2

88.3

34.7

73.8

2011

406

63.9

18.6

−16.1

2012

395.4

-10.6

-2.6

−21.2

5.48%

0.63

promedio

promedio

 

 

PIB nominal mundial
entre el año 2000 y el 2012 [3]

Tabla 2 (Las cifras se miden en billones de dólares, billón como millón de millones )

 

Año

Monto $

Variación $

crecimiento %

Aceleración % por año

2000

32,9

2001

32,7

−0,2

−0,6

2002

33,9

1,2

3,6

4.2

2003

38,1

4,2

12,3

8.7

2004

42,8

4,7

12,3

0

2005

46,3

3,5

8,1

−4.2

2006

50,2

3,9

8,4

0.3

2007

56,5

6,3

12,5

4.1

2008

62,0

5,5

9,7

−2.8

2009

58,7

2,2

3,8

−5.9

2010

64,3

5,6

9,5

5.7

2011

71,2

6,9

10,7

1.2

2012

72,7

1,5

2,1

−8.6

7.7%

0.245

promedio

promedio

 

 

Veamos las comparaciones de las dos tablas:

1. De la segunda columna de la tabla 1 concluímos que el crecimiento de las diez más grandes
fortuna dentro el período de los trece años es del 54.9% Y lo correspondiente al PIB mundial dentro del mismo período de trece años es del 120,9% . Las cifras hablan por si solas, el PIB creció un poco más de 2.2 veces que las grandes fortunas.

2. El promedio del crecimiento porcentual ínter anual del PIB mundial fue 7,7% mientras el de las diez más grandes fortunas fue del 5.48% Es decir el promedio del crecimiento ínter anual del PIB es algo más 1.4 veces del de las diez más grandes fortunas.

3. De la columna 4 de ambas tablas vemos que el crecimiento ínter anual del PIB es completamente armonioso, salvo el período 2000 – 2001 en donde el PIB mundial tuvo un leve decrecimiento del 0.6%. Por el contrario, el comportamiento del crecimiento de las diez más grandes fortunas fue errático y muchas veces catastrófico. Por ejemplo en el período 2008 – 2009 las diez más grandes fortunas tuvieron un lamentable detrimento patrimonial del 39.1%, también tuvieron una gran caída en el 2003 del 18% y otra leve al final del 2012 del 2.6%.

4. Veamos finalmente la quinta columna. Como lo dijimos antes, en ella se consigna la aceleración o desaceleración del crecimiento de la riqueza, esto es, la empresarialidad que la soporta. Como podemos ver en última columna, la desaceleración del crecimiento de las diez más grandes fortunas fue del 0.63%. En cambio la aceleración del crecimiento del PIB mundial fue del 0,245%.

Con los cuatro puntos anteriores en mente llegamos a la conclusión que el PIB mundial en los primeros trece años del siglo XXI tuvo un desempeño luminoso si lo comparamos con las diez más grandes fortunas.

Gráficas comparadas del crecimiento y la aceleración de la riqueza

crecimiento_grace

aceleracion_grace

Comentarios sobre la metodología

Las contrastaciones que hemos hecho entre el desempeño del PIB mundial y las diez más grandes fortunas en los primeros trece años de este siglo son un hecho real ajustado a datos estadísticos confiables. No obstante no podemos afirmar que aquellas diferencias son características permanentes dentro de un sistema capitalista.

Dicho lo anterior, es perfectamente válido una crítica a lo que expusimos, alegando que la muestra que tomamos es muy pequeña y poco significativa; que si tomamos una muestra más grande los resultados obtenidos por el profesor Piketty empiezan a revelarse. Y es claro, a medida que aumentamos el tamaño de la muestra más nos acercamos a los resultados del PIB mundial. Por ello la pregunta obvia es ¿qué tan grande debe ser la muestra de las más grandes fortunas que debemos considerar? O también así, ¿qué tan grande hay que ser para ser considerado uno de los más grandes? También cabe preguntarse ¿por qué no incluir también los capitales medidos en miles de dólares? Creo que es acá en donde el trabajo del profesor Piketty se quiebra y revela un sesgo ideológico, agregado al error de hacer uso de la inducción lógica que, como sabemos, no conduce a certezas.

Agradecimientos

Agradezco al Dr Sebastián Zuluaga de Wake Forest University por la elaboración de las gráficas.

Referencias

[1] http://www.elcato.org/que-paso-con-los-superricos-de-1987

[2] http://es.wikipedia.org/wiki/Anexo:Milmillonarios_seg%C3%BAn_Forbes#2001_Top_10

[3] http://data.worldbank.org/indicator

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Categorías:Economía

El multiplicador keynesiano: Los peligros del ceteris paribus

Como es bien conocido, uno de los argumentos centrales de la teoría económica de John Maynard Keynes, expuestos en su obra capital La teoría general del empleo, el interés y el dinero, proviene del establecimiento de las relaciones existentes entre el gasto general Y, también llamada demanda agregada o PIB, el consumo agregado C, la inversión agregada I, el interés, las exportaciones (agregadas), las importaciones (agregadas) y el gasto público G, agregado también.

En este artículo nos concentraremos en la argumentación keynesiana que hace uso de la igualdad Y = C + I + G. Es muy abundante la literatura sobre aquella polémica ecuación, tanto defensores como críticos han expuesto argumentos y contra argumentos desde el mismo instante en que La teoría General  fue publicada en 1936. Es  sorprendente que un libro de 413 páginas, tan mal escrito y con tantas ambigüedades haya sido, y sigue siendo aún, el libro de cabecera de muchas generaciones de economistas. Digo ambigüedades porque el uso de agregados le introduce al análisis económico unos equívocos que permite variadas y contrarias interpretaciones de la argumentación económica.

Unas pocas son:

1.El gasto público G proviene de los recursos que le han retraído a consumidores e inversores, por lo tanto no se entiende que a los elementos constitutivos de la economía real, como son consumo e inversión, se le agregue un elemento exógeno que los deteriora.

2.Como ya lo anoté, el tratamiento económico con base en agregados introduce una homogeneidad de los elementos analizados que distorsiona y opaca toda la argumentación. Por ejemplo, no son homogéneos ni igualmente significativos el consumo e inversión en obras de arte que en casas de habitación o productos alimenticios básicos.  El crecimiento económico depende siempre del crecimiento de algunas pocas ramas del diario acontecer económico y no de todas.

3.El gasto público G, que ejecuta el gobierno de turno, difícilmente consulta sobre cuáles son aquellos elementos económicos de mayor importancia en los que hay que gastar. Esta politización del gasto siempre conlleva a despilfarros y corrupciones. No creo que haya algo más disruptivo del acontecer económico que el gasto público.

Pero lo que más me interesa en este artículo es hacer una crítica de la ecuación en los mismos términos del pensamiento keynesiano, anotando que la gran trampa en el análisis de aquella ecuación la encuentro en el uso del ceteris paribus,tan común en los textos de economía.

Lo que quiero demostrar en este artículo es que un aumento generalizado del gasto público G conlleva irremediablemente a una caída de la demanda agregada.

Como los argumentos que utilizo son, entre otros, argumentos matemáticos, invito al lector a seguir el siguiente enlace: multiplicador

Categorías:Economía

El Bitcoin y la Liquidez

Hace unos días, Francisco Capella publicó en la página del Instituto Juan de Mariana tres artículos sobre la novedosa moneda virtual Bitcoin. (Bitcoin I, Bitcoin II y Bitcoin III). Tuve la oportunidad de intercambiar opiniones con el Dr Capella cuando en su segundo artículo se refería al Bitcoin como un activo ilíquido en virtud de ser muy nuevo y de allí su volatividad.  El Dr Capella define la liquidez de la siguiente manera, y lo cito: la liquidez es estabilidad de valor, que tiene relativamente poco que ver con la fraccionabilidad.

No es muy clara aquella definición de liquidez si la comparamos con las propiedades que definen la liquidez. Así: Las características de un activo líquido son: 1) Se puede vender rápidamente. 2), aun se venda rápidamente, se tiene una mínima pérdida de valor y 3) se puede vender en cualquier momento. No veo como la estabilidad de valor pueda englobar las tres propiedades anteriores, aunque es obvio que la volatilidad de un activo va en detrimento de su liquidez.

Lo que sí observamos en la clásica definición de liquidez es que ella se presenta como una  relación binaria entre activos. No tiene sentido considerar la liquidez como una propiedad absoluta de un activo dado, la liquidez se mide como el grado de convertibilidad de un activo A en otro activo B. Si, por ejemplo, el activo A es más aceptado en el intercambio que el activo B entonces decimos que A es más líquido que B. Así las cosas, es claro que el activo más liquido que existe es el dinero. Mas, no obstante, su liquidez puede verse muy disminuida si pierde fracionabilidad. Veamos por qué.

Como la liquidez del dinero no la podemos mirar con relación a él mismo (no tiene ningún sentido el intercambio de un euro por otro euro) es necesario, entonces, analizarla con su relación a los otros activos del mercado. Comienzo con una pregunta: ¿por qué (con relación al dinero) son más líquidos los ladrillos que componen a una casa que la casa misma?  La respuesta es obvia y pasa por la fraccionabilidad, es más fácil vender ladrillos que la casa entera. Por lo tanto, la alta fraccionabilidad del dinero es lo que, además, le otorga la capacidad de intercambio por bienes y servicios. Es decir, la fraccionabilidad del dinero es una condición necesaria para su liquidez. Claro, no es condición suficiente pero sí tiene que ver, y mucho, con la liquidez. Contrario a lo que afirma Capella en su artículo.

El Bitcoin es un programa computacional de código abierto que corre en redes P2P y diseñado en 2009 por Satoshi Nakamoto, (que parece ser el seudónimo de su autor o autores), que habrá de funcionar como dinero descentralizado (no existe un banco central que lo regule y manipule) y que hace de él una de sus mejores características.

El programa está diseñado para producir veintiún millones de monedas bitcoin en un lapso aproximado de 150 años y que se consiguen por la resolución de problemas computacionales que progresivamente se van volviendo más y más complejos en la medida en que las monedas son halladas. Por analogía con la producción de oro, este proceso es conocido como minería bitcoin.

Es claro que sólo veintiún millones de monedas, y conseguidas en tan dilatado período de tiempo, están muy lejos de convertirse en dinero estable y generalizado. La cotización del bitcoin con relación al dólar se haya hoy en el mercado mtgoxUSD a  US $128.8 por bitcon y se han “extraído” hasta hoy alrededor de once millones de ellos.

Si suponemos que hoy estuvieran en el mercado los veintiún millones de bitcoins y ellos constituyeran un dinero amplio y generalizado, tendríamos que la economía que ellos representan sería lo correspondiente a 2704.8 millones de dólares. Una cifra insignificante. Es por ello que podemos pensar que en el hipotético caso en el que el bitcoin se convirtiese en dinero generalizado, el valor de cada uno de ellos, con relación al dólar, el euro, o cualquier moneda conocida, será realmente inimaginable. Por lo tanto la moneda bitcoin será casi inmanejable e inútil en las transacciones comerciales. Veámoslo con un simil: supongamos que la única unidad de medida de longitud está plasmada en una cinta que tiene una longitud de un kilómetro y que además no tiene marcas de subdivisiones. Entonces no podríamos conocer la estatura de los seres humanos ni la altura de los edificios…etc, tendríamos una unidad de medida absolutamente inútil.

Para visualizar lo anterior imaginémonos lo que podría suceder si la unidad del euro o el dólar tuviese una capacidad de compra equivalente a decenas de millones de ellos, en ese caso las transacciones en el mercado serían imposibles y por lo tanto ese dinero perdería inmediatamente toda liquidez.

Los diseñadores de la moneda Bitcoin, conscientes de aquella dificultad, fraccionaron la moneda hasta ocho cifras decimales (cada fracción es conocida como satoshi, en honor a su creador) entonces todo el proyecto Bitcoin lo podemos estimar en 21 por diez elevado a la potencia 14 de satoshis. Una cifra enormemente grande. Para que el lector se forme una idea del tamaño de aquella cifra basta decir que esa cantidad en segundos es lo que le queda de vida a a nuestro sol.

La moneda bitcoin ha tenido muy buena acogida por razones obvias: primero, es descentralizada, esto significa que no existe un banco central que la regule ni banco comercial que haga las veces de intermediador, lo que hace que los costos transaccionales sean muy bajos. Segundo, al tener un número limitado de unidades monetarias hace de ella una moneda deflacionaria dándole el caracter de un inmejorable depósito de valor, y tercero, al ser el bitcoin una moneda privada puede verse libre de cargas impositivas de gobiernos voraces.

Cualquiera que sea el dinero que las sociedades humanas adopten, todos tienen una de las siguientes dos caraterísticas: deflacionario (como el bitcoin) o inflacionario (como el dinero fiduciario e inclusive el dinero respaldado en oro u otro metal u otra mercancía) En el primer caso, es necesario darle una enorme fraccionabilidad para que no pierda liquidez. En el segundo caso es necesario aumentarle la cantidad de sus unidades para mantenerle su liquidez, con el agravante de que dicho aumento no puede ser muy grande porque también así perdería su liquidez.

Categorías:Blogroll

La Guillotina de Mises

septiembre 17, 2012 1 comentario

Por Mario Zuluaga

Aclaración personal

Las literatura sobre el apriorismo de Mises es muy amplia. En las referencias abajo citadas el lector encontrará algunos pocos ensayos que defienden aquella visión epistemológica y otros que la atacan. Considero que el apriorismo con el que Mises apoya su espléndida visión de la economía es insostenible e innecesario. Simplemente, creo yo, que con valores extraídos del ideario libertario la economía según Mises queda ampliamente justificada.

Cuando leía La Acción Humana y me topé con los pasajes en los que Mises equipara los postulados de la economía con la matemática, pude advertir que el maestro tenía una errada visión de lo que la matemática dice y hace. Ello me llevó a escribir el presente ensayo.

Debemos celebrar tener a nuestra disposición esta obra cumbre de la economía y aplaudir el titánico esfuerzo de Mises por apoyarla con su visión epistemológica, aunque no la compartamos, puesto que ha abierto un apasionante debate que por honestidad intelectual no debemos eludir. Comprendo que escribir una obra de 1302 páginas, en un dilatado período de tiempo y sobre temas de tan alta complejidad, es imposible no caer en imprecisiones e incoherencias.

El título de este ensayo lo he puesto de esa manera porque encuentro una seductora analogía entre la visión epistemológica de Hume y la de Mises. Con lo que es conocido como La Guillotina de Hume se abre camino a un dualismo metodológico que permite distinguir entre ciencias naturales y ciencias sociales. Mises intenta, por analogía, distinguir entre ciencias naturales y ciencias praxeológicas.

Introducción

Hans Herman Hoppe, es uno de los varios influyentes economistas libertarios e impulsores de las ideas de la escuela austriaca de economía. Lo más importante del pensamiento económico de Hoope es lo que a la economía aporta desde su visión de filósofo. El apriorismo miseano es el tema que aborda y defiende en su obra, y en muchas otras, La ciencia económica y el método austriaco [1]. En este importante documento de 68 páginas, Hoppe plasma su visión de la economía y su distinción de las ciencias naturales. Lo que Hoppe quiere defender es la posición de Mises cuando, sobre la economía éste afirma que:

Sus enunciados y proposiciones no se derivan de la experiencia. Son, como los de la lógica y la matemática, a priori. No están sujetos a verificación y falsación sobre la experiencia y los hechos. Son a la vez lógica y temporalmente anteriores a toda comprensión de los hechos históricos. Son el requisito necesario de cualquier entendimiento intelectual de los acontecimientos históricos, [1] pp 6.

Esta visión de la economía viene tutelada por una posición filosófica que Mises acuñó con el término Praxeología  que significa la lógica de la acción humana.

El punto de partida de Mises, y que Hoppe defiende, es aquel que afirma que la praxeología está apoyada en una verdad auto evidente, algo así como un mojón inamovible, anterior a cualquier experiencia, que se sustenta debido a que su negación nos lleva obligatoriamente a contradicciones insalvables. Es decir, un juicio sintético a priori. La acción, la acción humana, que nos conduce por ejemplo a pasar de estados menos satisfactorios a otros más satisfactorios; que nos permite intercambiar bienes con nuestros semejantes con mutua satisfacción; que nos permite preferir el hoy al mañana son, para Mises y Hoppe, verdades que no necesitan verificación experimental y de allí su condición de auto evidente.  Es ello lo que le imprime al pensamiento de Mises su carácter apriorístico. Nos dice Hoope en [1] cómo muchos otros economistas anteriores a Mises tenían también una visión apriorística de la economía como Jean Baptiste Say,  John E. Cairnes, Carl Menger, Eugen von Böhm-Bawerk y Friedrich von Wieser, pero la más acabada visión apriorística de la economía la encontramos en [2], [10]

Para distinguir el método praxeológico del método utilizado por las ciencias naturales, Hoppe nos presenta su visión marcadamente empirista de aquellas cuando afirma que:

¿Cómo sabemos cuáles serán las consecuencias si sometemos un material de la naturaleza a pruebas específicas, digamos, si lo mezclamos con otro tipo de material? Obviamente no sabemos antes de que realmente lo probemos y observemos lo que sucede. Podemos hacer una predicción, por supuesto, pero nuestra predicción es sólo hipotética, y las observaciones se necesitan para saber si estamos en lo correcto o no.

Además, aunque hayamos observado algún resultado específico, digamos que la mezcla de los dos materiales da lugar a una explosión, ¿podemos estar seguros de que ese resultado se producirá invariablemente siempre que mezclemos esos materiales? De nuevo, la respuesta es no. Nuestras predicciones serán aún, y de forma permanente, hipotéticas. Es posible que una explosión sólo se dé como resultado si ciertas condiciones—A, B y C—se cumplen. Sólo podemos saber si es o no es el caso, y bajo qué  condiciones, si nos embarcamos en experimentos de prueba y error al infinito. Eso nos permite mejorar progresivamente nuestro conocimiento sobre la gama de aplicaciones de nuestra predicción original hipotética, [1] pp 11.

Un ejemplo extraído de la física

Podemos ir más lejos de la visión que Hoppe tiene de la investigación científica cuando observamos que la gran fuerza de la ciencia no la hayamos en el experimento puro y duro sino en la teoría que se construye para convalidarlo y preverlo. El dato experimental es el primer paso de una cadena que conforma el cuerpo de una teoría científica. Y pongo un ejemplo clásico extraído de la astrofísica: Son bien conocidas las tres leyes del movimiento planetario descubiertas por Johannes Kepler (1571- 1630) con base en las observaciones que el astrónomo danés Tycho Brahe (1546-1601) realizó del movimiento de los planetas alrededor del sol. Pero sin ninguna duda el triunfo de aquellas investigaciones, que por lo demás constituye el triunfo de la ciencia moderna, lo obtiene Isaac Newton (1642-1727) quien con su ley de gravitación universal deduce, con argumentos matemáticos, las tres leyes descubiertas por Kepler. Además, porque Newton proporciona el método de análisis (método matemático) para explicar no sólo el movimiento de los planetas de nuestro sistema solar sino las relaciones y los movimientos de dos cuerpos enlazados por fuerzas gravitacionales. No son los datos numéricos entregados por Tycho Brahe, ni las leyes del movimiento planetario de Kepler los que convirtieron a la astronomía en ciencia moderna, es la ley de gravitación newtoniana la que se lleva ese mérito. Aunque debemos aclarar que son los datos experimentales los que llenan de contenido y sustancia a las teoría científicas.

Pero lo descubierto por Newton no es el final del camino. La teoría de la gravitación newtoniana no explica el movimiento de tres o más cuerpos sometidos a fuerzas gravitacionales mutuas. El problema de los tres cuerpos, así es conocido, es un problema no resuelto al día de hoy. Estos son los temas de investigación de los que se ocupan hoy en día los científicos dedicados a la mecánica celeste.

Lo característico y apasionante de la investigación científica radica en preguntarse por la causa primera del fenómeno que se tiene enfrente con la casi total certeza de nunca hallarla. El método científico no es estrictamente empirista, ni estrictamente racionalista, es una combinación ordenada e indisoluble de ambos.

Cabe entonces preguntarnos cómo se construye una teoría científica y  cómo se construye una teoría económica y por qué habremos de seguir caminos epistemológicos distintos de tal suerte que nos brinde una alta dosis de confianza de estar en lo cierto.

El método científico es hipotético-deductivo, el experimento y la hipótesis son su instrumento esencial. El fin primordial de la ciencia consiste en la construcción de una teoría a partir del descubrimiento fenomenológico, es por ello que el principio de falsación popperiano aplica en toda regla, [3] y la teoría científica, por lo tanto, entra en un estado de interinidad que puede ser falsable. Por ejemplo: La teoría gravitacional newtoniana, válida para explicar el movimiento de dos cuerpos que se atraen, se vuelve falsa cuando el fenómeno que queremos entender es el del movimiento de tres o más cuerpos unidos por sus fuerzas gravitatorias.

La guillotina de Hume y de Mises

Para entender por qué el método científico no aplica al caso de la economía y las ciencias sociales en general, debemos recurrir a lo que es conocido como la guillotina de Hume. Hume (1711-1776) distinguía entre los que es y lo que debe ser y advertía cómo muchos autores cometían falacias cuando pasaban de la una a la otra en el mismo hilo argumental. Esto decía Hume en [4]:

En todo sistema de moralidad que hasta ahora he encontrado, siempre he notado que el autor procede por algún tiempo en los modos ordinarios de razonamiento, y establece la existencia de Dios, o hace observaciones concernientes a los asuntos humanos, cuando de pronto me veo sorprendido de encontrar, que en vez de los enlaces usuales de las proposiciones, es y no es, encuentro que no hay ninguna proposición que no esté enlazada con un debe, o un no debe. Este cambio es imperceptible; pero es, sin embargo, de grandes consecuencias. Pues como este debe, o no debe, expresa una nueva relación o afirmación, es necesario que sea observada y explicada; y que al mismo tiempo se dé una razón, para lo que parece totalmente inconcebible: cómo esta nueva relación puede ser una deducción de otras, que son completamente diferentes de ella.

Es importante advertir que a diferencia de la guillotina de Hume, Mises nos propone lo que podríamos llamar la guillotina de Mises, y por consiguiente un dualismo metodológico, que nos permita abordar los problemas de las ciencias naturales, por un lado, y los problemas de la praxeología por el otro. No obstante, Mises le otorga un carácter provisional al dualismo metodológico cuando afirma que

Creamos o no que las ciencias naturales logren algún día explicarnos la  producción de las ideas, de los juicios de apreciación y de las acciones, del mismo modo que explican la aparición de una síntesis química como f r u t o necesario e inevitable de determinada combinación de elementos, en el ínterin no tenemos más remedio que conformarnos con el dualismo metodológico, [2] pp 45.

Debido a las dificultades epistemológicas que comporta la praxeología, opino que la disciplina económica, a diferencia de las ciencias naturales, cae en la categoría del debe ser.  Ello así porque las teorías económicas son un invento del hombre (muy reciente, por cierto) y las explicaciones por ellas aportadas son diversas y las más de las veces se contradicen mutuamente. La economía propone esquemas de comportamiento individual y colectivo. Por ejemplo: economía con propiedad privada o economía sin ella, economía centralmente planificada o economía de libre mercado, economía con monopolios u oligopolios, privados o estatales…ctc.  Y cuando una teoría económica quiere ser analizada y criticada se hace desde la visión de otra teoría económica. Por ejemplo, no tiene mucho sentido una crítica al keynesianismo desde la visión de él mismo, y sí tiene sentido una crítica al keynesianismo desde la visión de la escuela austriaca de economía.

Por el contrario, la física, la química, la geología y la biología hacen su aparición con el big-bang y caen en la categoría del ser, no en la categoría del  deber ser. Es por ello que las metodologías empleadas para la investigación científica y la investigación económica siguen caminos diferentes. En las ciencias naturales el objetivo es el descubrimiento de lo que es y su funcionamiento. En la economía el objetivo es entender y proponer los valores que habrán de regir el comportamiento de las sociedades. Es por ello que la economía es una disciplina del deber ser, esto es: normativa. Ello no implica que la ciencia económica habrá de renunciar a los razonamientos que respetan las leyes de la lógica formal y que se desarrollan a partir de  valores tan humanos como los que encontramos en el derecho natural: vida, libertad y propiedad.

Un contradictor cientista, quizás, alegaría que el comportamiento humano está implícito en todo aquello que es anterior a todos los tiempos; que la historia del hombre está escrita y predestinada, como lo sugiere el historicismo hegeliano – marxista y por lo tanto la economía es una ciencia positiva como lo son las ciencias naturales. Ello, aparte de estar inspirado en la visión religiosa luterana y calvinista, no pasa de ser una afirmación gratuita de muy difícil sustentación, aparte de cercenar de un tajo lo que más amamos: La libertad de acción. Ya no seremos dueños de nuestro destino, una fuerza superior e ineluctable nos rige sin piedad y comprensión. Tendremos que resignarnos a tener a Prometeo encadenado.

Detengámonos un poco en el método apriorístico propuesto por Mises. Es conocido que Mises se apoya en los juicios sintéticos a priori de la filosofía kantiana y propone la categoría de la acción, El humano actúa, como un juicio sintético a priori verdadero, no necesita ser verificado por experimento alguno, es auto evidente. (Sorprende que no encontremos sino sólo dos veces el nombre de Kant en La Acción Humana sin hacer referencias a los juicios sintéticos a priori) Es sobre este pilar sobre el que construye su visión epistemológica de la economía. Y afirma que dicho juicio es verdadero porque si lo negamos (el humano no actúa) ésta nueva afirmación queda inserta en la categoría de la acción. Ello es altamente  perturbador y difícil de aceptar puesto que tiene el mismo grado de contradictorio de aquella que dice que no ser es una forma de ser o también así: se es no siendo. ¡Que camino tan tortuoso el que nos propone nuestro querido maestro!

Además, como ya lo habíamos citado, Mises afirma que los enunciados y proposiciones de la economía… son, como los de la lógica y la matemática, a priori. Esta comparación entre economía y matemáticas, en mi opinión, no cabe porque le arrebata a esta última su distintivo principal, cual es el de ser hipotética. Recordemos que todas las proposiciones de la matemática se inician con la frase: Supongamos que…, entonces…

Comencemos por afirmar que la palabra axioma no significa, en matemáticas, verdad auto evidente o incontrovertible, significa punto de partida o suposición arbitraria. En matemáticas las proposiciones no tienen un valor absoluto, no son siempre ciertas o siempre falsas. La matemática descansa sobre la estructura P implica Q  y de lo que se ocupa es en decir que en el eventual caso en que P sea cierta entonces lo es Q.

Por extraño que le parezca a muchos economistas, la matemática es una disciplina eminentemente normativa y además teleológica. Los buenos axiomas (normas) se escogen pensando en que las implicaciones extraídas de ellos nos brinden las mejores explicaciones.

Bertand Rusell, en su libro Los Principios de la Matemática, [5], nos proporciona una descripción caricaturesca de la matemática que luce algo peyorativa pero que no obstante es muy acertada, así dice: La matemática es una disciplina en la que no sabemos de qué estamos hablando (es el rasgo abstracto que la caracteriza) ni si lo que afirmamos es verdad (las proposiciones no tienen valor en si)

Aunque aquello no le quita a la matemática su valor como instrumento de análisis y su aplicabilidad, tampoco le confiere, por si sola, legitimidad a las proposiciones por ella inferidas. Un axioma mal escogido en una teoría matemática la llevaría a resultados insípidos y anodinos. Creo que en ello consiste el error de la economía matemática tan en boga en el pensamiento neoclásico. No se puede negar las correctas implicaciones extraídas de, por ejemplo, las curvas de oferta y demanda, continuas; derivables; creciente la primera; decreciente la segunda con punto de intersección como punto de equilibrio,…ctc, o la función de utilidad, creciente, derivable varias veces, con primera derivada negativa,..ctc. Pero concluir de allí que lo implicado matemáticamente por tanto axioma sea cierto o relevante es, por decir lo menos, una enorme ingenuidad.

Veamos ahora un ejemplo extraído de la geometría que pone en dificultades la visión apriorística de la praxeología al compararla con la matemática. Las tres afirmaciones siguientes son aceptadas como axiomas de la geometría, que tomadas juntas sería una flagrante contradicción:

1. Por un punto exterior a una recta pasa una y sólo una paralela. (Geometría euclidiana)
2. Por un punto exterior a una recta no pasa ninguna paralela (Geometría elíptica de B. Riemann)
3. Por un punto exterior a una recta pasan dos o más paralelas (Geometría Hiperbólica de K.F.Gauss y N. Lobachevsky)

Con cada uno de los tres axiomas (proposiciones arbitrarias) se construye una teoría geométrica de enorme significación física. La geometría euclidiana se usa en mecánica newtoniana. La geometría elíptica es el instrumento primordial de la teoría de la relatividad de imprescindible utilidad en astrofísica. La geometría hiperbólica constituye la base de la trigonometría esférica de uso en cartografía.

El formalismo matemático, y su grado de abstracción, ha llegado a tales niveles de sofisticación que David Hilbert, uno de los más conspicuos matemáticos de todos los tiempos, afirmaba que se podía construir una geometría con sólo tres elementos: mesa, silla y baso de cerveza.

Los argumentos expuestos atrás no amenazan ni le quitan la grandeza y profundidad a la obra de Mises, pero aquella insistencia epistemológica, me parece, la llena de artificiales e innecesarios argumentos que obscurecen el propósito de un tratado de economía. Me atrevo a pensar que a Mises lo asistía un afán de darle a su obra un vestido de rigor filosófico que le concediese una respetabilidad académica. Supongo que quería darle una respuesta a la corriente principal neoclásica, otorgándole a su obra un cariz lógico-deductivo que superara la práctica algorítmica de la matemática. Una respetabilidad que, creo yo, bien se logra si se enmarca La Acción Humana en el ámbito del derecho natural (iusnaturalismo). ¿ No fue eso lo que dio gloria y reconocimiento a la Escuela de Salamanca de los siglos XV y XVI?

La palabra libertad aparece en La Acción Humana 189 veces esparcida en 1302 páginas, aparece alrededor de una vez cada siete páginas. Sin la palabra Libertad, el libro cumbre de Mises se vacía de contenido. El concepto de libertad, entendido primero como libertad individual y colectiva después, como un agregado, y que significa la posibilidad y la capacidad de optar entre alternativas, bien puede ser el primer axioma (norma o punto de partida) de la praxeología. La libertad es una condición necesaria y suficiente para La Acción. Es necesaria porque sin la libertad no hay acción y es suficiente porque libertad significa posibilidad y capacidad de optar y éste es el motor de la acción. Desde el punto de vista de la lógica formal la libertad y acción son conceptos equivalentes.

Ahora, la libertad, no es una ley incontrovertible de sociedades humanas pues ella o su ausencia, en el seno de una sociedad, se puede convertir en norma o convenio. Así como hemos tenido sociedades deliberadamente totalitarias y liberticidas, las hemos tenido deliberadamente libres. Ahora, esta norma o convenio no se descubre, cómo se hace con las leyes de la física, sino que se construye, se modifica y se perfecciona. La libertad, además de ser un valor, tiene propósitos teleológicos y no veo por qué su equivalente, la acción,  se mire como un juicio sintético a priori.

Veamos lo que nos dice Mises sobre la libertad y la praxeología en su magna obra:

De ahí que, como decíamos, sólo en el marco de una organización social quepa hablar con fundamento de libertad. Consideramos libre, desde un punto de vista praxeológico, al hombre cuando puede optar entre actuar de un modo o de otro, es decir, cuando puede personalmente determinar sus objetivos y elegir los medios que, al efecto, estime mejores. La libertad humana, sin embargo, se halla inexorablemente tasada tanto por las leyes físicas como por las leyes praxeológicas. Vano es para los humanos pretender alcanzar metas entre sí incompatibles, [2] pp429.

Aunque Mises relaciona la libertad con el axioma de la acción, no nos dice cómo se subordina la primera al segundo, simplemente lo afirma. Además hay varios pasajes en la Acción Humana en la que Mises no le asigna características de valor a la praxeología comparándola con las ciencias naturales y la matemática. Así dice:

El aludido postulado de la Wertfreibeit (independencia de valoraciones) puede fácilmente ser respetado en el campo de la ciencia apriorística —es decir, en el terreno de la lógica, la matemática o la praxeología—, así como en el de las ciencias naturales experimentales, [2] pp 87

Hay más pasajes en la Acción Humana en los que Mises conecta estos dos conceptos. Es importante advertir que la palabra libertad aparece en el texto de la acción humana más veces (189) que la palabra praxeología que la vemos impresa en el texto  151 veces. Por ejemplo:

Pero tampoco debe el praxeólogo descuidar la mecánica de la volición y la intencionalidad del hombre al actuar, sobre la base de que constituyen meras realidades dadas. Si así lo hiciera, dejaría de estudiar la acción humana, [2] pp 56.

Y donde decimos volición e intencionalidad decimos libertad, pues sería vano desear y pretender objetivo alguno si no tenemos la capacidad de optar.

No obstante los cantos que mises le hace a la libertad individual en La acción Humana  son tan numerosos que hacen del maestro un adalid del liberalismo. Veamos unos pocos casos escogidos al azar:

1. Yerra, en verdad, nuestro siglo al desconocer el enorme influjo que la libertad económica tuvo en el progreso técnico de los últimos doscientos años, [2] pp 29

2. Quienes propugnan la libre competencia y la libertad de empresa en modo alguno están defendiendo a los hoy ricos y opulentos; lo que, en verdad, pretenden es franquear la entrada a individuos actualmente desconocidos y humildes —los empresarios del mañana— gracias a cuya habilidad e ingenio será elevado el nivel de vida de las masas; no desean sino provocar la mayor prosperidad y el máximo desarrollo económico, [2] pp 139.

3. Todas las distintas variedades de credos colectivistas coinciden en implacable hostilidad ante las instituciones políticas fundamentales del sistema liberal: gobierno por la mayoría, tolerancia para con el disidente, libertad de pensamiento, palabra y prensa e igualdad de todos ante la ley, [2] pp 241.

4. Lo que originariamente impulsó al  hombre a acomodar su conducta a las exigencias de la vida en sociedad, a respetar los derechos y las libertades de sus semejantes y a reemplazar la enemistad y el conflicto por pacífica colaboración no fue el amor ni la caridad, ni ningún otro afectuoso sentimiento, sino el propio egoísmo bien entendido, [2] pp 265.

5. Los defensores de la violencia editaron sus libros precisamente al amparo de aquella «seguridad burguesa» que tanto vilipendiaban y despreciaban. Gozaron de libertad para publicar sus incendiarias prédicas porque el propio liberalismo que ridiculizaban salvaguardaba la libertad de prensa, [2] pp 269

6. El estado hegemónico no conoce la ley ni el derecho; sólo existen órdenes, reglamentaciones, que el jerarca inexorable aplica a los súbditos según considera mejor y que puede modificar en cualquier momento. Las gentes sólo gozan de una libertad: la de someterse al capricho del gobernante sin hacer preguntas, [2] pp 306.

Además, hay un pasaje en La acción Humana en el que expresamente Mises equipara la acción con la libertad, entendida ésta como la capacidad y la posibilidad de optar por alternativas, que Mises llama curiosamente voluntad

Cabría decir que la acción es la expresión de la voluntad humana. Ahora bien, no ampliamos con tal manifestación nuestro conocimiento, pues el vocablo «voluntad» no significa otra cosa que la capacidad del hombre para elegir entre distintas actuaciones, prefiriendo lo uno a lo otro y procediendo de acuerdo con el deseo de alcanzar la meta ambicionada o de rehuir la deseada, [2] pp 38.

Es decir, donde se dice acción (praxeología) se dice libertad, y es muy difícil sostenerse en la idea de que la libertad se caracterice como un juicio sintético a priori.

La economía de Mises sistematizada

Una muy buena sistematización de la propuesta económica de Mises la encontramos en la obra de Gabriel Zanotti, La Economía de la Acción Humana, [6]. El propósito de esta obra, como lo dice su autor, es dar un ordenamiento epistemológico de los teoremas de la economía según Mises. Zanotti primero establece el axioma central de la praxeología, así lo define: Acción humana como libre e intencional con conocimiento disperso. Nótese que no desliga la acción de la libertad. Después, con el uso de cinco hipótesis auxiliares y el axioma de la praxeología, demuestra veinticuatro teoremas que rigen la economía según Mises. Estas hipótesis son:

1. Alertness (listeza) empresarial en grado suficiente para la compensación del conocimiento disperso.

2. Versión minimalista de maximización monetaria: el comprador tiende a preferir el precio más bajo frente a igual calidad del bien y el vendedor el precio más alto.

3. Ley de asociación o ley de división del trabajo.

4. Propiedad y libertad de entrada al mercado.

5. Construcciones imaginarias de estado final de reposo y giro uniforme.

Los cinco enunciados anteriores no son axiomas, son hipótesis, y no se derivan del axioma de la acción. Además las cinco hipótesis están inspiradas en el concepto de libertad, entendida como la posibilidad y capacidad de optar entre alternativas.

De los veinticuatro  teoremas que Zanotti deriva de lo anterior sólo mencionaré algunos: Los medios empleados para la satisfacción de necesidades son escasos; toda acción implica el acto de valoración, esto es, el acto de elección entre dos opciones; el acto de valoración es subjetivo; la ley de preferencia temporal; el principio de utilidad marginal;…ctc

Si el axioma fundamental de la praxeología, siguiendo al profesor Zanotti, Acción humana como libre e intencional con conocimiento disperso, es auto evidente ¿cuál será la contradicción en la que incurrimos cuando lo negamos? La negación de aquel enunciado es: que no hay acción, o que no es libre, o no es intencional, o que el conocimiento no está disperso. En lógica formal la negación de una frase de la forma P y Q y R y S es no P, o no Q, o no R, o no S. Es decir, con una sola de las proposiciones componente que sea falsa la proposición original se torna falsa. Ahora pregunto ¿qué tiene de contradictorio o inimaginable una actuación realizada intencionalmente y sometida a realizarse por presiones externas (no libre), por ejemplo bajo amenazas?  Ninguna, ocurren a diario.

Las ideas auto evidentes son de muy difícil determinación, casi siempre así las miramos por que hacen parte de nuestra intuición. La sola intuición en ciencias naturales, e inclusive en matemáticas, no es suficiente para alcanzar un conocimiento certero y en ocasiones es fuente de error. Pongo un ejemplo que sirve de muestra: Todo arco que una el polo sur de una esfera con el polo norte tiene, obligatoriamente, que cruzar la línea ecuatorial.  Pues esto que parece evidente exige, en matemáticas, una prueba. Es un teorema debido al matemático checo Bernard Bolzano (1781-1848) y exige para su prueba el axioma de completez de los números reales, axioma que trasciende cualquier auto evidencia. Otro ejemplo: El todo es más que cualquiera de sus partes. Este es un ejemplo clásico de un juicio sintético a priori. Pues no es cierto, veamos: si consideramos el conjunto de los números enteros N = {1,2,3,…} y su subconjunto de los números pares P = {2,4,6,…} vemos que tienen el mismo cardinal (la misma cantidad de elementos) puesto que se pueden poner en correspondencia uno a uno y sobre, al 1 le asociamos el 2, al 2 le asociamos el 4, al 3 el 6 y así sucesivamente. Es claro que para conjuntos finitos la afirmación sí es cierta.

Referencias

[1] H,H. Hoppe. La ciencia económica y el método austriaco, http://es.scribd.com/doc/102712043/La-Ciencia-Economica-y-El-Metodo-Austriaco#download

[2] L.V. Mises. La acción Humana. Union Editorial, S.A, 1986 http://www.anarcocapitalista.com/pdf.htm#Mises

[3] K.R Popper. La lógica de la investigación científica, http://www.filecrop.com/75473902/index.html

[4] D.  Hume. Tratado sobre la naturaleza humana:
http://www2.udec.cl/~alejanro/pepe/hume.pdf

[5] B. Rusell. Los Principios de la Matemática, Espasa-Calpe S.A, Madrid, 1967.

[6] G. Zanotti. La Economía de la Acción Humana, Unión Editorial, Madrid, 2009.

[7] E.R. Scarano. El apriorismo de Ludwig Von Mises http://www.eseade.edu.ar/servicios/Libertas/1_2_Scarano.pdf

[8] T. Polleit. El apriorismo de Mises frente al relativismo en economía. http://mises.org/community/blogs/euribe/archive/2011/09/11/el-apriorismo-de-mises-frente-al-relativismo-en-econom-237-a.aspx
[9] C. Lujan. El apriorismo de Ludwig Von Mises. http://es.scribd.com/doc/71877931/El-Apriorismo-de-Ludwig-Von-Mises.
[10] L.V. Mises. the ultimate foundation of economic science. http://files.libertyfund.org/files/1820/1359_LFeBk.pdf

[11] M.N. Rothbard. Praxeology: The Methodology of Austrian Economics. The Logic of Action One: Method, Money, and the Austrian School, Cheltenham, UK: Edward Elgar, 1997, pp. 58-77

Categorías:Blogroll, Filosofía

Oferta y Demanda: Una crítica a la Tijera de Marshall

El concepto de oferta y demanda en la economía es bastante antiguo. M Rothbard (1926-1995), en su obra Historia del Pensamiento Económico, nos dice que Tomás de Vio o Tomas Gaetano ( 1469-1534) (el cardenal Cayetano) expone en su obra Comentario a la Suma de Tomás de Aquino que el justo precio es el precio común del mercado, el que refleja la estimación de los compradores y sostiene que el precio fluctuará al cambiar las condiciones de oferta y demanda

También aparecen estos dos conceptos en la obra de Adam Smith, La riqueza de las naciones de 1776; en la de David Ricardo Principios de política económica e impositiva de 1817 y en muchos otros tratados de economía. Pero quizás en la forma moderna se la debemos a Alfred Marshall (1842-1924) quien los lleno de contenido matemático. Lo que hoy es conocido como La tijera de Marshall es la expresión gráfica en la cual aparecen los dos conceptos en forma de curvas. Así:

donde Q indica las cantidades de un bien y P el precio de ellas. La curva descendente es la curva de demanda y la ascendente la de oferta. En los manuales de economía leemos que el punto de corte E es el punto que define el precio y la cantidad real de la transacción entre comprador y vendedor.

Considero que sutilmente se esconden muchos errores conceptuales en la presentación gráfica de las dos curvas, como también errores de orden filosófico que explicaré enseguida.

Antes de continuar debemos recordar que en sociedades de libre mercado el precio se define como un acuerdo entre comprador y vendedor. Es en este contexto en el que se enmarca nuestro análisis.

Empecemos con los detalles técnicos utilizados en la representación gráfica:

1. Cualquier persona que tenga alguna familiaridad con los gráficos en planos cartesianos, entiende que sobre el eje horizontal (abscisa) se pone la variable independiente, en este caso la variable Q, y en el eje vertical (ordenada) se pone la variable dependiente, en este caso la variable P. Por lo tanto las curvas que vemos en la figura anterior, representan funciones de la forma P(Q ). Es por ello que, por ejemplo, en la curva de demanda estaremos diciendo que si las cantidades demandadas Q aumentan, su precio P disminuye. Cualquier economista nos dirá que estamos leyendo mal el gráfico porque lo que se quiere decir es que cuando los precios aumentan las cantidades demandadas disminuyen. Es cierto, pero en ese caso la función de demanda no es P(Q ) sino Q(P), que es justamente su función inversa. Confundir una función con su inversa, conduce en economía a confundir las causas con sus efectos. Esto no es un error grave siempre y cuando se sepa que es lo que se está haciendo, advirtiéndole al lector que la variable independiente se está poniendo en el eje vertical.

2. Otro error que advertimos en la gráfica anterior es el que al pintarlas en forma continua y unido al  carácter ascendente de la curva de oferta y el descendente de la curva de demanda, produce un efecto óptico que induce al lector a creer, por error, que las curvas habrán de cortarse en el punto E. Aquello no es necesariamente cierto porque todas las cantidades en economía vienen cuantificadas de forma discreta. Nos referimos al precio de uno, dos o tres automóviles pero no tiene sentido hablar de del precio de 17/18 de automóvil, o peor aún de √2  automóviles, por ejemplo.

De otra parte, de dos curvas, una que asciende y otra que desciende, no se deduce que habrán de cortarse, por ejemplo las curvas y=1/x  y la curva y= -1/x desciende y asciende respectivamente y no obstante no se cortan.

3. Si la cantidad X tiene un precio Y, y éste es el precio de mercado, las cantidades a izquierda y derecha de X no pueden determinar precio alguno puesto que los precios, según Marshall, deben estar en el corte de las dos curvas. ¿Qué son entonces esos otros precios y esas otras cantidades? Pues simplemente expectativas de precios y cantidades, en ningún caso precios reales.

Las expectativas que tienen los agentes en los intercambios son harto complejas y dinámicas, cambian las unas con respecto a las otras y no es posible, en muchos casos, saber cuál viene como causa o cuál como efecto. Por lo tanto encontramos la tijera de Marshall un instrumento muy débil para explicar el fenómeno del precio ya que no refleja la dinámica del intercambio.

Finalmente, el error más grave tiene una vertiente filosófica, Así:

4. Al afirmar que el precio de un bien está determinado por el corte de las dos curvas, se está admitiendo que ellas existen con anterioridad al acuerdo entre comprador y vendedor. Es decir, al precio mismo. Esto implica que las expectativas de quien ofrece y quien demanda son explícitamente conocidas con anterioridad al acuerdo de intercambio entre los agentes económicos. Ello nos lleva a un determinismo histórico difícil de aceptar. Las expectativas del comprador y el vendedor se basan en informaciones dispersas, intenciones personales, intimidades ocultas…ctc, que resulta imposible de representarlas por una expresión matemática y con antelación al hecho real de un acuerdo transaccional. Los intercambios económicos son casi un milagro, que no nos parece tanto por lo que ocurren a diario y en abundancia.

Si nuestro argumento anterior no fuese cierto no podemos más que reconocer el éxito de economías centralmente planificadas, pues la asignación de precios puede ser perfectamente establecida por un comité de pocas personas conocedoras de los deseos e intenciones de los ciudadanos representados en curvas de oferta y demanda. Todo un absurdo.

Una Propuesta

Los economistas de la escuela austriaca siempre han sostenido que es un error la representación de los conceptos de oferta y demanda por medio de curvas (funciones). Ello es lo que hemos señalado en los cuatro puntos anteriores de nuestra crítica. Jesus Huerta de Soto en su libro Nuevos Estudios de Economía Política, pag 39, afirma que para los austriacos, en economía, a diferencia de lo que sucede en el mundo de la física y de las ciencias naturales, no existen relaciones funcionales (ni, por tanto, funciones de oferta, ni de demanda, ni de costes, ni de ningún otro tipo)  No obstante sí es posible formarnos una idea de las relaciones de oferta y demanda cuando comprador y vendedor ya han concretado el acuerdo de intercambio, es decir, cuando el precio del bien ya ha sido establecido, mas no antes.

Afirmamos categóricamente que no son las curvas de oferta y demanda las que determinan el precio y la cantidad real de un bien, cómo lo sostiene la escuela neoclásica con su teoría del equilibrio, sino que por el contrario, son el precio y la cantidad acordados por el comprador y vendedor los que nos brinda una idea de cómo se formaron la oferta y la demanda en momentos previos al acuerdo de intercambio. Veásmoslo:

Supongamos que el comprador y el vendedor acordaron un precio Xo y una cantidad Yo de un bien (¡ha ocurrido un milagro!) Es de esperarse que el comprador tiene en mente (una expectativa) un precio Pd y una cantidad Qd del bien, antes de cerrar el trato con el vendedor. Lo mismo podemos decir del vendedor, éste estima un precio Po y una cantidad Qo de su producto antes de cerrar su venta. En la medida que avanzan las conversaciones entre estos dos agentes, las parejas (Pd,Qd) y (Po,Qo) se aproximan al hecho cumplido (Xo,Yo). Ésto es, las expectativas Pd, Po tienden hacia Xo y Qd, Qo tienden hacia Yo

Si hacemos uso del principio de utilidad marginal, como lo entiende la escuela austríaca de economía, entendido como la valoración subjetiva de cada una de las unidades de un mismo bien, podemos establecer relaciones (curvas, si se quiere) entre las variables Pd,Po y Qd,Qo, cuando éstas se hallan próximas a Xo y Yo respectivamente.

Existen seis escenarios posibles en los que se relacionan estas varibles. Recordemos que en el proceso de negociación entre comprador y vendedor, Pd y Po se aproximan a Xo como también Qd y Qo se aproximan a Yo. Por el principio de utilidad marginal tenemos que

a) Si Pd < Xo < Po entonces Qo < Yo < Qd,

b) Si Po < Pd < Xo entonces Yo < Qd < Qo,

c) Si Pd < Po < Xo entonces Yo < Qo < Qd,

d) Si Po < Xo < Pd entonces Qd < Yo < Qo,

e) Si Xo < Po < Pd entonces Qd < Qo < Yo y

f) Si Xo < Pd < Po entonces Qo < Qd < Yo

Tanto en el escenario a) como en el escenario d) el comprador y el vendedor  convienen en llegar a un acuerdo cediendo en sus pretensiones de precios y cantidades. En el escenario a) el comprador aumenta el precio que habrá de pagar por su compra  y rebaja sus pretensiones respecto a las cantidades del bien, a cambio de que el vendedor rebaje el precio de su venta y aumente las cantidades del bien. El escenario d) es análogo al escenario a) en donde se invierten los papeles de comprador y vendedor. En los dos casos anteriores no se presenta dominancia alguna de los agentes. Podemos decir que se trata de una transacción equilibrada.

Los escenarios b) y c) son casos en los que aparece la dominancia de oferta: En ambos escenarios el vendedor y el comprador aumentan los precios de oferta y demanda, y además las cantidades ofrecidas y demandadas se reducen.

Los escenarios e) y f) son casos de dominancia de demanda. En ambos escenarios el comprador y el vendedor rebajan los precios de demanda y oferta, al tiempo que las cantidades demandadas y ofrecidas aumentan.Lo mismo que en los casos b) y c) las probabilidades de acuerdo entre comprador y vendedor son nulas o muy bajas.

Los casos de dominancia a los que nos hemos referido no son necesariamente descartables. Ellos pueden ocurrir cuando los ciclos productivos del comprador y vendedor se hayan desfasados en el tiempo. Por ejemplo, cuando termina el ciclo exitoso del vendedor o comprador, se inicia el ciclo del comprador o vendedor, que habrá de terminar posteriormente de manera exitosa. Por ejemplo, el productor de mineral de hierro tendrá mucho éxito al ver cómo el constructor de automóviles acepta los precios altos y las bajas cantidades de su producto y no se interesará por las muy buenas ganancias que el constructor de automóviles obtendrá cuando los venda, al final de su ciclo productivo, gracias a su muy atinada empresarialidad

En materia de intercambios es difícil predecir los futuros éxitos o fracasos de los agentes, sólo el ojo entrenado y la mente despierta del empresario son los instrumentos idóneos de los finales felices. Muchas veces hemos visto en los juegos de ajedrez cómo un jugador entrega su dama para preparar el camino, en pocas jugadas posteriores, de un soberbio jaque-mate.

La tijera de Marshall es un instrumento demasiado simplificado, rígido y desarticulado para explicar la formación de precios; considera la demanda y la oferta como fenómenos independientes sin entender que son fenómenos interdependientes que se autorregulan. Como afirma Jesús Huerta de Soto, en los procesos normales de mercado la oferta de bienes y servicios de consumo tiende a variar en consonancia con la demanda de los mismos, llegando además la nueva producción de este tipo de bienes a manos, precisamente, de aquellos consumidores cuya valoración subjetiva de los mismos ha aumentado.

Es fácil comprobar la anterior afirmación si miramos lo que sucede en los escenarios a) y b) de nuestro análisis. Observemos que en el escenario a) cuando Pd se acerca a Xo, con Pd < Xo,  las cantidades Qo se acercan a Yo, con Qo < Yo.   O dicho con palabras: cuando los precios de demanda Pd crecen las cantidades ofertadas Qo también crecen. Pero en el escenario b) tenemos un comportamiento diferente: Pd < Xo y  Qo > Yo. En este caso cuando los precios de demanda Pd crecen, las cantidades ofertadas decrecen y todo aquello no constituye una contradicción,  pues estas variaciones están dependiendo también de las otras variables Qd y Po. Un análisis semejante tendremos en los escenarios d) y e): En el escenario d), cuando los precios de demanda Pd decrecen, las cantidades ofertadas Qo decrecen, y crecen en el escenario e)

Es importante insistir en que nuestro análisis tiene validez cuando las expectativas de los agentes se hayan en cercanías de los puntos de acuerdo entre comprador y vendedor con respecto al precio Xo y la cantidad Yo.

Veamos ahora que ocurre en el caso en que comprador y vendedor puedan llegar a un acuerdo en dos precios y dos cantidades distintas de un mismo bien, por ejemplo (Xo, Yo) y (X1, Y1), o equivalentemente que aparezcan nuevos agentes económicos. Lo que queremos demostrar es que los escenarios favorables, tanto para el vendedor como el comprador, aumentan considerablemente. Es más, entre mayor cantidad de acuerdos, en precios y cantidades, lleguen los agentes económicos, los escenarios favorables de intercambios aumentan de manera considerable. Ello prueba que el principio de utilidad marginal, como lo entiende la escuela austriaca de economía, es un factor determinante en el intercambio de bienes y servicios y por ende del crecimiento económico.

Supongamos que Xo < X1 y  Yo < Y1. En este caso el número de escenarios se eleva a doce y cuatro de ellos presentan dominancia completa, ya sea del comprador como del vendedor. De esos doce escenarios debemos descartar dos de ellos puesto que allí las expectativas de precios y cantidades se hayan alejados de los valores de intercambio (Xo, Yo) y (X1, Y1). Por lo tanto serán seis escenarios de intercambio entre los agentes los que tienen la característica de favorabilidad. Veamos:

Escenarios de dominancia completa (EDC)

Decimos que un escenario es EDC cuando en todos los valores que conforman el escenario uno de los agentes le impone al otro su expectativa de precio unitario del bien. Las expectativas de precio unitario se definen como Po/Qo y Pd/Qd para el vendedor y el comprador respectivamente. Los escenarios de dominancia completa se caracterizan por la dificultad que se presenta para llegar a un acuerdo entre los agentes, salvo que existan consideraciones distintas a las que estamos analizando, cuales son ellas precios y cantidades. Los escenarios EDC son los siguientes

1)  Si X1 > Xo > Pd > Po  entonces Y1 <Yo < Qd < Qo

2)  Si X1 > Xo > Po > Pd  entonces  Y1 <Yo < Qo < Qd

3)  Si Pd > Po > X1 > Xo  entonces Qd < Qo < Y1 < Yo

4)  Si Po > Pd > X1 > Xo entonces  Qo < Qd < Y1 < Yo

Un cálculo sencillo nos muestra que en los escenarios 1) y 2) los valores  Po/Qo y Pd/Qd crecen en tanto Po y Pd convergen a Xo y cuando Qo y Qd convergen a Yo. Por lo tanto el vendedor se encuentra en una posición de dominancia con respecto al comprador.

Recíprocamente, en los escenarios 3) y 4) los valores  Po/Qo y Pd/Qd decrecen en tanto Po y Pd convergen a X1 y cuando Qo y Qd convergen a Y1. Por lo tanto es el comprador, ahora, el que se encuentra en una posición de dominancia con respecto al vendedor

Hay dos escenarios que debemos excluir de nuestro análisis debido a que las expectativas de precios no pueden converger a un valor común, ellos son

5)  Po > X1 > Xo > Pd  y

6)   Pd > X1 > Xo > Po

Observemos que las expectativas de precios Po y Pd no pueden llegar a un valor común puesto que los separa valores fijos X1,  Xo.

Escenarios favorables

Por escenarios favorables entendemos aquellos en los que los agentes declinan mutuamente ventajas de expectativas de precios unitarios y permiten llegar a un  acuerdo. Veámoslo:

7) Si X1 > Po > Xo > Pd   entonces Y1 < Qo < Yo < Qd

8) Si Po > X1 > Pd > Xo  entonces  Qo < Y1 < Qd < Yo

9)  Si X1 > Pd > Xo > Po  entonces Y1 < Qd < Yo < Qo

10 Si Pd > X1 > Po > Xo  entonces Qd < Y1 < Qo < Yo

Un cálculo sencillo nos muestra que tanto en el escenario 7) como en el 8), Po/Qo decrece y Pd/Qd crece cuando Pd, Po convergen  a Xo y cuando Qd, Qo convergen a Yo en el escenario 7) y  Pd, Po convergen  a X1 y cuando Qd, Qo convergen a Y1  en el escenario 8). Análogamente, en los escenarios 9) y 10) observamos que Pd/Qd decrece y Po/Qo crece.  Esto nos muestra que los cuatro escenarios anteriores permiten a los agentes llegar a un acuerdo de precios.

Escenarios de dominancia incompleta (EDI)

Decimos que un escenario es EDI cuando en él se presentan dominancias, una vez a favor del vendedor y otra vez del comprador, dependiendo, claro está, de hacia donde tiendan las expectativas de precios y cantidades, ya sea que (Pd,Qd) tienda a (X1,Y1) o que (Pd,Qd) tienda a (Xo,Yo).

Existen dos escenarios particularmente interesantes puesto que tanto los precios Pd y Po pueden tender a X1 o Xo y las cantidades Qd y Qo tender a Y1 o Yo respectivamente. Así

11) Si X1 > Po >  Pd > Xo  entonces Y1 < Qo < Qd < Yo

12)  Si X1 > Pd >  Po > Xo   entonces Y1 < Qd < Qo < Yo

Un cálculo nos muestra que en los dos escenarios anteriores Pd/Qd y Po/Qo crecen, cuando Pd, Po tienden a X1 y Qd, Qo tiende a Y1. Y  Pd/Qd y Po/Qo decrecen cuando Pd , Po tienden a Xo y Qd, Qo tiende a Yo. Ello nos indica que en cada uno de los escenarios se presentan casos de dominancia, unas veces a favor del vendedor y otras a favor del comprador.

Los escenarios EDI son escenarios con un alto grado de favorabilidad puesto que les brindan a los agentes alternativas de negociación ya que los agentes pueden optar por cualquier clase de dominancia

En resumen, con la introducción de un segundo acuerdo (X1, Y1) encontramos cuatro escenarios de dominancia – que eran los mismos cuatro que teníamos en el caso de un solo acuerdo, (Xo, Y,o) – y seis escenarios favorables para el intercambio económico.

Si tuviésemos un tercer punto de encuentro (X2, Y2 ) de los agentes económicos,  los escenarios serían veinte, de los cuales eliminamos seis puesto que sus valores de expectativas se hayan alejados de los valores acordables por los agentes. De los catorce escenarios para analizar, cuatro de ellos corresponden a escenarios EDC, seis son escenarios favorables y cuatro a escenarios EDI

En términos generales, si tuviésemos N puntos de acuerdos (en precios y cantidades) entre los agentes, tendríamos que cuatro escenarios corresponden a escenarios EDC, 2N a escenarios favorables y 2(N-1)  escenarios EDI

Conclusión

Los acuerdos entre comparadores y vendedores no son predecibles ni cuantificables, ellos caen en el ámbito de las relaciones humanas que aunque están influídas por precios y cantidades, las calidades de los bienes sujetos a intercambio como también consideraciones estéticas, emocionales, religiosas, de compromisos, de visión de futuro….etc juegan un rol en el mundo del intercambio. Todo esto, unido a lo que hemos visto en nuestro análisis anterior nos lleva a la conclusión de que los escenarios  de ínter-cambiabilidad de bienes y servicios crecen casi en cuatro veces (4N-2) con la aparición de N agentes económicos. Recordemos que la ínter-cambiabilidad de bienes y servicios está en el corazón del crecimiento económico.

Los escenarios EDI generan nuevos acuerdos entre los agentes en virtud de la dominancia que puede darse tanto del comprador como del vendedor. Por lo tanto  aquellos escenarios EDI podrían generan 2(N-1) nuevos acuerdos adicionales a los N iniciales. Esto es, llegamos a que los acuerdos entre los agentes pasarán de N iniciales a 3N-2. Razonando como antes vemos que se generaría  un efecto expansivo de escenarios de ínter cambiabilidad de bienes y servicios. En resumen, el principio de utilidad marginal mengeriano nos trae que el crecimiento de escenarios de ínter cambiabilidad de bienes y servicios es un fenómeno endógeno y auto expansivo.  Dicho en otros términos: la división del trabajo genera más división del trabajo.

Nuestro análisis nos permite enunciar el siguiente

Teorema. Bajo la ley subjetiva del valor, el principio de utilidad marginal mengeriano es necesario y suficiente para el incremento de escenarios de favorabilidad en el intercambio económico

Prueba: Es suficiente porque, como hemos visto, a mayor numero de intercambios entre los agentes, mayor es el número de escenarios de favorabilidad simultánea. Y es necesaria porque sin aquel principio la subjetividad de la teoría del valor se destruye. Recordemos que en los intercambios económicos las valoraciones subjetivas que motivan al vendedor y al comprador son desiguales.

Categorías:Economía