Mostrando entradas con la etiqueta Libro. Mostrar todas las entradas
Mostrando entradas con la etiqueta Libro. Mostrar todas las entradas

21 de febrero de 2017

Modelos de Estado de bienestar(I): clasificación y tipología.

Las políticas del Estado del bienestar no han sido iguales en todos los países por diferentes razones. Por un lado, los países presentan divergencias a la hora de implementar un sistema de bienestar. Por otro lado, por motivos históricos y/o geográficos no parten en condiciones de igualdad para el crecimiento económico. Tampoco, es igual su concepción del mundo ni la ideología que está detrás de la acción política.

Los diferentes modelos de Estado de bienestar se pueden clasificar atendiendo a dos dimensiones, que propuso el economista y sociólogo danés Gosta Esping-Andersen, en su libro los tres mundos del Estado del bienestar en 1990. Una primera dimensión, el grado de desmercantilización, es decir, el grado en que los servicios sociales se proveen al margen de los mercados. Y, una segunda dimensión, la estratificación social, es decir, en la medida en que los sistemas de bienestar ayudan a reducir las desigualdades sociales. Según el propio Esping- Anderson, el proceso histórico, que transformo a los agricultores en asalariados, el trabajo se convirtió en una mercancía más y los trabajadores pasaron a depender de su salario para satisfacer sus necesidades básicas. Desde esa perspectiva, existen diferentes modelos de Estado de bienestar según el grado de responsabilidad del Estado a la hora de abastecer ciertos servicios sociales básicos. A mayor desmercantilización, mayor grado de Estado del bienestar.

Partiendo de este supuesto, Gosta Esping- Andersen diferencia tres tipos de Estados del bienestar: el modelo socialdemócrata que posee un nivel de desmercantilización alto. El Estado proporciona un alto nivel de bienes y servicios. Se financia con impuestos, trata a todos los ciudadanos por igual y tiene un carácter universalista. El modelo liberal que se caracteriza por un nivel alto de mercantilización donde el bienestar depende del mercado. La intervención del Estado se limita a transferir rentas a aquellas personas que no son capaces de satisfacer sus necesidades básicas a través del mercado. La financiación se hace a través de la imposición fiscal. Y, por último, el modelo conservador que se caracteriza por una desmercantización media. Este modelo no incluía al mercado, pero no lo consideraba como la única vía para satisfacer las necesidades básicas. En los países donde predomina este modelo conservador, existe diferentes tipos de seguro social, fuertes sindicatos, seguros de desempleo y cotizaciones empresariales altas.

7 de febrero de 2017

La reacción liberal al keynesianismo y las propuestas de reformas(II)

Durante las décadas de los años 50 y 60, y, hasta el año 1973, se produjo un enorme crecimiento económico sin precedentes. Tanto su éxito como su fracaso posterior, no se debe al keynesianismo ni al Estado de bienestar. Desde el fin de la II Segunda Guerra Mundial, los países europeos se beneficiaron del acuerdo de Bretton Woods, la integración de los mercados europeos, las ayudas del plan Marshall y las transferencias tecnológicas desde EE.UU. Antes de la crisis del petróleo de 1973, las economías norteamericana, japonesa y europea estaban muy próximas. Sin embargo, el fin de la expansión y el endeudamiento de los Estados, hizo patente las debilidades del keynesianismo. Pero, no fue, con el embargo del petróleo por parte de la OLP a causa de la guerra Yom Kippur, cuando el precio del petróleo creció de 3 a 14 dólares por barril. Se descartó las políticas de estímulo de la demanda y se comenzó a defender políticas de oferta, es decir, reformas de liberalización que consiguieron aumentar la producción a través de la eficiencia. Se empezó a valorar la microeconomía frente a la macroeconomía que estudiaba que incentivos hacían que aumentará la producción. También, se prestó una mayor atención a la teoría del crecimiento económico y a cómo se mejora la productividad del trabajo y el capital a través de la formación y la tecnología.

Cada una de estas adversidades creó un clima desfavorable para el Estado del bienestar y sí favorable para la ideología (neo)liberal de la mano de Margaret Thatcher y de Ronald Reagan. Ambos querían recluir la importancia del Estado de bienestar y "retroceder" las fronteras del Estado del bienestar. Las nuevas ideas (neo)liberales tuvieron una plasmación en la distribución del gasto social y en el cambio de la política económica. Respecto al gasto social, el Estado del bienestar británico comenzó a controlar el gasto público durante el crecimiento económico y la supeditaba al crecimiento de los precios. Respecto a lo segundo, el cambio de la política económica, el principal elemento fue la reducción del papel del Estado como protector. Inició una campaña de privatización de las principales compañías y empresas públicas británicas. Además, redujo la carga financiera del Estado, permitiendo el acceso a otras fuentes de financiación a las empresas. Ciertos servicios sociales que aún eran públicos, es decir, que eran financiados y proveídos por el Estado, se convirtieron en una especie de "cuasi-mercado" en que ciertos servicios sociales- cuidado de ancianos, vivienda social,...- fueron financiados por el Estado pero se puso en manos del sector privado. El gobierno de Thatcher abrazó las políticas de oferta, dejando a un lado definitivamente las políticas fiscales keynesianas. Redujo drásticamente el crecimiento de la masa monetaria en circulación para controlar la inflación. La reducción del déficit público fue la estrategia escogida para combatir la inflación. Consiguió reducir la inflación de un 13,4% a los 4,6% en cuatro años. Mientras que el desempleo, subió del 4,7% al 11,1%. No se sabe si esta subida se debe a la segunda crisis del petróleo- 1979- o a la política monetaria contra la inflación. Respecto a la políticas de oferta, Thatcher planteó una reducción de los tipos marginales del impuesto sobre la renta tanto en el tramo alto como el bajo.

En EE.UU, con la presidencia de Ronald Reagan, se aplicó una política severa de recortes del Estado del bienestar en tres ámbitos: el seguro de desempleo, ayudas a familias con niños dependientes y en los programas de construcción y rehabilitación de viviendas para personas con bajos ingresos. Respecto a su política económica, su actuación no fue monetarista como la política thatcheriana sino más bien optó por mejorar la gestión de la Reserva Federal así controlar mejor la evolución del crecimiento económico, lo que produjo la reducción de la inflación. Por otro lado, el déficit público no dejó de subir durante los años 80, en parte por los recortes de impuestos recomendados por las políticas de oferta monetaria, y, la reducción de los tipos marginales de los tramos más altos y más bajos.

Las reformas de la década de 1980 tuvieron un primer impacto en la transformación del Estado del bienestar en un sistema mixto en el que los servicios eran proporcionados tanto por el Estado como por el sector privado. Sin embargo, el Estado del bienestar se está enfrentando a nuevos retos, como eran la nueva sociedad postindustrial, envejecimiento demográfico, incorporación masiva de la mujer al mercado laboral, para los que no servían las soluciones anteriores. En resumen, hubo un proceso de reconsideración del gasto social en su conjunto y del progresivo abandono del keynesianismo tanto de los gobiernos socialdemócratas en Europa como del partido demócrata en Estados Unidos. 

25 de enero de 2017

La reacción liberal al keynesianismo y las propuestas de reforma(I)

El segundo capítulo del libro, ¿es sostenible el Estado de bienestar?, la reacción liberal y las propuestas de reforma, se centra fundamentalmente, en una primera parte, en la Gran Depresión y en el New Deal así como la entrada del liberalismo contra la intervención del Estado en la economía, y, en una segunda parte, en la figura de Milton Friedman y su oposición al keynesianismo.

En Estados Unidos es donde han surgido las críticas más importantes al Estado del bienestar tanto en el ámbito teórico como en el ideológico. También, es donde surge el New Deal un programa social que constituyó una especie de "Estado del bienestar" anterior al Estado del bienestar. Aunque, el New Deal fue una medida extraordinaria como respuesta a la Gran Depresión, a un suceso extraordinario. El crash de 1929 tuvo consecuencias devastadoras para Estados Unidos que se prolongó hasta finales de los años 30. En 1933, Roosevelt impulsó un programa de intervención del Estado en la economía, el New Deal. Fue un éxito desde el punto de vista económico, el PIB de Estados Unidos creció. En el ámbito social, Roosevelt promovió una transformación total del sistema de bienestar norteamericano. Antepuso la administración federal a las administraciones locales y de los estados, acabando con el despilfarro. Entre 1933 y 1935, entró en vigor la Federal Emergency Relief Administration y se promulgó la Ley de Seguridad Social. Se creó para hacer frente a los jubilaciones y gestionar el seguro de desempleo. El New Deal fue un programa que pretendía planificar el funcionamiento de los principales sectores de la economía norteamericana y encontró resistencias tanto en el ámbito conservador como liberal. Roosevelt centró su principal atención sobre el sector financiero. Sacó a Estados Unidos del patrón oro en 1933. Al abandonar el patrón oro, la Reserva Federal pudo imprimir todos los billetes que quiso. El valor del dólar se garantizaría a través de los títulos de deuda pública del Tesoro americano, es decir, la credibilidad de su economía. La intervención del Estado también se trasladó en los sectores agrícola, industrial y obra pública.

Los primeros economistas contrarios a las políticas del New Deal fueron los de la Universidad de Harvard denominados, los Siete Sabios, que criticaban el intervencionismo del Estado y alentaban sobre la ineficiencia de la planificación en la economía. La mayor preocupación de los Siete Sabios era el efecto de la planificación sobre el sistema de precios y sobre los efectos en las decisiones de las personas a la hora de decidir qué hacer con sus recursos. El New Deal no podía poner de acuerdo a la oferta y a la demanda. Sin embargo, en la segunda mitad de la década de los  años 30, la Universidad de Harvard tomó la dirección contraria. Fue, paradójicamente, en esta universidad donde se expandió el keynesianismo en EE.UU de la mano de Alvin Hanlen. La oposición al keynesianismo y al New Deal fue desapareciendo de la universidad. El liberalismo fue recluyéndose y su resistencia numántina se trasladó a la Universidad de Chicago. Entre los economistas liberales, quien mejor organizó la resistencia al keynesianismo y a la economía planificada, estaba el economista austríaco Friedrich Hayek. Ferrio partidario de la descentralización y firme defensor de las libertades individuales, estaba en contra de la planificación económica. No obstante, no era partidario de la desaparición del Estado porque podía cumplir con algunas funciones como favorecer el libre mercado, eliminar monopolios o cuidar del medio ambiente. Friedrich Hayek junto a la Escuela de Chicago fue quien mejor organizó la resistencia al programa keynesiano y sus políticas en EE.UU y quien posteriormente replantearía los principios y postulados del liberalismo.

Como hemos dicho antes, la gran resistencia al keynesianismo fue en la Universidad de Chicago. Henry C. Simons formó en los años 40 a estudiantes seguidores de la economía neoclásica que defendía el libre mercado y que oponía a las políticas intervencionistas del Estado en la economía. Entre estos alumnos estaba Milton Friedman, futuro premio nobel en 1976 y principal figura de la Escuela de Chicago. Friedman puso su talento al servicio de la defensa del libre mercado y fue el principal responsable en el descrédito del keynesianismo a finales de los años 60. Friedman centró su crítica al keynesianismo en dos frentes: la cuestión monetaria y la formación de expectativas. Esta última es donde reside fundamentalmente la gran discrepancia con el keynesianismo. Mientras que, Keynes creía que, las expectativas sobre el futuro eran la causa de que hubiera menos bienes necesarios para alcanzar el pleno empleo, y, por tanto, defendía que el Gobierno imprimiera más dinero a pesar del riesgo a la inflación, por tanto, existía una relación inversa entre inflación y desempleo: un mayor crecimiento de los precios va acompañado de un menor desempleo, Milton Friedman creía que, las expectativas y las decisiones que tomaban las personas son racionales. Friedman rechazaba que el Gobierno utilizará la inflación como herramienta política. Estaba en contra de políticas monetarias expansivas porque los precios subirían sin fin, mientras que la economía seguiría estancada igual que el nivel de desempleo. Se produciría una situación de estanflación. Este fenómeno descrito por Friedman comenzó a experimentarse a partir de 1970. Cuando se produjo un crecimiento del nivel de desempleo con un nivel alto de inflación. Se agravó después de 1973 con la crisis petrolera. Esto produjo que se destruyera la credibilidad entorno al intercambio entre inflación y desempleo, tal como preconizaba Keynes. La duda se extendió a toda la política de estabilización y de estímulo de la demanda del modelo keynesiano, aupando las tesis de Friedman.

Además, de su contribución a la política monetaria, Milton Friedman se mostró en contra del Estado del bienestar y a favor de la sociedad. Escribió dos libros: el primero, capitalismo y libertad, en 1962 y el segundo, libertad para elegir, en 1980 donde expone sus argumentos en relación a ambas cuestiones. En ambos libros, defiende que el capitalismo es una condición necesaria, aunque no suficiente, para la consecución de la libertad política. Defiende que quienes participan en el sistema capitalista demandarán tanto la libertad económica como la libertad política y que el capitalismo es el sistema creador de riqueza más eficiente. Respecto al Estado del bienestar, Friedman se mostró partidario de eliminar los programas de asistencia social y sustituirlo por un impuesto negativo.

5 de diciembre de 2016

Las políticas keynesianas y el nacimiento del Estado de bienestar(II)

El impacto de las propuestas y del pensamiento keynesiano en la economía fue enorme así como los debates entorno a sus ideas. Muchos economistas neoclásicos intentaron reconciliarse con el keynesianismo. La tarea de divulgación y reformulación del keynesianismo fue acometida especialmente por dos autores: el británico John R. Hicks y el estadounidense Paul A. Samuelson. La principal aportación de John R. Hicks a la divulgación de la obra de John Maynard Keynes fue el artículo "El señor Keynes y los clásicos" en el que llevaba el keynesianismo a fórmulas matemáticas más digeribles para los economistas neoclásicos. Dicho artículo fue el que permitió el desarrollo del modelo IS-LM. Este modelo proponía dos herramientas a disposición del Gobierno para conseguir el pleno empleo: la política fiscal y la política monetaria. Con la política fiscal, a través del gasto del Gobierno o bien reduciendo los impuestos para que los consumidores tengan más renta disponible, se puede estimular la demanda de bienes de consumo. Con la política monetaria, se puede bajar el tipo de interés mediante la inyección de dinero, o hacerlo subir mediante la restricción de dinero. El tipo de interés influye en las decisiones de los consumidores y de los empresarios, puesto que el tipo de interés marca el precio del dinero, y, si este es bajo, los empresarios y consumidores se endeudarán para invertir y consumir, respectivamente. El modelo IS-LM fue una guía que se utilizó para aplicar las ideas keynesianas en el desarrollo de políticas dirigidas a la implantación y consolidación del Estado del bienestar.

La aportación de Samuelson fue la popularización del modelo IS-LM en el libro Economía en 1948. Samuelson hizó una síntesis entre los planteamientos de la escuela neoclásica y el modelo IS-LM de John R. Hich. Defendía la intervención del Estado en la política fiscal. También fue partidario de la intervención del Estado en el mercado porque éste era incapaz de proporcionar niveles de inversión que asegurarán el pleno empleo. Apoyó el Estado del bienestar y los programas de redistribución de la renta y la reducción de la pobreza. Samuelson era consciente que, para que hubiera pleno empleo, era imprescindible determinar cuánto produce la economía. La mejor herramienta era la política fiscal, es decir, la utilización del gasto público y de los impuestos para modular la actividad económica. Su apuesta por la política fiscal era por su convencimiento del papel del multiplicador keynesiano. El multiplicador keynesiano surge de una hipótesis sobre los consumidores: una persona no gasta la totalidad de su ingreso de cada mes en consumo sino una proporción fija, denominada "propensión marginal al consumo". Ahora bien, cualquier compra produce otros gastos posteriormente. En consecuencia, al final, se habrá multiplicado significativamente el gasto partiendo de un determinado consumo sobre la renta disponible. Los impuestos tenían un efecto sobre la renta disponible y ésta sobre el multiplicador keynesiano. Samuelson estudió los efectos del multiplicador keynesiano en el gasto público y aseveró que su existencia y su valor son determinantes para la eficacia del gasto público. Samuelson defendió los presupuestos públicos deficitarios. El presupuesto del Gobierno no debe estar siempre equilibrado sino en relación al ciclo económico, consecuentemente, aumentar el gasto público o reducir los impuestos con el objetivo de incrementar  la demanda efectiva cuando la economía está en la parte baja del ciclo económica, compensando el déficit resultante en la parte alta del ciclo económica con el objetivo de evitar un sobrecalentamiento de la economía, reduciendo la demanda mediante la reducción del gasto público o el aumento de los impuestos. El déficit público sería controlable gracias al multiplicador keynesiano. A las políticas, que se efectúan en la parte baja del ciclo económico se las llama políticas contracíclicas, mientras que, las políticas que se efectúan en la parte alta del ciclo económica se las llama políticas procíclicas. Por otro lado, Samuelson defendió que cuando existe desempleo suele producirse un fenómeno en relación al ahorro, la llamada "paradoja de la frugalidad", que reduce la demanda total de la economía con la consiguiente reducción de la renta disponible para ahorrar. En este tipo de situaciones, las personas retienen sus ingresos, el dinero no afluye a los mercados y la demanda de bienes se reduce en relación a la oferta, como consecuencia de esta paradoja, el gasto público puede cerrar la brecha entre demanda y oferta de bienes y alcanzar el pleno empleo. Por último, Samuelson defiende una concepción según la cual el dinero está mejor en manos del Gobierno, cuando se refiere al pleno empleo, reflejándose en la hipótesis del presupuestos equilibrado. Ello conlleva, que un presupuesto equilibrado, es decir, aquél en que los gastos son iguales a los ingresos, sea expansivo, y que se aproxima a una economía al pleno empleo.

Los efectos de las ideas keynesianas sobre la política del Estado del bienestar fueron enormes. El gasto público entre 1960 y 1980 creció en diferentes países: Suecia, Alemania, Francia, Reino Unido y Estados Unidos. Hasta 1960, la recaudación fiscal de esos mismos países apenas rebasaban el 30% del PIB pero la necesidad de financiar este aumento del gasto público hizo que subiera. Al mismo tiempo, nació la llamada economía mixta: los Gobiernos utilizaban el gasto público como forma de estimular la actividad económica pero, también de satisfacer a una población que exigía políticas de bienestar. El Estado del bienestar alcanzó su madurez en la década de los 60. La cobertura de la protección social se hizo universal en la mayoría de países y se delimitó los ámbitos de actuación del Gobierno así como la sanidad gratuita y la ayuda a la compra de vivienda. Este crecimiento del Estado del bienestar obligó a aumentar el gasto público muy por encima de la recaudación de impuestos, lo que generó déficit público creciente, y, con ello, la necesidad del endeudamiento de los Estados para hacer frente a este gasto. Los problemas aparecerán, a principios de los 70, por el encarecimiento súbito del petróleo como materia prima. El resultado será el abandono progresivo de las políticas orientadas a la demanda, es decir, políticas de corte keynesiano, por políticas orientadas a la oferta. 

14 de noviembre de 2016

Las políticas keynesianas y el nacimiento del Estado del bienestar (I)

El primer capítulo del libro ¿es sostenible el estado del bienestar?, Las políticas keynesianas y el nacimiento del Estado del bienestar, vamos a subdividirlo en dos partes: I y II. En la primera parte, hablaremos sobre los estudios económicos del Bienestar y, en la segunda parte, sobre el desarrollo y la madurez del Estado del bienestar. 

La doctrina económica que inspira al Estado de bienestar es el keynesianismo de John Maynard Keynes. Su tesis principal es que el libre mercado es incapaz de garantizar el pleno empleo, defendiendo la necesidad de regular el capitalismo desde la política del Estado. El keynesianismo surgió como reacción a la Gran Depresión. Pero, no fue, hasta después de la Segunda Guerra Mundial, cuando se generalizó la convicción de que el Estado debía proporcionar a sus ciudadanos protección contra las adversidades económicas, lo que condujo a la creación entre 1945 y 1948, del primer Estado del bienestar en el Reino Unido.

Pero, ¿cuando y cómo surgió la necesidad de estudiar el Estado de bienestar? Los economistas fueron los protagonistas iniciales del estudio tanto del bienestar individual como del bienestar social. Se estableció un debate entre aquellos economistas que confiaban en que la libre iniciativa y el mercado resolverían por sí mismo el bienestar social, y los socialistas, que desconfiaban de la propiedad privada y de los capitalistas. En paralelo, a este debate, durante el siglo XIX, en el ámbito de la ciencia económica, coexistieron dos períodos: el clásico que arranca con Adam Smith hasta Karl Marx y John Stuart Mill y el neoclásico con las figuras de León Walras, William S. Jevons y Alfred Marshall. Este último período, la llamada escuela neoclásica de economía, surge apoyada por el positivismo- epistemología- y el utilitarismo- ética-. Pretendían incorporar la economía al positivismo y de esta forma explicar al ser humano y sus acciones así como sus consecuencias e interacciones al modo como se hacía en las ciencias naturales. Esta pretensión de transformar la economía, como si fuera una ciencia natural, tiene una gran importancia para entender cómo se ha concebido y estudiado el bienestar desde la economía. Por su parte, el utilitarismo cree que el objetivo último de las acciones humanas es aumentar el bienestar y evitar el dolor y el sufrimiento. Las acciones humanas se orientan hacia una mayor satisfacción personal o "utilidad", de ahí, el nombre de utilitarismo. Este modelo de ser humano contenía un "problema técnico": ¿cómo concebir un modelo de ser humano que puede ser expresado mediante una ecuación matemática? El neoclasicismo creó la figura del "homo economicus". ¿En qué consistía el homo economicus? Podríamos definirlo como a una persona que, teniendo como objetivo único alcanzar la mayor utilidad posible, es capaz de determinar cuánta utilidad le proporciona la combinación entre bienes y servicios que tiene a su alcance y decidir cuál es la mejor combinación entre sí. El homo economicus fue utilizado por los economistas para realizar experimentos en los que un homo economicus era colocado ante diferentes alternativas y escoger aquella situación que proporcionará mayor utilidad, o sea, mayor bienestar. Los economistas neoclásicos concluyeron que el bienestar era el resultado de la utilidad del consumo de bienes y servicios. A partir de ahí, se podía establecer diferentes políticas en función de la utilidad- es decir, del mayor bienestar- que aportan.  La escuela neoclásica concluyó que el mercado conducía a situaciones de equilibrio en las que el bienestar era el máximo posible. Tanto esa tendencia del mercado al equilibrio como la reducción del comportamiento al hedonismo fue criticado por el economista John Maynard Keynes.

John Maynard Keynes, durante la Gran Guerra y los años 20, observó que existía rigideces entre las instituciones y los diferentes actores económicos- inversores, empresarios, trabajadores- a la hora de que los mercados alcancen el equilibrio entre la oferta y la demanda. La constatación de estos hechos hizó que Keynes propusiera un control de ciertas actividades económicas de manera que fuera compatible con las libertades de las sociedades democráticas. Para Keynes, el desempeño correcto de la economía era aquél que garantizaba el pleno empleo. Durante los años 30, dos cuestiones fundamentales fueron: cómo reducir el desempleo y cómo financiar los seguros de desempleo. Junto a estas preocupaciones, Keynes abandonó el utilitarismo como medio para explicar el consumo. Creía que además del hedonismo también el error, la falta de previsión, la generosidad o la extravagancia estaban detrás del consumo. Y, por tanto, la máxima utilitaria no podía explicar todo el consumo.

Como consecuencia del crash de 1929, el PIB de EEUU se redujo más de un 44%. En 1933, se alcanzó la cifra del 25% de desempleo sólo en EEUU. La administración de Hoover no adoptó ninguna medida extraordinaria. No es hasta la presidencia de Roosevelt cuando se adopta el New Deal que es considerado como uno de los hitos más importantes de la historia del Estado del bienestar. Con su libro, la teoría general, John Maynard Keynes quiso dar una respuesta a las crisis recurrentes del sistema capitalista para las cuales la escuela neoclásica no parecía tener solución. En su análisis, Keynes otorga a los consumidores y a los empresarios el peso de la actividad económica. Para Keynes, la causa principal de los fallos del sistema de libre mercado son la toma de decisiones que se basan en el conocimiento del pasado. Por este motivo, el resultado de nuestras acciones es siempre incierto. Los consumidores eligen qué parte de sus ingresos dedican a consumir y qué parte no. Mientras, que la parte del consumo está determinado por el nivel de renta y las preferencias, la segunda, la parte que no se consume, plantea un dilema. El consumidor tiene dos opciones: ahorrar o mantenerlo "ocioso" en su bolsillo. El ahorro privado consiste en otorgar préstamos a algún empresario a cambio de un interés. El tipo de interés sería la oferta que se le hace al consumidor para que se lo preste a un empresario para que éste asuma un riesgo con la inversión. La motivación de los empresarios para invertir se basa en analizar el coste de emprender una actividad y las expectativas de ganancias futuros procedentes de la inversión.

Sin embargo, para Keynes el comportamiento económico no puede explicarse únicamente a través de la racionalidad sino que hay que contrapónerla con aspectos más irracionales a la hora de tomar decisiones tanto económicas como no económicas. Además, estos componentes no racionales se "contagiaban" rápidamente de un individuo a otro y tendían a reforzarse. En situaciones de incertidumbre o inestabilidad, el comportamiento tanto de consumidores como de empresarios es económicamente ineficiente. El "atesoramiento" del dinero por parte de los consumidores es debido a la incertidumbre que provoca la demanda de bienes sea insuficiente para cubrir la oferta. Por su parte, los empresarios pueden reducir la inversión en capital y mano de obra más allá de lo deseable. El resultado es una demanda insuficiente de bienes, capital y mano de obra. Esta debilidad de la demanda agregada provoca una reducción de la producción total de bienes y servicios. Al ser, el resultado de decisiones libres entre consumidores y empresarios, suele perpetuarse dicho desequilibrio entre la oferta y la demanda, en lugar de, como sostiene la escuela neoclásica, alcanzar en algún momento el equilibrio. Para Keynes, el principal problema del capitalismo liberal es, que un contexto de incertidumbre, se deje al mercado actuar libremente respecto a las decisiones de inversión. Keynes apuesta porque sea el Estado quien tome las decisiones de inversión ya que está en mejores condiciones para asumir y gestionar el riesgo en beneficio del interés público. Estas inversiones productivas del Estado permitirían cerrar la brecha entre la demanda y la oferta agregadas, asegurando el pleno empleo en cada coyuntura económica.

Keynes también crítica la política monetaria expansiva en un entorno de bajos tipos de interés. Al imprimir más dinero y ponerlo en manos de la gente, aumentará la demanda de bienes en la economía. Lo que provocará un aumento de la inflación. En consecuencia, si aumenta la cantidad de bienes, disminuye su valor. El dinero también es un bien. Y como tal, disminuye de valor lo que equivale a decir que con la misma cantidad se compran ahora menos cosas, un efecto equivalente a una subida generalizada de los precios. Keynes contraargumentó que el beneficio de un aumento de la demanda, es decir, la reducción del desempleo, era mayor que el perjuicio de una mayor inflación, tanto una medida como la otra, tenían como finalidad estabilizar la demanda en las diferentes coyunturas económicas del capitalismo liberal. Se aseguraría el crecimiento económico, y así, la mejora de las condiciones de vida y el bienestar de los ciudadanos. 

8 de noviembre de 2016

Introducción: concepto, crisis y retos del Estados del bienestar.

La Gran Recesión de 2008 fue un punto de inflexión al iniciarse un proceso de cuestionamiento de la viabilidad financiera de nuestro Estado de bienestar. No obstante, no era la primera vez que surgía este debate. Ya, en los años 70, con el aumento exponencial de la población mundial y las sucesivas crisis del petróleo, pusieron en aprieto al Estado del bienestar. Junto a estos fenómenos, la aparición de la contrareforma neoliberal liderada por Ronald Reagan y Margaret Thatcher, que sostenían que los Estados de bienestar no eran capaces de generar la riqueza suficiente para financiar sus necesidades. Sin embargo, ninguno de estos malos augurios se han cumplido. El gasto social del PIB se ha mantenido estable en los países desarrollados. Ahora bien, no debemos bajar la guardia. Los retos del Estado de bienestar en el siglo XXI son muy distinto a los de la década de 1970. El actual Estado del bienestar tiene diferentes retos: de orden económico- mayor envejecimiento y bajo índice de natalidad-, de orden sociológico- cambios en el modelo de familia-, de orden supranacional- la globalización- y el fenómeno de la inmigración. Finalmente, hay que dar respuesta a la tendencia del Estado del bienestar a crecer cada vez más.

Pero, ¿a qué nos referimos cuando hablamos de Estado del bienestar? Es difícil de encontrar una definición precisa. ¿Por qué? Por la sencilla razón, que no existe un único modelo de Estado de bienestar. No obstante, podríamos definirlo como un sistema por el que la administración pública, independientemente de quien gobierne, garantiza a sus ciudadanos un conjunto de servicios sociales básicos- sanidad, educación, pensiones, desempleo, minusvalía o acceso a la vivienda- para mejorar sus condiciones de vida y promover la igualdad de oportunidades. El mercado por sí solo no es capaz de ofrecer estos servicios básicos a un coste asumible. Estas limitaciones del mercado siempre han estado en el centro de la batalla entre los defensores y los detractores de la intervención del Estado en la economía. Dentro de los detractores, la crítica está en el terreno de los valores. La intervención del Estado es percibida como una invasión en el ámbito de decisión individual y acusa al Estado del bienestar de promover relaciones de dependencia de los ciudadanos con el Estado. El Estado de bienestar debe ser evaluado en función de su eficiencia y si cumple con sus objetivos.

El Estado del bienestar no siempre ha existido. El inicio así como su consolidación ha estado lleno de luchas, crisis y conquistas. No podemos hablar de Estado de bienestar hasta después de la Segunda Guerra Mundial en 1945, cuando se implantó en el Reino Unido, con el Gobierno laborista de Clement Attlee, el primer sistema de seguridad social y el primer sistema de sanidad pública y universal. Se estableció un pacto social que perseguía la igualdad de derechos y deberes de toda la ciudadanía y el reparto más equitativo de la riqueza generada en el Reino Unido. Tras éste, los diferentes países occidentales han adoptado el Estado del bienestar a sus particularidades culturales y sociales. Han intentado incidir sobre todo en 4 aspectos básicos: el paro, la jubilación, la desigualdad social y la pobreza, llevando al Estado a la necesidad de regular la economía.

A pesar de su éxito, el Estado de bienestar actual debe dar respuesta a los retos que le depara el futuro, haciendo necesario su reinvención. Una primera amenaza es la de su sostenibilidad por motivos demográficos. Una segunda amenaza es la globalización que provoca una competitividad creciente entre países. Una tercera amenaza es la crisis de 2007 y la crisis de la deuda soberana de la zona Euro que está castigando duramente el Estado de bienestar. Se trata de retos formidables que demandan soluciones imaginativas y audaces porque la sostenibilidad del Estado del bienestar depende de la cantidad de recursos que estemos dispuestos a destinarle y su viabilidad dependerá de, como ciudadanos, en qué tipo de sociedad queremos vivir. 

18 de octubre de 2016

Introducción a ¿Es sostenible el estado del bienestar?

El libro ¿es sostenible el estado del bienestar? nos introduce en un tema candente: el desarrollo, mantenimiento y crisis del Estado de bienestar en las sociedades occidentales. Cómo, cuando y por qué surge el primer Estado de bienestar en el Reino Unido después de la Segunda Guerra Mundial; sus antecedentes históricos en el siglo XIX e inicios del siglo XX y el precedente del New Deal de Roosevelt en los años 30 en Estados Unidos. Es, en ese contexto histórico, social, económico y político, que emerge el keneysianismo como respuesta a los estragos de la Gran Depresión y la II Guerra Mundial. Será el economista británico, John Maynard Keynes, quien establecerá las bases teóricas del Estado de bienestar. Las políticas keynesianas se implementarán y desarrollarán a lo largo de más de tres décadas en los países occidentales. Se caracterizaron por apostar por políticas intervencionistas por parte del Estado en materia económica, financiera y social en detrimento del libre mercado a la hora de ofrecer bienes y servicios básicos- empleo, vivienda, educación, sanidad...- a la población. Durante 30 años, las políticas keynesianas fueron un éxito en el Reino Unido y en Estados Unidos, permitiendo el despegue, desarrollo y mantenimiento del Estado de bienestar. En paralelo, a este proceso de inicio y consolidación del Estado de Bienestar, se inicia una reacción liberal contra la intervención del Estado en la economía. Los defensores de la libertad de mercado, apoyados por las tesis de Milton Friedman y la Escuela de Chicago, preconizaron un paulatino abandono de los postulados keynesianos, y, por extensión, del Estado del bienestar. Pero, no será, hasta los años 80, cuando definitivamente estas ideas (neo)liberales harán fortuna con los gobiernos de Margaret Thatcher y Ronald Reagan en Reino Unido y Estados Unidos, respectivamente. El ascenso de la doctrina neoliberal cuestionará tanto la legitimidad como la sostenibilidad del Estado del bienestar y apostará por su desmantelamiento progresivo, substituyéndolo por una creciente mercantilización de servicios básicos como la sanidad o la educación, y, por la privatización de los sectores económicos estratégicos de los países desarrollados, y posteriormente, del resto del mundo.

En segundo lugar, desarrolla los distintos modelos de Estado de bienestar existentes en la mayoría de los países occidentales. Podemos hablar y diferenciar claramente tres grandes modelos de Estado de bienestar: el modelo socialdemócrata de los países nórdicos; el modelo liberal de los países anglosajones y el modelo conservador de países como Alemania o Francia. Se expone tanto sus puntos fuertes como sus puntos débiles así como sus aportaciones y limitaciones que han reavivado el debate sobre la sostenibilidad fiscal de estos modelos de Estado de bienestar a medio y a largo plazo por motivos demográficos y por la irrupción de la globalización.

14 de octubre de 2016

Descripción del libro ¿Es sostenible el estado del bienestar?

El libro ¿es sostenible el estado de bienestar? del economista Óscar Vara Crespo contiene 141 páginas. Está editado en el año 2016 por RBA Coleccionables dentro de la colección titulada Los retos de la economía. Es el primer número de la colección. El sumario del libro contiene: una introducción y 4 capítulos: las políticas keynesianas y el nacimiento del Estado del bienestar; la reacción liberal y las propuestas de reforma; los distintos modelos actuales de Estado de bienestar y Retos globales de futuro. 

13 de octubre de 2016

¿Es sostenible el estado del bienestar?

¿Es sostenible el estado de bienestar? del economista español Óscar Vara Crespo nos invita a adentrarnos en la temática del Estado de bienestar: qué es, cómo y por qué se desarrolla el Estado de bienestar en las sociedades occidentales; quiénes son sus principales teóricos y sus principales detractores o críticos más acérrimos; cuáles son los principales modelos del Estado de bienestar así como cuáles son sus principales retos o amenazas al albur de la actual crisis económica y de su futuro incierto en las próximas décadas del siglo XXI.

22 de abril de 2016

Historia de la computación

Vamos a dejar un enlace sobre la historia de la computación que recoge los principales hitos históricos del desarrollo de la computación desde la Edad Media hasta la actualidad. 
En este enlace: https://es.wikipedia.org/wiki/Anexo:Historia_de_la_computaci%C3%B3n podréis encontrar de forma pormenorizada una lista de estos principales hitos dentro de la computación. 

historia de la computación

3 de febrero de 2016

Hitos biográficos de Alan Turing

Para acabar, vamos a sintetizar los hitos biográficos de Alan Turing:
  • 1912: Nace en Paddington, el 23 de junio. 
  • 1926-1931: Cursas sus estudios de secundaria en Sherborne.
  • 1930: Muere Christopher Morcom con el que estaba muy unido.
  • 1931-1934: Estudia Matemáticas en el King's College.
  • 1936: Publica su artículo célebre "On computable numbers, with an application to the Entscheidungsproblem", donde introduce la noción de máquina de Turing. 
  • 1936-1938: Estancia en la Universidad de Princeton y realización de su tesis doctoral bajo la supervisión de Alonzo Church. 
  • 1938-1945: Trabaja en Betchley Park en el desciframiento de las máquinas Enigma. 
  • 1945: Trabaja en el Laboratorio Nacional de Física de Londres.
  • 1946-1948: Contribuciones en diferentes ámbitos: el diseño de software, programación e inteligencia artificial. 
  • 1948: Empieza a trabajar en la Universidad de Manchester. 
  • 1949: Utiliza un ordenador para buscar números primos de Mersenne, lo que se considera el primer uso matemático de un ordenador. 
  • 1950: Desarrolla el famoso test de Turing.
  • 1951: Desarrolla el modelo de reacción-difusión como teoría no lineal del crecimiento biológico. 
  • 1952: Es arrestado por prácticas homosexuales. 
  • 1954: Muere el 7 de junio por suicidio con cianuro. 

31 de enero de 2016

El legado de Alan Turing

El legado de Turing es el undécimo capítulo del libro Rompiendo códigos. Vida y legado de Turing. En este capítulo, repasamos qué premios y qué reconocimientos ha recibido Alan Turing a título póstumo. 

El impacto y el reconocimiento de la obra científica de Alan Turing han ido aumentando con el paso del tiempo desde su trágico final, especialmente después de la celebración de su nacimiento en 2012. No cabe ninguna duda sobre su lugar en la historia de la ciencia. A continuación, vamos a mencionar brevemente qué premios se han creado a título póstumo y qué reconocimientos ha recibido:

  • El premio Turing: El premio Turing es concedido anualmente por la Association for Computing Machinery a un investigador por sus contribuciones a las ciencias de la computación. Es el premio de mayor entidad a nivel mundial en este campo y premiado con 250.000 dolores al ganador. Este premio se instauró en 1966 y se considera el Premio Nobel de la informática. 
  • El premio Loebnar: Es una competición anual que premia al programa de ordenador que más se asemeje a un humano. Se creó en 1990 y lo patrocinaba Hugh Loebner junto con el Centro de Estudios del Comportamiento de Cambridge( Massachussetts). Posteriormente, se han sumado otras instuticiones como el Museo de Historia Natural de Londres, las Universidades de Flinders y de Reading y el Dartmouth College. Las tres primeras ediciones del premio fue presidida por el filósofo Daniel Dennett. El Premio Loebner sigue el formato de competición estándard establecido en el test de Turing. Hay tres premios: Una medalla de bronce con una dotación de 5.000 dólares, una medalla de plata con una dotación de 25.000 dólares y una medalla de oro con una dotación de 100.000 dólares. El premio Loebner se disolverá cuando la medalla de oro se adjudique. 
  • El impacto bibliométrico de la obra científica de Alan Turing: Hoy en día, para medir el impacto del trabajo de un científico por las citas de sus artículos y libros científicos que otros investigadores incluyen en sus propios trabajos. Es interesante analizar cuál ha sido el impacto del trabajo de Alan Turing. En el MathSciNet, la base de datos en el mundo matemático, Alan Turing tiene su propio perfil. También, en la base de datos Web of Science en la que se incluye todos los trabajos de investigación de los diferentes ámbitos de la ciencia.
  • Ha recibido numerosos reconocimientos conmemorativos como placas, sellos, estatuas en el Reino Unido y una nominación a uno de los 100 personajes más influyentes del siglo XX por la revista Time.

Medalla de Oro del Premio Loebnar

29 de enero de 2016

La trágica muerte de Alan Turing

La tragedia es el décimo capítulo del libro Rompiendo códigos. Vida y legado de Alan Turing. 
En este capítulo, se desarrolla la acusación, muerte e indulto a Alan Turing. La trágica muerte de Alan Turing privó a la ciencia de unos de los matemáticos más brillantes del siglo XX.

En 1952, se desencadena la tragedia: Alan Turing es arrestado por prácticas homosexuales, prohibidas en ese tiempo en el Reino Unido. Alan Turing jamás ocultó su condición sexual; al contrario, lo consideraba algo natural. Sin embargo, no todo su entorno compartía su falta de prejuicios. La tragedia se mascó en enero de 1952 cuando invitó a Arnold Murray a pasar un fin de semana en su casa. Era una trampa. Un cómplice de Murray entró en la casa de Alan Turing. Turing denuncia los hechos y, durante el transcurso de la investigación, reconoce su homosexualidad a la policía.La confesión le acarrea problemas, hasta el punto de que, la investigación por robo, se transforma en una acusación: llevar a cabo "prácticas homosexuales". Fue juzgado el 31 de marzo de ese mismo año y condenado a recibir un tratamiento con estrógenos para "curar su homosexualidad". Turing aceptó tratarse y después se incorporó de nuevo a las rutinas académicas en la Universidad de Manchester. Sin embargo, algo había cambiado: el tratamiento hormonal le afectó profundamente. El 8 de junio de 1954, hallaron muerto a Alan Turing en su cama. A su lado, había una manzana mordisqueada. Las investigaciones policiales concluyeron que la manzana contenía cianuro, y, que se había suicidado al ingerir voluntariamente el trozo de manzana. Sus amigos y su madre sugieren que podía ser un accidente, dada su afición por los experimentos. Otros abogaban por tesis conspiranoicas. Un libro publicado en 2012, de Jack Copeland, aporta nuevos datos sobre la muerte de Turing y posibles causas: suicidio, accidente o acción de los servicios secretos del Reino Unido.

La trágica muerte de Alan Turing no acabó ahí. El 10 de septiembre de 2009, una campaña organizada por el escritor y programador inglés John Graham-Cumming recogió miles de firmas para obligar al Gobierno británico a pedir perdón públicamente por el trato dispensado a Alan Turing después de la Segunda Guerra Mundial. En diciembre de 2011, William Jones hizo una petición para que se eximiera a Alan Turing del delito de "indecencia" pero no fue atendido por el ministerio de Justicia del Reino Unido. En el año 2012, se celebró el Año de Alan Turing. Se conmemoraba los cien años de su nacimiento. Tras el gran éxito de la celebración en todo el mundo del centenario del nacimiento de Alan Turing y después de la intensa presión de la opinión pública mundial, la reina Isabel II de Inglaterra, concedió el perdón a Alan Turing el 23 de diciembre de 2013, convirtiéndose en la cuarta persona que consigue este perdón real desde el término de la Segunda Guerra Mundial.

Alan Turing


La contribución de Alan Turing a la morfogénesis

La morfogénesis es el noveno capítulo del libro Rompiendo códigos. Vida y legado de Turing. En este capítulo, se centra en las aportaciones de Alan Turing al estudio de la morfogénesis, y muy especialmente, su propuesta del modelo de reacción-difusión como base explicativa del desarrollo de patrones biológicos que están detrás de las manchas o de las rayas en la piel de los animales, por ejemplo.

En 1951, Alan Turing comienza a interesarse por las aplicaciones de las matemáticas en la teoría de la forma en biología. En 1952, publica un artículo titulado "Las bases químicas de la morfogénesis" sobre su trabajo en el campo de la morfogénesis- hoy conocida como biología del desarrollo-, y, como había hecho antes, introdujo una serie de ideas revolucionarias sobre la biología matemática. En su artículo, propuso un modelo de reacción-difusión como base explicativa para describir el desarrollo de patrones biológicos como las rayas, las manchas o las bandas en la piel de los animales o en las conchas de los moluscos. Según su modelo de reacción- difusión, los patrones biológicos, como las rayas de un tigre o las manchas de un leopardo, se formarían por la interacción de unos morfógenos que son las moléculas que señalizan el desarrollo del tejido. Los dos morfógenos, propuestos por Alan Turing, son un activador y un inhibidor. En su hipótesis, el activador formaría, por ejemplo, las rayas del tigre, pero en su interacción con el inhibidor dejaría de manifestarse, creándose un espacio en blanco. En ese momento, el proceso se revertiría y la franja siguiente sería de color. La interacción de estos dos morfógenos, un activador y un inhibidor, se combinaría para crear todo el patrón de rayas.

Morfogénesis: modelo de reacción- difusión


Alan Turing no sólo desarrollo este modelo, sino que, con la ayuda de la computadora de la Universidad de Manchester, fue capaz de hacer cálculos matemáticos sobre biología del desarrollo, y que aunque pasó desapercibido en el ámbito académico hasta décadas después, puso a disposición numerosos datos obtenidos a través de la computadora de Manchester. Para finalizar, además de sus aportaciones a la morfogénesis, Alan Turing dejó "notas" y "bocetos" de trabajos sobre otros temas de aplicación de las matemáticas a la biología, especialmente en filotaxis, disciplina que estudia la distribución de las ramas y hojas en las plantas.

27 de enero de 2016

¿Pueden pensar las máquinas?

¿Pueden pensar las máquinas? es el octavo capítulo del libro Rompiendo códigos. Vida y legado de Turing. En este capítulo, se hace hincapié en dos aspectos: uno, el artículo fundacional de la Inteligencia Articial, "Máquinas de computación e inteligencia", escrito por Alan Turing y publicado por la revista Mind en 1950. Dos, la conceptualización del Test de Turing.

En 1950, Alan Turing escribe un artículo clave en el desarrollo de la inteligencia artificial: "Máquinas de computación e inteligencia". Publicado en la revista Mind, estaba basado en una conferencia que Alan Turing había pronunciado tres años atrás. En este célebre artículo, propone el llamado Test de Turing que estaba concebido para averiguar si una máquina puede ser considerada inteligente. ¿En qué consistía el test de Turing exactamente? "En su desarrollo, se supone un juez situado en una habitación, y una máquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es la máquina haciendo una serie de preguntas, a las que, tanto el humano como la máquina, pueden contestar con sinceridad o mentir." La tesis de Alan Turing es: si ambos, máquina y humano, son suficientemente inteligentes, el juez no podría distinguir entre la máquina y el humano. Actualmente, el test de Turing se aplica para determinar si el usuario, que está haciendo uso de un determinado servicio de la red, es efectivamente un humano y no una máquina. Retomando de nuevo el artículo de Turing,"Máquinas de computación e inteligencia", en él, se describe los fundamentos matemáticos y la estructura de la máquina inteligente. También pone objeciones filosóficas a las ideas sobre la inteligencia artificial, refutando sus argumentos sobre la imposibilidad de una máquina pensante. Finalmente, Alan Turing hacía una analogía de la máquina con un humano: el hardware de la máquina sería el equivalente a la genética que heredamos, mientras que el software, la programación, equivaldría a la educación. Para acabar, el artículo "Máquinas de computación e inteligencia" se considera fundacional de la inteligencia artificial, término acuñado, posteriormente a la publicación del artículo, en un congreso en Dartmouth por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon.

El test de Turing

26 de enero de 2016

Construyendo ordenadores: El diseño de los primeros ordenadores

Construyendo ordenadores es el séptimo capítulo del libro Rompiendo códigos. Vida y legado de Turing. En este capítulo, básicamente el desarrollo de los primeros ordenadores: ENIAC, EDVAC y SSEM.

Al final de la Segunda Guerra Mundial, Alan Turing fue invitado por el National Physical Laboratory para diseñar un ordenador. Por aquel entonces, la máxima preocupación era no quedarse atrás en el desarrollo de "máquinas de computación" en relación a los Estados Unidos, donde ya operaba la ENIAC. La ENIAC era una máquina de cálculo muy rápida "con lenguaje moderno y basada en el hardware" que apareció en 1945 y que utilizaba el Laboratorio de Investigación Balística del Ejército de los Estados Unidos. No se basaba en la máquina universal de Turing. Más bien, seguía la línea de las computadoras mecánicas. La ENIAC presentaba muchas limitaciones: sus acciones estaban limitadas por su hardware. Consciente de ello, John von Neumann desarrolló otro prototipo, la EDVAC. A diferencia de la ENIAC, el código era binario y no decimal. Fue la primera máquina donde se introdujo un programa "diseñado para ser almacenado." La EDVAC se convirtió en el estándar de la arquitectura para la mayoría de ordenadores. Para contrarrestar al EDVAC, el Laboratorio Nacional de Física le pidió a Alan Turing que se implicase en el proyecto ACE. El objetivo era crear una máquina capaz de comprender las instrucciones que se les dieran y que pudiera aprender de la experiencia. Sin duda, un proyecto revolucionario. Pese al optimismo, el proyecto ACE fracasó. Surgió la idea de crear una máquina parecida al ENIAC, el EDSAC, pero, finalmente, y tras varios fracasos, en 1947 el proyecto se canceló y Alan Turing regresó de nuevo al King's College. A su vuelta a Cambridge, aún sin una plaza permanente, escribió dos artículos matemáticos: "Errores de redondeo en los procesos matriciales"(1948) y "Formas prácticas de teoría de tipos"(1948). Max Newman le hizo una oferta para que se incorporará a la Universidad de Manchester y decidió aceptarla. Allí, prosiguió el desarrollo de ordenadores. Entre 1947 y 1948, la Universidad de Manchester había construido una máquina experimental llamada The Baby como continuación de la SSEM que fue la primera computadora electrónica del mundo que almacenó un programa en su mismo hardware, por lo que se considera la primera computadora que funciona con memoria RAM. Su desarrollo se impulsó para demostrar el potencial de los programas almacenados en el ordenador. En 1949, Alan Turing mantuvo conversaciones con Norbert Wiener, padre de la cibernética. Al otro lado del charco, la Universidad de Princeton a través del Instituto de Estudios Avanzados construyó la IAS Machine bajo la supervisión de Von Neumann entre 1942 y 1951. Esta máquina era un prototipo que pocos años después se comercializaría para otros usos por diferentes compañías comerciales.
ENIAC Primeros ordenadores

24 de enero de 2016

Rompiendo los códigos alemanes: descifrando las máquinas Enigma.

Rompiendo los códigos alemanes es el sexto capítulo de Rompiendo códigos. Vida y legado de Turing. En este capítulo, se centra, por un lado, en el tema de la criptografía y de las Máquinas Enigma, y, por el otro lado, en el trabajo de Alan Turing en el descifrado de los códigos de las máquinas Enigma por medio de bombas criptográficas desarrolladas en el transcurso de la Segunda Guerra Mundial en Bletchley Park.

Antes de abandonar la Universidad de Princeton para regresar al Reino Unido, Alan Turing empezó a interesarse por la criptografía. Su interés era por las posibles aplicaciones de las matemáticas a este campo. Incluso tenía en mente construir una máquina que pudiera encriptar. Recibió una oferta de John von Neumann para continuar en Princeton, pero decidió regresar al Reino Unido. La Segunda Guerra Mundial era inminente y la Escuela de Códigos y Cifrados del Gobierno de Londres estaba reclutando matemáticas y físicos para romper los códigos de las máquinas Enigma. El 4 de septiembre de 1939, Alan Turing acude por primera vez a Bletchley Park, donde se descifrarán en el transcurso de la Segunda Guerra Mundial los códigos alemanes de las máquinas Enigma, y, donde gracias a sus aportaciones, se pudo acortar la duración de la guerra en 2 años.

Su primera aproximación a la criptografía en EE.UU resultó ser un "juego de niños" en comparación con romper los códigos de las máquinas Enigma. ¿Qué es la criptografía? Los mensajes cifrados se han utilizado desde hace siglos. Su utilidad radicaba en "transmitir información a los aliados sin que el enemigo sea capaz de comprender el contenido, en caso de que la interceptara." Así pues, la criptografía es el arte de romper esos códigos encriptados para poder acceder a la información. Las técnicas criptográficas "consistían en alterar el mensaje original, cambiando unas letras por otras o por números, siguiendo un código que solo conocían el emisor y el receptor." Con la invención de máquinas mecánicas y electromecánicas, los métodos de encriptación fueron haciéndose más sofisticados. La evolución condujo al desarrollo de las máquinas Enigma. Las máquinas Enigma fueron un invento del ingeniero alemán Arthur Scherbius al final de la Primera Guerra Mundial. El primer intento de descodificación de una máquina de Enigma fue por parte de tres matemáticos polacos de la Oficina Polaca de Cifrado. La máquina Enigma era una máquina que combinaba elementos mecánicos y eléctricos. Consistía "en un teclado como el de las máquinas de escribir usuales, un engranaje mecánico y, en la parte superior, un panel de luces con las letras del alfabeto. En su interior, la máquina poseía varios rotores interconectados, cada uno de ellos con 26 contactos que correspondían a las 26 letras del alfabeto. Cada uno de estos rotores estaba cableado de una forma diferente. Había además ranuras para poder introducir los rotores, de manera que los contactos de salida de un rotor se conectaban con los contactos de entrada del siguiente." El funcionamiento de las máquinas Enigma era el siguiente: "cuando se pulsaba una tecla del teclado, el sistema eléctrico de la máquina, de acuerdo con la configuración del cableado que se hubiera dispuesto, daba como resultado otra letra distinta en el panel de luces." El tema se complicaba porque cada vez que se introducía una letra, la posición de los rotores cambiaba de nuevo, de manera que cada vez que se pulsaba la misma letra el resultado era diferente al anterior. Las configuraciones iniciales de las máquinas Enigma se distribuían cada mes en unos libros de instrucciones encargados de la encriptación y el envío de los mensajes. Las máquinas Enigma también servían para reconstruir el mensaje original del cifrado. Una de las claves en la rotura de los códigos consiste en que a veces el mismo mensaje se repetía o se enviaba información que puede ser identificada.

máquina Enigma


El desarrollo de las actividades de desciframiento de los códigos de las máquinas Enigma transcurrieron en Bletchley Park. El trabajo de descifrado se organizaba en diferentes grupos, cada uno de ellos realizaba tareas diferentes y tenían asignado un edificio. Alan Turing supervisaba el trabajo teórico en la caseta número 8. Al principio, el trabajo de Alan Turing se limitaba a usar hojas perforables. Pero, posteriormente, adoptó otra estrategia: "empezaron a identificar lo que llamaban "chuletas" del mensaje, lo que de nuevo requería una cantidad ingente de trabajo, para lo que Turing observó que también se necesitaban máquinas." Así es como nació la segunda generación de bombas criptográficas,"un armatoste de dos metros de alto, otros dos de ancho y una tonelada de peso, construido por el matemático inglés." La primera bomba se fabricó en 1940 y hasta el final de la guerra se fabricaron unos 200. A finales de 1940, la primera bomba sirvió para descodificar los mensajes de las máquinas Enigma de la aviación alemana. Romper los códigos de la marina alemana fue más difícil pero finalmente se logró a finales de 1941. Es evidente que el trabajo de Alan Turing no hubiera sido suficiente para descifrar los códigos alemanes, pero sin él seguramente no se hubiera avanzado mucho. El trabajo de Bletchley Park sirvió para acortar la duración de la guerra en unos 2 años y salvar centenares de miles de vidas. En 1945, se le otorgó la Orden del Imperio Británico por sus grandes contribuciones para la victoria de los aliados en la Segunda Guerra Mundial.

bombas para encriptar los códigos

19 de enero de 2016

Los años de Princeton: la relación de Alan Turing con Alonzo Church.

Los años de Princeton es el quinto capítulo del libro Rompiendo código. Vida y legado de Turing. Básicamente se centra en la estancia de Alan Turing en Princeton, su relación con el matemático Alonzo Church y la elaboración de su tesis doctoral.

En 1936, Alan Turing entregó el manuscrito del famoso "On Computable Numbers, with an application to the Entscheidungsproblem" al físico John von Newmann. En mayo de ese mismo año, recibió una copia del artículo del matemático Alonzo Church, titulado "An unsolvable problem in elementary number theory", que había sido publicado en la revista American Journal of Mathemarics, y que probaba, aunque con una aproximación diferente, las ideas de Turing sobre la problemática de la indecibilidad, es decir, la imposibilidad de decidir si una máquina de Turing se detendrá o no a través de algún tipo de algoritmo. Alonzo Church introducía en el artículo el concepto de "lambda- definibilidad" que equivalía al de computabilidad de Alan Turing. Church utilizaba el cálculo lambda para demostrar la insolubilidad del Entscheidungsproblem. Esta coincidencia generó un problema para que el artículo de Turing pudiera ser publicado en la revista Proceedings of the London Mathematical Society. Pero, finalmente pudo publicarlo cuando introdujo cambios y referencias al artículo Alonzo Church. Newmann animó a Turing a que conociera a Alonzo Church en Princeton. En setiembre de 1936, Turing partió rumbo a EE.UU. Su vida en Princeton era muy diferente a la de Cambridge. Era un ambiente más informal y chocaba con su "carácter inglés". La redacción de su tesis doctoral la inició bajo la supervisión de Alonso Church. La estancia en Princeton era sólo para un año. Princeton le ofreció permanecer un año más, e incluso lo arreglo con el King's College para que así fuera, pero Turing optó finalmente por volver a Cambridge donde siguió con la elaboración de su tesis doctoral. Inició una línea de trabajo entorno a la hipótesis de Riemann.

La hipótesis de Riemann la formuló el matemático alemán Bernhard Riemann a mediados del siglo XIX. Estudió la distribución de los números primos y observó una estrecha relación entre el orden en el que se presentan y la función zeta de Riemann- o función definida sobre los números complejos-. Demostró que probar la hipótesis de Riemann nos daría mucha información sobre los números primos. Hasta la fecha, nadie lo ha conseguido. Turing tampoco pudo avanzar en este tema. De vuelta a Princeton, Turing finalizó su tesis "Systems of logic based on ordinals" en mayo de 1938. En su tesis, introdujo varios conceptos: lógica ordinal y computación relativa. Además de la idea de oráculo que permitía estudiar problemas que no se pueden abordar con una máquina de Turing. Para concluir, la contribución entre ambos, Alan Turing y Alonzo Church, fue en las dos direcciones: "por un lado, Church ayudó a Turing a mejorar algunos aspectos que eran deficientes en su planteamiento, pero también Turing contribuyó a hacer más accesibles los resultados de Church." Un discípulo de Alonzo Church, Stephen Kleene propuso la llamada Tesis de Church- Turing, que, suponiendo una capacidad de almacenamiento ilimitada, establece que la capacidad potencial de cómputo de cualquier ordenador es similar, pero no su velocidad de cálculo que puede variar.

Alonzo Church

17 de enero de 2016

La búsqueda de la computabilidad y la formulación de la máquina de Turing

La búsqueda de la computabilidad es el cuarto capítulo del libro Rompiendo los códigos.Vida y legado de Turing. En este capítulo, se plantea, por un lado, el problema de la decibilidad o Entscheidungsproblem, y, por el otro lado, qué es y cómo funciona una máquina de Turing.

Los fundamentos de las matemáticas, que hemos expuesto anteriormente, son el "contexto histórico" en el que Alan Turing se mueve antes de participar en el curso de Max Newman sobre los fundamentos de las matemáticas. Es en el tercer punto: "¿Son computables las matemáticas?" "¿se pueden diseñar un procedimiento mecánico que, partiendo de una proposición, tras un número finito de pasos, de la conclusión de si es cierta o falsa?" donde se centraran los esfuerzos de Alan Turing. Es el llamado Entscheidungsproblem, es decir, el problema de la decisión. La cuestión fundamental del Entscheidungsproblem es: ¿podemos encontrar ese algoritmo? En la época de Turing no existía una definición precisa de algoritmo. No obstante, fue un aliciente para el propio Turing. Inmediatamente, se puso a trabajar y en 1937 se publicó un artículo transcendental para las ciencias de la computación: "On Computable Numbers, with an application to the Entscheidungsproblem." En el artículo, Turing introdujó varios conceptos: números computables, máquina computadora y máquina universal. Prueba con todo ello que el problema de decisión es insoluble. Turing "reformuló los resultados de Kurt Gödel de 1931, reemplazando el lenguaje formal basado en la aritmética de Gödel por el concepto de máquina de Turing." ¿Cómo funcionaba la máquina de Turing? "Este instrumento abstracto funciona moviéndose de un estado a otro, siguiendo un número finito de reglas concretas. Puede escribir un símbolo en la cinta o borrarla. Así, una máquina de Turing sería capaz de realizar cualquier computación matemática si esta se representa como un algoritmo." De esta manera, Turing pudo demostrar que no hay solución al Entscheidungsproblem. Concluyó a su vez que el problema de la parada es indecidible, es decir, que no es posible decidir algorítmicamente si una máquina de Turing se detendrá o no. Por otro lado, Turing describe conceptualmente qué es una máquina universal de Turing como la de un ordenador "donde la cinta desempeñaba el papel del programa en los ordenadores modernos." Y definió qué era un número computable "como un número real cuya expresión decimal podía ser producida por una máquina de Turing." También describió un número que no es computable. Dejó claro que la mayoría de los números reales no son computables.

¿Qué era realmente una máquina de Turing? Una máquina de Turing es un dispositivo abstracto, no físico. Está constituida por una serie de elementos: una cinta infinita, dividida en casillas, un dispositivo móbil, que cuenta a su vez con un cabezal que puede leer o borrar el símbolo que está impreso en la cinta. Existe además un registro capaz de almacenar un estado determinado, que viene definido a su vez por un símbolo. Los símbolos que definen el estado del dispositivo no tienen por qué coincidir con los símbolos que se pueden leer o escribir en la cinta. ¿Cómo funciona? La máquina de Turing funciona de forma mecánica y secuencial: "Primero lee el símbolo que hay en la casilla que tiene debajo. Después toma el símbolo del estado en que se encuentra. Con estos dos datos accede a una tabla, en la cual, siguiendo las instrucciones, lee el símbolo que debe escribir en la cinta, el nuevo estado al que debe pasar y si debe desplazarse a la casilla izquierda o derecha." La ejecución de una máquina de Turing seguiría indefinidamente, al menos que se detenga. Esto supondría que llega a una estado en el que se detiene, permitiendo examinar la cinta para buscar el resultado. Una máquina de Turing puede utilizarse para todo tipo de operaciones matemáticas. Es posible programarla para que simule el comportamiento de un ordenador. Cualquier máquina de Turing puede ser codificada en cualquier computador "por pequeño que sea, sería posible emular en nuestro procesador una máquina de Turing que simule un superordenador." Ésta es la idea de la máquina universal de Turing, es decir, una máquina capaz de imitar el comportamiento de cualquier otra máquina con independencia del algoritmo para el que haya sido diseñada.

máquina universal de Turing

1 de enero de 2016

Fundamentos de las matemáticas:Tras el Santo Grial de las matemáticas

Tras el Santo Grial de las matemáticas es el tercer capítulo del libro Rompiendo códigos. Vida y legado de Turing. Fundamentalmente, en este capítulo del libro, se plantea y desarrolla los principales fundamentos de las matemáticas. Y, en segundo plano, se menciona el curso sobre los fundamentos de las matemáticas impartido por Max Newman en el que participó Alan Turing.

Respecto a la primera cuestión. Durante la segunda mitad del siglo XIX y la primera del siglo XX, los fundamentos de las matemáticas entraron en crisis. Las matemáticas son la ciencia básica por excelencia. Los fundamentos de las matemáticas deben ser sólidos para validar el conocimiento matemático. Por otro lado, el razonamiento matemático está basado en la lógica, y, el método científico se fundamenta en la existencia de axiomas- verdades incuestionables- a través de las cuales se puede deducir el resto de verdades matemáticas- por ejemplo- (los teoremas). De ahí, la importancia de que los fundamentos de las matemáticas sean sólidos "por lo que una de las grandes preocupaciones de las matemáticas ha sido el asegurarse de trabajar sobre cimientos bien establecidos." La lógica matemática ha tenido a matemáticas ilustres como Georg Cantor, George Boole y Gottlob Frege imprescindibles para comprender las matemáticas del siglo XIX y principios del siglo XX. Georg Cantor(1845- 1918) fue un matemático alemán que puso las bases de la teoría de conjuntos en relación con la lógica. Formalizó la noción de infinito. George Boole(1815-1864) fue un matemático inglés que transformó las proposiciones lógicas a ecuaciones matemáticas. Friedrich Ludwig Gottlob Frege(1848-1925) llevó un paso más adelante las ideas de Boole. Sentó las bases de la lógica matemática moderna. Escribió diferentes libros sobre los fundamentos de la aritmética. En 1893, cuando estaba escribiendo un segundo libro sobre los fundamentos de las matemáticas, recibió una carta de Bertrand Russell que le planteó una paradoja. En aquella carta, Bertrand Russell plantea una pregunta: "¿el conjunto de los conjuntos que no forman parte de sí mismos forma parte de sí mismo?" La respuesta a esta pregunta originaba una paradoja: "si no forma parte de sí mismo, pertenece al tipo de conjuntos que no forman parte de sí mosmos y, por lo tanto, forma parte de sí mismo. Y si forma parte de sí mismo, entonces no es un conjunto que no forma parte de sí mismo, así que no puede formar parte." En conclusión, sólo formará parte de sí mismo si no forma parte de sí mismo. Esta paradoja echaba por tierra los fundamentos de la argumentación de Frege. Más tarde, Bertrand Russell logró burlar la paradoja en su obra Principia Mathematica sobre los fundamentos de las matemáticas. Otra aportación fundamental para las matemáticas fue la del matemático David Hilbert. Impartió una conferencia en el Congreso Internacional de Matemáticas en 1900. En ella anunció los 23 problemas más importantes para las matemáticas en el siglo XX. En la lista figuraban estos dos problemas: 1. "Problema de Cantor sobre el cardinal del continuo. ¿Cuál es el cardinal del continuo? 2. "La compatibilidad de los axiomas de la aritmética. ¿Son compatibles los axiomas de la aritmética?" En 1920, David Hilbert lanzó el Programa de Hilbert "que pretendía formar un conjunto de axiomas finito y completo de la aritmética y probar que eran consistentes." Con ello quedaba demostrado la consistencia de las matemáticas. Así, confiaba superar las paradojas como la de Russell. Pero, Kurt Gödel echó por tierra su trabajo. Gödel probó que un sistema axiomático, si el sistema es consistente no puede ser completo. Además, la consistencia de los axiomas no puede ser probada dentro del sistema.

Respecto a la segunda cuestión. En 1935, Alan Turing participó en la Universidad de Cambridge en un curso avanzado sobre los fundamentos de las matemáticas impartido por Max Newman. El curso estaba basado en el trabajo de David Hilbert. En su obra se planteaba tres cuestiones:
1- ¿Son completas las matemáticas?
2- ¿Son consistentes las matemáticas?
3- ¿Son computables?
El seminario de Max Newman concluía con una demostración del Teorema de Incompletitud de Kurt Gödel, "que afirmaba que la propia aritmética era incompleta y que su consistencia no podía probarse dentro de su propio marco axiomático." Este seminario sería un punto de inflexión para el desarrollo de las ideas de Alan Turing.
fundamentos de las matemáticas