Mostrando entradas con la etiqueta Síntesis del libro. Mostrar todas las entradas
Mostrando entradas con la etiqueta Síntesis del libro. Mostrar todas las entradas

23 de septiembre de 2017

El bienestar en un mundo global.

La sociedad del bienestar depende cada vez más del alcance y el desarrollo de la globalización. Dicha globalización hace referencia a un proceso de integración mundial que incluye diferentes ámbitos: economía, finanzas, cultura, política, movimientos migratorios, etc. La globalización es un proceso muy largo que se ha acelerado después de la Segunda Guerra Mundial. La expansión del libre mercado ha provocado que el sistema de productivo de bienes de consumo esté presente en todo el mundo. El proceso de deslocalización industrial en los países occidentales ha transformado amplias zonas del continente asiático. El éxito económico de algunos países asiáticos ha supuesto la reducción de la pobreza en aquellos países: en 1990 el 81% de la población pobre del mundo vivía en Ásia, mientras que en 2010 se había reducido al 62%. En total, había salido de la pobreza en esos años, un total de 780 millones de personas. Ha crecido la clase media, en unos 525 millones de personas. La OCDE estima que para el año 2030 la clase media asiática representará el 66% de la total mundial. Sin embargo, la reducción de la pobreza así como el aumento del bienestar y el descenso de las desigualdades entre países, ha provocado también que estas mismas desigualdades crezcan en el interior de los estados. Al mismo tiempo, se ha extendido la opinión de la incompatibilidad entre una globalización a ultranza y el desarrollo de los Estados del bienestar. La globalización ha estimulado la competencia entre los países desarrollados para atraer la inversión extranjera, extendiendo la competencia fiscal entre ellos, presionando a la baja sus políticas sociales. Existe el temor, que la globalización, pueda debilitar la capacidad de los Estados para estabilizar la economía y la protección social de los ciudadanos.

El impacto de las crisis económicas en una economía globalizada tiene un efecto sobre el Estado de bienestar, así como su mantenimiento o consolidación a medio y a largo plazo. Los ciclos económicos tienen un efecto tanto en el mantenimiento como en el desarrollo de las sociedades del bienestar en los países occidentales. El reto del futuro del Estado del bienestar es sortear esos ciclos económicos que ponen en riesgo al Estado del bienestar, y, por tanto, que provocan un estrés presupuestario, y, al mismo tiempo, mantener la voluntad política y el prestigio del Estado del bienestar entre la ciudadanía. Éste último aspecto, la legitimidad del Estado del bienestar entre la ciudadanía es fundamental para la continuidad de las políticas del Estado del bienestar así como, la propia existencia del Estado del bienestar en el futuro.

12 de junio de 2017

Retos globales del Estado del bienestar(I)

La crisis económica de 2008 se ha utilizado para cuestionar el modelo de Estado del bienestar en Europa. Sin embargo, también ha servido para defender su vigencia. El modelo del Estado del bienestar ha sido garante de la estabilidad social en tiempos de crisis. Los defensores del Estado de bienestar argumentan que promueven tanto la libertad como la igualdad y que potencia el emprendimiento sin renunciar a la seguridad. Después de su época dorada, durante los años donde dominó el keynesianismo, la mayoría de los países han adoptado una visión más liberal para hacer frente a las crecientes tensiones presupuestarias derivadas del cambio demográfico, de la evolución de la sociedad y de la globalización. Bajo esta visión, la política de austeridad no fue una política improvisada por la Unión Europea para hacer frente a la Gran Recesión en 2008 sino el fruto de un consenso económico que comenzó a fraguarse en 1973 con la crisis del petróleo. La consolidación de un Estado del bienestar mixto, en el que el sector privado está presente en la dotación de servicios o bienes financiados por el sector público. Sin embargo, esta síntesis entre lo público y lo privado ha generado problemas en el equilibrio entre la dimensión económica y la dimensión social sobre todo a raíz de la crisis de 2008. 

El debate fundamental sobre el Estado del bienestar gira entorno a su sostenibilidad financiera y económica y sobre si el crecimiento económico es capaz de soportar la cantidad de recursos para hacer frente a la demanda creciente de bienestar por parte de los ciudadanos. El problema de la sostenibilidad financiera del Estado del bienestar no es nuevo. Desde la crisis del petróleo en los años 70, se ha intentado racionalizar el gasto público buscando una mayor eficiencia y un mayor ahorro. En este contexto, hay que buscar la sostenibilidad del Estado del bienestar. El Estado puede hacerlo a través de la imposición fiscal y el endeudamiento. Respecto al endeudamiento, la política fiscal del Gobierno tiene que ser capaz de limitar el crecimiento de la deuda, y, al mismo tiempo, poder pagarla, sin comprometer el Estado de bienestar. El Estado debe vigilar la acumulación de la deuda por si no pudiera devolverla. De las condiciones que, hacen que, el Estado del bienestar sea fiscalmente sostenible, unas son externas- como el crecimiento económico, la productividad, el impacto de la globalización o la evolución demográfica- y otras son internas, y tienen más que ver con la voluntad de los gobiernos de que dediquen más o menos recursos al bienestar o bien que implanten políticas de redistribución de la riqueza. El modelo del Estado del bienestar en los países del norte de Europa, los servicios públicos básicos se consideran derechos del ciudadano, y, consecuentemente, los gastos sociales no se consideran "gastos" en sí, sino como "inversión", como un medio de potenciar las capacidades y la productividad de las personas. Existe un convencimiento de que esta inversión en el futuro repercutirá en el propio Estado.

Uno de los mayores retos a los que se enfrenta el Estado del bienestar en los países occidentales es la demografía. El crecimiento económico es una de las principales causas de la reducción de la fertilidad en el mundo. En lo que se refiere al Estado del bienestar, el bajo nivel de la natalidad incide en la posibilidad de incrementar el Estado de bienestar porque reduce la población activa y, como consecuencia, se reduce las aportaciones económicas vinculadas al empleo. El Estado de bienestar creciente exige un crecimiento demográfico que está entredicho en los países desarrollados en las últimas décadas por las bajas tasas de natalidad. Las tasas de natalidad en los países europeos son muy bajas además hay que sumar el envejecimiento progresivo de la población europea. Este hecho va a tener efectos en los hábitos de consumo así como en el sistema productivo en las próximas décadas en Europa: habrá un aumento de los servicios sanitarios de la población y una reducción en la demanda en educación y en vivienda por el decrecimiento de la población. A corto plazo, el retraso en la edad de jubilación es una de las consecuencias más inmediatas. Sin embargo, algunos países escandinavos, la financiación de las pensiones se ha hecho depender de los presupuestos y no de las cotizaciones sociales. Además, se ha potenciado la creación de sistemas apoyados en tres pilares: uno público- básico- y dos complementarios, consistentes en un fondo de pensiones privado y otro compuesto por las cotizaciones de las empresas. En todo caso, estas reformas del sistema de pensiones tendrán éxito en sociedades con tasas de natalidad altas y tasas de ocupación elevadas, como es el caso de los países escandinavos.

Parte de esta evolución demográfica se explica por la transformación experimentada por la familia en los últimos 30 años a raíz del acceso de la mujer a la universidad y su incorporación masiva al mercado de trabajo. Nuevamente, los países escandinavos pueden ser un ejemplo a seguir. Las políticas familiares juegan un papel capital. El objetivo es potenciar la conciliación, haciendo compatible la vida familiar con el trabajo, y para ello se dedica más de un 10% del gasto social a esta cuestión y un 3,5% del PIB.


5 de mayo de 2017

Modelos de Estado del bienestar(III): El modelo conservador(II): países mediterráneos.

Dentro del modelo conservador del Estado de bienestar, está una serie de países del sur de Europa- España, Italia, Portugal y Grecia-, que constituyen el modelo conservador del Sur del Mediterráneo. Este modelo conservador del sur del mediterráneo tiene unas características comunes: la financiación del Estado de bienestar se realiza a través de las contribuciones de los salarios de los trabajadores. Sin embargo, también tiene una serie de particularidades históricas, que lo hace estar a medio camino de todos los modelos del Estado de bienestar sin pertenecer completamente a ninguno. Portugal y España, por ejemplo, crearon sus Estados de bienestar a partir de los años 70 después de que finalizarán sus respectivas dictaduras. Por este motivo, el sistema de bienestar es muy reducido en comparación con los países escandinavos y del centro de Europa, y el subsidio por desempleo suele ser más corto, aunque mayor que en los países anglosajones. Por otra parte, los trabajadores disfrutan de una buena protección ante los despidos y las pensiones suelen ser elevadas. La sanidad es de carácter universal y está financiada mayoritariamente con contribuciones. Existe, además, un llamado "tercer sector" que desempeña un papel importante en la prestación del bienestar.

España se caracteriza por un sistema de bienestar lastrado por un alto desempleo. Las primeras iniciativas relacionadas con el Estado del bienestar son de finales del siglo XIX. Durante la Segunda República se intentó establecer seguros por accidentes y de retiro para los trabajadores pero se topó con la oposición. Con la dictadura franquista, el gasto social nunca fue superior al 8% del PIB. Tras la recuperación de la democracia, el gobierno socialista emprendieron la construcción del Estado del bienestar. La ley General de Sanidad de 1986 creó un Sistema Nacional de Salud descentralizado. En cuento a las pensiones, se fijaron en el Pacto de Toledo- 1995- donde se garantizó la sostenibilidad del sistema, amenazado hoy por la evolución demográfico del país. Esto ha obligado a elevar la edad de jubilación a los 67 años. Los altos niveles del paro ha hecho que la protección por desempleo sea una de las partidas más importantes del gasto social en España. En 1999, se legisló a favor para la conciliación entre empleo y la vida privada fijando la duración de la baja de maternidad y la nulidad de despido laboral por discriminación de sexo. También, se estableció ayudas a familias numerosas y a monoparentales. En cuanto a la educación, el gasto público se situó por encima del 4% del PIB. Las políticas públicas se complementan con la participación del tercer sector.

El Estado del bienestar en Italia dedica el 25% de su PIB al gasto social. La protección de la salud es universal mientras que la protección del empleo es baja y se financia a través de las contribuciones de los trabajadores y de los impuestos. Al igual que España, en Italia el tercer sector es fundamental en la provisión del bienestar. Este tercer sector tiene una gran relevancia en la protección social junto a las familias. En Italia, existe un alto porcentaje de economía sumergida- 25% del PIB- y una diferencia entre el norte y el sur de Italia. También, Italia ha experimentado cambios en su Estado del bienestar desde 1990. La primera, obligó a reconsiderar como consecuencia del tratado de Maastricht. Entre 1992 y 1995 se incrementó y se flexibilizó la edad de jubilación - 57 a 65 años- se introdujeron los "cuasi-mercados" en el servicio de salud. La segunda, provocado por la crisis económica de 2008. Ante el peligro de no poder pagar su deuda pública- 110% del PIB en 2009- el BCE salió en su apoyo, pero a cambio de reducir en gasto social y así ayudar a reducir su déficit público, favoreciendo el crecimiento económico. Por último, el gobierno de Mario Monti asentó el sistema de pensiones sobre tres pilares: un sistema de reparto, uno voluntario de capitalización a través de las empresas y otro privado e individual. 

20 de abril de 2017

Modelos de Estado de bienestar(III): El modelo conservador(I): Alemania y Francia.

El modelo conservador del Estado del bienestar presenta tres grandes rasgos. A saber: El primero es cómo se financia. La financiación se realiza a través de las contribuciones de los trabajadores y de sus salarios. Las cotizaciones de los trabajadores crean un derecho que es difícil de eliminar o reducir por los gobiernos. El segundo considera a la familia como la unidad responsable de proveer bienestar. Los programas sociales se han centrado en el apoyo de la cabeza de la familia- el hombre- como sostén de la familia, mientras que el papel social de la mujer se ha centrado en el cuidado de los hijos. Tercero, los intermediarios entre los trabajadores y el Estado, tienen un papel fundamental. Los sindicatos y las asociaciones empresariales participan en ese sistema de intermediación proporcionando servicios sociales- programas destinados a los trabajadores, por ejemplo- y, por tanto, limitando la influencia del Estado, respondiendo al principio de subsidiaridad. El problema del modelo conservador del Estado del bienestar es la transformación de la familia desde los años 80: la incorporación de la mujer en el mercado laboral y el aumento de los divorcios y parejas de hecho, con el consiguiente aumento de las familias monoparentales.

Alemania se ha considerado como prototipo del modelo conservador del Estado del bienestar junto a Francia. Después de la II Guerra Mundial, el Estado de bienestar alemán se centró fundamentalmente en proporcionar un buen nivel de vida a las familias alemanas. Todo cambió, con los gobiernos democristianos de Helmut Kohl en los años 80 y 90. Su gobierno fue el responsable de elevar la edad de jubilación hasta los 65 años y la aprobación del Pflegeversicherung. Además de lidiar con las implicaciones económicas de la reunificación de Alemania. Las transformaciones del Estado de bienestar alemán revirtieron en el propio Estado de bienestar: incentivando el trabajo indefinido o evitando los cambios de actividad a lo largo de la carrera laboral. Sin embargo, la globalización, el progreso tecnológico y la competencia internacional han erosionado la estabilidad de los puestos de trabajo sin que se haya tocado la estructura favorable a los trabajos a tiempo completo y para toda la vida. El resultado se ha traducido en un alto desempleo entre los jóvenes y las mujeres. La legislación beneficia a los trabajadores de los sectores manufactureros y a los funcionarios del Estado pero no así a los jóvenes y mujeres. Entre 1998 y 2002, Gerhard Schröder impulso una gran reforma de las pensiones, en el que se permitió que los trabajadores ahorraran en un sistema privado que se premiaba con incentivos fiscales y que se añadía a las cotizaciones a la seguridad social, debido a una situación demográfica que amenazaba el sistema de reparto. En 2003, se introdujo políticas activas de empleo y requisitos más estrictos para acceder a las prestaciones de desempleo y se impulso iniciativas de formación.

El Estado del bienestar francés se inició durante la Tercera República durante los años 20 y 30 a través de sociedades de ayuda mutua de origen católico. En 1928, se aprobó leyes para proteger a los trabajadores de los accidentes, de la invalidez y de las enfermedades. Pero, no fue hasta después de la II Guerra Mundial, cuando se instituyó un sistema de seguridad social. El sistema de protección social francés siempre ha sido muy conservador pero ha sufrido reformas desde los años 90, y se incrementó desde la crisis económica de 2008, y especialmente a partir de 2010. Se centraron en las pensiones y en las reformas en el mercado laboral. En Francia, el sistema de pensiones es público y se debe cotizar 41,5 años para acceder a la pensión máxima. Se ha incrementado la cuantía de las contribuciones y la edad de jubilaciones, que ha pasado de los 65 a los 67 años. La protección al desempleo está vinculado a las políticas activas de empleo desde los años 90. Se hace a través del servicio público Pôle Emploi. La duración del subsidio de desempleo depende del tiempo cotizado, un mínimo de cuatro meses para tener derecho a la prestación, y un máximo de tres años.

Como he dicho antes, tanto en el caso alemán como el francés, el Estado de bienestar conservador se ha resentido en las últimas décadas debido a la globalización y para mantener la competitividad, y así, el crecimiento económico, de Alemania y Francia.


6 de marzo de 2017

Modelos de Estado de bienestar(II): El modelo socialdemócrata y el modelo liberal.

El modelo socialdemócrata- o nórdico- del Estado del bienestar incluye a todos los países del norte de Europa- Suecia, Noruega, Dinamarca, Islandia y Finlandia-. En estos países existe un alto nivel de desmercantilización de los servicios sociales básicos. Son países poco poblados, alcanzando los 26 millones de personas. Tienen una historia pacífica, pactista y, debido a su posición periférica en Europa, han podido adaptarse a las transformaciones de la sociedad. Además, son países socialmente homogéneos con un alto nivel cultural y educativo. En los años 30, se instauró en esos países una "tercera vía" entre los países liberales y los países fascistas, permitiendo a la larga la interacción entre esa forma de gobierno y la creciente participación de los ciudadanos en la política. Los municipales gestionan el 60% del gasto público y tienen una responsabilidad fundamental en la prestación de servicios como la enseñanza y el cuidado de los ancianos.

El inicio del Estado del bienestar en los países nórdicos es de finales del siglo XIX. A diferentes velocidades, los países nórdicos fueron introduciendo a principios del siglo XX los seguros de desempleo, de enfermedad, de accidentes y de jubilación, pero no fue hasta el final de la II Guerra Mundial cuando se extendió la cobertura para toda la ciudadanía, con la vocación de ser universales.  A partir de 1960, el Estado del bienestar nórdico tuvo una edad de oro. Suecia fue quien hizo más esfuerzos, y, hasta la década de 1980, fue el que mayor porcentaje del PIB destinó al gasto social. Seguido muy de cerca por Dinamarca, y más atrás, por Noruega y Finlandia. Actualmente, cerca del 30% del PIB, se destina al gasto social en Suecia, Dinamarca y Finlandia. Los programas de protección pública han perseguido siempre la universalidad. Dicha protección social se financia a través de impuestos. La recaudación por impuestos se sitúa entre el 40% respecto del PIB. Los ciudadanos de los países escandinavos son favorables en la participación y en la construcción del Estado del bienestar. Existe una llamada "moral tributaria", es decir, una disposición favorable a pagar sus impuestos. No favorecen acogerse a las deducciones que favorecen el fraude a la hacienda pública. Existe, por tanto, unas convicciones morales, y al mismo tiempo, un alto grado de confianza en las instituciones. La confianza reside en la percepción favorable de los resultados del Estado de bienestar: los ciudadanos creen que sin impuestos no estaría asegurado la universalidad de los servicios del Estado del bienestar para todos los ciudadanos. Desde los años 70, se han producido una serie de reformas económicas orientadas a una mayor competitividad y orientada a la exportación, para poder mantener el Estado de bienestar. Como resultado, los países escandinavos son hoy economías exportadoras con grandes superávits de balanza de pagos y muy atractivas para el inversor extranjero. Además, hay que sumarle el gasto en educación entorno a un 7% o 8% del PIB y una fuerte inversión en investigación y desarrollo, en políticas de subsidios de desempleo y políticas activas de formación para el empleo.

El modelo liberal es aquél donde el mercado suministra bienes y servicios en relación al Estado de bienestar. Aquí, encontraríamos fundamentalmente a los países anglosajones. Vamos a centrarnos en dos países concretamente: Reino Unido y Estados Unidos. Respecto al Reino Unido, después de los gobiernos conservadores de Margaret Thatcher y John Major, Tony Blair presentó lo que se llamó la tercera vía para recuperar el impulso del Estado del bienestar. La tesis central de ese nuevo laborismo fue que, la distinción entre el mercado y el Estado, no tenía razón de ser y era necesario adoptar un punto de vista más pragmático que ideológico. La tercera vía se aplicó en los ámbitos tradicionales de las políticas de bienestar pero tuvo una incidencia especial en las políticas activas del empleo y en la educación. En las políticas de empleo, las ayudas se concebían como un medio para mejorar la productividad y la adaptación de los trabajadores para hacerlos más competitivos y así aumentar su probabilidad de ser contratados. El subsidio de desempleo pasó a ser tan solo un recurso de última instancia. El problema del desempleo no era una falta de oportunidades sino que era por las deficiencias en la capacitación de los desempleados. El Estado del bienestar debía capacitar a los ciudadanos para incorporarse en el mundo laboral. Los beneficiados de esas ayudas al desempleo deberían participar en la búsqueda obligatoria de trabajo. En 1998, se estableció por primera vez un salario mínimo en 1998. En el ámbito educativo, desde el siglo XIX, es obligatorio la enseñanza. Hoy en día, lo es para las edades comprometidas entre los 5 y los 18 años. Entorno, al 90% estudia en el sistema público. Las universidades públicas no son gratuitas. Y, por último el sistema de pensiones, está inclinado hacia el mercado y depende más del ahorro privado y de los fondos de pensiones de las empresas. Tiene tres niveles: obligatorio, complementario y voluntario. Obligatorio, es la contribución que hace los trabajadores a la seguridad social británica y que consiste en un sistema de reparto. Es baja y necesita ser complementada. Los otros dos niveles: el segundo, el complementario, consiste en complementar la pensión a través de aportaciones añadidas al sistema público o bien con fondos de pensiones privadas en sustitución de estas y el tercero, voluntario, conformado por un ahorro voluntario por las propias empresas.

Respecto a los EE.UU., su modelo de bienestar tiene un fuerte carácter individualista que se origina en la Constitución de 1787 que protege los derechos de los ciudadanos y de la propiedad privada. Este fuerte rasgo individualista del Estado de bienestar en EE.UU., tiene un concepto muy distinto al europeo, respecto a que entiende por redistribución de la renta, el gasto social o el propio tamaño del Estado. El gasto público en EE.UU. ha representado un 35% del PIB desde la década de 1980, muy por debajo de los países escandinavos o de Francia, por encima del 50%. El gasto pública se reparte en tres administraciones: la federal, con un gasto social del 20% respecto del PIB, la estatal y local, con el 9% cada una. Las partidas más importantes, con el 5% del PIB cada una, son las de educación y del sistema público de salud: Medicare, para mayores de 65 años, y Medicaid, destinado a personas con bajos ingresos, creados ambos en 1965. En 2010, Barack Obama firmó la Ley de Protección al Paciente y Cuidado de Salud Asequible- Obamacare-. Antes de esta ley, un 18,5% de la población no tenía ningún tipo de cobertura sanitaria y con el Obamacare se incrementó el número de asegurados, reduciendo el número de norteamericanos sin seguro en 11,4 millones desde 2010 hasta 2014. 

21 de febrero de 2017

Modelos de Estado de bienestar(I): clasificación y tipología.

Las políticas del Estado del bienestar no han sido iguales en todos los países por diferentes razones. Por un lado, los países presentan divergencias a la hora de implementar un sistema de bienestar. Por otro lado, por motivos históricos y/o geográficos no parten en condiciones de igualdad para el crecimiento económico. Tampoco, es igual su concepción del mundo ni la ideología que está detrás de la acción política.

Los diferentes modelos de Estado de bienestar se pueden clasificar atendiendo a dos dimensiones, que propuso el economista y sociólogo danés Gosta Esping-Andersen, en su libro los tres mundos del Estado del bienestar en 1990. Una primera dimensión, el grado de desmercantilización, es decir, el grado en que los servicios sociales se proveen al margen de los mercados. Y, una segunda dimensión, la estratificación social, es decir, en la medida en que los sistemas de bienestar ayudan a reducir las desigualdades sociales. Según el propio Esping- Anderson, el proceso histórico, que transformo a los agricultores en asalariados, el trabajo se convirtió en una mercancía más y los trabajadores pasaron a depender de su salario para satisfacer sus necesidades básicas. Desde esa perspectiva, existen diferentes modelos de Estado de bienestar según el grado de responsabilidad del Estado a la hora de abastecer ciertos servicios sociales básicos. A mayor desmercantilización, mayor grado de Estado del bienestar.

Partiendo de este supuesto, Gosta Esping- Andersen diferencia tres tipos de Estados del bienestar: el modelo socialdemócrata que posee un nivel de desmercantilización alto. El Estado proporciona un alto nivel de bienes y servicios. Se financia con impuestos, trata a todos los ciudadanos por igual y tiene un carácter universalista. El modelo liberal que se caracteriza por un nivel alto de mercantilización donde el bienestar depende del mercado. La intervención del Estado se limita a transferir rentas a aquellas personas que no son capaces de satisfacer sus necesidades básicas a través del mercado. La financiación se hace a través de la imposición fiscal. Y, por último, el modelo conservador que se caracteriza por una desmercantización media. Este modelo no incluía al mercado, pero no lo consideraba como la única vía para satisfacer las necesidades básicas. En los países donde predomina este modelo conservador, existe diferentes tipos de seguro social, fuertes sindicatos, seguros de desempleo y cotizaciones empresariales altas.


7 de febrero de 2017

La reacción liberal al keynesianismo y las propuestas de reformas(II)

Durante las décadas de los años 50 y 60, y, hasta el año 1973, se produjo un enorme crecimiento económico sin precedentes. Tanto su éxito como su fracaso posterior, no se debe al keynesianismo ni al Estado de bienestar. Desde el fin de la II Segunda Guerra Mundial, los países europeos se beneficiaron del acuerdo de Bretton Woods, la integración de los mercados europeos, las ayudas del plan Marshall y las transferencias tecnológicas desde EE.UU. Antes de la crisis del petróleo de 1973, las economías norteamericana, japonesa y europea estaban muy próximas. Sin embargo, el fin de la expansión y el endeudamiento de los Estados, hizo patente las debilidades del keynesianismo. Pero, no fue, con el embargo del petróleo por parte de la OLP a causa de la guerra Yom Kippur, cuando el precio del petróleo creció de 3 a 14 dólares por barril. Se descartó las políticas de estímulo de la demanda y se comenzó a defender políticas de oferta, es decir, reformas de liberalización que consiguieron aumentar la producción a través de la eficiencia. Se empezó a valorar la microeconomía frente a la macroeconomía que estudiaba que incentivos hacían que aumentará la producción. También, se prestó una mayor atención a la teoría del crecimiento económico y a cómo se mejora la productividad del trabajo y el capital a través de la formación y la tecnología.

Cada una de estas adversidades creó un clima desfavorable para el Estado del bienestar y sí favorable para la ideología (neo)liberal de la mano de Margaret Thatcher y de Ronald Reagan. Ambos querían recluir la importancia del Estado de bienestar y "retroceder" las fronteras del Estado del bienestar. Las nuevas ideas (neo)liberales tuvieron una plasmación en la distribución del gasto social y en el cambio de la política económica. Respecto al gasto social, el Estado del bienestar británico comenzó a controlar el gasto público durante el crecimiento económico y la supeditaba al crecimiento de los precios. Respecto a lo segundo, el cambio de la política económica, el principal elemento fue la reducción del papel del Estado como protector. Inició una campaña de privatización de las principales compañías y empresas públicas británicas. Además, redujo la carga financiera del Estado, permitiendo el acceso a otras fuentes de financiación a las empresas. Ciertos servicios sociales que aún eran públicos, es decir, que eran financiados y proveídos por el Estado, se convirtieron en una especie de "cuasi-mercado" en que ciertos servicios sociales- cuidado de ancianos, vivienda social,...- fueron financiados por el Estado pero se puso en manos del sector privado. El gobierno de Thatcher abrazó las políticas de oferta, dejando a un lado definitivamente las políticas fiscales keynesianas. Redujo drásticamente el crecimiento de la masa monetaria en circulación para controlar la inflación. La reducción del déficit público fue la estrategia escogida para combatir la inflación. Consiguió reducir la inflación de un 13,4% a los 4,6% en cuatro años. Mientras que el desempleo, subió del 4,7% al 11,1%. No se sabe si esta subida se debe a la segunda crisis del petróleo- 1979- o a la política monetaria contra la inflación. Respecto a la políticas de oferta, Thatcher planteó una reducción de los tipos marginales del impuesto sobre la renta tanto en el tramo alto como el bajo.

En EE.UU, con la presidencia de Ronald Reagan, se aplicó una política severa de recortes del Estado del bienestar en tres ámbitos: el seguro de desempleo, ayudas a familias con niños dependientes y en los programas de construcción y rehabilitación de viviendas para personas con bajos ingresos. Respecto a su política económica, su actuación no fue monetarista como la política thatcheriana sino más bien optó por mejorar la gestión de la Reserva Federal así controlar mejor la evolución del crecimiento económico, lo que produjo la reducción de la inflación. Por otro lado, el déficit público no dejó de subir durante los años 80, en parte por los recortes de impuestos recomendados por las políticas de oferta monetaria, y, la reducción de los tipos marginales de los tramos más altos y más bajos.

Las reformas de la década de 1980 tuvieron un primer impacto en la transformación del Estado del bienestar en un sistema mixto en el que los servicios eran proporcionados tanto por el Estado como por el sector privado. Sin embargo, el Estado del bienestar se está enfrentando a nuevos retos, como eran la nueva sociedad postindustrial, envejecimiento demográfico, incorporación masiva de la mujer al mercado laboral, para los que no servían las soluciones anteriores. En resumen, hubo un proceso de reconsideración del gasto social en su conjunto y del progresivo abandono del keynesianismo tanto de los gobiernos socialdemócratas en Europa como del partido demócrata en Estados Unidos. 

25 de enero de 2017

La reacción liberal al keynesianismo y las propuestas de reforma(I)

El segundo capítulo del libro, ¿es sostenible el Estado de bienestar?, la reacción liberal y las propuestas de reforma, se centra fundamentalmente, en una primera parte, en la Gran Depresión y en el New Deal así como la entrada del liberalismo contra la intervención del Estado en la economía, y, en una segunda parte, en la figura de Milton Friedman y su oposición al keynesianismo.

En Estados Unidos es donde han surgido las críticas más importantes al Estado del bienestar tanto en el ámbito teórico como en el ideológico. También, es donde surge el New Deal un programa social que constituyó una especie de "Estado del bienestar" anterior al Estado del bienestar. Aunque, el New Deal fue una medida extraordinaria como respuesta a la Gran Depresión, a un suceso extraordinario. El crash de 1929 tuvo consecuencias devastadoras para Estados Unidos que se prolongó hasta finales de los años 30. En 1933, Roosevelt impulsó un programa de intervención del Estado en la economía, el New Deal. Fue un éxito desde el punto de vista económico, el PIB de Estados Unidos creció. En el ámbito social, Roosevelt promovió una transformación total del sistema de bienestar norteamericano. Antepuso la administración federal a las administraciones locales y de los estados, acabando con el despilfarro. Entre 1933 y 1935, entró en vigor la Federal Emergency Relief Administration y se promulgó la Ley de Seguridad Social. Se creó para hacer frente a los jubilaciones y gestionar el seguro de desempleo. El New Deal fue un programa que pretendía planificar el funcionamiento de los principales sectores de la economía norteamericana y encontró resistencias tanto en el ámbito conservador como liberal. Roosevelt centró su principal atención sobre el sector financiero. Sacó a Estados Unidos del patrón oro en 1933. Al abandonar el patrón oro, la Reserva Federal pudo imprimir todos los billetes que quiso. El valor del dólar se garantizaría a través de los títulos de deuda pública del Tesoro americano, es decir, la credibilidad de su economía. La intervención del Estado también se trasladó en los sectores agrícola, industrial y obra pública.

Los primeros economistas contrarios a las políticas del New Deal fueron los de la Universidad de Harvard denominados, los Siete Sabios, que criticaban el intervencionismo del Estado y alentaban sobre la ineficiencia de la planificación en la economía. La mayor preocupación de los Siete Sabios era el efecto de la planificación sobre el sistema de precios y sobre los efectos en las decisiones de las personas a la hora de decidir qué hacer con sus recursos. El New Deal no podía poner de acuerdo a la oferta y a la demanda. Sin embargo, en la segunda mitad de la década de los  años 30, la Universidad de Harvard tomó la dirección contraria. Fue, paradójicamente, en esta universidad donde se expandió el keynesianismo en EE.UU de la mano de Alvin Hanlen. La oposición al keynesianismo y al New Deal fue desapareciendo de la universidad. El liberalismo fue recluyéndose y su resistencia numántina se trasladó a la Universidad de Chicago. Entre los economistas liberales, quien mejor organizó la resistencia al keynesianismo y a la economía planificada, estaba el economista austríaco Friedrich Hayek. Ferrio partidario de la descentralización y firme defensor de las libertades individuales, estaba en contra de la planificación económica. No obstante, no era partidario de la desaparición del Estado porque podía cumplir con algunas funciones como favorecer el libre mercado, eliminar monopolios o cuidar del medio ambiente. Friedrich Hayek junto a la Escuela de Chicago fue quien mejor organizó la resistencia al programa keynesiano y sus políticas en EE.UU y quien posteriormente replantearía los principios y postulados del liberalismo.

Como hemos dicho antes, la gran resistencia al keynesianismo fue en la Universidad de Chicago. Henry C. Simons formó en los años 40 a estudiantes seguidores de la economía neoclásica que defendía el libre mercado y que oponía a las políticas intervencionistas del Estado en la economía. Entre estos alumnos estaba Milton Friedman, futuro premio nobel en 1976 y principal figura de la Escuela de Chicago. Friedman puso su talento al servicio de la defensa del libre mercado y fue el principal responsable en el descrédito del keynesianismo a finales de los años 60. Friedman centró su crítica al keynesianismo en dos frentes: la cuestión monetaria y la formación de expectativas. Esta última es donde reside fundamentalmente la gran discrepancia con el keynesianismo. Mientras que, Keynes creía que, las expectativas sobre el futuro eran la causa de que hubiera menos bienes necesarios para alcanzar el pleno empleo, y, por tanto, defendía que el Gobierno imprimiera más dinero a pesar del riesgo a la inflación, por tanto, existía una relación inversa entre inflación y desempleo: un mayor crecimiento de los precios va acompañado de un menor desempleo, Milton Friedman creía que, las expectativas y las decisiones que tomaban las personas son racionales. Friedman rechazaba que el Gobierno utilizará la inflación como herramienta política. Estaba en contra de políticas monetarias expansivas porque los precios subirían sin fin, mientras que la economía seguiría estancada igual que el nivel de desempleo. Se produciría una situación de estanflación. Este fenómeno descrito por Friedman comenzó a experimentarse a partir de 1970. Cuando se produjo un crecimiento del nivel de desempleo con un nivel alto de inflación. Se agravó después de 1973 con la crisis petrolera. Esto produjo que se destruyera la credibilidad entorno al intercambio entre inflación y desempleo, tal como preconizaba Keynes. La duda se extendió a toda la política de estabilización y de estímulo de la demanda del modelo keynesiano, aupando las tesis de Friedman.

Además, de su contribución a la política monetaria, Milton Friedman se mostró en contra del Estado del bienestar y a favor de la sociedad. Escribió dos libros: el primero, capitalismo y libertad, en 1962 y el segundo, libertad para elegir, en 1980 donde expone sus argumentos en relación a ambas cuestiones. En ambos libros, defiende que el capitalismo es una condición necesaria, aunque no suficiente, para la consecución de la libertad política. Defiende que quienes participan en el sistema capitalista demandarán tanto la libertad económica como la libertad política y que el capitalismo es el sistema creador de riqueza más eficiente. Respecto al Estado del bienestar, Friedman se mostró partidario de eliminar los programas de asistencia social y sustituirlo por un impuesto negativo.

5 de diciembre de 2016

Las políticas keynesianas y el nacimiento del Estado de bienestar(II)

El impacto de las propuestas y del pensamiento keynesiano en la economía fue enorme así como los debates entorno a sus ideas. Muchos economistas neoclásicos intentaron reconciliarse con el keynesianismo. La tarea de divulgación y reformulación del keynesianismo fue acometida especialmente por dos autores: el británico John R. Hicks y el estadounidense Paul A. Samuelson. La principal aportación de John R. Hicks a la divulgación de la obra de John Maynard Keynes fue el artículo "El señor Keynes y los clásicos" en el que llevaba el keynesianismo a fórmulas matemáticas más digeribles para los economistas neoclásicos. Dicho artículo fue el que permitió el desarrollo del modelo IS-LM. Este modelo proponía dos herramientas a disposición del Gobierno para conseguir el pleno empleo: la política fiscal y la política monetaria. Con la política fiscal, a través del gasto del Gobierno o bien reduciendo los impuestos para que los consumidores tengan más renta disponible, se puede estimular la demanda de bienes de consumo. Con la política monetaria, se puede bajar el tipo de interés mediante la inyección de dinero, o hacerlo subir mediante la restricción de dinero. El tipo de interés influye en las decisiones de los consumidores y de los empresarios, puesto que el tipo de interés marca el precio del dinero, y, si este es bajo, los empresarios y consumidores se endeudarán para invertir y consumir, respectivamente. El modelo IS-LM fue una guía que se utilizó para aplicar las ideas keynesianas en el desarrollo de políticas dirigidas a la implantación y consolidación del Estado del bienestar.

La aportación de Samuelson fue la popularización del modelo IS-LM en el libro Economía en 1948. Samuelson hizó una síntesis entre los planteamientos de la escuela neoclásica y el modelo IS-LM de John R. Hich. Defendía la intervención del Estado en la política fiscal. También fue partidario de la intervención del Estado en el mercado porque éste era incapaz de proporcionar niveles de inversión que asegurarán el pleno empleo. Apoyó el Estado del bienestar y los programas de redistribución de la renta y la reducción de la pobreza. Samuelson era consciente que, para que hubiera pleno empleo, era imprescindible determinar cuánto produce la economía. La mejor herramienta era la política fiscal, es decir, la utilización del gasto público y de los impuestos para modular la actividad económica. Su apuesta por la política fiscal era por su convencimiento del papel del multiplicador keynesiano. El multiplicador keynesiano surge de una hipótesis sobre los consumidores: una persona no gasta la totalidad de su ingreso de cada mes en consumo sino una proporción fija, denominada "propensión marginal al consumo". Ahora bien, cualquier compra produce otros gastos posteriormente. En consecuencia, al final, se habrá multiplicado significativamente el gasto partiendo de un determinado consumo sobre la renta disponible. Los impuestos tenían un efecto sobre la renta disponible y ésta sobre el multiplicador keynesiano. Samuelson estudió los efectos del multiplicador keynesiano en el gasto público y aseveró que su existencia y su valor son determinantes para la eficacia del gasto público. Samuelson defendió los presupuestos públicos deficitarios. El presupuesto del Gobierno no debe estar siempre equilibrado sino en relación al ciclo económico, consecuentemente, aumentar el gasto público o reducir los impuestos con el objetivo de incrementar  la demanda efectiva cuando la economía está en la parte baja del ciclo económica, compensando el déficit resultante en la parte alta del ciclo económica con el objetivo de evitar un sobrecalentamiento de la economía, reduciendo la demanda mediante la reducción del gasto público o el aumento de los impuestos. El déficit público sería controlable gracias al multiplicador keynesiano. A las políticas, que se efectúan en la parte baja del ciclo económico se las llama políticas contracíclicas, mientras que, las políticas que se efectúan en la parte alta del ciclo económica se las llama políticas procíclicas. Por otro lado, Samuelson defendió que cuando existe desempleo suele producirse un fenómeno en relación al ahorro, la llamada "paradoja de la frugalidad", que reduce la demanda total de la economía con la consiguiente reducción de la renta disponible para ahorrar. En este tipo de situaciones, las personas retienen sus ingresos, el dinero no afluye a los mercados y la demanda de bienes se reduce en relación a la oferta, como consecuencia de esta paradoja, el gasto público puede cerrar la brecha entre demanda y oferta de bienes y alcanzar el pleno empleo. Por último, Samuelson defiende una concepción según la cual el dinero está mejor en manos del Gobierno, cuando se refiere al pleno empleo, reflejándose en la hipótesis del presupuestos equilibrado. Ello conlleva, que un presupuesto equilibrado, es decir, aquél en que los gastos son iguales a los ingresos, sea expansivo, y que se aproxima a una economía al pleno empleo.

Los efectos de las ideas keynesianas sobre la política del Estado del bienestar fueron enormes. El gasto público entre 1960 y 1980 creció en diferentes países: Suecia, Alemania, Francia, Reino Unido y Estados Unidos. Hasta 1960, la recaudación fiscal de esos mismos países apenas rebasaban el 30% del PIB pero la necesidad de financiar este aumento del gasto público hizo que subiera. Al mismo tiempo, nació la llamada economía mixta: los Gobiernos utilizaban el gasto público como forma de estimular la actividad económica pero, también de satisfacer a una población que exigía políticas de bienestar. El Estado del bienestar alcanzó su madurez en la década de los 60. La cobertura de la protección social se hizo universal en la mayoría de países y se delimitó los ámbitos de actuación del Gobierno así como la sanidad gratuita y la ayuda a la compra de vivienda. Este crecimiento del Estado del bienestar obligó a aumentar el gasto público muy por encima de la recaudación de impuestos, lo que generó déficit público creciente, y, con ello, la necesidad del endeudamiento de los Estados para hacer frente a este gasto. Los problemas aparecerán, a principios de los 70, por el encarecimiento súbito del petróleo como materia prima. El resultado será el abandono progresivo de las políticas orientadas a la demanda, es decir, políticas de corte keynesiano, por políticas orientadas a la oferta. 

3 de febrero de 2016

Hitos biográficos de Alan Turing

Para acabar, vamos a sintetizar los hitos biográficos de Alan Turing:
  • 1912: Nace en Paddington, el 23 de junio. 
  • 1926-1931: Cursas sus estudios de secundaria en Sherborne.
  • 1930: Muere Christopher Morcom con el que estaba muy unido.
  • 1931-1934: Estudia Matemáticas en el King's College.
  • 1936: Publica su artículo célebre "On computable numbers, with an application to the Entscheidungsproblem", donde introduce la noción de máquina de Turing. 
  • 1936-1938: Estancia en la Universidad de Princeton y realización de su tesis doctoral bajo la supervisión de Alonzo Church. 
  • 1938-1945: Trabaja en Betchley Park en el desciframiento de las máquinas Enigma. 
  • 1945: Trabaja en el Laboratorio Nacional de Física de Londres.
  • 1946-1948: Contribuciones en diferentes ámbitos: el diseño de software, programación e inteligencia artificial. 
  • 1948: Empieza a trabajar en la Universidad de Manchester. 
  • 1949: Utiliza un ordenador para buscar números primos de Mersenne, lo que se considera el primer uso matemático de un ordenador. 
  • 1950: Desarrolla el famoso test de Turing.
  • 1951: Desarrolla el modelo de reacción-difusión como teoría no lineal del crecimiento biológico. 
  • 1952: Es arrestado por prácticas homosexuales. 
  • 1954: Muere el 7 de junio por suicidio con cianuro. 

31 de enero de 2016

El legado de Alan Turing

El legado de Turing es el undécimo capítulo del libro Rompiendo códigos. Vida y legado de Turing. En este capítulo, repasamos qué premios y qué reconocimientos ha recibido Alan Turing a título póstumo. 

El impacto y el reconocimiento de la obra científica de Alan Turing han ido aumentando con el paso del tiempo desde su trágico final, especialmente después de la celebración de su nacimiento en 2012. No cabe ninguna duda sobre su lugar en la historia de la ciencia. A continuación, vamos a mencionar brevemente qué premios se han creado a título póstumo y qué reconocimientos ha recibido:

  • El premio Turing: El premio Turing es concedido anualmente por la Association for Computing Machinery a un investigador por sus contribuciones a las ciencias de la computación. Es el premio de mayor entidad a nivel mundial en este campo y premiado con 250.000 dolores al ganador. Este premio se instauró en 1966 y se considera el Premio Nobel de la informática. 
  • El premio Loebnar: Es una competición anual que premia al programa de ordenador que más se asemeje a un humano. Se creó en 1990 y lo patrocinaba Hugh Loebner junto con el Centro de Estudios del Comportamiento de Cambridge( Massachussetts). Posteriormente, se han sumado otras instuticiones como el Museo de Historia Natural de Londres, las Universidades de Flinders y de Reading y el Dartmouth College. Las tres primeras ediciones del premio fue presidida por el filósofo Daniel Dennett. El Premio Loebner sigue el formato de competición estándard establecido en el test de Turing. Hay tres premios: Una medalla de bronce con una dotación de 5.000 dólares, una medalla de plata con una dotación de 25.000 dólares y una medalla de oro con una dotación de 100.000 dólares. El premio Loebner se disolverá cuando la medalla de oro se adjudique. 
  • El impacto bibliométrico de la obra científica de Alan Turing: Hoy en día, para medir el impacto del trabajo de un científico por las citas de sus artículos y libros científicos que otros investigadores incluyen en sus propios trabajos. Es interesante analizar cuál ha sido el impacto del trabajo de Alan Turing. En el MathSciNet, la base de datos en el mundo matemático, Alan Turing tiene su propio perfil. También, en la base de datos Web of Science en la que se incluye todos los trabajos de investigación de los diferentes ámbitos de la ciencia.
  • Ha recibido numerosos reconocimientos conmemorativos como placas, sellos, estatuas en el Reino Unido y una nominación a uno de los 100 personajes más influyentes del siglo XX por la revista Time.

Medalla de Oro del Premio Loebnar

29 de enero de 2016

La trágica muerte de Alan Turing

La tragedia es el décimo capítulo del libro Rompiendo códigos. Vida y legado de Alan Turing. 
En este capítulo, se desarrolla la acusación, muerte e indulto a Alan Turing. La trágica muerte de Alan Turing privó a la ciencia de unos de los matemáticos más brillantes del siglo XX.

En 1952, se desencadena la tragedia: Alan Turing es arrestado por prácticas homosexuales, prohibidas en ese tiempo en el Reino Unido. Alan Turing jamás ocultó su condición sexual; al contrario, lo consideraba algo natural. Sin embargo, no todo su entorno compartía su falta de prejuicios. La tragedia se mascó en enero de 1952 cuando invitó a Arnold Murray a pasar un fin de semana en su casa. Era una trampa. Un cómplice de Murray entró en la casa de Alan Turing. Turing denuncia los hechos y, durante el transcurso de la investigación, reconoce su homosexualidad a la policía.La confesión le acarrea problemas, hasta el punto de que, la investigación por robo, se transforma en una acusación: llevar a cabo "prácticas homosexuales". Fue juzgado el 31 de marzo de ese mismo año y condenado a recibir un tratamiento con estrógenos para "curar su homosexualidad". Turing aceptó tratarse y después se incorporó de nuevo a las rutinas académicas en la Universidad de Manchester. Sin embargo, algo había cambiado: el tratamiento hormonal le afectó profundamente. El 8 de junio de 1954, hallaron muerto a Alan Turing en su cama. A su lado, había una manzana mordisqueada. Las investigaciones policiales concluyeron que la manzana contenía cianuro, y, que se había suicidado al ingerir voluntariamente el trozo de manzana. Sus amigos y su madre sugieren que podía ser un accidente, dada su afición por los experimentos. Otros abogaban por tesis conspiranoicas. Un libro publicado en 2012, de Jack Copeland, aporta nuevos datos sobre la muerte de Turing y posibles causas: suicidio, accidente o acción de los servicios secretos del Reino Unido.

La trágica muerte de Alan Turing no acabó ahí. El 10 de septiembre de 2009, una campaña organizada por el escritor y programador inglés John Graham-Cumming recogió miles de firmas para obligar al Gobierno británico a pedir perdón públicamente por el trato dispensado a Alan Turing después de la Segunda Guerra Mundial. En diciembre de 2011, William Jones hizo una petición para que se eximiera a Alan Turing del delito de "indecencia" pero no fue atendido por el ministerio de Justicia del Reino Unido. En el año 2012, se celebró el Año de Alan Turing. Se conmemoraba los cien años de su nacimiento. Tras el gran éxito de la celebración en todo el mundo del centenario del nacimiento de Alan Turing y después de la intensa presión de la opinión pública mundial, la reina Isabel II de Inglaterra, concedió el perdón a Alan Turing el 23 de diciembre de 2013, convirtiéndose en la cuarta persona que consigue este perdón real desde el término de la Segunda Guerra Mundial.

Alan Turing


La contribución de Alan Turing a la morfogénesis

La morfogénesis es el noveno capítulo del libro Rompiendo códigos. Vida y legado de Turing. En este capítulo, se centra en las aportaciones de Alan Turing al estudio de la morfogénesis, y muy especialmente, su propuesta del modelo de reacción-difusión como base explicativa del desarrollo de patrones biológicos que están detrás de las manchas o de las rayas en la piel de los animales, por ejemplo.

En 1951, Alan Turing comienza a interesarse por las aplicaciones de las matemáticas en la teoría de la forma en biología. En 1952, publica un artículo titulado "Las bases químicas de la morfogénesis" sobre su trabajo en el campo de la morfogénesis- hoy conocida como biología del desarrollo-, y, como había hecho antes, introdujo una serie de ideas revolucionarias sobre la biología matemática. En su artículo, propuso un modelo de reacción-difusión como base explicativa para describir el desarrollo de patrones biológicos como las rayas, las manchas o las bandas en la piel de los animales o en las conchas de los moluscos. Según su modelo de reacción- difusión, los patrones biológicos, como las rayas de un tigre o las manchas de un leopardo, se formarían por la interacción de unos morfógenos que son las moléculas que señalizan el desarrollo del tejido. Los dos morfógenos, propuestos por Alan Turing, son un activador y un inhibidor. En su hipótesis, el activador formaría, por ejemplo, las rayas del tigre, pero en su interacción con el inhibidor dejaría de manifestarse, creándose un espacio en blanco. En ese momento, el proceso se revertiría y la franja siguiente sería de color. La interacción de estos dos morfógenos, un activador y un inhibidor, se combinaría para crear todo el patrón de rayas.

Morfogénesis: modelo de reacción- difusión


Alan Turing no sólo desarrollo este modelo, sino que, con la ayuda de la computadora de la Universidad de Manchester, fue capaz de hacer cálculos matemáticos sobre biología del desarrollo, y que aunque pasó desapercibido en el ámbito académico hasta décadas después, puso a disposición numerosos datos obtenidos a través de la computadora de Manchester. Para finalizar, además de sus aportaciones a la morfogénesis, Alan Turing dejó "notas" y "bocetos" de trabajos sobre otros temas de aplicación de las matemáticas a la biología, especialmente en filotaxis, disciplina que estudia la distribución de las ramas y hojas en las plantas.

27 de enero de 2016

¿Pueden pensar las máquinas?

¿Pueden pensar las máquinas? es el octavo capítulo del libro Rompiendo códigos. Vida y legado de Turing. En este capítulo, se hace hincapié en dos aspectos: uno, el artículo fundacional de la Inteligencia Articial, "Máquinas de computación e inteligencia", escrito por Alan Turing y publicado por la revista Mind en 1950. Dos, la conceptualización del Test de Turing.

En 1950, Alan Turing escribe un artículo clave en el desarrollo de la inteligencia artificial: "Máquinas de computación e inteligencia". Publicado en la revista Mind, estaba basado en una conferencia que Alan Turing había pronunciado tres años atrás. En este célebre artículo, propone el llamado Test de Turing que estaba concebido para averiguar si una máquina puede ser considerada inteligente. ¿En qué consistía el test de Turing exactamente? "En su desarrollo, se supone un juez situado en una habitación, y una máquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es la máquina haciendo una serie de preguntas, a las que, tanto el humano como la máquina, pueden contestar con sinceridad o mentir." La tesis de Alan Turing es: si ambos, máquina y humano, son suficientemente inteligentes, el juez no podría distinguir entre la máquina y el humano. Actualmente, el test de Turing se aplica para determinar si el usuario, que está haciendo uso de un determinado servicio de la red, es efectivamente un humano y no una máquina. Retomando de nuevo el artículo de Turing,"Máquinas de computación e inteligencia", en él, se describe los fundamentos matemáticos y la estructura de la máquina inteligente. También pone objeciones filosóficas a las ideas sobre la inteligencia artificial, refutando sus argumentos sobre la imposibilidad de una máquina pensante. Finalmente, Alan Turing hacía una analogía de la máquina con un humano: el hardware de la máquina sería el equivalente a la genética que heredamos, mientras que el software, la programación, equivaldría a la educación. Para acabar, el artículo "Máquinas de computación e inteligencia" se considera fundacional de la inteligencia artificial, término acuñado, posteriormente a la publicación del artículo, en un congreso en Dartmouth por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon.

El test de Turing

26 de enero de 2016

Construyendo ordenadores: El diseño de los primeros ordenadores

Construyendo ordenadores es el séptimo capítulo del libro Rompiendo códigos. Vida y legado de Turing. En este capítulo, básicamente el desarrollo de los primeros ordenadores: ENIAC, EDVAC y SSEM.

Al final de la Segunda Guerra Mundial, Alan Turing fue invitado por el National Physical Laboratory para diseñar un ordenador. Por aquel entonces, la máxima preocupación era no quedarse atrás en el desarrollo de "máquinas de computación" en relación a los Estados Unidos, donde ya operaba la ENIAC. La ENIAC era una máquina de cálculo muy rápida "con lenguaje moderno y basada en el hardware" que apareció en 1945 y que utilizaba el Laboratorio de Investigación Balística del Ejército de los Estados Unidos. No se basaba en la máquina universal de Turing. Más bien, seguía la línea de las computadoras mecánicas. La ENIAC presentaba muchas limitaciones: sus acciones estaban limitadas por su hardware. Consciente de ello, John von Neumann desarrolló otro prototipo, la EDVAC. A diferencia de la ENIAC, el código era binario y no decimal. Fue la primera máquina donde se introdujo un programa "diseñado para ser almacenado." La EDVAC se convirtió en el estándar de la arquitectura para la mayoría de ordenadores. Para contrarrestar al EDVAC, el Laboratorio Nacional de Física le pidió a Alan Turing que se implicase en el proyecto ACE. El objetivo era crear una máquina capaz de comprender las instrucciones que se les dieran y que pudiera aprender de la experiencia. Sin duda, un proyecto revolucionario. Pese al optimismo, el proyecto ACE fracasó. Surgió la idea de crear una máquina parecida al ENIAC, el EDSAC, pero, finalmente, y tras varios fracasos, en 1947 el proyecto se canceló y Alan Turing regresó de nuevo al King's College. A su vuelta a Cambridge, aún sin una plaza permanente, escribió dos artículos matemáticos: "Errores de redondeo en los procesos matriciales"(1948) y "Formas prácticas de teoría de tipos"(1948). Max Newman le hizo una oferta para que se incorporará a la Universidad de Manchester y decidió aceptarla. Allí, prosiguió el desarrollo de ordenadores. Entre 1947 y 1948, la Universidad de Manchester había construido una máquina experimental llamada The Baby como continuación de la SSEM que fue la primera computadora electrónica del mundo que almacenó un programa en su mismo hardware, por lo que se considera la primera computadora que funciona con memoria RAM. Su desarrollo se impulsó para demostrar el potencial de los programas almacenados en el ordenador. En 1949, Alan Turing mantuvo conversaciones con Norbert Wiener, padre de la cibernética. Al otro lado del charco, la Universidad de Princeton a través del Instituto de Estudios Avanzados construyó la IAS Machine bajo la supervisión de Von Neumann entre 1942 y 1951. Esta máquina era un prototipo que pocos años después se comercializaría para otros usos por diferentes compañías comerciales.
ENIAC Primeros ordenadores

24 de enero de 2016

Rompiendo los códigos alemanes: descifrando las máquinas Enigma.

Rompiendo los códigos alemanes es el sexto capítulo de Rompiendo códigos. Vida y legado de Turing. En este capítulo, se centra, por un lado, en el tema de la criptografía y de las Máquinas Enigma, y, por el otro lado, en el trabajo de Alan Turing en el descifrado de los códigos de las máquinas Enigma por medio de bombas criptográficas desarrolladas en el transcurso de la Segunda Guerra Mundial en Bletchley Park.

Antes de abandonar la Universidad de Princeton para regresar al Reino Unido, Alan Turing empezó a interesarse por la criptografía. Su interés era por las posibles aplicaciones de las matemáticas a este campo. Incluso tenía en mente construir una máquina que pudiera encriptar. Recibió una oferta de John von Neumann para continuar en Princeton, pero decidió regresar al Reino Unido. La Segunda Guerra Mundial era inminente y la Escuela de Códigos y Cifrados del Gobierno de Londres estaba reclutando matemáticas y físicos para romper los códigos de las máquinas Enigma. El 4 de septiembre de 1939, Alan Turing acude por primera vez a Bletchley Park, donde se descifrarán en el transcurso de la Segunda Guerra Mundial los códigos alemanes de las máquinas Enigma, y, donde gracias a sus aportaciones, se pudo acortar la duración de la guerra en 2 años.

Su primera aproximación a la criptografía en EE.UU resultó ser un "juego de niños" en comparación con romper los códigos de las máquinas Enigma. ¿Qué es la criptografía? Los mensajes cifrados se han utilizado desde hace siglos. Su utilidad radicaba en "transmitir información a los aliados sin que el enemigo sea capaz de comprender el contenido, en caso de que la interceptara." Así pues, la criptografía es el arte de romper esos códigos encriptados para poder acceder a la información. Las técnicas criptográficas "consistían en alterar el mensaje original, cambiando unas letras por otras o por números, siguiendo un código que solo conocían el emisor y el receptor." Con la invención de máquinas mecánicas y electromecánicas, los métodos de encriptación fueron haciéndose más sofisticados. La evolución condujo al desarrollo de las máquinas Enigma. Las máquinas Enigma fueron un invento del ingeniero alemán Arthur Scherbius al final de la Primera Guerra Mundial. El primer intento de descodificación de una máquina de Enigma fue por parte de tres matemáticos polacos de la Oficina Polaca de Cifrado. La máquina Enigma era una máquina que combinaba elementos mecánicos y eléctricos. Consistía "en un teclado como el de las máquinas de escribir usuales, un engranaje mecánico y, en la parte superior, un panel de luces con las letras del alfabeto. En su interior, la máquina poseía varios rotores interconectados, cada uno de ellos con 26 contactos que correspondían a las 26 letras del alfabeto. Cada uno de estos rotores estaba cableado de una forma diferente. Había además ranuras para poder introducir los rotores, de manera que los contactos de salida de un rotor se conectaban con los contactos de entrada del siguiente." El funcionamiento de las máquinas Enigma era el siguiente: "cuando se pulsaba una tecla del teclado, el sistema eléctrico de la máquina, de acuerdo con la configuración del cableado que se hubiera dispuesto, daba como resultado otra letra distinta en el panel de luces." El tema se complicaba porque cada vez que se introducía una letra, la posición de los rotores cambiaba de nuevo, de manera que cada vez que se pulsaba la misma letra el resultado era diferente al anterior. Las configuraciones iniciales de las máquinas Enigma se distribuían cada mes en unos libros de instrucciones encargados de la encriptación y el envío de los mensajes. Las máquinas Enigma también servían para reconstruir el mensaje original del cifrado. Una de las claves en la rotura de los códigos consiste en que a veces el mismo mensaje se repetía o se enviaba información que puede ser identificada.

máquina Enigma


El desarrollo de las actividades de desciframiento de los códigos de las máquinas Enigma transcurrieron en Bletchley Park. El trabajo de descifrado se organizaba en diferentes grupos, cada uno de ellos realizaba tareas diferentes y tenían asignado un edificio. Alan Turing supervisaba el trabajo teórico en la caseta número 8. Al principio, el trabajo de Alan Turing se limitaba a usar hojas perforables. Pero, posteriormente, adoptó otra estrategia: "empezaron a identificar lo que llamaban "chuletas" del mensaje, lo que de nuevo requería una cantidad ingente de trabajo, para lo que Turing observó que también se necesitaban máquinas." Así es como nació la segunda generación de bombas criptográficas,"un armatoste de dos metros de alto, otros dos de ancho y una tonelada de peso, construido por el matemático inglés." La primera bomba se fabricó en 1940 y hasta el final de la guerra se fabricaron unos 200. A finales de 1940, la primera bomba sirvió para descodificar los mensajes de las máquinas Enigma de la aviación alemana. Romper los códigos de la marina alemana fue más difícil pero finalmente se logró a finales de 1941. Es evidente que el trabajo de Alan Turing no hubiera sido suficiente para descifrar los códigos alemanes, pero sin él seguramente no se hubiera avanzado mucho. El trabajo de Bletchley Park sirvió para acortar la duración de la guerra en unos 2 años y salvar centenares de miles de vidas. En 1945, se le otorgó la Orden del Imperio Británico por sus grandes contribuciones para la victoria de los aliados en la Segunda Guerra Mundial.

bombas para encriptar los códigos

19 de enero de 2016

Los años de Princeton: la relación de Alan Turing con Alonzo Church.

Los años de Princeton es el quinto capítulo del libro Rompiendo código. Vida y legado de Turing. Básicamente se centra en la estancia de Alan Turing en Princeton, su relación con el matemático Alonzo Church y la elaboración de su tesis doctoral.

En 1936, Alan Turing entregó el manuscrito del famoso "On Computable Numbers, with an application to the Entscheidungsproblem" al físico John von Newmann. En mayo de ese mismo año, recibió una copia del artículo del matemático Alonzo Church, titulado "An unsolvable problem in elementary number theory", que había sido publicado en la revista American Journal of Mathemarics, y que probaba, aunque con una aproximación diferente, las ideas de Turing sobre la problemática de la indecibilidad, es decir, la imposibilidad de decidir si una máquina de Turing se detendrá o no a través de algún tipo de algoritmo. Alonzo Church introducía en el artículo el concepto de "lambda- definibilidad" que equivalía al de computabilidad de Alan Turing. Church utilizaba el cálculo lambda para demostrar la insolubilidad del Entscheidungsproblem. Esta coincidencia generó un problema para que el artículo de Turing pudiera ser publicado en la revista Proceedings of the London Mathematical Society. Pero, finalmente pudo publicarlo cuando introdujo cambios y referencias al artículo Alonzo Church. Newmann animó a Turing a que conociera a Alonzo Church en Princeton. En setiembre de 1936, Turing partió rumbo a EE.UU. Su vida en Princeton era muy diferente a la de Cambridge. Era un ambiente más informal y chocaba con su "carácter inglés". La redacción de su tesis doctoral la inició bajo la supervisión de Alonso Church. La estancia en Princeton era sólo para un año. Princeton le ofreció permanecer un año más, e incluso lo arreglo con el King's College para que así fuera, pero Turing optó finalmente por volver a Cambridge donde siguió con la elaboración de su tesis doctoral. Inició una línea de trabajo entorno a la hipótesis de Riemann.

La hipótesis de Riemann la formuló el matemático alemán Bernhard Riemann a mediados del siglo XIX. Estudió la distribución de los números primos y observó una estrecha relación entre el orden en el que se presentan y la función zeta de Riemann- o función definida sobre los números complejos-. Demostró que probar la hipótesis de Riemann nos daría mucha información sobre los números primos. Hasta la fecha, nadie lo ha conseguido. Turing tampoco pudo avanzar en este tema. De vuelta a Princeton, Turing finalizó su tesis "Systems of logic based on ordinals" en mayo de 1938. En su tesis, introdujo varios conceptos: lógica ordinal y computación relativa. Además de la idea de oráculo que permitía estudiar problemas que no se pueden abordar con una máquina de Turing. Para concluir, la contribución entre ambos, Alan Turing y Alonzo Church, fue en las dos direcciones: "por un lado, Church ayudó a Turing a mejorar algunos aspectos que eran deficientes en su planteamiento, pero también Turing contribuyó a hacer más accesibles los resultados de Church." Un discípulo de Alonzo Church, Stephen Kleene propuso la llamada Tesis de Church- Turing, que, suponiendo una capacidad de almacenamiento ilimitada, establece que la capacidad potencial de cómputo de cualquier ordenador es similar, pero no su velocidad de cálculo que puede variar.

Alonzo Church

17 de enero de 2016

La búsqueda de la computabilidad y la formulación de la máquina de Turing

La búsqueda de la computabilidad es el cuarto capítulo del libro Rompiendo los códigos.Vida y legado de Turing. En este capítulo, se plantea, por un lado, el problema de la decibilidad o Entscheidungsproblem, y, por el otro lado, qué es y cómo funciona una máquina de Turing.

Los fundamentos de las matemáticas, que hemos expuesto anteriormente, son el "contexto histórico" en el que Alan Turing se mueve antes de participar en el curso de Max Newman sobre los fundamentos de las matemáticas. Es en el tercer punto: "¿Son computables las matemáticas?" "¿se pueden diseñar un procedimiento mecánico que, partiendo de una proposición, tras un número finito de pasos, de la conclusión de si es cierta o falsa?" donde se centraran los esfuerzos de Alan Turing. Es el llamado Entscheidungsproblem, es decir, el problema de la decisión. La cuestión fundamental del Entscheidungsproblem es: ¿podemos encontrar ese algoritmo? En la época de Turing no existía una definición precisa de algoritmo. No obstante, fue un aliciente para el propio Turing. Inmediatamente, se puso a trabajar y en 1937 se publicó un artículo transcendental para las ciencias de la computación: "On Computable Numbers, with an application to the Entscheidungsproblem." En el artículo, Turing introdujó varios conceptos: números computables, máquina computadora y máquina universal. Prueba con todo ello que el problema de decisión es insoluble. Turing "reformuló los resultados de Kurt Gödel de 1931, reemplazando el lenguaje formal basado en la aritmética de Gödel por el concepto de máquina de Turing." ¿Cómo funcionaba la máquina de Turing? "Este instrumento abstracto funciona moviéndose de un estado a otro, siguiendo un número finito de reglas concretas. Puede escribir un símbolo en la cinta o borrarla. Así, una máquina de Turing sería capaz de realizar cualquier computación matemática si esta se representa como un algoritmo." De esta manera, Turing pudo demostrar que no hay solución al Entscheidungsproblem. Concluyó a su vez que el problema de la parada es indecidible, es decir, que no es posible decidir algorítmicamente si una máquina de Turing se detendrá o no. Por otro lado, Turing describe conceptualmente qué es una máquina universal de Turing como la de un ordenador "donde la cinta desempeñaba el papel del programa en los ordenadores modernos." Y definió qué era un número computable "como un número real cuya expresión decimal podía ser producida por una máquina de Turing." También describió un número que no es computable. Dejó claro que la mayoría de los números reales no son computables.

¿Qué era realmente una máquina de Turing? Una máquina de Turing es un dispositivo abstracto, no físico. Está constituida por una serie de elementos: una cinta infinita, dividida en casillas, un dispositivo móbil, que cuenta a su vez con un cabezal que puede leer o borrar el símbolo que está impreso en la cinta. Existe además un registro capaz de almacenar un estado determinado, que viene definido a su vez por un símbolo. Los símbolos que definen el estado del dispositivo no tienen por qué coincidir con los símbolos que se pueden leer o escribir en la cinta. ¿Cómo funciona? La máquina de Turing funciona de forma mecánica y secuencial: "Primero lee el símbolo que hay en la casilla que tiene debajo. Después toma el símbolo del estado en que se encuentra. Con estos dos datos accede a una tabla, en la cual, siguiendo las instrucciones, lee el símbolo que debe escribir en la cinta, el nuevo estado al que debe pasar y si debe desplazarse a la casilla izquierda o derecha." La ejecución de una máquina de Turing seguiría indefinidamente, al menos que se detenga. Esto supondría que llega a una estado en el que se detiene, permitiendo examinar la cinta para buscar el resultado. Una máquina de Turing puede utilizarse para todo tipo de operaciones matemáticas. Es posible programarla para que simule el comportamiento de un ordenador. Cualquier máquina de Turing puede ser codificada en cualquier computador "por pequeño que sea, sería posible emular en nuestro procesador una máquina de Turing que simule un superordenador." Ésta es la idea de la máquina universal de Turing, es decir, una máquina capaz de imitar el comportamiento de cualquier otra máquina con independencia del algoritmo para el que haya sido diseñada.

máquina universal de Turing

1 de enero de 2016

Fundamentos de las matemáticas:Tras el Santo Grial de las matemáticas

Tras el Santo Grial de las matemáticas es el tercer capítulo del libro Rompiendo códigos. Vida y legado de Turing. Fundamentalmente, en este capítulo del libro, se plantea y desarrolla los principales fundamentos de las matemáticas. Y, en segundo plano, se menciona el curso sobre los fundamentos de las matemáticas impartido por Max Newman en el que participó Alan Turing.

Respecto a la primera cuestión. Durante la segunda mitad del siglo XIX y la primera del siglo XX, los fundamentos de las matemáticas entraron en crisis. Las matemáticas son la ciencia básica por excelencia. Los fundamentos de las matemáticas deben ser sólidos para validar el conocimiento matemático. Por otro lado, el razonamiento matemático está basado en la lógica, y, el método científico se fundamenta en la existencia de axiomas- verdades incuestionables- a través de las cuales se puede deducir el resto de verdades matemáticas- por ejemplo- (los teoremas). De ahí, la importancia de que los fundamentos de las matemáticas sean sólidos "por lo que una de las grandes preocupaciones de las matemáticas ha sido el asegurarse de trabajar sobre cimientos bien establecidos." La lógica matemática ha tenido a matemáticas ilustres como Georg Cantor, George Boole y Gottlob Frege imprescindibles para comprender las matemáticas del siglo XIX y principios del siglo XX. Georg Cantor(1845- 1918) fue un matemático alemán que puso las bases de la teoría de conjuntos en relación con la lógica. Formalizó la noción de infinito. George Boole(1815-1864) fue un matemático inglés que transformó las proposiciones lógicas a ecuaciones matemáticas. Friedrich Ludwig Gottlob Frege(1848-1925) llevó un paso más adelante las ideas de Boole. Sentó las bases de la lógica matemática moderna. Escribió diferentes libros sobre los fundamentos de la aritmética. En 1893, cuando estaba escribiendo un segundo libro sobre los fundamentos de las matemáticas, recibió una carta de Bertrand Russell que le planteó una paradoja. En aquella carta, Bertrand Russell plantea una pregunta: "¿el conjunto de los conjuntos que no forman parte de sí mismos forma parte de sí mismo?" La respuesta a esta pregunta originaba una paradoja: "si no forma parte de sí mismo, pertenece al tipo de conjuntos que no forman parte de sí mosmos y, por lo tanto, forma parte de sí mismo. Y si forma parte de sí mismo, entonces no es un conjunto que no forma parte de sí mismo, así que no puede formar parte." En conclusión, sólo formará parte de sí mismo si no forma parte de sí mismo. Esta paradoja echaba por tierra los fundamentos de la argumentación de Frege. Más tarde, Bertrand Russell logró burlar la paradoja en su obra Principia Mathematica sobre los fundamentos de las matemáticas. Otra aportación fundamental para las matemáticas fue la del matemático David Hilbert. Impartió una conferencia en el Congreso Internacional de Matemáticas en 1900. En ella anunció los 23 problemas más importantes para las matemáticas en el siglo XX. En la lista figuraban estos dos problemas: 1. "Problema de Cantor sobre el cardinal del continuo. ¿Cuál es el cardinal del continuo? 2. "La compatibilidad de los axiomas de la aritmética. ¿Son compatibles los axiomas de la aritmética?" En 1920, David Hilbert lanzó el Programa de Hilbert "que pretendía formar un conjunto de axiomas finito y completo de la aritmética y probar que eran consistentes." Con ello quedaba demostrado la consistencia de las matemáticas. Así, confiaba superar las paradojas como la de Russell. Pero, Kurt Gödel echó por tierra su trabajo. Gödel probó que un sistema axiomático, si el sistema es consistente no puede ser completo. Además, la consistencia de los axiomas no puede ser probada dentro del sistema.

Respecto a la segunda cuestión. En 1935, Alan Turing participó en la Universidad de Cambridge en un curso avanzado sobre los fundamentos de las matemáticas impartido por Max Newman. El curso estaba basado en el trabajo de David Hilbert. En su obra se planteaba tres cuestiones:
1- ¿Son completas las matemáticas?
2- ¿Son consistentes las matemáticas?
3- ¿Son computables?
El seminario de Max Newman concluía con una demostración del Teorema de Incompletitud de Kurt Gödel, "que afirmaba que la propia aritmética era incompleta y que su consistencia no podía probarse dentro de su propio marco axiomático." Este seminario sería un punto de inflexión para el desarrollo de las ideas de Alan Turing.
fundamentos de las matemáticas



23 de diciembre de 2015

Alan Turing en Cambridge.

La libertad en Oxford es el segundo capítulo del libro Rompiendo códigos.Vida y legado de Turing. En este segundo capítulo, se centra en la estancia de Alan Turing en la Universidad de Cambridge. 

En 1931, entró en el King's College de la Universidad de Cambridge para estudiar matemáticas. El King's College era un foco del pensamiento liberal en el Reino Unido. Alan Turing mostraba interés por el deporte, especialmente por el remo, de hecho participó en las famosas regatas que enfrentaban a las Universidades de Oxford y de Cambridge. Tuvo amistades tanto de deportistas como de intelectuales. Leyó la Introducción a la filosofía matemática de Bertrand Russell y el libro de John von Neumann de mecánica cuántica. En esta época, se publica su primer artículo "Equivalence of Left and Right Almost Periodicity" en el Journal of the London Mathematical Society(1935). Ese mismo año, leyó su tesis doctoral "On the Gaussion Error Function" con 23 años. En 1936, un año después, ganó el Premio Smith, reconocimiento que la Universidad de Cambridge concede cada año a dos estudiantes en física teórica, matemática aplicada. En esta primera etapa en Cambridge, Turing pasó inadvertido para la mayoría de sus compañeros y profesores, cuando vuelve de su estancia en Princeton, su actitud cambió y se mostró mucho más activo. Muestra de ello, la participación en el curso de Ludwig Wittgenstein, en 1939 en la Universidad de Cambridge, con el que mantuvo varias polémicas entorno a las relaciones entre las matemáticas y el lenguaje ordinario.

Alan Turing en Cambridge