Polsondage : Jean-Luc Mélenchon en tête

Lien court : http://wp.me/p7ciWq-c2

  • Benoît Hamon deuxième

  • François Fillon troisième

  • François Hollande a beaucoup remonté

Le #polsondage a toujours une longueur d’avance. Suivez-le, et vous saurez ce que d’autres vous dévoileront seulement un ou deux mois plus tard…

Un grand merci pour tous vos votes !

Pour être informé des mises à jour des scores et des graphiques suivez :  ecopoliti sur twitter

EcopolitigravatarPresse : conditions pour une information en avance

s20170216

e20170216

 Les scores sont mis à jour au 16 février 2017 19h00

Le #Polsondage vous permet de vous exprimer véritablement : vous pouvez être négatif (ou positif) pour tous les candidats !

Attention : les scores tiennent davantage compte des réponses récentes. Donc :

répondez à intervalles réguliers , c’est-à-dire chaque semaine,

si vous voulez confirmer vos opinions -. ou en changer.

N’oubliez pas que d’autres que vous peuvent répondre pour soutenir l’une ou l’autre des personnalités du polsondage !

1) Les % opinions sont mis à jour en temps réel. 2) Les scores sont mis à jour à intervalles (date et heure indiquées). 3) Les explications sont en bas.

______________________________________________

______Jean-Luc Mélenchon______
Score au 16/02/2017 – 19h00 : 87.6


_________Benoît Hamon_______
Score au 16/02/2017 – 19h00 : 87.5

________François Fillon________
Score au 16/02/2017 : 83.7

________Henri Guaino________
Score au 16/02/2017 – 19h00 : 79.7

_______François Hollande_______
Score au 16/02/2017 – 19h00 : 71.9

_______Emmanuel Macron______
Score au 16/02/2017 – 19h00 : 66.8

_______Marine Le Pen________
Score au 16/02/2017 – 19h00 : 64.0

_______Philippe Poutou_______
Score au 16/02/2017 – 19h00 : 24.9

_____Michèle Alliot-Marie____
Score au 16/02/2017 – 19h00 : 24.7

____Nicolas Dupont-Aignan___
Score au 16/02/2017 – 19h00 : 23.2



Vous pouvez aussi vous exprimer plus complètement ici  (les graphiques sont en dessous) :

 

Explications

1. Méthode

1.1. Les personnalités sont classées par ordre de scores décroissants, c’est-à-dire le meilleur score en haut et le plus mauvais en bas.Toutefois, dès lors qu’une nouvelle personne est introduite dans le polsondage, elle figurera en haut afin de lui donner sa chance, tant que le nombre de votes restera insuffisant pour établir un score significatif.

1.2. Comment est calculé le score ?

Voici la formule :

Score = 100 + (% opinions positives – % opinions négatives) / (% opinions neutres + 1)

Cette formule permet de prendre en compte les opinions neutres qui, si elles sont importantes en proportion, atténuent l’effet de l’écart entre opinions positives et opinions négatives. On peut vérifier qu’en l’absence d’opinions neutres le score est égal à 100 + le solde des opinions positives – négatives, en pourcentages.

Elle implique que le score maximum possible est 200 et le minimum possible­ 0. Un score inférieur à 100 indique que les opinions négatives dominent. S’il est supérieur à 100, ce sont les opinions positives qui l’emportent.

Attention : à chaque mise à jour, le score est recalculé de la façon suivante : 0,75 x score précédent + 0,25 x score sur la période écoulée depuis le score précédent jusqu’à la mise à jour (en principe environ une semaine).

Ainsi :

les votes les plus récents comptent davantage que les votes plus anciens.

On remarquera que, en certains cas, bien que le solde des opinions puisse être négatif, le score final peut dépasser 100, dans la mesure où les opinions positives l’ont largement emporté sur les opinions négatives au cours de la semaine écoulée.

1.3. Peut-on tricher ?

Le système est conçu de manière que l’on ne puisse pas voter plusieurs fois dans un certain laps de temps. Mais au bout d’une semaine environ on peut revoter. Ce qui est normal, car on peut changer d’avis.

Malgré cela, on peut toujours tricher. Je pars du principe que les tricheurs sont équitablement répartis entre toutes les tendances d’opinions. Pour ma part, je ne vote pas (à ce sondage). Il peut se produire que je semble exprimer une opinion quelconque. Si vous le pensez, vous n’êtes absolument pas obligés de la suivre dans votre vote.

1.4. Objectif

Le but du #polsondage est évidemment de recueillir plein de réponses ; donc, vous pouvez communiquer le lien court du #polsondage (http://wp.me/p7ciWq-7) à vos amis, et même à vos ennemis aussi – il faut davantage craindre les indifférents que les ennemis, car l’indifférence est plus funeste encore.

2. En quoi ce sondage diffère-t-il des sondages habituels?

Note liminaire : par « candidat » entendre une personne faisant l’objet d’une demande d’appréciation, et, par « votant » entendre une personne donnant une appréciation sur un ou plusieurs candidats.

2.1. Il faut en premier lieu noter qu’il existe de multiples méthodes de sondage, et personne ne peut prétendre que l’une d’elle soit unique en son genre, ce qui vaut également pour le #polsondage.

2.2. L’approche d’ensemble, encore utilisée  dans la plupart des sondages usuels – même lorsque ces sondages se servent de l’Internet pour la collecte des informations – a été établie avant la diffusion du réseau Internet dans toutes les couches de la population. Au contraire, le #polsondage, d’emblée tire parti du potentiel cybernétique – c’est-à-dire de feed back (retour) et de convergence rapide – offert par les possibilités de communication et d’échanges des réseaux constitués grâce à l’Internet, réseaux sociaux en particulier.

2.3. Concernant la technique d’interrogation et d’extrapolation à partir des données recueillies, on se contentera ici d’une comparaison avec les sondages les plus habituels, basés sur la notion d’échantillon représentatif.

2.3.1. Un échantillon représentatif est constitué d’un ensemble de personnes – souvent : 1000 – choisies de manière a être sensées représenter l’ensemble de la population concernée. Par exemple pour un sondage visant à prédire le résultat d’une élection présidentielle, on choisira un ensemble de personnes censé représenter toutes les personnes qui prendront  part au vote lors de l’élection effective, c’est-à-dire qu’on choisira, par exemple, un échantillon de 1000 personnes pour représenter tout le corps électoral (en France, environ 44 millions de personnes).

Tout l’art du sondage consistera donc dans le choix judicieux de cet échantillon. On utilise comme critères de sélection : la catégorie socio-professionnelle, l’âge, le sexe, etc., ou, tout simplement, l’échantillon sera constitué des personnes ressortissant d’un ou plusieurs bureaux de vote pour lesquels, dans le passé, et pour poursuivre sur l’exemple d’une élection présidentielle, la somme des résultats s’est avérée être la même que les résultats de la nation toute entière. Ces exemples sont simples. Dans la réalité, on peut combiner un grand nombre de critères, les inclure dans le questionnaire, effectuer des « redressements » sur la base d’analyses de données plus complètes, etc. Quoi qu’il en soit, on voit bien que la fiabilité des sondages habituels repose sur une part d’appréciation – et d’ailleurs les sondeurs ne donnent généralement pas l’intégralité de la méthode qu’ils utilisent pour constituer leur échantillon, de la même façon qu’un grand chef cuisinier ne divulgue pas tous les détails de ses recettes, car il s’agit là de leurs fonds de commerce.

Mais, évidemment, reposant sur des extrapolations, la méthode de l’échantillon représentatif ne saurait être totalement fiable. Plus on est éloigné de l’échéance pour laquelle le résultat est à prévoir – par exemple pour une élection -, plus la part d’incertitude s’accroit. Parfois, même à peu de temps de l’élection, les prévisions élaborées sur la base des sondages par échantillons représentatifs peuvent s’avérer tout à fait erronées, comme ce fut le cas lors des dernières élections législatives au Royaume Uni, et sans doute parce que les échantillons étaient mal constitués.

2.3.2. La méthodologie du #polsondage ne repose pas sur la constitution d’un échantillon représentatif. Toute personne est admise à s’exprimer. Il existe bien sûr une contrainte : celle d’avoir la disposition d’un ordinateur ou d’un smartphone pour se connecter à Internet. Est-ce une grande contrainte ? Non.

2.3.3. Le #polsondage est en continu, et tout le champ est laissé pour que le nombre des réponses puisse largement dépasser le millier en l’espace de quelques heures.

2.3.4. Le calcul des scores repose sur le principe du lissage exponentiel, terme technique pour exprimer que l’on conserve l’information au fil des semaines, mais qu’elle perd progressivement de son importance en regard de l’information la plus récente. Ce principe donne une certaine inertie au résultat – sans lui retirer sa souplesse – et permet de mieux dégager la tendance de l’opinion générale et ses inflexions.

2.3.5. Les questions du #polsondage sont ouvertes, c’est-à-dire qu’elles ne s’excluent pas les unes les autres. Il n’y a pas d’obligation de choix. Chaque votant peut ainsi exprimer une faveur ou une défaveur pour tel ou tel candidat, sans que cela le prévienne de toute liberté d’expression pour un autre, qu’il soit ou non classé par les médias comme dans l’opposition vis-à-vis du premier. Ainsi, le votant n’est pas contraint par l’a priori d’une échelle de référence imposée, telle que le classement des candidats sur une échelle allant de l’extrême gauche à l’extrême droite*

*Note technique : ce que l’on appelle l’ordonnancement sous-jacent  des préférences pour satisfaire aux conditions du théorème de Arrow sur la cohérence dans l’agrégation des préférences.

2.3.6. Le #polsondage est un sondage en continu, ce qui, comme évoqué ci-dessus (§ 2.2.) lui confère une caractère cybernétique, terme  sans doute un peu obscur pour signifier que toute personne estimant que les résultats du sondage n’expriment pas sa volonté peut intervenir pour tenter de les modifier. Et son vote apparaît immédiatement dans les proportions d’opinions négatives/neutres/positives exprimées pour chaque candidat.

2.3.7. Enfin, le système de notation utilisé dans le questionnaire regroupant tous les candidats permet d’évaluer le degré de ferveur des votants pour tel ou tel candidat. Une forte proportion de 10 indique en effet que parmi les votants se trouve une forte proportion de personnes qui soutiennent effectivement – voir activement – tel ou tel candidat. Évidemment, à l’inverse ces votants auront immanquablement une tendance prononcée à attribuer la note zéro aux candidats qu’ils considèrent comme une menace pour leur favori.

 ecopoliti sur twitter

Ecopolitigravatar

Attention : pour ne  pas atteindre à la neutralité de ce sondage,  les commentaires qui expriment votre faveur ou défaveur pour l’une ou l’autre des personnalités ne seront pas publiés

Polsondage : renouvellement

Le #polsondage est ici : https://ecopoliti.wordpress.com/2016/12/13/polsondage-20161213/

 

 

Les Pataéconomistes

Lien court : http://wp.me/p7ciWq-9b

« La pataphysique, dont l’étymologie doit s’écrire ἐπὶ (μετὰ τὰ ϕυσικά) et l’orthographe réelle ‘pataphysique, précédé d’un apostrophe, afin d’éviter un facile calembour, est la science de ce qui se surajoute à la métaphysique, soit en elle-même, soit hors d’elle-même, s’étendant aussi loin au-delà de celle-ci que celle-ci au-delà de la physique. Exemple : l’épiphénomène étant souvent l’accident, la pataphysique sera surtout la science du particulier, quoiqu’on dise qu’il n’y a de science que du général. Elle étudiera les lois qui régissent les exceptions… Définition : la pataphysique est la science des solutions imaginaires, qui accorde symboliquement aux linéaments les propriétés des objets décrits par leur virtualité. » (Alfred Jarry).

On est sidéré à écouter une certaine radio, BFM, vous donner des cours d’économie, et vous infliger des diatribes d’experts autoproclamés, en matinée, presque chaque jour.

J’entendis ainsi ce matin un de ces ratiocineurs imbu et sûr de son fait, Jean-Marc Daniel, raconter que la référence en économie était David Ricardo*. C’était en point final d’un speech où il prétendait avoir fait l’imparable démonstration que l’économie est une science exacte au même titre que la physique, démonstration à l’appui de laquelle il citait Jean Tirole, parmi d’autres prix Nobel d’économie. Dans la vision de Jean-Marc Daniel, les économistes dignes de ce nom sont des physiciens. Les autres – ceux qui contestent la théorie de l’équilibre général et, entre autres, les thèses de Friedrich von Hayek**,  voir même ceux qui contestent les thèses marxistes, car finalement elles se basent aussi sur l’axiomatique libérale (voir à ce sujet « Le Miroir de la production – Jean Baudrillard) – les autres ne seraient que des sortes de charlatans  auxquels il vaudrait mieux interdire l’usage du titre d’économiste – applaudissements dans le studio de BFM – selon la suggestion de Patrick Artus, encore un économiste issu de l’école Polytechnique et habitué lui aussi des plateaux médiatiques.

Jean Tirole est-il un physicien ? Il est permis d’en douter. C’est, comme on dit dans le jargon, un X-Ponts, ayant en outre obtenu un doctorat de 3ème cycle en mathématiques. Mais a-t-il jamais été physicien, s’adonnant à des recherches et des mesures du domaine de la physique ? Bien sûr, on pourra toujours dire qu’un polytechnicien est versé dans la physique. J’ai connu Edmond Malinvaud, professeur d’économie à l’école Polytechnique, ancien élève de cette école (un de plus). C’était un excellent mathématicien. Mais, je crois qu’il avait beaucoup d’humilité sur la capacité de l’économiste à prévoir, donc sur sa capacité scientifique. Je lui transmis les cahiers de Kenneth Iverson décrivant les principales fonctions d’APL. Il me les rendit au bout d’une semaine en disant: « Je suis désolé, mais je n’ai pas été formé à cette notation et je ne vais pas m’y mettre maintenant…» Je ne pense pas qu’aujourd’hui beaucoup de mathématiciens sortis de l’école Polytechnique me feraient une réponse différente (sur APL ou J). A l’ère de l’ordinateur, ils en sont restés aux maths de taupins et à l’algèbre linéaire. Peut-on comprendre quoi que ce soit à l’économie si l’on considère que ses lois peuvent être décrites par l’algèbre linéaire ? Voir John Maynard Keynes à ce sujet.

Ce qui est le plus navrant dans le discours de ces économistes, autoproclamés seuls détenteurs de la vérité en économie, est leur tendance au sectarisme***. Il faudrait donc, selon Patrick Artus, interdire le titre d’économiste aux autres, ceux qui ne pataugent pas à l’aide d’équations prétentieuses dans les certitudes libérales Haeykiennes et Ricardiennes.

A supposer même que ces autres économistes, « non orthodoxes » (pour utiliser la fallacieuse expression des néo-libéraux) soient des charlatans, serait-ce une raison suffisante pour leur interdire d’exercer ? Que craignent donc les orthodoxes ? Que l’on mette en doute leur vérité ? Le doute n’est-il pourtant pas le fondement de toute démarche scientifique ? Je sais, on a tendance à remplacer le mot « doute » par «questionnement». Un truc de psy. Kepler s’adonnait à l’astrologie tout autant qu’à l’astronomie – afin, disait-il, d’assurer sa subsistance. Aucun physicien ne demandera que l’on interdise de dire que le soleil tourne autour de la terre.

Patrick Artus est-il un bon économiste ? Je ne vais pas lui retirer le titre d’économiste; ce serait dramatique pour lui qui en a fait toute sa carrière. Mais, considérant son track record en matière de prévision, je ne pense pas que l’on puisse lui accorder le titre de « bon » économiste.

A ce point, j’en viens nécessairement à la définition de la science. S’agit-il d’une théorie mathématique ? D’une théorie mise en forme par tout un appareillage mathématique ? Pas même. Les mathématiques ne créent pas la vérité scientifique, elles ne sont qu’un moyen de décrire le réel et d’en explorer certains aspects, notamment ceux qui ne sont pas des évidences sensorielles. Mais cela ne suffit pas pour établir une science.

« La science n’est rien d’autre que la connaissance qu’on a de quelque chose » (Émile Littré).
« Toutes les sciences qui sont soumises à l’expérience et au raisonnement doivent être augmentées pour être parfaites » (Blaise Pascal).

Il y a trois éléments constitutifs d’une science : l’observation, le raisonnement et l’expérience. L’expérience est la clé, car c’est elle qui permet de valider les déductions (et les inductions) issues de l’observation et du raisonnement. L’appareillage mathématique est-il indispensable ? Pas forcément. En tout cas il n’est pas l’élément déterminant, loin s’en faut. En économie, on pourrait dire que l’expérience a lieu par la confrontation des prévisions avec la réalité. Autant dire que la science économique est encore bien faible – en physique et dans les sciences de la nature, une théorie se vérifie par une expérience qui confirme une prédiction, et quand elle ne la confirme pas, il faut nécessairement amender la théorie, voir la refondre.

Alors, à ce stade, les bavardeurs de BFM, finalement, ce sont eux les charlatans. Je leur accorde néanmoins le titre de pataéconomistes, adeptes de la science des solutions imaginaires.


Notes
*On comprend, bien sûr, pourquoi David Ricardo peut constituer la référence pour les pataéconomistes – qui prennent généralement les dénominations de « libéraux », ou « d’orthodoxes », encore que l’on pourrait aussi classer parmi eux les marxistes, tant il est vrai que Ricardo servait également de référence à Karl Marx. En effet:
« Ricardo nous offre cette suprême réussite intellectuelle, inaccessible a un esprit moins puissant, qui consiste à se placer dans un monde hypothétique éloigné du monde réel, comme s’il était dans le monde réel, et y vivre sans contradiction. La plupart de ses successeurs n’ont pu empêcher leur bon sens de parler, ce qui nuit à la cohérence logique de leurs doctrines » (in John Maynard Keynes – Théorie générale de l’emploi, de l’intérêt et de la monnaie – Traduction de Jean de Largentaye. Editions Payot  1969, page 202
On peut au reste rapprocher cette citation de celle du mathématicien, fondateur de la théorie de l’équilibre général, autre prix Nobel d’économie (avec Kenneth J Arrow), Gérard Debreu, qui en 1990 déclarait :
« Being denied a sufficiently secure experimental base, economic theory has to adhere to the rules of logical discourse and must renounce the facility of internal inconsistency ». Source: The Mathematization of Economic Theory, by Gerard Debreu, Presidential address delivered at the one hundred third meeting of the American Economic Association, December 29, 1990, Washington, DC. From the American Economic Review March 1991, Vol.81 No.1, p.1-7.
**Friedrich von Hayek n’était pas un physicien, mais un juriste, comme Jeremy Bentham d’ailleurs et comme la plupart de ceux qui ont établi les postulats simplistes servant d’axiomatique sur laquelle certains mathématiciens élaborent leur construction ésotérique de l’économie, fort éloignée d’une appréhension du réel.
***Autres pataéconomistes, Pierre Cahuc et André Zylberberg, auteurs du pamphlet « Le Négationnisme économique », donnent évidemment dans ce sectarisme en voulant exclure de la confrérie des économistes  ceux, par exemple, qui ne partagent pas leur thèse selon laquelle il n’est pas démontré que les 35 heures ont créé des emplois. Il me semble pourtant que le taux de chômage s’est significativement réduit après l’adoption de cette loi et qu’à l’inverse son détricotage l’a fait rapidement augmenter (voir graphique en suivant le iien) Pures coïncidences diront-ils. Pas davantage que les sortes d’évidences qu’ils présentent comme les résultats de leur ersatz de méthode expérimentale appliquée à l’économie. Pauvre Claude Bernard.

Le 8 (modifié le 13) septembre 2016


ANNEXE : LISTE NON EXHAUSTIVE DES PATAECONOMISTES FRANCAIS

NB : des ajouts peuvent être proposés

Florin Aftalion
Patrick Artus
Jean-Paul Betbeze
Pierre Cahuc
Jean-Marc Daniel
Charles Gave
Roger Guesnerie
Jean Tirole
André Zylberberg

Understanding Economics over Millenniums: some concepts

Short link: http://wp.me/p7ciWq-7L

Most of us have been taught the history of economic progress with stories such as the consequences of the steam engine, or the formidable impact of railways. I remember of a teacher who used to explain the entire industrial revolution with the power loom. According to this Professor, the power loom generated needs for wool – hence sheep, hence the enclosures in Britain –, energy – hence, coal mining –, machines – hence iron and steel. Another fairy tale, still fashionable today, is the à la Colin Clark theory of the three economic sectors: primary, secondary and tertiary. According to this theory, economic development consists into the transition of labour from primary to secondary and then tertiary activities, a typical theory from an Australian economist who might have believed that economics started with British farmers and industrialists, and that the obvious scarcity of skilled labour in his country was a sign that the fate of economic progress entirely relied upon the development of the so called service sector. This was making a confusion between activities as seen when being exchanged in the market place, and real activities. Indeed the Australian natives had from their very beginning the allocation of work between the three sectors, and it would be hard to say what the proportion of hours devoted to each of them was. Simply consider the job of a hunter who had to make his weapons, shoot and carry his pray and, perhaps most important of all, paint a hunting scene on the wall of his cave. The confusion is made by 20th century economists, because they consider economic activities only when they appear as transactions in the market place, and when they are exchanged through an official pricing system. By official, I mean controlled by a political authority, i.e. a sovereign body whose legitimacy in validating the transactions relies in part on coercive power. But the market is not at all restricted to this. And economics is not even restricted to market economics. In actual fact, if one considers economics over centuries and millenniums, most transactions and prices are hidden.

In this paper, I will stand for two positions.

i. the so called secondary sector is the only sector we have to track in order to understand and foresee the direction of economic change,

ii. the development of this segment of the economy proceeds in steps related to the commonly used system for time measurement in society.

i. Economic progress is in fact machinery, automatism, replacing human labour, be it labour of the farmer or clerical work. The theory that the growth of the tertiary, i.e. the service sector, had finally to be faster than that of the secondary (i.e. broadly speaking, the extracting, manufacturing and construction industries), is based on false beginnings. This theory didn’t see that the faster growth of the service sector throughout most of the 20th century was not merely resulting from changes in activities, but mostly due to the statistical incidence of large amounts of the labour force entering the market place. A twofold incidence. a) The servant in the 19th century was not accounted for in the overall statistics of economics activities – as Xenophon in « The Oeconomicus » did not take slaves into account in Socrates description of the economic sphere, because slaves were not citizens in the ancient Greece –. When the 19th century servant became a wage earner in a factory, some suddenly saw this segment growing, but not the tertiary decreasing (some economists tell you that all growth in the secondary sector is at the expense of the primary sector, even if the person concerned was in fact previously employed as a servant, whether at the farm or at a merchant shop). Now, this wage earner – or his descendant – leaves his job in the manufacturing industry and goes to the tertiary, as a hairdresser, waiter, taxi driver, or even, as an accountant or teacher, to what was originally the first job. Most see then an increase in the tertiary. They do not understand the very nature of the process. Indeed, the so called secondary sector impacted not only on farming, but on all economic activities. b) The specific way for the manufacturing sector to expand is not by division and specialisation of labour – which was already achieved to a high degree in the very ancient societies –, but by the shortening – remember the word, shortening, I will return to it later in this paper when dealing with position ii) – of the Karl Marx cycle, which I rewrite as labour-goods-labour-goods, omitting money, to make obvious that the underlying cycle in activities implies that both goods and labour have to go to the market place, and be there transformed for a while into money. Hence, the simultaneous development of the secondary sector and of the market economy not only distracted labour from all other activities, but also forced them to increasingly be evaluated through the official market pricing system, a second source of confusion for economists.

In truth, concepts are essential in the understanding of any science. Confusion can only result when science sleeps with politics, and this is too frequently the case with economics. Why ? Simply because economics, rather than being the pure science of efficiency in the applied human work, pretends to be also concerned with groups of individuals with conflicting interests. Here, to avoid any confusion, I start from the very basic definition of economic progress as an improvement in the efficiency of the human individual work targeting the satisfaction of his needs. No group behavioural or political theory is required to understand that the stick used by the Kohler monkey improved its efficiency in collecting food. What scientifically matters is not whether the idea of using a stick was purely fortuitous, resulted from intelligence, imitation of others or a trial-error process. What matters, here, is the efficiency of the stick. This can be measured in a purely scientific way: length, form, weight, etc… in relation to the objective.

How do we achieve this improvement in the efficiency of the human individual work ? This is achieved through the medium of tools and, further, by the replacement of human action by machines, a whole concept that is understood under the commonly used expression machinery and equipment – which I will designate in this paper under the generic term machines. And this concept is a valid one when considering any kind of action, be it physical or intellectual. Machines can replace people on the farm, as well as in workshops, offices, and even in the house – would you say that the house wife worked in the tertiary sector when she was staying at home, cleaning, preparing the food and educating the children ? If not, then don’t tell us that she is working in the service industry when she serves food in a restaurant and uses the money she earns to buy dish washers and all that sort of things to help her in her home work.

ii. Now, what makes the efficiency of the machine ? This is, fundamentally, the number of human actions it can replace per unit of time. Hence, the faster a machine acts (some would say run), the more it provides to the human, and the greater the improvement in the power of his work. This is something quite different from what most call labour productivity which is the concept of the employer, only seeing the size of the output per unit of time of an employee work, and not considering whether this size results from machine intervention or work intensity. My principal statement in this paper is that there is for a definite period of time an absolute limitation in the speed (i.e. number of actions per unit of time) of the machine. This limit is fixed by the degree of accuracy achieved in time measurement, i.e. the signal frequency of the commonly used clock.

There are stages in economic development. Each of these stages coincides with a state of the art achieved in the measurement of time. By state of the art, I mean the clocking system that is widely used and recognised as a common referential by humans, not only to display time as a chronology – this is today achieved with a watch for example –, but also to drive the automated sequence of a machine, i.e. the repetition of units of action by the machine.
By stages in economic development, I mean a) that the level reached in knowledge and arts lead to qualitative changes at certain intervals in history in the way this measurement of time is commonly operated, and, b) that, after a qualitative change has been operated, the new level of achievement is maintained during a certain period of time – as it requires an adaptation of the entire system of work and communication in society. The idea of a continuous gain in the accuracy of time measurement is purely theoretical. However, it permits to embrace the total potential of improvement in human work efficiency resulting from the use of machines. This is what mathematicians would call a continuous function corresponding to an extreme reduction of the repetitive intervals of time, such as the exponential function being the limit in compound interests. This also defines the theoretical ultimate target of investment (as a means to improve work efficiency), i.e.: an extreme shortening of the above mentioned Karl Marx cycle labour-goods-labour-goods. And the theoretical approach is always appropriate in evaluating business potentials. But the reality is that of human groups and societies with their rigidities, and a portion of irrational faith required to make humans accept the building of machines that may well last longer than their own lives. Therefore, in the real world, improvements in the accuracy of time measurement are not achieved in a continuous manner, but rather, step by step. And this is what makes history, including the history of economic development.

To be less abstract, I will shortly describe the economic stages that have been experienced in relation to the accuracy achieved in time measurement: a) measurement of time with outdoors signals, such as those given by the position of the sun during the day and of stars or planets during night time, b) measurement of time with indoors signals relying on mechanisms such as the hourglass, the water clock, further then, the mechanical clock, and, more recently the quartz crystal driven clock. In this short paper I cannot extend at length on the relationship between these various measurements and the corresponding states of the art achieved in automated machines utilised to replace human work. It is however easy to see the long walking, from the first Egyptian irrigation systems relying at their very beginning on outdoors reference marks for time measurement, with only a few signals per annum, to the efficiency of today’s computer driven automates relying on millions of quartz signals per second – hence enabling millions of repetitive operations per second.

Economists have not taken into account the notion of relativity in time in their thinking. But physicists know from Einstein theory, that time and space are part of the same set of dimensions, i.e. when moving in space, you also move in time. As some physicists put it: the Past and the Future, as much as the Present, are somewhere out there in space. We already foresee the gigantic step forward that molecular chemistry will accomplish in the near future following the huge progress made in the accuracy of time measurement. We will possibly see this revolution in economic thinking in the coming decades. We will understand that the acceleration of economic action has tremendously increased the number of economic events per unit of time and space. Economic forecasting methodologies will hopefully understand the fundamental link between historical and repetitive time, and finally reach the status of a science, i.e. the true ability to predict, because it will be able to distinguish between the time of uncertainty, i.e. the time of history and politics, and the time of certainty, that is time as a an indefinitely repeated sequence, as foreseeable and safe as the beat of the grandpa clock.

15th December 1999.
Copyright © 2000

For reproduction : please contact us.

Relationship between Stocks and Unemployment

Short link: http://wp.me/p7ciWq-1H

This paper is an ongoing research into the relationship between the level of unemployment and the level of stocks, in other words, between the unemployment rate and the stock index. It may be modified over time with the findings.

I’m beginning with a focus on data available concerning France.

France is an interesting case, as this country is experiencing some degree of deregulation in labour laws and habits, from less to more liberalism. One of the consequence is to increase the unemployment, since terminating labour contracts is facilitated by a more accommodative regulation. On the other side – the side of stock markets – the huge influx of liquidities generated by the requirement to rescue a depressed economy resulting from a shift towards more restrictive budgetary policies – a consequence of the worldwide spread of the liberal argument that a better functioning of the economy requires reducing the size of state intervention – results in stimulating stocks, hence reducing dividends to prices ratios, hence inciting companies to cut labour costs.

However, the preliminary findings show an inverted relationship, with a lag of about one year (12 months), i.e. the unemployement rate falls about a year after a stock market rise.

Data

Country : France
Data sources : DARES (unemployment)
INSEE (activity and population)
Working days calendar
Data are monthly
Period covered : January 1996 to September 2015

Variables

RFE : Unemployment rate (%)
CAC40 : France Stock Market Index
jo : working days in France (around 21)
DATEMONTH : time index in form YYYY.(M/12)

Analysis

Multiple Regression – LOG(RFE)
Dependent variable: LOG(RFE)
Independent variables:
LOG(LAG(jo,1))
LOG(LAG(CAC40,15))
LOG(DATEMONTH)

Standard T
Parameter                          Estimate       Error           Statistic      P-Value
CONSTANT                      -82.4664      21.3816       -3.85689    0.0002
LOG(LAG(CAC40,15))   -0.354393       0.02704 -13.1062       0.0000
LOG(DATEMONTH)       11.4289           2.81522     4.05968    0.0001

Analysis of Variance
Source              Sum of Squares Df  Mean Square F-Ratio P-Value
Model              1.90852                2   0.954258          89.11    0.0000
Residual           2.23826               209                       0.0107094
Total (Corr.) 4.14677 211

R-squared = 46.0241 percent
R-squared (adjusted for d.f.) = 45.5076 percent
Standard Error of Est. = 0.103486
Mean absolute error = 0.0817462
Durbin-Watson statistic = 0.121789 (P=0.0000)
Lag 1 residual autocorrelation = 0.919605

Stepwise regression
Method: forward selection
P-to-enter: 0.05
P-to-remove: 0.05

Step 0:
0 variables in the model. 211 d.f. for error.
R-squared = 0.00% Adjusted R-squared = 0.00% MSE = 0.0196529

Step 1:
Adding variable LOG(LAG(CAC40,15)) with P-to-enter =0
1 variables in the model. 210 d.f. for error.
R-squared = 41.77% Adjusted R-squared = 41.49% MSE = 0.0114988

Step 2:
Adding variable LOG(DATEMONTH) with P-to-enter =0.0000696167
2 variables in the model. 209 d.f. for error.
R-squared = 46.02% Adjusted R-squared = 45.51% MSE = 0.0107094

Final model selected.

Output

The output shows the results of fitting a multiple linear regression model to describe the relationship between LOG(RFE) and 3 independent variables. The equation of the fitted model is

LOG(RFE) = -82.4664 – 0.354393*LOG(LAG(CAC40,15)) + 11.4289*LOG(DATEMONTH)

Since the P-value in the ANOVA table is less than 0.05, there is a statistically significant relationship between the variables at the 95.0% confidence level.

The R-Squared statistic indicates that the model as fitted explains 46.0241% of the variability in LOG(RFE).

The adjusted R-squared statistic is 45.5076%. The standard error of the estimate shows the standard deviation of the residuals to be 0.103486.

The mean absolute error (MAE) of 0.0817462 is the average value of the residuals.

The Durbin-Watson (DW) statistic tests the residuals to determine if there is any significant correlation based on the order in which they occur in the data. Since the P-value is less than 0.05, there is an indication of possible serial correlation at the 95.0% confidence level.

The highest P-value on the independent variables is 0.0001, belonging to LOG(DATEMONTH). Since the P-value is less than 0.05, that term is statistically significant at the 95.0% confidence level.

Charts

Crosscorrelation RFE with CAC 20151115

LOG(RFE) 20150915Residal plot on predicted LOG(RFE) 20151115

Le Désastre du chômage des jeunes

Lien court : http://wp.me/p7ciWq-w

La dérégulation du droit du travail et les « incitations » – fiscales notamment – à l’embauche créent un effet d’aubaine et incitent à licencier plutôt qu’à embaucher. Leur premier effet est non pas de réduire, mais d’accroître le chômage.

chômage-to-201507

Le désastre du chômage des jeunes

Les graphiques qui suivent sont parlants.  Le taux de chômage des moins de 25 ans est particulièrement élevé : en septembre 2015, il atteignait 22,2% pour les femmes et 21,4% pour les hommes, des chiffres toujours en hausse, et qui vont continuer de monter dans les mois qui viennent.

Taux-de-chômage-to-201507

Explications
Ce graphique représente sous forme de boîtes (appelées « boîtes à moustaches ») les taux de chômage (catégorie A) selon les tranches d’âge et le sexe, sur la période allant de janvier 1996 à septembre 2015.
Pour chaque catégorie (combinant la tranche d’âge et le sexe), le rectangle central va du quartile inférieur au quartile supérieur, c’est-à-dire inclut 75% des taux de chômage observés pour la catégorie. La ligne centrale correspond à la médiane, c’est à dire la ligne séparant en deux moitiés les taux de chômage effectifs sur toute la période donnée.
Les lignes supérieures et inférieures (« les moustaches ») vont du maximum au minimum pour la catégorie concernée. Plus la distance est grande entre ces extrêmes plus le nombre de chômeurs montre de variation – ce que l’on pourrait considérer comme un indice de précarité.
Le signe « + » indique la position de la moyenne de la catégorie.
Les sources pour les données sont la DARES (statistiques de Pôle Emploi, catégorie A) et l’INSEE (population active par sexes et tranches d’âge).

Le graphique qui suit donne les détails des taux de chômage estimés, pour chaque âge, de 16 ans à 65 ans

Taux-de-chômage--en-France-

Explications
En utilisant les boîtes (voir ci-dessus) ce graphique représente des estimations des taux de chômage (catégorie A) pour chaque année d’âge (ensemble femmes et hommes), pour la France et sur la période allant de janvier 1996 à septembre 2015.

Il s’agit d’estimations. En effet, ne disposant pas des chiffres de la population dite active (c’est-dire ayant un emploi, ou en recherchant un) pour chaque année d’âge, j’ai utilisé les effectifs de chaque tranche d’age comme diviseur. Il va de soi que les taux de chômage réels sont nécessairement supérieurs à ceux présentés par le graphique, car toutes les personnes de l’âge donné ne sont pas nécessairement désireuses d’être employées.

Le chômage des jeunes monte continuellement depuis 2008

Après un court répit dans les six premiers mois de 2012, le chômage des jeunes  a repris son ascension. Vraisemblablement, comme il était noté ci-dessus, l’effet d’aubaine des mesures prises par le gouvernement à partir de la fin 2012 en est la cause principale

A un horizon de deux mois, aucune amélioration n’est en vue. Tout au plus peut-on envisager des fluctuations de court terme, en hausse et en baisse – cette dernière donnera lieu à l’expression médiatique de satisfécits  sans que pour autant la tendance à la progression s’infléchisse durablement.

… évolution pour les femmes de moins de 25 ans

Chômage femmes inf 25

… et pour les hommes de moins de 25 ans

Chômage hommes inf 25B

… à suivre

Nicolas Sarkozy sur le fil

L’affaire Bygmalion a sans nul doute stimulé l’activité générée par le mot « Sarkozy » sur tweeter, mais peut-être a-t-elle aussi imperceptiblement fait basculer le rapport de forces à la défaveur des supporters de l’ancien président de la république, qui dominaient jusqu’ici.

La presse – quelles que soient ses orientations – le Figaro étant singulièrement absent du débat – a fait ses choux gras d’une comptabilité monstrueuse que l’on avait voulu faire passer pour simplement débonnaire.

Les tweetos (ceux qui tweetent) se sont avidement emparés des chiffres qu’on leur jetait en pâture – ou plutôt que l’on distillait au fil des jours pour les tenir en haleine – et allégrement lancés dans le débat, essentiellement à grands renforts de retweets, qui leur ont permis de privilégier certains arguments auxquels ils semblaient plus sensibles, ainsi, la dépense pour le WC de campagne. Il n’y a pas de grand homme pour son valet de chambre.

De plus, les ténors du parti UMP, parfois même réputés comme très proches de l’ancien président de la république y sont aussi allés de leurs touches personnelles généralement négatives. En ce domaine, Xavier Bertrand s’est taillé la part du lion avec son assertion sur la politique passée, assertion qui a littéralement fait un buzz, et propulsé son auteur aux avant postes de la polémique qui secoue l’UMP, éclipsant sur tweeter la petite phrase assassine « couper les branches mortes » du professeur Debré qui pourtant faisait florès dans les médias.

Les tweets des supporters de Nicolas Sarkozy ont été rapidement submergés par l’artillerie lourde des médias, et la quasi volte face de certains de ceux que l’on considérait comme faisant partie de son indéfectible garde rapprochée. A l’UMP on préparait la succession au trône sans même se soucier de le préserver. De son côté, l’ancien président de la république ne proposait qu’une seule ligne de défense, devenue obsolète en la circonstance : la critique du bilan (provisoire) de son successeur.
ASsarkozy140623

En ordre dispersé mais avec une certaine vaillance, les tweetos presque désespérément voulaient encore croire au rassemblement. Mais le débat apparaissait comme définitivement pollué par la nouvelle affaire, les factures, et cet imbroglio de la politique avec l’argent et la finance, même si au fond, ce climat malsain n’était pas spécifique à un credo politique plutôt qu’à l’autre.