mercredi 9 décembre 2009

La banqueroute grecque au secours de la France

On s'interroge gravement, dans Le Monde et ailleurs, sur les effets de la dégradation de la note de la dette publique grecque par les agences de notation.

De cette notation, on ne peut pas dire grand chose, puisqu'elle consiste à appliquer des méthodes d'évaluation opaques à des comptes publics plus opaques encore, qui feraient passer ceux d'Enron pour un modèle de rigueur et de probité. Souvenons nous par exemple qu'il y a 3 ans, les Grecs ont décidé de devenir plus riches de 25% du jour au lendemain par la grâce d'un artifice comptable : intégrer une estimation de l'économie souterraine à leur PIB. Cette seule anecdote en dit long sur la valeur des comptes publics grecs. Comme Enron, il ne reste plus que la vérité du cash flow pour juger en ces circonstances : tant que l'Etat grec est à flot, c'est donc que tout va bien. Pour le reste, on ne sait pas tout simplement pas. Même si certains parviennent à se faire grassement rémunérer leur ignorance.

Ce qui est, par contre, sûr c'est que Le Monde a tort de verser, comme à son habitude, dans le registre tragique du déficit-qui-va-tous-nous-emporter-surtout-si-on-doit-payer-en-plus-pour-les-Grecs. Pour l'instant, tout cela est favorable à l'État français et à son endettement.

Pourquoi ? La raison est simple : il y a des liquidités en abondance sur les marchés financiers. Même si la peur n'est plus ce qu'elle était, la fuite vers la qualité n'a pas cessé : les investisseurs veulent du sûr. Et le sûr, cela reste la dette publique des États sérieux. Or la France est un État sérieux. C'est ainsi que le cours des obligations de l'État français a baissé nettement à l'automne dernier à mesure que les acteurs financiers vendaient des titres peu surs (privés) pour acheter des dettes publiques sûres, dont la française.


Le même mécanisme a lieu actuellement : plus la dette de la Grèce apparaît risquée (ainsi que celle de quelques autres pays), plus l'on s'en détourne, plus les investisseurs se dirigent vers ce qu'il y a de plus sûr : la dette d'États comme la France.

Les taux d'intérêt sur les obligations de l'Etat grec sont donc négativement corrélés avec ceux de la dette de l'Etat français.

Chose plus étonnante encore, la crise de confiance actuelle ne profite pas davantage à l'Allemagne qu'à la France. Généralement, dans ce genre de circonstances, l'Etat allemand est le grand gagnant : rien ne semble plus sûr que lui. Si on achète plus de dette française, on achète encore plus de l'allemande, et l'écart entre les deux taux d'intérêt grandit, l'un baissant plus que l'autre. C'est d'ailleurs ce qui s'est passé à partir de septembre de l'année dernière, jusqu'en janvier. Ici, rien de tel, les spreads ont même tendance à se réduire.


Les marchés financiers sont donc certains d'une chose : la France ne ferra pas faillite. Ce qui est une excellente nouvelle : nous allons pouvoir continuer à financer notre dette pour pas cher. Soyons optimiste : peut être même que cela permettra de convaincre que la France n'est pas près de faire faillite. Si les marchés financiers sont prêts à lui prêter pour le taux d'intérêt le plus faible depuis des décennies, c'est qu'ils doivent savoir ce qu'ils font - non ?


Lire la suite

mercredi 11 novembre 2009

La microéconomie élémentaire du tabac

En 1975, la France atteint son sommet historique dans la consommation de tabac : 7 grammes par adulte et par jour, soit plus d'un demi paquet de cigarettes. Une grande majorité des hommes fument, et ils fument partout et tout le temps.

Depuis, la consommation a baissé de 60% -essentiellement chez les hommes.
A quoi cela est-il dû ? Avant tout à la microéconomie élémentaire du tabac : plus son prix s'élève, moins forte est sa consommation (et réciproquement) -du moins à partir de la hausse du prix décidée par les pouvoirs publics au début des années 1990. Le tabac provoquant une des dépendances les plus fortes parmi toutes les drogues (seule l'héroïne en crée une significativement plus élevée), on peut même s'étonner de l'existence de la relation. Mais la microéconomie vaut même pour les junkies.

La baisse de la consommation précède néanmoins l'augmentation du prix : entre 1975 et 1985, la consommation diminue faiblement (10%) sans que le prix relatif ne change, ce qui nous rappelle qu'il y a d'autres facteurs à l'œuvre. Toutefois, les hausses décidées par les pouvoirs publics à partir de la fin des années 1980 vont provoquer une baisse de la consommation, selon une relation linéaire, digne d'un schéma de microéconomie de 1ère année.


Au final, entre 1985 et 2008, une hausse de 200% du prix du tabac aura induit une diminution de moitié de la consommation. Ce qui est loin d'être négligeable pour une drogue à forte dépendance comme le tabac. Qui plus est, l'élasticité prix augmente : la hausse des prix a un effet aujourd'hui beaucoup plus fort qu'il y a 30 ans. En 2007, une hausse de 1% du prix provoquait même une baisse de la consommation de 2% !

Du moins, en apparence : car si l'on regarde en détail ce qui s'est passé depuis 2004, on voit se produire des choses étranges.

Entre 2003 et 2004, les pouvoirs publics ont décidé de l'augmentation la plus forte jamais réalisée du prix du tabac : 22%. Cette hausse a complètement transformé le lien entre prix et consommation les années suivantes. Entre 2004 et 2006, la consommation baisse, alors que le prix baisse lui aussi. Puis, entre 2006 et 2008, on voit réapparaître une relation linéaire entre prix et consommation, mais située plus bas que la précédente et avec une "pente" moins élevée : pour tout niveau de prix, la consommation est plus faible et toute augmentation du prix provoque une baisse plus importante de la consommation qu'avant 2004.

Que s'est-il passé ? La réponse est assez évidente : ces chiffres de consommation (dus à l'INSEE) sont faux. Cette baisse est une illusion statistique due, en partie, à l'usage de plus en plus généralisé de tabac importé illégalement en France. Selon une étude douteuse due à un producteur, 1 cigarette sur 4 serait maintenant achetée à l'étranger. Si l'élasticité prix est aussi élevée, c'est tout simplement parce qu'une hausse des prix provoque maintenant à la fois une baisse de la consommation mais surtout un accroissement des importations illégales.

Mais je suppose qu'il s'agit d'un autre enseignement de la microéconomie élémentaire : le coût du tabac est aujourd'hui si élevé que toute hausse rend plus rentable encore l'importation de cigarettes illégales, malgré des coûts de transaction prohibitifs1.



__________________________________________

1. Qui plus est, on a vu se créer un double marché de la nicotine : à côté du marché de la cigarette est apparu un nouveau marché, celui de la nicotine "pure" sous la forme de "nicorettes" et autres substituts. Leur efficacité comme aide à l'arrêt semble très relative : on assiste à des consommations durables de ce genre de produits, parallèlement parfois à la cigarette. A tel point que Reynolds envisage d'acheter un des leaders du secteur. C'est, de fait, un marché dont la croissance est inversement proportionnelle à celui des cigarettiers. Et on peut parier que la dernière hausse va le relancer.

Lire la suite

jeudi 5 novembre 2009

La chute du Mur de Berlin, en un graphique et un lien

Le graphique :



Le lien.
Lire la suite

mardi 20 octobre 2009

Pendant la crise, les bonus continuent

Alors que les économies occidentales traversent leur plus grave récession depuis 70 ans et que les États s'endettent à coup de milliards d'euro pour assurer la reprise, le secteur bancaire, qui est à l'origine de ce désastre, est redevenu en partie profitable.

Plus étonnant encore, les bonus que les banques versent à leurs salariés les mieux payés, travaillant généralement dans les activités à risque à l'origine de la crise, sont en passe de dépasser les niveaux pourtant records de 2007 : ils seront d'approximativement 140 milliard de dollars aux États-Unis.

La crise économique n'a donc rien changé à une tendance de fond : l'explosion des rémunérations dans le secteur financier, en partie grâce à ces bonus.

Une étude a montré que cette tendance était un produit de la libéralisation financière, et ne pouvait pas être entièrement expliquée par une modification des caractéristiques objectives des travailleurs dans le secteur financier, en particulier par l'augmentation de leur qualification relative. Une partie non négligeable (de 30 à 50%) de cette explosion correspond donc à une rente pure, que perçoivent ces salariés sur le reste de l'économie.

Mais les bonus cette année se produisent dans des conditions telles qu'ils en choquent jusqu'à The Economist : même les banques qui perdent de l'argent les payent. Le secteur bancaire américain est, en effet, loin d'être sorti de la crise : de nombreux acteurs majeurs du secteur sont toujours déficitaires. En particulier, 4 des 10 banques d'affaire de Wall Street ayant distribué les bonus les plus importants ne seront pas rentables cette année, dont notamment Citigroup et Bank of America.

Et c'est cela qui choque The Economist : alors que les actionnaires perdent de l'argent, les salariés les mieux payés perçoivent des bonus, censés récompenser leur performance. Autrement dit, quoiqu'il advienne, qu'il n'y ait ou non performance, les bonus sont là.

Tout se passe donc comme si le capitalisme marchait sur sa tête : les actionnaires perdent de l'argent, notamment parce que leur entreprise paye des bonus considérables à des salariés totalement non performants. Et c'est bien ce que The Economist trouve insupportable, posant la bonne question : pourquoi les actionnaires ne disent rien ?

Cette situation folle, où les actionnaires se dépouillent pour garantir le train de vie des traders, plaide en faveur des réponses "sociologiques" à cette question. Dans ce type d'explications, dont Olivier Godechot donne la version la plus sophistiquée, on assiste tout simplement à un "hold-up". Les traders s'approprient les actifs de leur banque (modèles mathématiques, équipes de collaborateurs, etc.) et sont capables de créer un rapport de force favorable en menaçant de la quitter avec ces actifs.

Cela nous rappelle que la question des inégalités économiques ne se posent plus exclusivement, voire même principalement, en termes de partage de la valeur ajoutée entre le capital et le travail, mais bien au sein même du travail. Ici, les inégalités économiques considérables qui se créent opposent en effet les salariés entre eux : les salariés à très hautes rémunérations et les autres, qui ne peuvent opérer ce genre de "hold up".

Cela nous ramène surtout à une évidence : rien de fondamental n'a été changé dans le monde des activités financières. Il faut en effet être naïf pour croire que l'on peut arrêter un "hold-up" avec des codes de bonnes conduites et autres proclamations solennelles. En économie, l'éthique n'existe que lorsqu'elle s'incarne dans des structures d'incitation, qui font ici toujours totalement défaut.


Lire la suite

mercredi 14 octobre 2009

Quelques réflexions sociologiques sur le "Prix Nobel" d'Economie

Le "Prix Nobel" d'économie est, cette année, un excellent cru. Il récompense l'école institutionnaliste qui fut dominante aux États-Unis avant guerre, et qui a retrouvé, à partir des années 1980, un dynamisme, notamment grâce aux travaux de Williamson. Les idées de Williamson, qui sont un développement de celles de Coase, sont du genre de celles qui sont tout à la fois simples, évidentes une fois que quelqu'un les a émises, mais qui permettent de mieux penser une part importante du réel.

Elles ont permis à l'économie d'ouvrir véritablement la "boite noire" de l'entreprise, en donnant une réponse à la question suivante : pourquoi y-a-t-il des entreprises si le marché est un lieu de coordination optimal ? La réponse est qu'avoir recours au marché est parfois plus coûteux que de produire au sein d'une organisation hiérarchique : c'est la conséquence des "coûts de transaction" qu'implique le recours à un contrat avec un autre acteur sur un marché. Ces coûts tiennent par exemple au risque que le contrat ne soit pas exécuté, ou qu'il le soit mal. Si on produit soi même, ces risques cessent d'exister. Mais alors apparaissent de nouveaux coûts, liés à la gestion de l'organisation hiérarchique. Au final, ni la firme, ni le marché ne sont, en soi, la solution optimale pour produire : cela dépend de ce qu'il y a à produire, et de la situation, puisque c'est ce qui déterminera ce qui est le moins coûteux. Le travail de Williamson a consisté à préciser à quoi tenaient les coûts de recours au marché, et donc dans quelles situations les entreprises préféreront produire en interne.

Mais, plutôt que de poursuivre, en développant les œuvres des lauréats, ce que d'autres ont déjà fait, j'aimerais développer quelques réflexions, de nature sociologique, sur ce que signifie gagner un prix Nobel. Le "cru" de cette année possède, en effet, on va le voir, une riche portée sociologique.

Les prix honorifiques ressortissent d'une forme particulière de rite de passage. Leur particularité sociologique est le nombre restreint de personne qui y accèdent : c'est cette rareté qui fondent leur valeur symbolique.

Contrairement à ce que l'on peut croire, le propre d'un rite honorifique, comme de tout rite de passage, n'est pas, essentiellement, de départager une "élite" de la masse d'une population : ici les "plus grands économistes" de l'ensemble, nombreux, des économistes. Bien entendu, un prix honorifique fait cela, et c'est ainsi que l'on y pense. Mais sociologiquement, il fait bien plus : il départage les membres d'un groupe qui peuvent, potentiellement, accéder à ce prix, même si il est très improbable qu'ils y parviennent, de ceux qui ne le pourront jamais, en aucune circonstance. En faisant cela, il donne une valeur symbolique supérieure, non seulement à ceux qui gagnent le prix, mais à tous ceux qui ne le gagneront jamais, mais qui pourraient en principe le faire. Il leur confère également, par ricochet, une "essence" sociale supérieure, puisque ce rite leur est potentiellement accessible. Au contraire, ce qui ne peuvent y accéder, sont, du simple fait que le prix existe, dévalorisés symboliquement. Un rite honorifique valorise donc non seulement les quelques individus qui y accèdent, mais l'ensemble du sous groupe auquel ces individus appartiennent, et dévalorise les individus des sous groupes auquel ils n'appartiennent pas.

Ici, le groupe de référence est celui des chercheurs scientifiques, et plus particulièrement de ceux qui travaillent sur les sociétés humaines et leur fonctionnement. Le Prix Nobel, au sein de ce groupe, fait un partage entre une sous population "les économistes", parce que tous ses membres peuvent potentiellement le gagner, et, d'autre part, tous les autres chercheurs en sciences sociales, qui ne le pourront jamais. Les uns sont des "vrais" scientifiques, puisque leur discipline fait partie de celles qui sont dotées d'un prix Nobel. Les autres ne sont pas tout à fait scientifiques, puisqu'ils ne peuvent pas gagner de Nobel.

C'est bien ainsi qu'il faut comprendre l'importance que revêt pour les économistes ce prix : il leur a permis de passer du bon côté, symboliquement valorisé, du rite de passage. On sait, bien sûr, que le "Prix Nobel" d'économie n'est pas un Prix Nobel, puisqu'il ne figure pas dans le testament fondateur d'Alfred Nobel et qu'il n'est pas décerné par l'Académie des sciences de Suède. Mais tout le monde l'oublie, pour le plus grand bonheur des économistes, qui n'aiment pas qu'on le leur rappelle, puisqu'il en va de leur valeur sociale. Au contraire, les sociologues vouent, collectivement, une vraie détestation à ce prix : le fait qu'ils ne puissent y accéder leur interdit toute valorisation symbolique : pire, cela les dévalorise, puisque cela souligne qu'ils ne sont pas vraiment des scientifiques -sinon ils auraient leur Nobel.

C'est là que se situe la portée sociologique du prix de cette année : pour la première fois, il a été attribué à une femme (autre groupe jusque là exclu du rite) et à une politologue. Cela suscite cette réflexion, qui est une forme de sociologie sauvage, à Steven Levitt. Commentant le fait que ce soit une politologue qui l'ait obtenu, il écrit :

So the short answer is that the economics profession is going to hate the prize going to Ostrom even more than Republicans hated the Peace prize going to Obama. Economists want this to be an economists’ prize (after all, economists are self-interested). This award demonstrates, in a way that no previous prize has, that the prize is moving toward a Nobel in Social Science, not a Nobel in economics.


La lauréate de cette année change, en effet, la portée sociologique du prix : un politologue l'a gagné, c'est donc que la science politique est tout autant que l'économie une science -et, par conséquent, cela signifie que l'économie n'a pas de valeur supérieure au sein des sciences sociales. Les choses sont bien sûr plus complexes : un lauréat ne suffit pas à changer la nature d'un rite de passage. Seul le peut une modification durable de la population qui y accède. Qui plus est, tout rite a une dimension normative : il contraint de satisfaire les réquisits imposés pour le passer. Ici, ce sont ceux de la science économique "mainstream", dont Ostrom est, en effet, très proche. Plutôt que d'introduire les autres sciences sociales dans le champs de la réflexion économique, ce Nobel peut donc au contraire "économiciser" ces sciences sociales, en y valorisant les postulats, les méthodes et les problématiques de l'économie.


Lire la suite

mardi 6 octobre 2009

La France va-t-elle faire faillite ?

Hier, en regardant dans ma boite aux lettres, et en y trouvant, pour la première fois, un exemplaire promotionnel de Valeurs Actuelles, je me suis dit que j'avais dû commettre une erreur grave dans ma vie, pour être ainsi inscrit dans le listing des clients potentiels de ce magazine.

Mais ma méditation sur mon existence fut brutalement interrompue par la lecture du titre de la couverture ("Déficits publics : l'explosion") et de cette affirmation :
L’alerte est claire : sans une politique drastique d’austérité budgétaire, il y a désormais un vrai risque de faillite de l’État.
Je me suis immédiatement rasséréné : depuis qu'on nous l'annonce, l'apocalypse ne s'est pas produite et je ne doute pas des motivations politiques inhérentes à ce genre de propos.

Mais, d'un autre côté, il est exact que la crise actuelle se traduit par une forte augmentation de la dette publique. Au cours des seuls deux premiers trimestres de 2009, la dette publique a augmenté de 6 points de PIB, atteignant 74%. Elle sera probablement de 77% à la fin de l'année, contre 67% un an plus tôt. Si l'on suit les dernières prévisions du FMI, la dette atteindra même 92,6% du PIB en 2014. Dans ces conditions, l'État français va-t-il faire faillite ?

La réponse est : il n'y a pas le moindre risque que cela se produise. Avec un peu de chance, cet accroissement de l'endettement se produira même sans douleur.

Un emprunteur fait faillite lorsqu'il n'est plus capable de faire face à ses engagements. Or, l'État a une propriété importante en tant qu'emprunteur, qui le différencie des emprunteurs privés : il peut se contenter de ne rembourser que les intérêts de sa dette et jamais le principal. Il est en effet éternel, et personne ne lui demande de rembourser à un moment donné la totalité de sa dette, de peur qu'il ne meure sans l'avoir payée. De fait, l'État français n'a pas remboursé le principal depuis plus de 30 ans. La vraie mesure de la capacité de l'État français à faire face à ses échéances est donc constituée par l'importance du paiements des intérêts en proportion de ses recettes : il y aura faillite le jour où l'État ne pourra plus financer ses dépenses, parce qu'une partie trop importante (mais difficile à déterminer précisément) de ses recettes passera dans le remboursement des intérêts échus.

On en était très loin à l'époque (2006-2008) du débat hystérique sur la dette publique. A cette période, la proportion du paiements des intérêts par rapport aux recettes des administrations publiques était même la plus faible depuis 20 ans : un peu plus de 5% en 2006. Ce qui représentait 2,6% du PIB.

L'État français était très loin de la faillite, puisqu'il n'utilisait que 5,3% de ses recettes à honorer ses créanciers, soit 2,6% du PIB du pays. Il est vrai que ces 2,6% de PIB n'étaient pas consacrés à construire des écoles ou des hôpitaux, mais l'on voit immédiatement le poids certes non négligeable mais au final limité que ces paiements faisaient peser sur l'action publique.

Mais qu'en sera-t-il en 2014, lorsque l'endettement représentera 92,6 % du PIB ? La réponse est que l'on ne peut savoir exactement, puisque cela sera fonction de l'évolution du taux d'intérêt auquel l'État se refinance, dont dépend le taux d'intérêt moyen qu'il paye sur sa dette. Le taux d'intérêt moyen sur la dette publique était en 2008 de 4,15 %. Depuis les taux d'intérêt sur les titres publics ont nettement baissé : ils sont même très inférieurs à 4% si l'Etat emprunte pour moins de 20 ans.

Il est donc raisonnable de faire l'hypothèse que l'État payera, en moyenne, environs 4% d'intérêt sur sa dette. Avec cette hypothèse, un calcul immédiat permet de constater qu'une augmentation de 25 points de PIB de la dette publique va se traduire par un accroissement de 1 point de PIB des paiements des intérêts de la dette (25 x 0.04).

Au final, l'État français ne rentrera pas dans les territoires inconnus qui précèdent la faillite : le paiements des intérêts ne sera, proportionnellement au PIB, que très légèrement supérieur à son sommet historique de l'après guerre : 3,7 % en 2014 contre 3,6% en 1996. A l'époque, cela représentait 7,1 % des recettes publiques : pas exactement la situation d'un emprunteur qui s'apprêtent à faire faillite, ni même un poids insupportable pour l'action publique.

La faillite paraît d'autant moins probable que, depuis 1996, les recettes publiques, proportionnellement au PIB, ont baissé.

Entre 2006 et 2008 seulement, les recettes publiques ont baissé de 1 point de PIB : très exactement ce qu'il faudra trouver en plus pour payer les intérêts en 2014.

Mais il faudrait que le gouvernement augmente les prélèvements obligatoires. Gordon Brown l'a fait au Royaume-Uni, en faisant passer la tranche supérieure de l'impôt sur le revenu de 40% à 50%. Obama s'apprête à le faire aux États-Unis. Pour la France, cette augmentation serait somme toute modérée : il suffirait de retrouver le niveau d'avant l'élection de N. Sarkozy. C'est dans ce sens que l'accroissement de l'endettement public peut se faire, avec un peu de chance, sans douleur : pour autant que N. Sarkozy revienne sur son bouclier fiscal, et pour autant que les taux d'intérêt n'augmentent pas.

Première fragilité du scénario : l'évolution des taux. Si ceux-ci augmentent, le paiements des intérêts peut devenir véritablement important. Si l'on fait l'hypothèse légèrement moins optimiste d'un taux moyen de 4,5% au lieu de 4%, le paiements des intérêts représentent une part nettement plus significative des recettes -même si on est toujours loin de la faillite.

Mais le vrai risque est ailleurs : si N. Sarkozy accroit les prélèvements obligatoires, il en sera fini de la loi TEPA, et de l'objectif fondamental de la majeure partie de la droite française : la baisse des impôts. Plus : cela constituerait une grave défaite politique pour Sarkozy qui a identifié son action à cette baisse. C'est pourtant très exactement ce que demande la logique économique, qui a toujours conduit à des hausses d'impôts après un accroissement de l'endettement dû à des circonstances exceptionnelles.

Il est donc à craindre qu'une toute autre voie ne soit choisie : la réduction des dépenses publiques, hors paiements des intérêts. En appelant à une "politique drastique d’austérité budgétaire", c'est très exactement ce que demande Valeurs actuelles, dont les lecteurs ne sont pas prêts d'accepter de se passer du bouclier fiscal, au moment même où on leur enlève les paradis fiscaux. En attendant, il ne me reste plus qu'à espérer que le magazine mène une "politique drastique d'austérité de son budget publicitaire" et me raye de ses listings.


Lire la suite

mercredi 30 septembre 2009

Les causes économiques de la défaite allemande

Un récent documentaire télévisé sur la Seconde Guerre mondiale a rencontré un vif succès populaire et critique.

Il me semble pourtant que, comme beaucoup de documentaires populaires, il a négligé la dimension économique du conflit, dont il a, par ailleurs, véhiculé une image fausse. Cette image implicite tient dans la figure d'Albert Speer, qui a dirigé le Ministère des armements et de la production de guerre à partir de 1942, et qui apparaît comme l'incarnation tout à la fois de la dévotion à Hitler et de l'efficacité de l'appareil nazi. Derrière Albert Speer se cache un stéréotype : celui d'un peuple allemand ordonné et efficace, particulièrement dans le domaine économique, particulièrement sous une dictature.

Rien n'est pourtant plus faux : l'Allemagne a en grande partie perdu la guerre par inefficacité économique. La Seconde Guerre mondiale, plus que la Première, fut une guerre industrielle : la remporter supposait de disposer de plus d'armements -produits industriels- que l'adversaire, et donc d'en produire davantage. A ce jeu, l'Allemagne fut plus que médiocre : elle fut presque nulle, surtout en comparaison avec les États-Unis. L'Allemagne n'est en effet parvenu que mal et très tard à mettre en place une véritable économie de guerre.

Elle fut, tout d'abord, incapable d'accroitre le volume global de sa production économique dans le cadre de la mobilisation totale qu'impliquait la guerre.

A part l'Union soviétique, elle fut de tous les belligérants celui qui fut le moins capable d'accroitre sa production économique. Entre 1939 et 1944, les États-Unis accomplissent un quasi exploit économique : ils doublent leur production économique -ce qui implique habituellement des décennies de croissance. L'Allemagne n'augmente que d'à peine plus de 10% sa production, malgré les réquisitions considérables en hommes et en capital opérées sur les pays conquis.

Mais il y a plus : la mobilisation économique totale qu'implique la guerre ne suppose pas seulement d'accroitre le volume de la production, elle impose également de transformer la production civile existante en production de guerre : par exemple, d'utiliser tout l'acier disponible pour fabriquer des avions et non des voitures et de transformer les usines d'automobile en usines de tanks. Il va s'en dire que ce genre de mesures n'est populaire ni parmi les industriels, qui passent sous le contrôle de l'État, ni parmi la population qui subit alors le rationnement.

Là encore, la performance américaine est exceptionnelle : une part essentielle du doublement de la production fut consacrée à l'industrie de guerre. En 1944, sur un PIB de 182 milliards de dollars, 96 étaient consacrés aux dépenses militaires de l'État. Les États-Unis produisirent ainsi 86 338 tanks, 297 000 avions, 17.4 millions de fusils et 64 500 navires en 4 années de guerre.

Rien de tel en Allemagne : les dirigeants allemands furent longtemps incapables d'utiliser vers des finalités militaires les ressources économiques jusque là employées pour satisfaire des besoins civils. La lenteur de cette reconversion peut être évoquée par un chiffre : entre février et mars 1944, la production d'avion de combat a augmenté de 48%. C'est dire le potentiel de reconversion des ressources qui existait encore en Allemagne presque un an avant la défaite. Cette reconversion fut, de fait, tardive et insuffisante : elle ne débute vraiment qu'à la fin 1942, lorsque Speer arrive au pouvoir, et que l'Allemagne subit ses premières défaites.

Comment expliquer cette mauvaise performance ? Galbraith, le célèbre économiste hétérodoxe, nous en donne quelques clés dans son Voyage dans le temps économique. Chose peu connue, il fut chargé par le gouvernement américain d'évaluer la performance économique allemande, après avoir joué un rôle important dans la mise en place de l'économie de guerre aux États-Unis.

Première cause, paradoxale : les Allemands ont été victimes de la bonne santé de leur économie avant la guerre. L'arrivée au pouvoir d'Hitler en 1933 coïncide en effet avec une reprise économique, qui a presque épargné à l'Allemagne la crise de 1929. Rien de tel aux États-Unis : en 1939 leur production économique retrouve à peine son niveau de 1929. En Allemagne, elle est en 1939 supérieure de 50% à 1929.

En 1939, les États-Unis ne sont, en fait, pas encore sortis de la crise : le chômage est de 17% et il existe d'énormes capacités industrielles inemployées. Il leur sera donc simple de mobiliser ces ressources économiques considérables mais inutilisées à des fins militaires : de fait, 5 ans plus tard, le chômage n'existe plus (1%) aux États-Unis. L'effort de guerre aura ainsi sorti les États-Unis de la récession, tout en leur assurant la victoire : c'est la "preuve par Mars" (Galbraith) de l'efficacité de la politique de relance keynésienne.

Rien de tel en Allemagne : l'économie tourne déjà à plein en 1939, utilisant toutes les ressources en hommes et en capital disponibles. Tout accroissement de la production militaire implique donc de diminuer la production civile : et cela, comme on l'a vu, est toujours difficile, parce qu'impopulaire.

Cela implique, d'autre part, des talents d'organisation dont étaient dépourvus la structure de commandement nazi, et les hommes qui était à sa tête -à la différence des États-Unis, où les meilleurs économistes de la planète furent employés à cette tache.

Telle est l'autre cause profonde de l'échec économique allemand : le chaos régnait dans cette structure, et comme le notait Harendt, l'idéologie y était si forte qu'à un an de la défaite, on préférait envoyer un million de juifs hongrois à la mort plutôt que de les utiliser comme main d'œuvre dans des usines d'armement. Le commandement allemand était plus qu'incompétent : il était irrationnel. Et c'est ce qui a sauvé le monde.

Lire la suite

jeudi 24 septembre 2009

La fin de Wikipédia (III)

Le nombre de nouveaux contributeurs diminue aujourd'hui fortement, tandis que celui de contributeurs réguliers stagne. Dans l'ensemble, le nombre de contributeurs a suivi la forme suivante (dite logistique) : croissance exponentielle, puis freinage de plus en plus fort de celle-ci, jusqu'à un niveau maximum.

Or, les contributeurs sont sur Wikipédia pour écrire des articles. On pourrait donc penser que le nombre d'articles suit une croissance du même type que celui du nombre des contributeurs : une croissance d'abord exponentielle, puis de plus en plus faible, jusqu'à devenir nulle. On atteindrait alors le nombre maximal d'articles possibles, représentant la somme de connaissances que l'on peut écrire sur le monde dans le cadre de Wikipédia en français.

Cette croissance serait le produit de trois mécanismes :

1) Plus il y a d'articles, plus viennent de nouveaux contributeurs. Plus il y a de contributeurs, plus il y a de nouveaux articles, etc. Ce mécanismes est à l'origine de la croissance exponentielle.

2) Mais plus il y a de contributeurs, moins il y a de nouvelles personnes disponibles pour contribuer à Wikipédia dans les conditions que fixe l'encyclopédie.

3) Et moins il y a de nouveaux articles potentiellement encore à créer, et moins il y a de contenus modifiables, puisque les connaissances des contributeurs qui sont disposés à contribuer sur Wikipédia sont bornées, de même que le sont les connaissances humaines. Ces deux derniers mécanismes freinent la croissance du nombre d'articles, jusqu'à un maximum.

Or comme on peut le constater, ce n'est pas ce qui s'est passé.

Le nombre d'article a bien suivi une courbe logistique l'essentiel de l'existence de Wikipédia, mais à partir de la fin 2007, la croissance du nombre d'article a certes diminué, mais moins vite que le supposerait un modèle logistique.

On comprend mieux ce qui s'est passé, si l'on s'intéresse au nombre de nouveaux articles par mois :

Comme on peut le voir, ce nombre suit assez étroitement ce que prédit le modèle logistique jusqu'en 2007. Puis, au lieu de continuer à diminuer, le nombre de nouveaux articles stagne, à un niveau relativement proche du sommet historique.

C'est exactement la même chose qui s'est produite pour le nombre d'éditions par mois sur l'encyclopédie, selon une temporalité identique :


Par conséquent, les mécanismes de freinage n'ont pas joué à plein. Que s'est-il passé ?

Premièrement, s'il est exact que le nombre de nouveaux contributeurs baisse très fortement, le nombre de contributeurs réguliers lui stagne, les arrivées compensant les départs. Il y a donc un nombre à peu près constant de contributeurs sur Wikipédia. Le nombre d'éditions n'a donc certes plus de raison d'augmenter, mais il n'en a pas non plus de baisser. Il stagne -comme le nombre de contributeur.

Deuxièmement, ces contributeurs continuent grosso modo à créer une quantité à peu près constante de contenu, même si l'on pressent une légère baisse.

C'est par exemple ce que montre le nombre d'éditions par mois en fonction du nombre d'éditeurs actifs. Pourquoi ? Parce que, malgré son presqu'un million d'articles, Wikipédia en français est loin d'avoir fait le tour de l'ensemble des connaissances humaines, comme le prouve d'ailleurs la version anglophone qui possède trois fois plus d'articles.

Mais surtout parce que le contenu de connaissance n'est pas fixe : aussi limitées que soient les compétences des contributeurs de Wikipédia, il y aura toujours suffisamment du nouveau pour que l'encyclopédie grandisse. Comme le notait Max Weber 1,

Il y a des sciences auxquelles il a été donné de rester éternellement jeunes. C'est le cas de toutes les disciplines historiques, de toutes celles à qui le flux éternellement mouvant de la civilisation procure sans cesse de nouveaux problèmes.
De ce point de vue, il a été donné à Wikipédia de rester éternellement jeune. On peut donc prédire une diminution progressive du nombre de nouveaux articles et d'éditions au fur et à mesure que s'épuisent les sujets que peuvent traiter les contributeurs de Wikipédia, et parce que les arrivées de nouveaux contributeurs, en nombre plus faibles, ne compenseront plus les départs. Mais ce niveau ne sera jamais nul, étant donné la gamme extrêmement large de sujets dont traite Wikipédia, dont certains connaissent ce "flux éternellement mouvant" qu'évoque Weber.

Il n'en demeure pas moins que la Wikipédia des débuts est en train de finir : l'encyclopédie fait face à de nouveaux défis. Le monde de la croissance exponentielle est achevé. Il ne s'agit plus de structurer une encyclopédie connaissant un développement très rapide de son contenu et de ses acteurs. Il s'agit au contraire de limiter la diminution probable dans le futur du nombre de contributeurs réguliers, et d'assurer au moins autant l'entretien des contenus que leur développement.

____________________________

1. Dans le premier de ses Essais sur la théorie de la science disponible ici, page 153 de la version PDF.


Lire la suite

lundi 21 septembre 2009

La crise sauve la planète

Le titre est un peu excessif : disons plutôt que pour la première fois depuis 1981, la pollution atmosphérique va baisser cette année. La baisse est même la plus importante depuis 40 ans, selon une étude de l'International Energy Agency. Comme l'indique un article du Financial Times qui relate cette dernière :

The recession has resulted in an unparalleled fall in greenhouse gas emissions, providing a “unique opportunity” to move the world away from high-carbon growth, an International Energy Agency study has found.

In the first big study of the impact of the recession on climate change, the IEA found that CO2 emissions from burning fossil fuels had undergone “a significant decline” this year – further than in any year in the last 40


D'une certaine façon, on peut donc dire que la crise aura fait la preuve que la décroissance fonctionne. Et même que, jusqu'à preuve du contraire, c'est la seule chose qui fonctionne, toutes les autres stratégies n'ayant pour l'instant pas eu le moindre effet significatif, du Protocole de Kyoto aux vertus auto-correctrices du marché. D'un autre côté, il n'est pas certain que ses partisans doivent se réjouir de la nouvelle : la récession a donné un visage tangible à la "décroissance", et ce visage est grimaçant. Je suis même prêt à parier qu'ils seront les ultimes victimes de la récession, tant la crise aura montré à quel point les équilibres sociaux de nos sociétés sont structurés par la croissance économique.
Lire la suite

jeudi 17 septembre 2009

Lucidité tardive au Monde

Les lecteurs de ce blog se souviennent sans doute de mon énervement considérable face à la désinformation systématique qu'avait opéré Le Monde dans le traitement du mouvement universitaire de l'année dernière.

Une journaliste était particulièrement en pointe, Catherine Rollot ; et un de ses arguments avait particulièrement retenu mon attention, parce qu'il reposait sur une erreur méthodologique élémentaire. Selon cet argument, les mouvements universitaires des années précédentes avaient fait perdre des étudiants aux universités et celui en cours allait achever de les faire déserter. C. Rollot écrivait notamment :


[Du côté des universitaires], les blessés se comptent aussi. L'image de l'université en a pâti. Le premier bilan des demandes d'inscription dans l'enseignement supérieur en Ile-de-France est mauvais ; seuls 27,6 % des lycéens franciliens ont placé l'université en premier choix. C'est très peu quand on sait qu'au final, en septembre, sept bacheliers sur dix vont s'asseoir sur ses bancs.


Cette affirmation était du n'importe quoi au dernier degré, comme je l'indiquais ici.

Et que peut-on lire aujourd'hui dans Le Monde ? Surprise, surprise : un article dont le titre est : "Après la contestation du printemps, les étudiants ne désertent pas les universités". On peut notamment y apprendre que selon l'"entourage" du Ministre :

Après le mouvement qui a perturbé un certain nombre d'établissements au début de l'année, il n'y pas eu d'évitement des universités par les bacheliers.


On peut se rassurer : l'article n'est pas signé par Catherine Rollot. Il est néanmoins révélateur de la même limite du travail journalistique : la dépendance structurale à l'égard des sources primaires. C'était manifestement l'"entourage" de la Ministre qui avait inventé l'argument que reprenait C. Rollot (qui d'autre aurait pu lui fournir ses chiffres ?). Et c'est encore celui-ci dont les propos sont rapportés aujourd'hui sans analyse complémentaire. Cette dépendance est multiple : rapport d'échange qui implique de satisfaire la source en lui donnant au moins pour partie ce qu'elle attend ; proximité sociale et professionnelle qui devient proximité intellectuelle ; travail bâclé où l'on cite la source la plus prestigieuse, et de manière moindre une source contradictoire, pour former cet équilibre des points de vue auquel tend à se réduire la "neutralité" journalistique, au mépris du travail d'enquête par soi même.

De ce point de vue, la parole de "l'entourage" du Ministre est une parole forte, capable de définir la problématique du débat public -ne serait-ce que parce qu'il possède un monopole au moins temporaire sur les données statistiques, qui lui permet d'affirmer des choses fausses, mais face auxquelles tout le monde doit réagir. Ce jeu ne fonctionne bien sûr que pour autant que les journalistes relaient ces affirmations, sans en opérer une analyse préalable, qui était, dans le cas présent, dévastatrice.

Lire la suite

lundi 14 septembre 2009

France Telecom, la croyance et le suicide

On meurt beaucoup chez France Telecom, et de mort volontaire. 22 personnes s'y sont, depuis un an et demi, suicidés, soit approximativement 15 par an. Nul ne doute qu'il faille voir là un effet d'un management brutal, symbole de la difficulté qu'a eu la France à mettre en place un système post-fordien efficace -et efficace parce que respectant les salariés tout en se fondant sur l'intensification de leur travail.

Le problème est que cela est factuellement faux. Le taux de suicide à FT est conforme à ce qu'il doit être statistiquement. Le taux de suicide en France est, en effet, de 17,8 pour 100 000 habitants par an (en 2002). Sur la tranche des 25-65 ans, il est légèrement plus élevé, aux alentours de 23. Cette tranche correspond à celle des travailleurs chez FT. Or, France Telecom compte 106 000 salariés en France.

En résumé, on a donc :

En France : 17 suicides pour 100 000 habitants ; 23 pour les 25-65 ans.
Chez France Telecom : 15 suicides pour 106 000 salariés (essentiellement des 25-65 ans).

Inutile de faire un test statistique sophistiqué pour comprendre que le nombre de suicides n'a rien d'exceptionnel chez FT : il est même un peu plus faible que celui auquel on pourrait s'attendre 1.

Faisant observer la chose dans un commentaire sur le blog, généralement bien informé, des éconoclastes, un des deux auteurs du site me concède une grande part de mon argument, mais note : "le taux de suicide national est élevé chez les adolescents et les personnes âgées, relativement faible chez les personnes d'âge actif, il est donc relativement élevé chez FT". On vient de voir que le taux de suicide chez FT est plus faible que celui de la classe d'âge à laquelle appartiennent ses salariés. L'objection ne tient donc pas.

Cependant ce n'est pas ce qui m'intéresse dans cette objection, mais l'affirmation selon laquelle "le taux de suicide est élevé chez les adolescents". C'est une croyance fortement enracinée. Elle est toutefois absolument fausse. Comme on le sait depuis Durkheim, il y a 112 ans : le taux de suicide est une fonction croissante de l'âge. Le moment où l'on se suicide le moins est précisément l'enfance et l'adolescence. Puis ce taux augmente, pour bondir au début de la soixantaine.

On a donc affaire à deux croyances, l'une circonstancielle (on se suicide beaucoup chez France Telecom) ; l'autre durable (les ado se suicident énormément). Tout l'intérêt de ces croyances est qu'elles sont le produit probable d'une même cause : la difficulté à penser statistiquement le monde.

Un nombre important de sociologues refusent de reprendre à leur compte les analyses sociologiques classiques des croyances, qui les rattachent à l'irrationalité des acteurs ou aux intérêts que servent ces croyances. En France, c'est notamment le cas de Raymond Boudon, et d'un de ses élèves, Gerald Bronner. Pour Bronner, en particulier, les croyances résultent toujours d'une limite dans l'accès à la connaissance : si l'acteur connaissait toutes les informations pertinentes, il ne croirait pas. Mais se dressent devant lui toute une série de limites dans cet accès. L'une d'entre elles, nous dit Bronner, est constituée par les limites cognitives que pose notre cerveau.

Le cas de la croyance dans le suicide des ado relève typiquement de cela. Elle résulte très probablement du phénomène suivant : les ado sont ceux qui se suicident le moins. Mais ce sont également ceux qui meurent le moins. Au final, lorsqu'un adolescent meurt -ce qui se produit rarement- c'est souvent parce qu'il s'est suicidé : 14% des morts entre 15 et 25 ans sont le produit d'un suicide (ce qui constitue à cet âge la seconde cause de mortalité après les accidents de transport). Au contraire, les plus de 60 ans, qui se suicident 3 à 4 fois plus que les 15-25 ans, meurent très souvent, et le plus souvent d'une autre cause que le suicide. Il est donc proportionnellement rare d'observer, parmi les décès des plus de 60 ans, des suicides alors que c'est extrêmement courant pour les adolescents. Cela donne probablement le sentiment que les adolescents se suicident beaucoup, alors que c'est l'inverse qui est exact. La croyance nait donc d'une difficulté cognitive : celle qui consiste à s'interroger face à un ratio (le nombre de suicide parmi les décès), qui est le seul auquel on accède spontanément, sur son dénominateur (le nombre de morts très faible) autant que sur son numérateur. Il faut, pour cela, procéder à un raisonnement qui n'est pas intuitif, mais appris.

C'est une difficulté cognitive très semblable que pose le cas de France Telecom : là encore, il faut interroger la première impression qui résulte du numérateur (le nombre important de suicides) en la rapportant au dénominateur (le nombre très élevé de salariés chez France Telecom) puis croiser ce résultat avec une nouvelle donnée, qui n'est pas immédiatement accessible, le taux de suicide en France parmi les 25-65 ans. On voit comment s'enchaînent difficulté cognitive et difficulté dans l'accès à l'information.

Je ne crois pas un seul instant que ce type d'explication épuise l'analyse des causes des croyances. Dans le cas de FT, la croyance naît certainement de cette difficulté que nous avons à penser spontanément en statisticien. Mais elle s'épanouit probablement pour d'autres raisons. En particulier, parce que cette croyance parle de notre monde professionnel selon une problématique qui est généralement évacuée de l'espace public et médiatique, alors même qu'elle est intensément vécue par de nombreux Français : celle de la souffrance au travail. Cette croyance en semble donc d'autant plus vraisemblable. Plus que cela, elle en apparaît d'autant plus bonne à dire et à répéter en raison de la part de réalité qu'elle révèle publiquement et qui est ordinairement celée 2.


______________________________________________

1. Je ne m'avance pas plus que de raison : le taux de suicide des femmes est beaucoup plus faible que celui des hommes -le taux de suicide d'une population est donc une moyenne qui masque une distribution hétérogène entre les sexes. Pour être assuré que tout cela révèle ou ne révèle pas quelque chose, il faudrait donc d'abord connaître le ratio homme/femme chez FT, que j'ignore. Mais peu importe : mon argument est précisément que personne ne s'est posé la question.

2. D'autant plus que si le nombre de suicides chez France Telecom n'a rien d'exceptionnel, il est par contre vrai que le taux de suicide est élevé en France, et plus encore que le taux de suicide a fortement augmenté chez les 25-45 ans récemment, le taux de suicide étant maintenant supérieur à 40 ans qu'à 60 -ce qui ne s'était jamais vu. Louis Chauvel a analysé brillamment ce que ces transformations devaient et révélaient de l'insertion des 25-45 ans dans le monde social et professionnel.



Lire la suite

mercredi 15 juillet 2009

La fin de Wikipédia (II) (annexe)

Annexe du post La fin de Wikipédia (II)

Un lecteur se demande si les processus que j'ai mis en avant se retrouvent pour des versions linguistiques de l'encyclopédie 1) où le réservoir démographique va croitre, comme c'est le cas pour la version espagnole (pays d'Amérique latine possédant encore de faibles capacités en matière de connection internet) et 2) pour les langues possédant peu de locuteurs.

La réponse est, fondamentalement, oui : on retrouve ces processus, avec des variantes.

1) Ainsi, la version en espagnol de Wikipédia a connu une croissance de son nombre d'utilisateur très proche de la version française.


Une différence se dégage toutefois : la croissance du nombre d'utilisateurs a été, longtemps, beaucoup plus lente que pour la version française. Elle est presque nulle pendant deux ans. Par conséquent, le point d'inflexion (moment où le nombre de nouveaux contributeurs par mois diminue) dans la croissance du nombre de contributeurs a été décalé par rapport à la version française d'approximativement un an.

On peut, peut être, rattacher cette croissance initialement plus faible au relatif retard en matière de connexion internet d'une partie de la population hispanophone. Mais je vois bien d'autres causes possibles, notamment parce WK esp partage cette propriété avec une wikipédia à faible population (suédois, cf. infra).

La croissance du nombre de contributeurs très actifs est, de la même façon, très semblable à celle de la version française, avec un décalage d'approximativement un an, conforme au décalage de la croissance du nombre total de contributeurs.

Il me semble toutefois que ces graphiques n'épuisent pas la suite possible de la croissance de Wikipédia en espagnol. La population hispanophone en Amérique latine dépourvue de connexion internet est encore considérable : peut être peut on envisager un rebond dans l'avenir du nombre de contributeurs, à proportion de l'amélioration de l'accès à internet ? C'est nécessairement un processus long, et qui ne peut encore se constater.

Je crois toutefois qu'il faut le nuancer : la connexion à internet ne fait pas tout. Le capital culturel qui fournit la compétence indispensable à l'édition de contenu est tout autant indispensable. Or, on peut penser que, parmi la population hispanophone, ceux qui disposent du capital culturel adéquat disposent déjà, pour la plupart, d'une connexion. Si c'est le cas, la croissance de la population de contributeurs dépendra de l'amélioration de la scolarisation et du capital culturel parmi les populations hispanophes. Ce processus est temporellement encore plus long, mais il peut conduire à une "longue traine" dans la croissance de contributeurs sur Wikipédia en espagnol. La version française fait face, à un degré moindre, à la même problématique, avec les francophones d'Afrique.


2) Pas de différence majeure dans la croissance de Wikipédia en suédois, exemple de version avec une petite communauté linguistique. On constate, comme pour la version espagnole, que la croissance est initialement beaucoup plus lente. La principale différence est que le taux de croissance du nombre de contributeurs est plus faible que sur les "grosses" Wikipédia.







Lire la suite

La fin de Wikipédia (II)

Nous avons vu, dans un premier épisode, que l'augmentation du nombre de contributeurs sur Wikipedia avait répondu très étroitement au modèle de croissance logistique : croissance exponentielle initialement, puis freinage de plus en plus fort jusqu'à la population maximum potentielle, fonction de divers déterminants, dont le degré d'acceptation culturelle d'une encyclopédie "éditable par tous".

Cela pose, pour l'avenir de Wikipédia, deux problèmes majeurs : 1) qui va continuer à entretenir et gérer l'encyclopédie ? 2) le contenu de l'encyclopédie est-il condamné, tout comme le nombre d'utilisateurs, à stagner ? Nous aborderons le premier problème dans ce billet, le second dans le suivant.

Parmi les contributeurs qui rejoignent l'encyclopédie, certains s'y investissent davantage. Ils éditent l'encyclopédie à de multiples reprises chaque mois, souvent sur une période relativement longue. Ces utilisateurs jouent un rôle essentiel : parce qu'ils sont à l'origine d'une partie très importante du contenu, et plus encore parce qu'ils gèrent au quotidien l'encyclopédie. Ils améliorent la présentation des articles ; ils créent des liens entre ceux-ci ; ils font face au vandalisme qui est l'un des fléau d'une encyclopédie éditable par tous, y compris par des collégiens dans une salle de permanence entre 14h et 15h ; ils en suppriment le contenu promotionnel, aberrant, politiquement orienté, etc. -condition de la valeur intrinsèque des articles et de la confiance que peuvent leur accorder les lecteurs. Ils font vivre l'encyclopédie, qui sans cette activité de gestion et d'entretien cesserait à brève échéance d'exister, et s'effondrerait, envahie par la publicité et les insanités, à la manière dont une ville tropicale abandonnée par les hommes est rapidement recouverte par la jungle.

Leur nombre a cru avec l'arrivé de nouveaux contributeurs : parmi ceux-ci, pour des raisons multiples, certains y ont "pris goût" et s'y sont investi. La croissance de leur nombre a suivi un processus logistique.

On peut toutefois constater que ce processus a été plus rapide que pour la croissance du nombre d'utilisateurs. Cela s'explique aisément : les personnes susceptibles de s'investir fortement dans Wikipédia sont également a priori les mêmes qui en entendent parler le plus vite, s'y essayent le plus rapidement, etc. -et deviennent par la même des contributeurs très actifs.

Ainsi, la population maximale de contributeurs très actifs (100 edits par mois) a été atteinte il y a maintenant deux ans. Depuis juin 2007, leur nombre fluctue autour de 750 sur Wikipédia en français. Si l'on observe attentivement le graphique, on peut toutefois constater que leur nombre est aujourd'hui légèrement plus faible qu'à la fin de l'année 2007.

Il n'est pas certain qu'il s'agisse d'un accident statistique, bien que je ne l'exclus pas. En effet, on constate nettement ce même phénomène pour les contributeurs actifs (10 edits par mois), moins clairement pour les très actifs (100 edits), dans la Wikipédia en Allemand. Le succès de cette dernière est un peu plus ancien que celui de la Wikipédia en français : elle a atteint plus rapidement la population maximale de contributeurs actifs. D'une certaine façon, le présent de la Wikipédia en allemand dit ainsi l'avenir de la Wikipédia en français.

Or, comme on peut le voir, la population de contributeurs actifs sur Wikipédia en allemand, après avoir fluctué autours de son maximum, est en baisse depuis la fin 2008.

Le problème est en fait simple, et relève là encore de la croissance de population. Deux phénomènes rentrent en jeu :

1. De nouveaux contributeurs arrivent sur Wikipédia, et se prennent au jeu. Ils deviennent des contributeurs actifs ou très actifs.
2. Parmi ces contributeurs très actifs, certains partent, souvent par simple lassitude, parfois à la suite de conflits, inévitables dans un groupe social hiérarchisé et où il existe des enjeux de lutte, aucune version linguistique de l'encyclopédie n'échappant à ce dernier processus.

Aussi longtemps que le processus 1 a dominé le processus 2, la population a cru. On a vu que la croissance des nouveaux contributeurs suivait un processus logistique, augmentant rapidement initialement puis décélérant avant de devenir nulle. Il est arrivé un moment où l'arrivée de nouveaux contributeurs actifs ou très actifs a compensé très exactement le départ des contributeurs actifs ou très actifs. Leur nombre était alors stable. Nous rentrons maintenant dans une période où l'arrivée de nouveaux contributeurs sera très faible. Rien ne garantit que ce faible flux de nouveaux contributeurs conduise à un nombre suffisant de contributeurs actifs ou très actifs capables de compenser les départs. S'il n'en est pas ainsi, leur population va décroitre : c'est ce qui se passe pour Wikipédia en allemand pour les contributeurs actifs (10 edits par mois).

L'avenir de Wikipédia est donc en jeu : qui gérera et entretiendra l'encyclopédie, si le nombre des contributeurs qui effectuent cette tache diminue fortement ? Une partie de la réponse tient dans la croissance du nombre d'articles : une encyclopédie arrivée à maturité requiert une gestion bien plus faible qu'une encyclopédie dont le contenu croit de manière exponentielle. C'est au processus de croissance du nombre d'article qu'il nous faut donc maintenant nous intéresser.

Ce post comporte une annexe.

La suite est à lire ici.

Lire la suite

samedi 11 juillet 2009

La fin de Wikipédia (I)

La création de Wikipédia a été un des événements importants dans le développement de l'internet 2.0. L'encyclopédie est aujourd'hui un des sites les plus visités au monde. Elle offre une contenu extrêmement large et riche, qui a conduit à la disparition (Quid, Encarta) ou à la marginalisation (Encyclopedia Universalis) de ses principaux concurrents. Sa fin est pourtant proche : du moins la fin du modèle par lequel elle s'est développée.

La principale spécificité de Wikipédia tient dans le fait qu'elle soit "librement éditable par tous" : elle est l'œuvre de centaine de milliers de contributeurs, anonymes et "amateurs" pour la plupart. Elle a ainsi redéfini les frontières de la légitimité intellectuelle, fondée antérieurement sur le modèle de l'auteur aux compétences universitaires reconnues, dont la signature certifie et authentifie la contribution.

Mais de cette spécificité découle sa principale limite existentielle : elle n'existe, et ne s'améliore, que pour autant que des contributeurs y participent. Son succès n'est pas détachable du processus social complexe par lequel des centaines de milliers de personnes ont accepté de créer de nouveaux contenus, alors qu'elles n'en tiraient aucune rétribution financière et en obtenaient une reconnaissance sociale nulle ou presque nulle, puisque leur travail est anonyme.

C'est ce processus social qui est arrivé à terme. Ce phénomène est parfois entrevu dans les pages communautaires de l'encyclopédie, notamment de sa version française. Il est généralement attribué aux conflits sociaux qui peuvent exister au sein de l'encyclopédie, provoquant le départ de certains contributeurs. Cette vision est, en fait, sociologiquement naïve, en ce qu'elle oublie la limite "écologique" sur laquelle s'est construite Wikipédia -limite qui était présente à l'état latent dès son commencement, avant même qu'elle ne soit atteinte.

Prenons le cas de la version en langue française de l'encyclopédie. Aussi vaste que soit le nombre de ses contributeurs potentiels, il n'est pas infini : parmi les 80 millions de francophones vivant dans un pays disposant d'un réseaux internet développé, il n'en existe nécessairement qu'un nombre précis, limité, prêts à ajouter du contenu dans les conditions très particulières (gratuité, anonymat) qui caractérisent Wikipédia (première limite) et disposant de compétences telles qu'ils puissent le faire (deuxième limite). Ce nombre atteint, la population de contributeurs cessera d'augmenter, ou elle ne le fera plus que selon le rythme très lent, presque imperceptible, des transformations démographiques de la population francophone (arrivée de nouvelles générations).


En première analyse, la croissance du nombre de contributeur répond donc grossièrement aux trois logiques suivantes :

1. Plus de contributeurs créent plus de contenu, et de meilleure qualité -ce qui améliore le trafic sur le site et attire donc plus de contributeurs potentiels vers celui-ci. Ces contributeurs vont à leur tour créer plus de contenu, ce qui attirera plus de contributeurs potentiels, etc.

2. Toutefois, à chaque fois qu'un contributeurs potentiel devient un contributeur actif le nombre de contributeurs potentiels total diminue -jusqu'à la limite fixée par le nombre total de contributeurs potentiels, acceptant les conditions spécifiques que fixe Wikipédia (anonymat, gratuité) (première limite).

3. Qui plus est, à chaque fois qu'un nouveau contributeur ajoute du contenu nouveau, le niveaux de compétence requis augmente et les contenus potentiellement ajoutables diminuent, ce qui limite la possibilité pour de nouveaux utilisateurs de contribuer. Au commencement du site, aucune connaissance, même la plus élémentaire, n'était présente : cela rendait possible la participation d'un très grand nombre d'utilisateurs. Au fur et à mesure que le contenu est complété, il n'existe qu'un nombre de plus en plus restreint d'utilisateurs disposant des compétences nécessaires pour encore participer. C'est le deuxième mécanisme qui explique la présence d'un plafond au nombre potentiel de contributeurs, à côté du nombre nécessairement limité de personne désireuses de partager leur savoir dans les conditions spécifiques que fixe Wikipédia.

Le premier mécanisme est caractéristique des croissances exponentielles. Les deux autres mécanismes freinent au contraire cette croissance, de plus en plus fortement au fur et à mesure que le nombre de contributeurs grandit jusqu'à atteindre la population maximale. Ensemble, ils forment une courbe de croissance dite logistique, qui les combine mathématiquement.

Depuis son commencement, la croissance du nombre total de personnes ayant participé à Wikipédia à travers un compte enregistré 1 a suivi très étroitement ce modèle théorique 2:

Le nombre de contributeur a rapidement augmenté, à un rythme exponentiel, puis après un point d'inflexion, sa croissance s'est ralentie, à mesure qu'il s'approche de son maximum. On voit que, à suivre le modèle théorique, le nombre total de personnes ayant participé à Wikipédia va atteindre ce maximum d'ici deux ans, avec approximativement 50 000 personnes ayant participé. La croissance du nombre de nouveaux participants dans le modèle théorique a, néanmoins, tendance à décroitre plus vite que dans la réalité : on peut donc penser que le processus prendra plus de temps pour arriver à son terme.

Pour mieux comprendre ce phénomène, on peut s'intéresser au rythme par lequel de nouveaux contributeurs sont arrivés sur Wikipédia depuis sa création :



La croissance du nombre de wikipédiens a accéléré très rapidement après la naissance de l'encyclopédie en français, pour atteindre son maximum à la mi 2007, un peu plus de 5 ans après sa création (moment de la croissance exponentielle, conforme au premier mécanisme). Depuis, le nombre de nouveaux wikipédiens par mois ne cesse de diminuer, même s'il le fait un peu moins vite que selon le modèle théorique (freinage dû aux deux autres mécanismes). Dans l'ensemble, cette croissance s'est faite conformément au modèle logistique, à l'exception de la fin de l'année 2005, marquée par un très fort afflux de nouveaux participants.

Le développement du nombre de wikipédiens sur l'encyclopédie en français n'a rien d'exceptionnel et se retrouve sur les autres versions linguistiques de l'encyclopédie. Il en va ainsi pour la deuxième plus grande version linguistique de l'encyclopédie, après l'anglaise : Wikipédia en allemand.




Cette similitude des processus souligne assez qu'ils répondent tous deux à la même logique, que stylise exceptionnellement bien le modèle logistique. C'est donc dans ce modèle de croissance de population qu'il faut chercher l'évolution du nombre de participants, et non dans l'analyse des conflits agitant la communauté des wikipédiens.

Toutefois, ce modèle n'explique pas un fait, qu'il met néanmoins en valeur : le nombre relatif de contributeurs à la version allemande a, dès le départ, été nettement supérieur à celui de la version française. Aux termes d'une évolution structurellement identique, sa population asymptotique l'est de 60% -proportion bien plus élevée que celle du rapport de germanophones disposant d'une connexion internet par rapport aux francophones. On peut y voir l'effet du rejet culturel bien plus fort dont a fait l'objet Wikipédia en France, comparé à l'Allemagne, en particulier au sein de ses élites intellectuelles. Nul Pierre Assouline de l'autre coté du Rhin, mais un financement public de son fonctionnement. C'est cela qui a limité le développement de Wikipédia en français. Mais il en était ainsi dès le principe.

La suite est à lire ici.

________________________________________

1. C'est à dire de personnes qui ont créé un compte utilisateur, plutôt que d'utiliser l'"IP" de leur connexion internet, et qui ont au moins édité 10 fois Wikipédia. Les données sont disponibles ici. Ce post doit beaucoup à l'analyse de la croissance du nombre d'articles de Wikipédia en anglais disponible ici.

2. L'équation estimée ici est celle d'un modèle logistique standard : f(t) = population maximale/(1+a*exp(-r*t)), avec t le nombre de mois depuis la création de Wikipédia en français.


Lire la suite

samedi 4 juillet 2009

Pourquoi Armstrong ne gagnera pas le Tour de France

Un peu de détente sur ce blog, qui va se laisser aller au pari sportif, et révéler quelques passions secrètes de son auteur.

Armstrong tente à partir d'aujourd'hui, à 37 ans, son grand retour sportif sur le Tour de France. Si l'on se fie aux statistiques des victoires depuis la fin de la Seconde Guerre mondiale, il n'a aucune chance de gagner.

Comme on le voit l'âge à la victoire prend la forme d'une superbe courbe de Gauss, de moyenne 27.89 ans et d'écart type 2.88. Or la loi normale est formelle : il a 0.08% de chance de l'emporter dans ces conditions (à 37 ans ou plus).

Vous me direz : il a déjà survécu à un cancer métastasé et remporté ensuite 7 tours de France avec la moitié de sa virilité. Rien n'est donc impossible à notre Chuck Norris de la bicyclette. Qu'il soit néanmoins permis de douter.

Toutefois, s'il y parvient, il entretiendra une anomalie statistique récente : l'élévation de l'âge des vainqueurs du Tour de France.

Comme on peut le voir, depuis la guerre, il y a eu trois grandes périodes en ce qui concerne l'âge moyen des vainqueurs du Tour : 1) juste après la guerre, 2) de 1953 à la première victoire d'Indurain (1991), et 3) de 1991 à aujourd'hui.

1) Entre 1947 et 1952, l'âge moyen fut particulièrement élevé : 29.5 ans. On peut penser que ce phénomène est la conséquence de la guerre. On peut en effet supposer que la guerre a brisé la possibilité pour les jeunes générations de s'entraîner et d'être sélectionné. Elle a ainsi limité l'apparition de nouveaux champions. Dans le même temps, elle a mis au repos forcé les grands champions d'avant guerre, qui, à âge égal, étaient moins fatigués et avaient accumulé moins de blessures que dans des circonstances normales. Ainsi, Bartali à 34 ans gagne le tour en 1948, 10 ans après sa précédente victoire. Après la première guerre mondiale, il y eut le même phénomène de manière encore plus marquée :


2) Entre 1953 et 1990, l'âge moyen est légèrement supérieur à 27 ans et répond à une logique purement stochastique.

3) A partir de 1991, l'âge moyen recommence à augmenter. C'est la conséquence d'un nombre important de victoires consécutives par Indurain (5) puis par Armstrong (7). Or ces deux séries furent à la fois longues et entamées relativement tard, presque à l'âge moyen de la période précédente : 27 ans pour Indurain et 26 ans pour Armstrong (presque 27, en fait, car il est de septembre). Ces deux séries de victoires ont donc conduit à un nombre important de victoire au dessus de l'âge moyen depuis la Seconde Guerre. Chose plus étonnante encore, elles ont été suivi d'une victoire à 33 ans l'année dernière par un ancien gregario qui s'est révélé sur le tard : Carlos Sastre.

Le vélo semble ainsi en passe de devenir un sport de vieux. Le pourquoi de la chose dépasse tout à fait mon domaine de compétence. Je suppose toutefois que les plus cyniques y verront un effet bénéfique des nouvelles générations de produits dopants (EPO et assimilés ; hormones de croissance) dont l'arrivée coïncide grosso modo avec la première victoire d'Indurain.

Les esprits plus sociologiques s'intéresseront eux à une transformation importante des carrières cyclistes, qui a été imposée par Indurain et systématisée par Armstrong : la concentration sur un nombre restreint d'objectifs, se résumant au Tour. Armstrong n'a jamais concouru sérieusement sur une autre course. On est loin de l'époque de Merckx, où les coureurs participaient à à peu près toutes les courses de la saison avec, très souvent, l'ambition de gagner. Je n'ai pas de stat sous la main, mais il me semble que c'est même le nombre de kilomètres parcourus par année qui a baissé nettement pour tous les cyclistes 1. Or, on peut supposer qu'avec la baisse du nombre de kilomètre, la fatigue physique accumulée, de même que les blessures, ont diminué à âge égal -ce qui a pour conséquence de prolonger la carrière. Et de rendre possible une victoire à 37 ans ?

________________________________________________________

1. Les mêmes cyniques rattacheront également cette diminution des courses concourues au dopage. Le dopage sanguin impose, en effet, de longues plages d'entraînement où le coureur est loin des autorités, et lors desquelles il peut améliorer ses paramètres, puis attendre que les traces pharmacologiques disparaissent. Il peut même, à l'occasion, prélever une partie de son sang qu'il réinjectera lors des compétitions.


Lire la suite