- Info
Les chroniques du GREDEG
-
Réflexions autour de l’économie comportementale et des nudges
En savoir plusRéflexions autour de l’économie comportementale et des nudges
Réflexions autour de l’économie comportementale et des nudges
Par Agnès Festré, Projet structurant «Complexité et Dynamique des Interactions, des Réseaux et des Marchés» (CoDIReM)La remise du prix Nobel d’économie à l’américain Richard Thaler en octobre dernier consacre le champ de recherche de l’économie comportementale. Ce domaine avait déjà été récompensé en 2002 lorsque l’Académie royale de la banque de Suède avait décerné le prix conjointement au psychologue Daniel Kahneman et à l’économiste expérimentaliste Vernon Smith. Ce domaine de recherche puise ses racines dans le courant behavioriste américain des années 1950 et popularisé en sciences sociales par les travaux de Herbert Simon également récipiendaire du Prix Nobel en 1978.
Du point de vue de l’histoire de la pensée économique ou de la sociologie des sciences, la question se pose de savoir dans quelle mesure la « nouvelle économie comportementale » constitue un nouveau paradigme. En dépit de l’hétérogénéité des approches et des interprétations, il est possible de caractériser un courant qui repose sur des hypothèses bien précises : l’existence de biais comportementaux qui affectent le comportement des individus (les biais pouvant être interprétés de différentes manières soit comme des erreurs de jugement dues à l’incidence de facteurs psychologiques comme l’impatience ou le manque d’attention, soit comme constitutifs de la rationalité limitée des acteurs) ; la dépendance au contexte des choix individuels (les décisions d’un individu peuvent différer uniquement du fait de la présentation d’un problème identique du point de vue de son intérêt propre, son niveau de satisfaction ou ses objectifs) ; l’importance des normes sociales (désapprobation ou approbation par autrui, réciprocité etc.) ou des institutions (institutions de marché, plateformes communautaires…) comme déterminants du degré d’altruisme des acteurs notamment.
Ce renouvellement de l’analyse économique a suscité beaucoup d’engouement et a légitimé l’approche expérimentale en économie qu’elle soit de laboratoire ou de terrain, avec l’essor des expériences randomisées conçues pour asseoir des politiques publiques de grande envergure, de lutte contre la pauvreté notamment (cf. Poverty Action Lab / J-PAL).
L’ouvrage de vulgarisation de Thaler et Sunstein (2008) témoigne de la percée de l’économie comportementale et est devenu la référence incontournable sur les nudges que l’on traduit habituellement par l’expression « coup de pouce » pour évoquer l’idée d’une méthode douce pour orienter les comportements. Au-delà de son apport scientifique et théorique, il comporte une visée politique et se présente comme un véritable manifeste pour un nouveau type de paternalisme : « le paternalisme libertaire », notion « oxymorienne » forgée par les auteurs visant à concilier orientation délibérée des comportements par des institutions légitimées et liberté de choix des individus au moyen des nudges dans le but de prendre les « bonnes » décisions en matière de santé, de richesse, de protection de l’environnement et même de bonheur. L’approche de Thaler et Sunstein du comportement individuel se fonde sur l’interprétation dominante des biais psychologiques due à Kahneman et Tversky, qui fait de l’acteur économique un agent désincarné intrinsèquement rationnel dont l’enveloppe externe en interaction avec le monde sensible est plus ou moins perméable à l’influence du psychologique.
Si cette conception dualiste de l’agent économique peut se comprendre d’un point de vue instrumental – elle permet notamment de s’ancrer sur les théories des perspectives (Kahneman et Tversky 1978) et du processus dual de raisonnement (Kahneman 2001) – elle pose problème d’un double point de vue : du point de vue philosophique, elle interroge sur la manière de concevoir la délibération mentale humaine ; d’un point de vue méthodologique, elle révèle les incohérences de l’approche comportementaliste de l’économie du bien-être (cf. Infante, Lecouteux et Sugden 2016).
Sur le plan analytique, les nudges réactivent toute une série de questions de recherche transversales à plusieurs disciplines dont se sont emparées les chercheurs de CoDIReM. Par exemple, les nudges en tant que dispositifs alternatifs aux incitations économiques classiques renouvellent la littérature sur l’effet d’éviction des incitations sur les motivations (intrinsèques) des acteurs (Festré et Garrouste, 2014). La notion de motivation intrinsèque (issue de la psychologie sociale) et le phénomène d’auto-détermination (self-determination) du comportement qui lui est associé (cf. Ryan et Deci 2000) ne sont pas indépendants des normes sociales et des artefacts qui influencent l’interaction sociale (notion de relatedness). De ce point de vue, la comparaison entre les notions de nudges et d’affordance (notion mobilisée en psychologie cognitive, ergonomie et dans le cadre des interactions homme-machine pour apprécier la potentialité d’un dispositif à déclencher un comportement) permet d’élargir la réflexion sur les facteurs de succès et d’échec des nudges et d’alimenter l’un des axes interdisciplinaires de recherche de la Maison des Sciences de l’Homme et de la Société Sud-Est consacré à la question de l’acceptabilité des dispositifs numériques (cf. la vidéo des « regards croisés de l’Université Côte d’Azur » consacrée à cette thématique : https://vimeo.com/190859588).
-
Pro ou anti Linky : La confiance reste à construire autour des nouveaux services énergétiques
En savoir plusPro ou anti Linky : La confiance reste à construire autour des nouveaux services énergétiques
Pro ou anti Linky : La confiance reste à construire autour des nouveaux services énergétiques
Par Nathalie Lazaric, Projet structurant «Eco-Système d’Innovation et Apprentissage» (ESIA)Sommes-nous capables de modifier nos habitudes et d’apprendre mieux avec les nouvelles technologies type compteurs intelligents ? La question n’est pas simple et intéresse tant le citoyen, le consommateur, le fournisseur d’énergie que les politiques publiques qui doivent anticiper les innovations du futur et veiller à leur acceptation et leur utilité tout en respectant des accords de Paris sur les changements climatiques.
Actuellement le débat fait rage et l’adhésion est loin d’être présente. On pourrait, à première vue, s’en étonner étant donnée la large diffusion de ces services dans l’ensemble des pays européens et de l’OCDE, pays dans lesquels la question ne se pose plus. Or, dans le contexte français, le débat ressemble plus à un bras de fer entre énergéticiens et consommateurs qu’à un retard au niveau de l’adoption. En effet, la question des compteurs intelligents est symptomatique d’une vision schumpétérienne dite « technology push » et s’inscrit dans une longue tradition de monopole national où le consommateur était absent du système énergétique. L’ouverture à la concurrence des marchés de l’électricité a changé la donne et offre la possibilité de choisir son fournisseur, les services énergétiques associés et l’origine de l’énergie (renouvelable ou électricité dite verte). Une nouvelle feuille de route se met en place et les citoyens, pour certains d’entre eux, sont bien déterminés à ne plus être la simple variable d’ajustement des politiques énergétiques nationales. Les événements récents autour du Linky montrent bien l’ampleur du malentendu et le fossé qui se creuse entre énergéticiens et consommateurs (Le Monde du 28 avril 2018).
Dans ce contexte, les fournisseurs d’énergie se doivent d’apporter des réponses claires aux citoyens notamment sur :
1) les données personnelles et de leur devenir face au déploiement de ces nouveaux services
2) la question de la neutralité de cette technologie du point de vue du risque sanitaire pour personnes atteintes d’électrosensibilité. Les réponses à ces questions restent un préalable pour un déploiement massif tel que l’envisagent les fournisseurs.
Par ailleurs, une question qui n’est jamais abordée est celle des bénéfices pour les consommateurs. En effet, les compteurs intelligents délivrant de l’information en temps réel sur notre consommation d’électricité permettent aussi de mieux connaitre nos usages et donc d’apprendre en pouvant mieux maitriser cette dernière. Les gains potentiels sont réels… mais le contexte national et les conditions d’adoption doivent être modifiées pour entendre et apprendre des consommateurs et coconstruire un débat serein entre tous les acteurs en incluant pleinement les usagers. La confiance reste un élément essentiel dans ce paysage.
Pour en savoir plus:
Adnane Kendel, Nathalie Lazaric et Kevin Maréchal (2017), « What do people ‘learn by looking’ at direct feedback on their energy consumption? Results of a field study in Southern France », Energy Policy, 108, 593-605.
Adnane Kendel et Nathalie Lazaric (2015), « The diffusion of smart meters in France: A discussion of empirical evidence and the implications for smart cities in France », Journal of Strategy and management, 8(3) 231-244.
« Les compteurs Linky sont un outil majeur au service de la transition énergétique » Le Monde Economie, 02 Mars 2018
« L'intox du « premier mort lié au compteur Linky » - Le Monde 28 avril 2018
Nos recherches dans ce domaine conduites avec une approche expérimentale de terrain nuancent ce débat. Nos résultats montrent qu’une information en temps réel peut réduire la consommation d’électricité…. mais qu’il existe aussi un apprentissage possible sans technologie pour notre groupe témoin impacté par le cadre de l’expérience elle-même. Plus précisément, nous avons constitué plusieurs groupes G1 (sans technologie) et G2 (avec technologie et feedback en temps réel). Résultat qui peut à première vue paraitre paradoxal, tous les groupes de l’expérience ont appris que ceux-ci soient dotés ou non de technologie et ont donc réduit leur consommation électrique ! Cet apprentissage est bien sûr plus important quand les technologies sont présentes (plus de 22 % pour G2) mais est néanmoins très significatif pour le groupe sans technologie (13 % pour G1) qui a bénéficié d’un apprentissage indirect (lié aux discussions de voisinage et d’une vigilance particulière liée au fait de se savoir observé). L’apprentissage peut être direct avec l’aide d’une technologie ou indirect par bouche à oreille et sans technologie, soulignant la soif de connaissance de nos concitoyens face à la consommation énergétique. Nos résultats sont à relativiser au regard du débat sur les compteurs intelligents. Notre expérience repose sur des volontaires, motivés à expérimenter dans un contexte précis. Ce cadre fut celui d’une expérience, pilotée par le GREDEG sur la commune de Biot des Alpes Maritimes.
A l’heure où l’ensemble des fournisseurs expérimentent de nouveaux services énergétiques, ces résultats devraient permettre de relativiser le rôle des technologies, de comprendre dans quel contexte les citoyens sont en mesure de changer leurs comportements et d’apprendre. Ils montrent donc qu’un apprentissage indirect n’est pas à négliger et qu’un apprentissage par visualisation a eu des effets inattendus tant au niveau quantitatif que qualitatif … et surtout que la confiance moteur de tout apprentissage, ne peut pas s’imposer mais se construit sur le long terme entre tous les acteurs de la filière énergétique.
-
Agriculture durable : De puissants verrous au croisement de logiques de rendement et de préservation de l’environnement
En savoir plusAgriculture durable : De puissants verrous au croisement de logiques de rendement et de préservation de l’environnement
Agriculture durable : De puissants verrous au croisement de logiques de rendement et de préservation de l’environnement
Par Aura Parmentier Cajaiba, Projet structurant «Eco-Système d’Innovation et Apprentissage» (ESIA)
Que l’on considère la consommation d’énergie, d’eau, la production de biens de consommation ou encore les transports, le besoin d’une transition écologique est aujourd’hui incontesté, et le secteur agricole n’y échappe pas. La rationalisation de la production agricole associée à la mécanisation et à l’usage de produits chimiques se trouve remise en cause. Ce modèle construit sur une logique de rendement des cultures « pour nourrir la planète » est progressivement doublé d’un second objectif de « préservation de l’environnement ». Ce domaine est triplement incité à évoluer. Premièrement, il est établi que les pratiques agricoles uniquement productivistes ont un impact négatif sur l’environnement. Deuxièmement, l’impact sur les travailleurs agricoles questionne aussi la profession. Enfin, pour le consommateur, les produits « bio » sont maintenant une alternative valable.
Il existe déjà des solutions alternatives, parmi elles, les Produits de Bioprotection et de Biostimulation (PBB), on parle aussi volontiers d’outils de lutte biologique ou de Biocontrôle. L’UCA et l’INRA ont investi le domaine de la bioprotection via le projet interdisciplinaire structurant BOOST (Plant Bioprotection & Biostimulation) qui vise à renforcer la recherche et la diffusion d’innovations agriculturales en lutte biologique. Le projet Valbio (VALuation du BIOcontrôle) auquel est associé le GREDEG traite de la diffusion et de l’acceptabilité des innovations de bioprotection et de biostimulation dans le cadre de BOOST.
Cette thématique de diffusion d’innovations agricoles fait écho aux travaux pionniers dans le domaine sur la diffusion du maïs hybride (Ryan et Gross, 1943). Malgré la prise de conscience grandissante des problématiques écologiques et au vu de la triple contrainte qui s’applique au secteur, les PBB peinent à être diffusés. Force est de constater que le modèle dominant reste l’approche chimique. A quoi est liée l’intégration lente des méthodes de biocontrôle ?
L’intégration d’approches alternatives aux chimiques est en pratique compliquée notamment du fait de logiques propres aux deux classes de produits. Ces logiques s’expriment à différents niveaux : la nature du produit, les pratiques agriculturales, les législations et les marchés. Des verrous peuvent être repérés.
Concernant la nature des produits de protection des plantes, les produits de PBB diffèrent en de nombreux points des produits phytosanitaires chimiques. Ils sont développés à partir du vivant. Il peut s’agir de microorganismes (bactéries, champignons…), de macroorganismes (insectes, acariens…), ou de substances sécrétées par ces organismes. Ils sont plus sensibles aux conditions du milieu dans lequel ils sont exposés et se décomposent en éléments organiques, ce qui les rend potentiellement moins polluants pour l’air, les sols et les nappes phréatiques. Cet avantage en termes de pollution est une contrainte en termes de conservation et d’application.
Les pratiques agriculturales sont encore aujourd’hui ancrées dans les logiques qui ont été développées en parallèle de l’élaboration puis de l’expansion de la « révolution verte » terme consacré dans les années 70 pour désigner le modèle agricole valorisant la mécanisation et la chimie. Aujourd’hui les pratiques – depuis les outils de planification jusqu’aux outils de travail de la terre – sont adaptées aux caractéristiques propres des produits chimiques. Ces pratiques et outils sont parfois adaptables aux PBB, mais le plus souvent des adaptations techniques et organisationnelles sont nécessaires pour valoriser l’utilisation des PBB.
Au plan des législations, les PBB sont soumis à la législation sur l’utilisation de produits phytosanitaires depuis 2001 et les procédures associées sont dérivées du chimique. Répondre aux critères législatifs demande parfois une certaine inventivité aux acteurs du biocontrôle. Les entreprises doivent, d’une part, intégrer une dimension juridique à leur activité et, d’autre part, réorienter leur processus de R&D de manière à produire des résultats conformes – i.e. des produits « homologables ».
Enfin, l’ensemble du marché auquel se destinent les produits de bioprotection est imbriqué à la chaîne de valeur des produits agroalimentaire. Elle internalise dans sa chaîne de valeur celle de l’agriculture. Chaque fois qu’un acteur de la grande distribution annonce des critères en termes de « résidus chimiques » dans les produits, cela se répercute auprès des producteurs.
Ces 4 niveaux de verrous constituent les grands thèmes des recherches menées par l’équipe Valbio. Comprendre les interactions des différents acteurs et identifier des leviers d’action nous informe donc sur les dynamiques de la transition écologique dans le domaine agricole.
-
La notation financière : instrument de l’action publique européenne
En savoir plusLa notation financière : instrument de l’action publique européenne
La notation financière : instrument de l’action publique européenne
Par Caroline Lequesne-Roth, Projet structurant Sources et méthodologie du droit économique (SMDE)
L'activité de notation financière consiste à évaluer la qualité de crédit (en d'autres termes, la solvabilité) d'un débiteur au titre d'un instrument financier. La notation se comprend ainsi comme un « label de qualité » internationalement reconnu, une grille de lecture et d'orientation pour les investisseurs et les agences de notation, qui les délivrent, comme autant de « dispensateurs de confiance » au sein du système financier.
La crise européenne des dettes souveraines a conféré à ces acteurs, jusqu'alors familiers des seuls initiés, une publicité encore inédite sur le territoire européen. Boucs émissaires pour certains, véritables coupables pour d'autres, les agences de notation ont cristallisé, au cœur de la tourmente financière, les appréhensions et les doutes d'une Europe en peine face à une succession d'événements dont l'ampleur fut inédite. La virulence de ce débat se comprend à l'aune de l’autorité acquise et reconnue à ces acteurs, qui se mesure aux effets qu'elle produit : la notation financière est devenue un instrument incontournable de l'action publique européenne, autrement dit une partie intégrante « des relations, des pratiques et des représentations qui concourent à la production politiquement légitimée de modes de régulation des rapports sociaux » (selon la définition de l'action publique proposée par V. Dubois). Les critiques dont les agences ont été – et sont encore – l’objet se traduisent par de multiples « luttes », sur le terrain réglementaire et judiciaire, qui ont pu interroger la pérennité de l'instrument : les notations financières, instrument précaire de l'action publique européenne ? Nous ne le pensons pas : comme en atteste un premier bilan de la réglementation européenne adoptée au lendemain de la crise, les agences demeurent, bien qu'ébranlées et perfectibles, des acteurs incontournables du modèle régulatoire européen.
L'autorité acquise par les agences de notation de crédit au sein de l’Union européenne se mesure au travers des fonctions régulatoire et normative qu’elles assument dans le domaine bancaire et financier. « Les notations de crédit ne sont pas de simples avis sur la valeur ou le prix d’un instrument financier ou d’une obligation financière. Les agences de notation de crédit ne sont pas de simples analystes financiers ou conseillers en investissement » souligne le Règlement Agences de 2013. En effet, plus qu'un média, la notation constitue une certification des émissions. Ce rôle, hier encore reconnu aux acteurs bancaires, est aujourd'hui principalement dévolu aux agences de notation, qui « labellisent » les émetteurs et leurs émissions en apportant leur crédit ou en déprisant leur qualité. La fonction régulatoire qui en résulte, identifiée dès les années quatre- vingt-dix par la doctrine américaine, se mesure ainsi à l'aune des effets produits par les notations financières. Ces effets ont en outre été renforcés par l’institutionnalisation des agences en qualité de régulateur.
L'effet secondaire de l'institutionnalisation de la fonction régulatoire des agences réside dans la posture d'agent de normalisation qu'elle confère à ces acteurs. Noter n'est pas seulement informer et réguler : noter c'est aussi (et surtout peut-être), normer : à partir du moment où la notation est devenue juridiquement contraignante et discriminante, les agences ont acquis une véritable fonction normative et les critères de notation se sont imposés comme autant de standards de solvabilité. Ces standards répondent à un modèle conceptuel particulier qui lie les émetteurs souverains désireux de se financer sur les marchés financiers.
Le processus d'évaluation auquel les émetteurs sont soumis restreint ainsi leur marge décisionnelle et, dans le cas des émetteurs étatiques, leur souveraineté. Il impose en effet une vision idéologiquement (et, dans une certaine mesure culturellement) orientée de la gestion entrepreneuriale et des politiques publiques vertueuses, qui se révèle décisive dans l’élaboration des stratégies et des programmes de ces acteurs. L’autorité acquise par ces agences de notation de crédit, conjuguée aux critiques auxquelles elles ont été exposées à l’occasion de la crise européenne des dettes souveraines, ont conduit les institutions européennes à repenser le cadre régulatoire dans lequel elles s’inscrivaient jusqu’alors : la confiance en l’autorégulation a cédé à la volonté d’encadrer étroitement l’activité des agences, volonté qui s’est traduite par l’adoption d’une réglementation européenne idoine. Celle-ci n’est pas exempte de critiques et rencontre de nombreux obstacles dans sa mise en œuvre. Le premier bilan de l’action européenne, contrasté, témoigne ainsi de la difficulté de réappropriation, par les autorités publiques européennes, de ce domaine d’activité.
Trois règlements européens successifs ont été adoptés entre 2009 et 2013. Le Règlement de 2009 a, pour la première fois, introduit un statut européen pour les agences, par la voie d'une procédure d'enregistrement. Deux autres règlements sont venus préciser les premières initiatives. Le Règlement de 2011 complète le dispositif de contrôle et de sanctions du régulateur, tout en prenant en compte la création de la nouvelle Autorité européenne des marchés financiers (ci-après AEMF). L'innovation majeure du Règlement Agences révisé consiste en effet dans le transfert des compétences opéré au profit de celle-ci, qui centralise désormais l'enregistrement et la surveillance des agences de notation en Europe. Enfin, le Règlement de 2013 a pour ambition de réduire la dépendance réglementaire et prudentielle aux notations et d'aménager les dispositions réglementaires spécifiques à la notation souveraine. Au sein de ce dispositif législatif, deux séries de mesures visent à contrecarrer le pouvoir des agences : dans une première, l’Union s’efforce de subordonner les agences en encadrant leurs fonctions régulatoires ; dans une seconde, elle s’attaque à leur autorité normative et tente de se réapproprier la production des standards de solvabilité.
Trois ans après l’entrée en vigueur de la dernière mouture du Règlement Agences, le bilan est mitigé. En dépit de la volonté européenne exprimée, le modèle régulatoire n’apparaît pas renouvelé dans ses fondements : les grandes agences de notation financière demeurent à ce jour les acteurs incontournables indomptés de la régulation bancaire et financière. Les succès remportés sur le terrain judiciaire à l’échelon global laissent toutefois entrevoir de véritables leviers d’action au bénéfice des émetteurs et des investisseurs, qui tendent à compenser les lacunes de la régulation européenne. Bien que la réglementation ne soit pas parvenue à substituer, comme le législateur l’a un temps espéré, un modèle de régulation publique, elle dessine un modèle de corégulation dont le juge pourrait contribuer à redéfinir les équilibres dans le sens de l’intérêt général. Il serait en ce sens souhaitable que le régime européen de responsabilité des agences soit repensé sous les traits du droit commun. À cette condition, les agences feraient l’objet de contre-pouvoirs et la notation financière pourrait être élaborée et conçue comme un outil vertueux de l’action publique européenne.
-
Economie, Discipline et Expertise sous Vichy
En savoir plusEconomie, Discipline et Expertise sous Vichy
Economie, Discipline et Expertise sous Vichy
Par Nicolas Brisset, Projet structurant « Histoire de la Pensée et Philosophie des Sciences Sociales » (H2P2S)Quels liens peuvent entretenir les scientifiques avec le pouvoir politique ? Comment ces liens participent-ils de l’autonomie même d’une discipline ? De quelle manière un régime fournit-il un cadre institutionnel constitutif de développements théoriques ?
Toutes ces questions sont au cœur du projet de recherche Économie, Discipline et Expertise sous Vichy / Economic Discipline and Expertise in Vichy (EDEV) qui interroge le rôle du régime de Vichy dans l’essor des sciences économiques.
Le projet
Depuis deux années, je participe à un projet collectif de recherche dont l’objectif est de faire l’histoire de la montée en puissance de l’expertise économique et de la théorie économique en France entre 1939 et 1945, une période jusqu’à ce jour largement ignorée par les historiens de la pensée économique. Ce projet s’intitule Économie, Discipline et Expertise sous Vichy / Economic Discipline and Expertise in Vichy (EDEV). Ce groupe se compose de François Allisson (Université de Lausanne – CWP), Nicolas Brisset (GREDEG), Cléo Chassonnery- Zaïgouche (Université de Lausanne – CWP), Raphaël Fèvre (Cambridge) et Tom Juille, (GREDEG).
Vers l’autonomie d’une discipline ?
Le renouvellement de l’histoire de l’occupation, amorcé par les travaux de Robert Paxton (1973), s’est construit autour de la mise en lumière de la diversité des pratiques et des attitudes face à l’occupant. En effet, le régime de Vichy, loin d’avoir constitué une entité homogène, a été le théâtre de luttes entre diverses tendances. L’exemple de la rédaction de la Charte du travail (octobre 1941) est sur ce point particulièrement emblématique. Ce texte, à la fois innovant et inabouti, a connu une rédaction chaotique durant laquelle se déchirent des lignes économiques et sociales différentes (LeCrom, 1995). Ce basculement historiographique a également participé à la remise en cause de la thèse de la période de Vichy analysée comme une « parenthèse » historique, sans lien avec l’avant ou l’après-guerre. À partir du moment où l’on questionne l’unité politique et idéologique du régime, la problématique de la continuité pouvant exister entre ce qui a été pensé et produit par les différents protagonistes de l’État Français (d’un point de vue tant institutionnel qu’intellectuel) et la manière dont la France se reconstruit après 1945 apparaît comme centrale (Nord, 2010). Dans cette perspective, le projet EDEV a pour principal objectif de décrire et analyser la manière dont se développe la théorie économique en France entre 1939 et 1945, mais également les liens que les économistes entretiennent avec le pouvoir économique et politique.
Aussi, par le truchement de l’analyse de ces développements, le projet vise à éclairer l’émergence d’une discipline pas encore tout à fait autonome : les sciences économiques. Bon nombre d’économistes universitaires ont été impliqués, de près ou de loin, dans le régime de Vichy. Certains ont été proches du pouvoir organisateur, d’autres ont intégré des institutions de recherche s’appuyant elles-mêmes sur le nouveau régime. Vichy a été l’occasion pour certains membres d’une profession encore mal définie d’affirmer un statut d’expert. Il faut ici rappeler qu’au moment de l’entrée en guerre, l’économie est encore une discipline annexe du droit, et qu’un triple désir d’émancipation se fait sentir, au moins depuis la fin de la Première Guerre mondiale. Premièrement une émancipation académique vis-à-vis des juristes (les économistes doivent en effet passer l’agrégation de droit). Deuxièmement, une émancipation théorique, dont la montée en puissance de l’économie mathématique est la marque emblématique. Troisièmement, une émancipation politique, dans la mesure où les économistes entendent exprimer leur fonction d’expert au sein des nouvelles institutions de gouvernance économique. Ce triple désir se manifeste dans les années 1930 avec la création d’X-Crise : une institution extra-universitaire, ouverte à l’usage de nouvelles méthodes et se positionnant comme le creuset de nouvelles propositions politiques (Armatte, 2010). Notre hypothèse de travail est que si ce désir technocratique existait avant la Seconde Guerre mondiale, la période de l’occupation a constitué une rupture importante dans la mesure où y ont émergé des institutions de recherches à la fois plus importantes, plus structurées et plus proches du pouvoir que n’avait pu être, par exemple, X-Crise. Le régime de Vichy a été un véritable vecteur de valorisation de l’expertise économique.
Un nouveau cadre institutionnel pour l’économie ?
Le projet de recherche EDEV, porté conjointement par le GREDEG et le Centre Walras-Pareto, interroge la manière dont le régime de Vichy a participé à la mise en place d’un cadre institutionnel venant en partie
répondre aux aspirations de la profession des économistes. Un des points névralgiques de notre travail est la Fondation française pour l'étude des problèmes humains, plus connue sous le nom de
« Fondation Carrel », un temps dirigée par François Perroux*, économiste de premier plan de l’après- guerre. On trouve notamment, au sein de cette fondation, le Centre d’échange de théorie économique (CETE), dirigé par Henri Denis. Ont participé à la vie de ce centre (qui préfigure l’Institut de science économique appliqué que Perroux fondera en 1944) des personnalités importantes, qui auront une grande influence après-guerre. Notre hypothèse de départ est que le Centre d’échange de théorie économique, qui s’inscrit dans un réseau institutionnel dense, a participé de l’émergence de la figure de l’économiste comme expert.
La constitution d’une place forte d’où des économistes reconnus par le pouvoir politique pouvaient développer leurs idées et promulguer des recommandations ne signifie pourtant pas que celles-ci aient eu un impact sur la politique économique effectivement menée par Vichy. Il s’agira également de considérer cette question à l’aune des nombreux travaux relatifs à l’histoire de la politique économique de Vichy (Rousso, 1979 ; Kuisel, 1984 ; Margairaz, 2009; Grenard, Le Bot et Perrin, 2017).
Une des questions centrales est alors de déterminer dans quelle mesure l’étude institutionnelle du champ économique, mais aussi académique, éclaire les contenus théoriques spécifiques de l’époque. Ces derniers sont spécifiques notamment dans leurs rapports aux faits, aux méthodes et à la place de l’expertise dans le contexte français, mais également spécifiques aux discussions théoriques qui ont lieu en Europe à cette même époque.
L’essor des données statistiques
En ce qui concerne l’usage croissant d’outils, tels les statistiques, et leur traitement par les économistes, Vichy permet l’accélération d’un mouvement déjà en place dans les années 1930. Cette accélération passe à la fois par la formation de nouveaux instituts (par exemple le Service National de Statistique, qui absorbe la Statistique Nationale de France d’Alfred Sauvy), et par l’élargissement des données économiques disponibles. Sur ce dernier point, le type de planification mis en place par le régime (structurée par les comités d’organisations), justifié par les impératifs d’une économie d’occupation, rend disponible un grand nombre de données d’entreprises jusqu’ici inaccessibles. C’est donc les bases d’un système statistique au service de la politique économique et de l’expertise qui émergent sous Vichy. Nous nous demanderons en quoi la mise à disposition de nouvelles données a pu avoir un effet sur la manière de faire de l’économie théorique.
Bibliographie
Armatte, M., 2010, La science économique comme ingénierie : quantification et modélisation. Presses des Mines.
Grenard, F., Le Bot F. et C. Perrin, 2017, Histoire économique de Vichy. L’Etat, les hommes, les entreprises. Paris : Perrin.
Kuisel, R., 1984, Le capitalisme et l’État en France. Modernisation et dirigisme au XXe siècle. Paris : Gallimard.
Le Crom, J.-P., 1995, Syndicats nous voilà ! Vichy et le corporatisme. Paris : Les éditions de l’atelier.
Margairaz, M., 2009, Les politiques économiques sous et de Vichy. Histoire@Politique, Politique, Culture, Société, 9 (Sept-déc.), En ligne.
Nord, P., 2010, France’s New Deal. Princeton : Princeton University Press. Paxton, R., 1973, La France de Vichy. Paris : Seuil.
Rousso, H., 1979, L’organisation industrielle de Vichy (perspectives de recherches). Revue d’histoire de La Deuxième Guerre Mondiale, 29 (116), p. 27–44.
* La place de François Perroux au sein de l’ « État Français » est, après une longue période d’oubli, l’objet de quelques travaux universitaires récents (notamment ceux de Bernard Bruneteau et d'Antonin Cohen). Raphaël Fèvre et moi-même nous intéressons particulièrement à la trajectoire de l'économiste français entre les années 1920 et 1945, en tant qu'elle éclaire potentiellement la dynamique entretenue entre institutionnalisation de la discipline et mise en place d'un régime autoritaire.
-
Industrie 4.0 : Quelles révolutions ?
En savoir plusIndustrie 4.0 : Quelles révolutions ?
Industrie 4.0 : quelles révolutions ?
Par Cécile Cézanne, Projet structurant « Gouvernance, Firmes, Innovation » (GFI)Portée par les technologies digitales, l’industrie 4.0 désigne une nouvelle génération d’usines connectées, robotisées et intelligentes. Avec la transformation numérique, les frontières entre le monde physique et virtuel s’estompent pour donner naissance à l’usine du futur dans laquelle les collaborateurs, les machines et les produits interagissent en temps réel pour plus de réactivité, de flexibilité et de valeur ajoutée. Quels sont les enjeux majeurs et les conséquences à attendre de la 4ème révolution industrielle ?
Après la mécanisation, la production de masse et l’automatisation du 20ème siècle, la 4ème révolution industrielle se manifeste dans des technologies nouvelles systémiques comme la fabrication additive, la réalité virtuelle, la réalité augmentée, le cloud, l’analyse de données massives, les blockchains, les objets connectés… L’industrie 4.0 est caractérisée par l’intégration des technologies digitales dans les processus de production en vue d’en améliorer l’efficacité et d’accroître la compétitivité des entreprises. Plus précisément, elle est fondée sur la connectivité des données et des objets (internet des objets et systèmes cyber-physiques) donnant ainsi lieu à une usine plus intelligente, une nouvelle organisation des capacités productives favorable à une meilleure allocation des ressources. L’industrie 4.0 implique donc une combinaison de changements importants avec des retombées considérables notamment en matière d’emploi, d’organisation industrielle et d’environnement.
Une révolution de l’emploi par les requalifications
À travers l’histoire, les questionnements récurrents concernant l’impact des nouvelles technologies portent sur l’emploi et les inégalités. Un rapport de l’OCDE (2016) indique que 15% des tâches seront automatisées d’ici à 2030 avec de fortes variations selon les pays, allant de 9% en Inde jusqu’à 23 et 24% aux Etats- Unis et en Allemagne, voire 29% au Japon. Les conséquences de l’automatisation varient selon les secteurs et les fonctions. Les métiers de l’industrie manufacturière seront les plus touchés contrairement aux fonctions managériales. Par exemple, le potentiel de l’apprentissage automatique, de la robotique collaborative (ou cobotique) et de l’analyse de données volumineuses pourrait remplacer des emplois de niveau intermédiaire ou supérieur dans la gestion des chaînes logistiques. Au-delà des pertes d’emplois déjà enregistrées et à attendre, l’automatisation entraînera une transformation des métiers, voire des changements de poste et de secteur pour 375 millions de salariés (selon un scénario d’automatisation rapide), soit 14% de la population active mondiale. Les salariés devront progressivement développer des compétences transversales adaptées au numérique en plus de leurs compétences techniques. Le système éducatif et de formation professionnelle subira une pression considérable pour s’adapter à ces nouvelles exigences en matière de compétences.
Une révolution de l’organisation industrielle par l’hyper- intégration
La structuration des chaînes de valeur mondiales est également affectée. L’organisation industrielle s’appuie désormais sur des machines et des systèmes interconnectés formant un réseau intelligent capable d’une plus grande adaptabilité sur l’ensemble de la chaîne de valeur. Ils permettent ainsi de créer une intégration sans coupures de process et systèmes au cours des différentes étapes du supply chain management. L’industrie 4.0 autorise de fait une communication continue et instantanée entre les différents outils et postes de travail intégrés dans les chaînes de fabrication et d’approvisionnement. L’objectif est d’optimiser des processus et d’améliorer leur flexibilité afin de s’adapter à la demande en temps réel. Pour autant, l’efficacité opérationnelle recherchée, en rendant les problèmes visibles et mesurables, doit veiller à positionner l’humain au centre de l’organisation. Elle nécessite d’être intégrée au contexte de coopération avec l’humain, l’amélioration de la logistique comme des autres fonctions de l’entreprise reposant sur une évolution complète du travail. L’agilité, la connectivité et la collaboration sont donc au cœur des pratiques de l’industrie 4.0 et conduisent certains observateurs à affirmer que son impact sera fondamentalement différent des précédentes vagues de mécanisation et d’automatisation.
Une révolution environnementale par la transition écologique et énergétique
Les questions environnementales préoccupent également l’industrie 4.0 qui peut non seulement améliorer la productivité et la compétitivité mais aussi contribuer à l’efficacité énergétique et à une allocation efficace des ressources en favorisant des modèles de production et de consommation durables. C’est ainsi que l’on observe une tendance à l’industrialisation de l’économie circulaire. Confrontés à la hausse des prix des matières premières, les industriels cherchent de plus en plus à valoriser leurs déchets au sein de leurs processus de fabrication. Plus généralement, l’usine du futur permettra de programmer de petites et moyennes séries de façon compétitive en s’adaptant aux besoins des consommateurs et en évitant les stocks. Parallèlement, l’amélioration de l’utilisation des ressources énergétiques est rendue possible en particulier au sein des villes intelligentes (Smart Cities) qui déploient des solutions innovantes permettant des économies (gestion en temps réel de la consommation d’énergie des bâtiments, nouveaux modes de production locale d’énergies renouvelables, réseau urbain de chaleur et de froid sur géothermie de nappe, récupération de la chaleur des réseaux d’eaux usées…). La transition écologique et énergétique prend ainsi appui sur l’industrie 4.0 et conduit à s’interroger sur les politiques publiques de soutien à mener pour favoriser les éco-innovations, i.e. les technologies améliorant la performance environnementale.
-
It’s not the winning but the taking part that counts: how the process of applying for competitive grants is of benefit to researchers
En savoir plusIt’s not the winning but the taking part that counts: how the process of applying for competitive grants is of benefit to researchers
It’s not the winning but the taking part that counts: how the process of applying for competitive grants is of benefit to researchers
Par Michele Pezzoni, Projet structurant « Gouvernance, Firmes, Innovation » (GFI)"The most important thing in the Olympic Games is not winning but taking part.” So goes the famous saying by Pierre de Coubertin, the father of modern Olympic Games. But does the same apply for competitive research grants? Based on a collaboration with Charles Ayoubi and Fabiana Visentin, Michele Pezzoni reports on their latest study which finds that simply taking part in an application process has a positive effect on researchers’ publication rates and on the average impact factor of the journals in which they publish. Participating in a competitive grant also allows applicants to enhance their learning, explore new trends of research, and extend their collaboration networks.
Are researchers wasting their time writing grant proposals with a low probability of success? This question is of the utmost importance to policymakers and funding agencies looking to promote scientific research. But it is also a key question for scientists choosing to spend more and more of their time on grant proposals where the probability of being awarded funding is low (between 10% and 35% in the UK, according to the UK Research Councils). In our study, recently published in Research Policy, we evaluated the impact of the two phases of a grant competition race – applying and being awarded with funds – on the main scientific outcomes of a researcher. Relying on detailed records of a Swiss funding programme, we found that the time and effort spent preparing the proposal stimulates the researcher’s quantitative and qualitative productivity regardless of the results of the competition. For researchers, simply taking part in an application process has a positive effect on their publication rates and on the average impact factor of the journals in which they publish. Participating in a competitive grant also allows applicants to enhance their learning, explore new trends of research, and extend their collaboration networks. Interestingly, receiving the desired funds is an incentive to establish a co-authorship with co- applicants but has no additional impact on the individual productivity of researchers.
The scarcity of data on both awarded and non-awarded researchers has been a major limitation of studies evaluating what impact applying for research grants has on the scientific outcomes of researchers. We hope our study can open the way for better consideration of the incentive mechanisms triggered by funding programmes, rather than simply evaluating a return on investment based on the scientists’ financial endowments.
To precisely evaluate the effect of applying, we compared two groups of scientists with the same characteristics, differing only in their decision to participate in a grant competition. Adopting a “difference-in-differences” approach, we assessed whether or not scientists who decided to apply perform differently from others. We used a novel dataset of grant applicants to SINERGIA, a funding programme of the Swiss National Science Foundation (SNSF) sponsoring interdisciplinary team collaboration where researchers are asked to submit a common project to access funds. We then selected a control sample of scientists with observable characteristics as close as possible to the applicants in our sample, using a propensity score matching approach.
We found that applicants boosted their productivity, producing 43% more papers in the five years following the application. Applicants’ papers also appeared in higher impact factor journals (+7%) and showed an increased breadth of references (+36%), suggesting new research directions. The attempt to explore new research directions, far from the current research interests of the applicants, might explain the observed loss of citations to their work (- 33%). After having evaluated the impact of applying, we focused our attention on the subsample of applicant scientists and considered the effect of being awarded. On average, awarded applicants do not perform significantly better than non-awarded ones regarding quantity and quality of their scientific production, although they have a 17% greater chance to establish a co-authorship with their co-applicants.
Interestingly, our results suggest that scientists can sometimes find greater benefits in the time spent writing proposals than from actually receiving the funds. This being the case, scientists should be less reluctant to invest time and effort entering grant race competitions since these could represent opportunities to launch new strands of research, build working ties with fellow researchers, and acquire new knowledge. For funding agencies, our results suggest that publicising the calls more widely and encouraging scientists to apply could be as efficient as increasing the funds dedicated to finance research projects. For instance, organising dedicated days during which funding agencies meet researchers to inform them about the funding opportunities available could help the calls for projects to reach a larger pool of potential applicants. Alternatively, the introduction of a refunding schema compensating the application costs for those proposals passing a minimum quality threshold would also encourage more researchers to apply.
This post originally appeared on the LSE Impact Blog. It is based on the authors’ article, “The important thing is not to win, it is to take part: What if scientists benefit from participating in competitive grant races? ”, Forthcoming on Research Policy, 2018.
-
Les nouveaux défis de la compétitivité régionale face aux chaînes d’activités mondiales (CAM)
En savoir plusLes nouveaux défis de la compétitivité régionale face aux chaînes d’activités mondiales (CAM)
Les nouveaux défis de la compétitivité régionale face aux chaînes d’activités mondiales (CAM)
Par Flora Bellone, projet structurant «Hétérogénéité, Compétitivité et Croissance» (HCC)
L’internationalisation des économies a pris un visage inédit depuis le tournant des années 2000 du fait de l’intensification massive du phénomène de multinationalisation des entreprises et de fragmentation des processus de production(Baldwin, 2012). Cette transformation s’est caractérisée par une croissance sans précédent des flux de commerce des biens intermédiaires et des pièces et composants qui soulève des enjeux nouveaux pour la compétitivité des territoires au sein des pays. En France en particulier, elle met au défile modèle de partage des gains de l’intégration internationale qui s’était établi jusque-là entre grands groupes et petites et moyennes entreprises (PME)et entre territoires centraux et territoires périphériques. Ainsi, le modèle qui a prévalu jusqu’au début des années 1990 est celui où les gains liés à l’internationalisation des grandes entreprises françaises, très concentrées géographiquement, avaient des effets d’entraînement pour l’activité économique du tissu des PME nationales plus dispersées géographiquement. Le développement des chaînes d’activités mondiales (CAM) remet fortement en cause ce modèle, puisque les grandes entreprises se tournent massivement vers des fournisseurs étrangers tandis que les PME implantées en périphérie manquent des infrastructures en matière de soutien à l’innovation et à l’exportation leur permettant de se repositionner vers de nouveaux clients à l’international.
A titre comparatif, les PME allemandes, en moyenne plus grandes que leurs homologues françaises, davantage supportées par des politiques régionales structurelles, et moins dépendantes des stratégies industrielles des grands donneurs d’ordre nationaux, ont pu bénéficier de repositionnements sur des niches de spécialisations portées par leurs territoires d’implantation. De manière plus générale, des débats émergent,dans la plupart des pays, sur l’opportunité de politiques industrielles territorialisées actives [OCDE, 2018].
Au sein de HCC, nous explorons ces nouveaux enjeux de compétitivité territoriale liés aux phénomènes d’internationalisation croissante des entreprises et des CAM. Nous menons ces recherches au sein de différents projets que nous développons dans le cadre de contrats ou de partenariats avec des institutions nationales ou internationales.
Dans le cadre, d’abord,du projet «Regional Expertise Alignement and Firm Performance» financé par l’IDEXUCAJedi, nous proposons une analyse empirique de la compétitivité régionale à partir de données microéconomiques géo-localisées(Dibiaggio et al.2018). Dans ce projet, nous montrons plus spécifiquement l’existence d’un lien entre les performances des entreprises françaises sur les marchés d’exportation et leur insertion dans leur environnement local. Nous établissons ce lien théoriquement puis nous le validons empiriquement en modélisant des réseaux de production à partir de l’identification de proximité entre les portefeuilles de produits exportés par des entreprises localisées au sein de mêmes régions (Hazir et al. 2019).
Dans le cadre du projet «Territoire et chômage, que sont les emplois vulnérables et les facteurs de disparité territoriale?» financé par Pôle Emploi, nous avons reconstruit le réseau des trajectoires professionnelles des employés français, afin d’identifier les professions les plus isolées et exposées au risque de chômage. Spécifiquement, nous avons calculé une moyenne pondérée de cette vulnérabilité au niveau local des zones d’emploi françaises. Les premiers résultats montrent une corrélation entre cette vulnérabilité locale et l’évolution du chômage entre 2003 et 2015, et plus encore quant à une hausse du chômage suivant une plus grande exposition à la concurrence internationale. La prochaine étape de ce travail vise à identifier la résilience et la vulnérabilité de l’emploi local face à la robotisation croissante de certaines tâches.
Dans le cadre du projet «China competition, localization and productivity: what lessons from firm level dynamics in France and Japan?» qui démarrera en septembre 2019 en en partenariat avec la Keio University de Tokyo,nous souhaitons comparer l’impact de l’intensificationde la concurrence chinoise sur les choix de production et de localisation des entreprises françaises et japonaises opérant dans certains secteurs manufacturiers clés. Nous mobiliserons pour cela des méthodes de comparaison à partir de larges panels de données micro-économiques que nous avons établies antérieurement [Bellone et al. 2014;Kiyota et al. 2019]. Pour ce qui est du cadre théorique,nous travaillons à partir d’un modèle dans lequel la concurrence d’un pays à bas salaires sur les industries localisées au sein d’un pays à hauts salaires dépend directement de la nature et de l’ampleur des coûts de transaction entre ces deux pays. De ce point de vue, la différence de position géographique du Japon et de la France vis-à-vis de la Chine nous offre une stratégie d’identification intéressante.
Enfin, dans le cadre d’un projet exploratoire sur “L’alignement des multinationales françaises sur les CAM», nous montrons que, depuis le milieu des années 1990, le positionnement géographique des filiales des multinationales françaises est de plus en plus déterminé par le déploiement des CAM (Joyez, 2019). Ce constat est produit à partir d’une analyse comparée de deux réseaux: celui de la localisation des filiales françaises à l’étranger et celui des CAM repérable à partir des tables d’inputs-outputs internationales. Ce projet s’inscrit dans un programme de recherche plus général visant à explorer les changements organisationnels au sein des entreprises qui sont directement induits par la vague actuelle de mondialisation (Laffineur, 2019) et, ensuite, à en mesurer les effets sur l’emploi, les salaires et la productivité à différents niveaux territoriaux.Sur le plan des méthodes, l’ensemble de nos travaux relatifs à la compétitivité des territoires face au phénomène des CAM, nous conduisent à relever des défis méthodologiques importants pour la communauté scientifique. D’abord, nous cherchons à modéliser la «complexité économique» relative au fait que l’ouverture internationale d’un territoire implique, tout à la fois, un changement dans le niveau des coûts de transports, le niveau des coûts de transfert des connaissances et le degré de mobilité des facteurs.La théorie économique est encore mal outillée pour appréhender de manière conjointe ces différentes dimensions de l’intégration économique internationale. Ensuite, nous contribuons à l’effort de la communauté visant à produire,par différents moyens, des travaux comparatifs internationauxà partirde larges panels de données micro-économiques.
Enfin, nous participons à la vague des nouveaux travaux qui appréhendent les conséquences de la mondialisation par le biais d’outils d’analyse des réseaux. Sur ce front, notre originalité, est de mettre l’accent,non pas sur des enjeux de propagation de crises ou de chocs, qui ont jusqu’à présent occupés l’essentiel de la littérature, mais plutôt sur des enjeux de structuration à long terme des espaces économique set de dynamiques des inégalités territoriales de richesse. Références citées Baldwin R. (2012) «Global supply chains : why they emerged, why they matter, and where they are going», in ELMS D.K. et LOW P. Global value chains in a changing world, World Trade Organization publications, Lausanne, p. 13-60.Bellone F.,P.Musso, L.Nesta et F. Warzynski (2016), «International trade and firm-level markups when location and quality matter», Journal of Economic Geography. Bellone F., K.Kiyota, T.Matsuura, P.MussoetL.Nesta (2014), «International productivity gaps and the export status of firms: Evidence from France and Japan», European Economic Review. Dibiaggio L.,B. Montmartin etL. Nesta (2018), «Regional alignment and productivity growth», GREDEG Working Paper n°2018-18.Hazir, C.S., F.Bellone etC. Gaglio (forthcoming), «local product space and firm-level churning in exported products», Industrial and Corporate Change.Joyez C. (2019) «Alignment of multinational firms along global value chains: A network-based perspective», GREDEG Working Paper, 2019-05Kiyota K., T. Matsuura etL. Nesta(2019),«What's behind the figures? Quantifying cross-country productivity gap», Economic Inquiry.Laffineur C.(forthcoming) «Foreign direct investment and the organization of French firms», Annals of Economics and Statistics.OCDE (2018) Productivity and jobs in a globalised world: (How) can all regions benefit?, OECD Report.