m

Documents  Alternatives Economiques | enregistrements trouvés : 216

O

-A +A

P Q

UV

Alternatives Economiques


Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 271 - p.38 à p.40

Pour l'instant, la rupture semble consommée entre Yahoo ! et Microsoft. Mais le feuilleton n'est probablement pas fini. A suivre.

La trêve entre les géants d'Internet passera-t-elle l'été ? Par un communiqué laconique le 12 juin dernier, Yahoo ! dissipait un suspense qui durait depuis le mois de février: "Les discussions avec Microsoft concernant un rachat total ou partiel de Yahoo ! ont pris fin." Dans la foulée, le portail Internet consommait sa rupture avec le géant des logiciels en annonçant un partenariat dans la publicité en ligne avec son grand rival Google. Rebondissements et retournements d'alliance restent néanmoins toujours possibles, tant la logique qui pousse à la concentration des grands acteurs d'Internet est forte. Explications.
Un marché de la pub très convoité

Microsoft a tenté pendant des mois de mettre la main sur Yahoo !, pour deux raisons principales. La première, la plus connue, concerne le marché de la publicité. Une fraction croissante des dépenses publicitaires est en effet captée par Internet au détriment des médias traditionnels: 15 % aux Etats-Unis en 2008 et près de 10 % en Europe. Au total, la publicité sur Internet devrait représenter 45 milliards de dollars dans le monde cette année. Et cela pourrait doubler d'ici à 2010, selon Microsoft. Sur Internet, plus encore que dans les autres médias (1), la prime au leader est forte: celui qui fédère l'audience la plus large remporte une part écrasante de la manne publicitaire. D'où la course à l'audience dans laquelle sont engagés les grands agrégateurs de trafic que sont les moteurs de recherche.

Pour le moment, c'est Google qui décroche la timbale en nombre de visiteurs uniques, mais il est talonné de près par Microsoft et Yahoo ! Un rapprochement entre ces derniers mettrait donc à mal ce leadership. Il permettrait de plus à Microsoft d'avoir accès à la technologie de recherche de Yahoo !, héritée des défunts Altavista et Inktomi: malgré ses moyens financiers colossaux, le géant de Redmond n'a en effet jamais réussi à développer un moteur de recherche maison qui égale les performances de ceux de Yahoo ! ou de Google.

Mais ces mystérieux algorithmes ne suffisent pas à expliquer pourquoi Google raffle les deux tiers de la publicité présente sur les seuls moteurs de recherche et 40 % du marché total de la publicité en ligne. L'ampleur de ce succès s'explique par la domination de Google dans le domaine des liens dits "sponsorisés", ces liens commerciaux qui apparaissent à côté de la liste des résultats d'une recherche. Google tire plus des deux tiers de ses revenus de la vente aux enchères de mots-clés permettant d'afficher ce type de liens de marketing ciblé lors des recherches des internautes. Là encore, Microsoft est à la traîne. Il ne grappille que des miettes sur ce marché. D'où son intérêt pour Yahoo !, qui commence à braconner sur les terres de Google avec Panama, sa nouvelle plate-forme de gestion de liens sponsorisés. De plus, Yahoo ! est déjà numéro deux de la publicité en ligne, grâce à son savoir-faire dans l'autre format publicitaire dominant sur la Toile: les bannières.
Menace sur la suite Office

La deuxième raison pour laquelle l'acquisition de Yahoo ! constitue un enjeu de taille pour Microsoft est moins commentée, mais sans doute plus centrale encore: elle tient à l'évolution de son coeur de métier, les logiciels. Google a en effet lancé en 2006 sa propre suite bureautique de logiciels directement concurrente de la suite Office de Microsoft (Word, Excel, etc.). Différence essentielle: les logiciels de Google sont mis à disposition gratuitement en ligne et n'ont pas besoin d'être chargés et installés sur les PC des utilisateurs.

En avril dernier, Google signait un partenariat avec l'éditeur américain de logiciels à la demande, Salesforce.com, afin qu'il propose cette suite comme alternative à la suite bureautique de Microsoft, jusque-là intégrée dans son offre d'outils de gestion de la relation client. Cet accord permet potentiellement au moteur de recherche d'élargir le cercle des utilisateurs de sa suite aux 38 000 entreprises clientes de Salesforce.com dans le monde. Un gros caillou dans le jardin de Microsoft, dont l'hégémonie dans l'informatique s'est construite sur la vente de ce type de logiciels aux particuliers et aux entreprises !

Cette évolution stratégique du marché du logiciel vers le software as a service (SaaS), où le logiciel n'est plus un produit séparé, mais une simple composante d'une offre de services, menace par conséquent les fondements même de l'empire construit par Bill Gates depuis trente ans. "Pour relever ce défi, Microsoft est donc condamné à devenir un acteur d'Internet à part entière, analyse Hervé Le Crosnier, chercheur à l'université de Caen. Il a besoin d'intégrer des spécialistes reconnus des techniques spécifiques du réseau, comme le cloud computing."

Le cloud computing ? C'est un procédé qui devrait révolutionner l'informatique d'entreprise dans les toutes prochaines années: il consiste à se servir de la mémoire et des capacités de calcul d'ordinateurs et de serveurs répartis dans le monde entier et reliés par un réseau, tel Internet, pour disposer d'une puissance informatique considérable et modulable à loisir en fonction de ses besoins. Les entreprises n'auraient donc plus besoin d'entretenir leurs propres serveurs. Un nouveau secteur d'activités est en train de voir le jour, avec des compagnies spécialisées. Amazon, pionnier du cloud computing, loue ainsi les capacités de stockage de son infrastructure informatique au New York Times pour ses archives en ligne. Google est particulièrement actif dans ce domaine: il vient de s'associer avec IBM, pour mettre en réseau les universités américaines à des fins de recherche.

Raison de plus pour s'intéresser aux équipes de Yahoo !, qui entretient des liens privilégiés avec la communauté du logiciel libre, au coeur de ces nouveaux développements. D'autant que "la quantité d'informaticiens de haut niveau disponibles sur le marché du travail est très faible par rapport aux besoins de cette industrie", souligne Hervé Le Crosnier. Cela pose cependant un défi particulier qui explique la prudence avec laquelle Microsoft a abordé le dossier Yahoo !, Alors que sa force de frappe financière lui aurait permis de s'en emparer facilement au travers d'une OPA hostile. "Yahoo ! n'a d'intérêt pour Microsoft que si ce dernier est capable de maintenir dans son giron ses ingénieurs après une fusion", souligne Hervé Le Crosnier. Et c'est loin d'être gagné tant les deux cultures d'entreprise diffèrent.

Depuis les rumeurs de rachat par Microsoft, les CV de salariés de Yahoo ! fusent déjà dans la Silicon Valley. Plutôt quitter le navire que de tomber sous la coupe de l'ogre de Redmond, avec son organisation hiérarchique rigide et son obsession de la propriété intellectuelle !

La crainte du géant des logiciels d'une fuite des cerveaux a permis à Yahoo ! de faire monter les enchères, avant de claquer la porte au nez de Steve Ballmer, le patron de Microsoft. Mais à trop vouloir monnayer sa vertu, Yahoo ! joue gros. Il risque en effet de se retrouver marginalisé s'il reste à l'écart du mouvement de concentration actuel.

La domination de Google

Bousculé par Google, il n'est plus l'acteur prometteur et incontournable qu'il était au début des années 2000. Il a raté beaucoup de virages stratégiques majeurs, comme les liens sponsorisés ou les sites communautaires, et tente depuis de rattraper son retard. Ses profits se sont effrités ces dernières années, passant de 1,9 milliard de dollars en 2005 à 660 millions en 2007. L'assemblée générale de Yahoo !, prévue le 1er août, promet d'ailleurs d'être houleuse. Son PDG et fondateur Jerry Yang y risque sa place si la fronde de l'un de ses actionnaires principaux, favorable au rapprochement avec Microsoft, le milliardaire Carl Icahn, aboutit.

"L'accord signé avec Google sur la publicité ne règle rien sur le long terme, tranche Japp Javier, analyste chez Forrester. C'est uniquement un moyen d'améliorer les résultats financiers de Yahoo ! à court terme". En acceptant que Google place des liens sponsorisés à côté des résultats de son moteur de recherche en Amérique du Nord, Yahoo ! espère en effet encaisser un surcroît de 800 millions de dollars en année pleine. Pas de quoi non plus dissuader définitivement Microsoft de revenir à la charge: "s'il était vendu dans les vingt-quatre mois, Yahoo ! devrait verser 250 millions de dollars de pénalités à Google. Cela ne représente jamais que 0,5 % du prix que Microsoft était prêt à mettre sur la table", ajoute Japp Javier.
Alerte aux trusts

Le deal Google-Yahoo ! pourrait bien de toute façon ne jamais voir le jour: "il est peu probable que les autorités anti-trust américaines valident un accord qui donnerait à ses protagonistes une position aussi dominante sur le marché de la publicité", observe Vincent Bonneau, consultant senior à l'Idate. Alors qu'un rapprochement Yahoo !-Microsoft constituerait un contrepoids à la domination de Google. Il poserait cependant, lui aussi, de graves problèmes de concurrence, notamment dans le domaine du courrier électronique et de la messagerie instantanée. Plus que dans n'importe quel autre secteur, la concentration des géants d'Internet constitue en effet une menace potentielle pour la société: ils brassent et gèrent des milliards de données personnelles à travers la navigation des internautes, l'administration des messageries électroniques, les systèmes d'authentifica-tion, etc.

Les pouvoirs publics ont jusqu'ici toujours rechigné à se saisir véritablement de cette question. Si un rapprochement du type Microsoft-Yahoo ! ou Google-Yahoo ! devait finalement se faire, elle deviendrait vraiment incontournable...
Marc Chevallier
Pour l'instant, la rupture semble consommée entre Yahoo ! et Microsoft. Mais le feuilleton n'est probablement pas fini. A suivre.

La trêve entre les géants d'Internet passera-t-elle l'été ? Par un communiqué laconique le 12 juin dernier, Yahoo ! dissipait un suspense qui durait depuis le mois de février: "Les discussions avec Microsoft concernant un rachat total ou partiel de Yahoo ! ont pris fin." Dans la foulée, le portail Internet consommait ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 268 - p.76 à p.78

Auteur prolifique et mathématicien accompli, William Jack Baumol a investi de nombreux champs de recherche. Ses réflexions sur la productivité et sa théorie des marchés contestables sont des contributions majeures.

William Jack Baumol est l'un des économistes les plus prolifiques de sa génération. Il est l'auteur d'environ 500 articles scientifiques et 35 livres, ce dernier mode de transmission des idées étant, en économie, de moins en moins pratiqué. Ses contributions s'inscrivent dans les champs les plus diversifiés: économie du bien-être, économie monétaire, dynamique et croissance, économie industrielle, économie de l'environnement, politiques économiques, économie urbaine, économie de l'art, histoire de la pensée économique. Il a publié une anthologie des textes classiques en économie mathématique, depuis le XVIIIe siècle. Tout en étant l'un des premiers à avoir intégré, dans son célèbre article de 1952, la demande de monnaie dans une analyse élargie à divers types d'actifs, il est aussi l'un des rares économistes, à part Keynes, à avoir pris au sérieux la théorie freudienne de l'argent. Il a écrit un article fouillé sur Mozart et l'économie de la composition musicale dans la Vienne de son époque. Auteur d'un des manuels d'introduction à l'économie les plus largement utilisés à travers le monde, qui en était à sa dixième édition en 2005, Baumol est en outre un peintre et un sculpteur sur bois reconnu. Il consacre beaucoup de temps à ces activités, expose ses oeuvres et a enseigné à l'université Princeton, en plus de l'économie, la sculpture sur bois.

Mathématicien accompli, Baumol applique le plus souvent à ses travaux des techniques sophistiquées: économétrie, recherche opérationnelle, programmation linéaire, analyse des activités. Il estime toutefois que, dans le domaine de la méthodologie économique, il n'y a pas de voie unique et que les méthodes - mathématiques, économétriques, institutionnalistes, historiques, néoclassiques ou autres - doivent être choisies en fonction des problèmes traités. Il reproche à plusieurs de ses collègues de se complaire dans la construction de modèles abstraits qui deviennent des fins en soi, alors qu'il s'agit de "comprendre la réalité pour améliorer les circonstances dans lesquelles les gens vivent": "fournir du travail aux sans-emploi, élever le niveau de vie des sans-abri, empêcher l'empoisonnement de notre atmosphère et la dégradation de notre environnement" (1). Les objectifs sociaux qu'il prône, a-t-il écrit, sont toujours venus de la gauche. Ses parents, immigrés juifs de Pologne, étaient des marxistes convaincus. Baumol a donc été initié très jeune à l'oeuvre de Marx, qu'il connaît bien et dont il traite, entre autres, dans son premier livre. Il a toujours pensé qu'il ne faut pas confondre le marxisme et le totalitarisme soviétique. En 1971, Paul Samuelson a publié, sur le problème de la transformation des valeurs en prix de production chez Marx, un article qui a fait couler beaucoup d'encre, dans lequel il concluait que la théorie de la valeur et de la plus-value constituait un détour heuristique inutile. Baumol a répliqué en accusant Samuelson de n'avoir pas compris le sens de la théorie de Marx (2).



La maladie des coûts


A la suite d'une longue recherche sur les arts de la scène, Baumol a formulé sa thèse de la "maladie des coûts" (cost disease) aussi appelé "maladie de Baumol". Il ne peut y avoir, dans ce domaine d'activité, de changements techniques induisant des hausses importantes de productivité. Par exemple, les répétitions en vue de présenter un récital de quatuor à cordes prennent le même temps aujourd'hui que du temps de Beethoven. Mais, depuis cette époque, la productivité dans le secteur manufacturier de l'économie n'a cessé de croître à un rythme parfois spectaculaire. Dès lors, les coûts relatifs dans le secteur des arts scéniques ne cessent d'augmenter et seuls des transferts financiers croissants, de source publique ou privée, peuvent permettre de maintenir un même niveau de performance. Il en est de même dans plusieurs autres domaines, tels que l'éducation, la santé et, de manière générale, la plupart des services, dans lesquels l'intensité de la main-d'oeuvre est élevée et les possibilités de progrès technologique moindres. Dans le secteur manufacturier, la place du travail peut diminuer indéfiniment, alors que dans celui des services, le travail est souvent en soi le produit final. C'est la croissance de la productivité dans l'agriculture et l'industrie manufacturière, associée à sa quasi-stagnation dans le secteur des services, qui entraîne la baisse de la proportion de l'emploi dans les deux premiers, et non pas, comme on le pense souvent, un processus de désindustrialisation.


Repères biographiques

1922 :
naissance le 26 février à New York.





1939-1942 :
études au College of the City of New York, où il obtient une licence. Il étudie aussi à la Art Student's League.





1942-1943 :
1946 : :
économiste au ministère de l'Agriculture à Washington.





1943-1946 :
enrôlé dans l'armée américaine, il séjourne entre autres à Rouen.





1946-1949 :
études à la London School of Economics, où il commence à enseigner et obtient un doctorat en économie.





1949-1992 :
professeur assistant, puis titulaire (1954) à l'université Princeton.





1951 :
avec Ralph Turvey, Economic Dynamics, éd. Macmillan.





1952 :
Welfare Economics and the Theory of the State, éd. Longmans Green. " The Transaction Demand for Cash : An Inventory Theoretic Approach ", Quarterly Journal of Economics.





1954 :
avec Lester V. Chandler, Economic Processes and Policies, éd. Harper & Brothers.





1959 :
Business Behavior, Value and Growth, éd. Macmillan.





1961 :
Economic Theory and Operations Analysis, éd. Prentice-Hall ; Théorie économique et analyse opérationnelle, éd. Dunod, 1963.





1965 :
The Stock Market and Economic Efficiency, éd. Fordham University Press.





1966 :
avec William G. Bowen, Performing Arts : The Economic Dilemma, éd. Twentieth Century Fund.





1971 à maintenant :
professeur et directeur du Centre C. V. Starr d'économie appliquée, New York University.





1975 :
avec Wallace E. Oates, The Theory of Environmental Policy, éd. Cambridge University Press.





1979 :
avec Wallace E. Oates et Sue Anne Batey Blackman, Economics Environmental Policy and the Quality of Life, éd. Prentice-Hall. Avec Allan S. Blinder, Economics : Principles and Policy, éd. Harcourt Brace Jovanovitch ; L'économique : principes et politiques, éd. Etudes vivantes, 1986.





1981 :
président de l'American Economic Association.





1982 :
avec John C. Panzar et Robert D. Willig, Contestable Markets and the Theory of Industry Structure, éd. Harcourt Brace Jovanovich.





1984 :
avec Hilda Baumol, Inflation and the Performing Arts, éd. New York University Press.





1986 :
Superfairness : Application and Theory, éd. MIT Press.





1989 :
avec Sue Ann Batey Blackman et Edward N. Wolff, Productivity and American Leadership : The Long View, éd. MIT Press.





1994 :
avec Richard R. Nelson et Edward N. Woolf, Convergence of Productivity : Cross-National Studies and Historical Evidence, éd. Oxford University Press.





2002 :
The Free-Market Innovation Machine : Analyzing the Growth-Miracle of Capitalism, éd. Princeton University Press.



Baumol estime par ailleurs qu'à long terme, on assiste à une tendance à la convergence des niveaux de productivité, de technologie et de revenu per capita entre les pays industrialisés, l'écart entre l'économie dominante, celle des Etats-Unis, et les autres se rétrécissant. Ce phénomène est dû, en particulier, aux transferts de technologie. Un des derniers livres de Baumol est consacré à une réflexion sur la croissance du capitalisme, qui dépasse la croissance enregistrée par tout autre type d'économie. Il l'attribue aux pressions à l'innovation que le marché libre impose aux entreprises, pour lesquelles il s'agit d'une question de vie ou de mort.



Une nouvelle vision des entreprises et des marchés


Depuis l'époque de ses études, Baumol s'est intéressé à la microéconomie appliquée, en particulier au fonctionnement des entreprises et à la structure industrielle. Il s'étonnait alors du peu d'échos rencontrés dans la profession par les travaux de Joan Robinson et d'Edward Chamberlain sur la concurrence imparfaite et remettait en question la croyance absolue dans l'efficacité des marchés professée, par exemple, par les économistes de Chicago. Ses recherches, mais aussi ses activités de consultant pour des firmes de conseil en gestion qui l'ont amené à côtoyer les dirigeants de plusieurs grandes entreprises, lui ont fait découvrir le fossé entre la vision de la réalité économique de ces derniers et la théorie microéconomique standard. Il a découvert, en particulier, que les grandes firmes ne cherchent pas à maximiser leurs profits, mais plutôt leurs ventes. Il a constaté par ailleurs que le comportement d'entreprises qui fabriquent plusieurs produits est différent de celui des entreprises à produit unique auxquelles les manuels se limitent, et a développé des techniques nouvelles pour rendre compte de ce phénomène.

L'étude des marchés monopolisés l'a amené à développer, avec ses collègues John C. Panzar et Robert B. Willig, la théorie des marchés contestables (ou "disputables"). Selon la théorie traditionnelle, un marché monopolistique se caractérise par l'existence d'une barrière absolue à l'entrée. En réalité, tout marché de ce type est sous la menace de l'entrée d'une entreprise qui pourrait décider de vendre moins cher que le monopole pour accaparer une part du marché. Il y a toutefois toujours des coûts à l'entrée et l'entreprise monopoliste peut décider de déclencher une guerre des prix pour tenter de bloquer l'entrée d'un concurrent potentiel. Selon la théorie des marchés contestables, on en déduit que le prix de vente final d'un produit est inférieur à celui que prévoit la théorie traditionnelle. Un marché contestable est donc un marché dans lequel les entreprises doivent tenir compte de l'entrée potentielle de nouvelles firmes. La structure du marché est ainsi déterminée, non seulement par les entreprises présentes, mais par celles qui pourraient entrer dans l'industrie. Alors que cette théorie a été utilisée pour justifier des politiques de déréglementation, par exemple dans le domaine du transport aérien, ses promoteurs estiment qu'elle laisse au contraire la porte ouverte à des interventions gouvernementales dans des marchés qui ne sont pas la solution à tous les problèmes.

Baumol s'était déjà penché, dans sa thèse de doctorat publiée en 1952, sur la nécessité de l'intervention des pouvoirs publics en présence d'externalités. Il revient sur la question dans deux ouvrages publiés en 1975 et 1979, qui sont parmi les premiers à traiter en détail des problèmes de la conservation des ressources et de la protection de l'environnement, bien avant que ces sujets n'occupent le devant de la scène. Cela a amené son élection à la présidence de la nouvelle Association of Environmental and Resource Economists. Pour Baumol, la croissance n'entraîne pas nécessairement un accroissement de la qualité de vie, pollution et encombrements étant liés à des imperfections structurelles dans les économies de marché. De manière plus générale, les gouvernements doivent trouver des moyens pour inciter les entreprises à mener des activités susceptibles d'accroître le bien-être de la collectivité, d'atteindre ce qu'il a baptisé la "superéquité" (superfairness).

Gilles Dostaler


Alternatives Economiques - n°268 - Avril 2008
Notes
(1)
"On my Attitude: Sociopolitical and Methodological", dans Eminent Economists: Their Life Philosophies, par Michael Szenberg (dir.), éd. Cambridge University Press, 1992, p. 53.

(2)
"The Transformation of Values: What Marx "Really" Meant (An Interpretation)", Journal of Economic Literature, vol. 12, mars 1974.

En savoir +
Selected Economic Writings of William J. Baumol, édité par Elisabeth E. Bailey, éd. New York University Press, 1976.
Growth, Industrial Organization and Economic Generalities, recueil d'articles de William J. Baumol, éd. Edward Elgar, 2003.
"William J. Baumol", par Elizabeth E. Bailey et Robert D. Willig, dans New Horizons in Economic Thought, par Warren J. Samuels (dir.), éd. Edward Elgar, 1992.
"Contestable Markets and the Theory of Industry Structure", par Michael Spence, Journal of Economic Literature, septembre 1983.
Baumol's Cost Disease: The Arts and Other Victims, par Ruth Towse (dir.), éd. Edward Elgar, 1997.
http://cepa.newschool.edu/het/profiles/baumol.htm

Auteur prolifique et mathématicien accompli, William Jack Baumol a investi de nombreux champs de recherche. Ses réflexions sur la productivité et sa théorie des marchés contestables sont des contributions majeures.

William Jack Baumol est l'un des économistes les plus prolifiques de sa génération. Il est l'auteur d'environ 500 articles scientifiques et 35 livres, ce dernier mode de transmission des idées étant, en économie, de moins en moins ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 237 - p.46 à p.60

800 millions de personnes ne mangent pas à leur faim, 900 millions vivent dans des bidonvilles, 1 milliard ne savent ni lire ni écrire...La communauté internationale doit revoir ses politiques, en matière d'aide mais aussi de politique commerciale et de gestion de la dette du Sud.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 259 - p.50 à p.58

Le G7 ? Discrédité. Le FMI ? En faillite. L’OMC ? Des négociations qui n’avancent pas... La liste est longue des déboires des institutions internationales. Alors que la régulation de la mondialisation appelle une action coordonnée des Etats, les institutions économiques internationales traversent collectivement une phase difficile de leur histoire. Décryptage d’un paradoxe.
• G7, OMC, FMI..., des institutions en crise
Intro
Les institutions économiques internationales sont mal en point. De profondes réformes s’imposent pour qu’elles puissent réguler la mondialisation galopante.
• Le FMI en faillite
• L’OMC mal partie
• Les Etats-Unis contre la BRI
• L’OCDE en quête de projet
Le G7 ? Discrédité. Le FMI ? En faillite. L’OMC ? Des négociations qui n’avancent pas... La liste est longue des déboires des institutions internationales. Alors que la régulation de la mondialisation appelle une action coordonnée des Etats, les institutions économiques internationales traversent collectivement une phase difficile de leur histoire. Décryptage d’un paradoxe.
• G7, OMC, FMI..., des institutions en crise
Intro
Les institutions ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 215 - p.58 à p.61

Alors que la consommation de tabac progresse au Sud, l'Assemblée mondiale de la santé adopte une convention pour la mise en place de véritables stratégies antitabac.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 262 - p.54 à p.64

Nicolas Sarkozy en avait fait un de ses slogans de campagne: on ne remplacerait qu'un fonctionnaire sur deux partant à la retraite. Mais réformer l'Etat ne peut se résumer à cette approche quantitative qui ne pourra que dégrader la qualité des services rendus et développer les inégalités. Il faut plutôt partir des besoins et définir les meilleurs moyens de les satisfaire, quitte à assurer une plus grande mobilité des agents publics.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

Sommes-nous tous condamnés à travailler demain comme les chauffeurs de VTC de la désormais célèbre société américaine Uber ? La numérisation de l'économie va-t-elle transformer à grande échelle les salariés en travailleurs indépendants, payés à la tâche ? Si le scénario a tendance à être exagéré, le travail en solo gagne néanmoins du terrain et menace notre système de protection sociale.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.
Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 281 - p.44 à p.46

Le modèle de l'hypermarché fait de moins en moins recette. Un nouvel urbanisme commercial émerge, plus hétérogène et plus durable.

Qui ne s'est jamais perdu dans les kilomètres de rayons d'un hypermarché? Qui n'a été plongé dans un abîme de perplexité devant l'offre pléthorique de yaourts au rayon frais? Qui n'a eu le vertige face à l'enfilade de caisses dans ces grandes surfaces qui s'étalent en moyenne sur 5 700 mètres carrés par magasin? "Il y a une crise du gigantisme, d'une trop grande standardisation de l'offre", concède Michel-Edouard Leclerc lui-même, patron de l'enseigne E. Leclerc (1). Trop grands, trop loin de l'habitat, trop nombreux, les hypermarchés sont aujourd'hui en perte de vitesse.


Un marché saturé et fortement concurrencé

Première raison: la saturation. De fait, la France compte aujourd'hui 1 500 hypermarchés, alors qu'ils n'étaient que deux en 1966. Ce modèle a connu pendant les années 1960-1980 une croissance extensive, caractérisée par la multiplication des implantations. Cet essor était lié à celui de la con-sommation de masse. " L'hypermarché était la déclinaison commerciale du fordisme", explique Philippe Moati, directeur de recherche au Credoc: une offre standardisée proposée par des surfaces de grande taille, qui permettaient aux distributeurs de faire des économies d'échelle.

Mais les hypers sont aussi l'emblème d'un modèle qui contredit les exigences du développement durable: construites en périphérie des villes, les grandes surfaces ont participé d'une logique d'urbanisation extensive, dévoreuse de surfaces agricoles et favorisant le recours quasi systématique à la voiture individuelle pour faire les courses, avec toutes les conséquences que l'on sait: atteinte à la biodiversité, blocage des écoulements naturels de l'eau, forte consommation d'énergie, dégradation de nos entrées de ville, etc.

Evolution du nombre d'ouvertures d'hypermarchés, de supermarchés et de maxi-discounters

S'inscrivant dans ce modèle urbain lié aux Trente Glorieuses, les hypers se sont multipliés, en dépit du vote de lois destinées à préserver le petit commerce. La loi Royer de 1973 a soumis toute création de magasin excédant 1 500 mètres carrés à l'approbation par une commission départementale d'urbanisme commercial. En 1996, la loi Raffarin avait encore durci les conditions d'ouverture de nouveaux magasins. Or, ces lois ont paradoxalement eu pour conséquence de figer l'urbanisme commercial en créant parfois des monopoles locaux. De quoi assurer une rentabilité maximale aux enseignes en place en confortant leurs positions au détriment de nouveaux concurrents prêts à investir le marché, notamment les maxi-discounters. Ces lois n'ont cependant pas empêché une saturation progressive de l'offre, qui a conduit les distributeurs français à s'internationaliser et à se concentrer. Aujourd'hui, cinq centrales d'achat se partagent l'essentiel de l'activité et quadrillent le territoire français.

Depuis lors, la croissance des hypers a connu un sérieux ralentissement. Les nouvelles implantations se font rares: seulement deux nouveaux hypermarchés ont ouvert en 2007 (tandis que 83 supermarchés ouvraient leurs portes). Leurs parts de marché s'érodent: ils ne vendaient plus que 33% des produits alimentaires en 2007, contre 35% en 1999 (2). Dans le même temps, la part des supermarchés est passée de 30% à 33%.

Au-delà de l'alimentaire, le modèle hyper est soumis à la concurrence des grandes surfaces spécialisées (les Bricomarché et autres Halle aux chaussures, devenus plus compétitifs en termes de choix, de conseils et de prix). Reste, enfin, la montée plus récente des maxi-discounters, dont l'implantation a été facilitée par la loi de modernisation de l'économie (LME) d'août 2008. Le seuil de déclenchement de la procédure - lourde - d'autorisation d'ouverture de magasin a été relevé à 1 000 mètres carrés. "La loi LME ne se traduira pas par une déferlante des maxi-discounters, car le territoire est déjà relativement bien quadrillé. En revanche, elle permet des agrandissements de surface. Nous avons d'ailleurs plusieurs projets dans ce sens", explique-t-on chez ED, qui dispose déjà de 918 magasins en France. De plus, les maxi-discounters, qui commencent à proposer aussi des produits de marque dans leurs rayons pour élargir leur clientèle, sortent de leur créneau générique à bas prix en devenant des discounters tous azimuts, c'est-à-dire en proposant des bas prix sur tous les types de produits.


Un modèle dépassé

La loi LME va être complétée par une législation sur l'urbanisme commercial qui devrait être discutée au Parlement d'ici à la fin juillet ou début octobre : "cette proposition de loi porte en soi une petite révolution, car elle va intégrer des critères de développement durable dans le code de l'urbanisme", explique Michel Pazoumian, délégué général du Procos (la Fédération pour l'urbanisme et le développement du commerce spécialisé). Portée par le député Jean-Paul Charié (UMP), elle propose la création d'une commission qui ferait des recommandations aux élus sur ce sujet. Sur ces bases, les élus élaboreraient un document d'urbanisme commercial qui devrait être compatible avec les documents d'urbanisme qui dessinent la géographie de la ville - le schéma de cohérence territorial et le plan local d'urbanisme (3). Ainsi, l'urbanisme commercial serait intégré à la vision d'ensemble du développement urbain.

"La question des transports sera très importante dans les futures autorisations d'extension ou d'implantation de grandes surfaces", prévoit Michel Pazoumian. Les autorités publiques sont de plus en plus attentives à la desserte en transports en commun des futurs projets commerciaux. Or, l'hypermarché est quasiment toujours situé en périphérie de ville, et donc très mal desservi par les transports publics. D'ailleurs, son développement est allé de pair avec celui des banlieues et le triomphe de la voiture, à l'instar du modèle américain des suburbs.

Telle taille, tel classement

Hypermarché: magasin d'une surface de vente au détail égale ou supérieure à 2 500 m2, implanté le plus souvent en périphérie de ville.

Supermarché: magasin de vente au détail à dominance alimentaire, d'une surface de vente comprise entre 400 m2 et 2 500 m2.

Maxi-discount: surface de vente au détail de moins de 1 000 m2 (moins d'un tiers font entre 120 m2 et 400 m2), proposant une offre de produits de consommation de base à bas prix, sans marque ou de marques de distributeurs.

Ce modèle est aujourd'hui remis en cause notamment pour des raisons écologiques, mais aussi démographiques: la mobilité des ménages faisant leurs courses se réduit. "L'hyper s'est construit sur le modèle de la famille avec enfants. Or la taille des ménages s'est réduite et leur moyenne d'âge s'est élevée", analyse Philippe Moati. Les jeunes comme les vieux se déplacent moins, ils achètent plus près et plus souvent. La ménagère de moins de 50 ans, symbole de la société fordiste dans laquelle tout le monde consommait la même chose pourvu que ce ne soit pas trop cher, est en voie de disparition. "Nous sommes passés à une société et à une économie post-fordistes", explique Philippe Moati, qui se caractérise par une hétérogénéité des consommations, et donc par une segmentation de la demande. On ne mange plus simplement pour se nourrir, mais aussi pour exprimer sa personnalité ou son appartenance à un groupe. D'où par exemple le succès des produits bio ou du terroir. Les hypers sont donc doublement attaqués. Par les maxi-discounters, qui offrent des produits standardisés à une clientèle à bas pouvoir d'achat ou soucieuses de faires des économies, et par les moyennes surfaces qui ont su s'adapter aux nouvelles exigences des consommateurs issus des classes moyennes aisées.

Plusieurs enseignes, notamment Carrefour et Casino, ont commencé à réduire la surface de certains de leurs plus grands hypers pour mieux rentabiliser l'espace. Elles commencent aussi à réfléchir à la manière de segmenter leur offre au sein d'un même espace, par exemple en créant des "magasins dans le magasin". "Mais les hypers resteront toujours l'endroit qui s'adresse à tous. On peut donc douter de leur résistance face à la segmentation et l'individualisation de l'offre, affirme Philippe Moati. Il ne va pas forcément mourir, mais il perdra forcément de la place."

Il faut cependant rappeler que ces enseignes font partie de grands groupes qui rassemblent des magasins de tailles diverses: par exemple, le groupe Carrefour compte entre autres des hypers du même nom, des supermarchés Shopi, des magasins de proximité 8 à huit et le maxi-discounter ED. Or aujourd'hui, c'est dans les secteurs de la proximité que ces groupes gagnent de l'argent. Ils tentent donc de développer cet axe en créant de nouveaux concepts. Par exemple, Casino s'est associé à Relay, filiale de distribution de journaux du groupe Lagardère, pour créer les magasins Chez Jean à Paris, ouverts sept jours sur sept, de 7 h à 23 h, et qui proposent de l'épicerie, du café, des viennoiseries, du pain, des journaux, des fleurs, etc. Mais ces nouveaux stores s'adressent à une clientèle urbaine et au fort pouvoir d'achat.


Vers le modèle japonais?

Au final, qui va remplacer le couple obsolète voiture-hyper? "Le hard-discount pourrait devenir le magasin référent en termes de consommation de première nécessité, sorte de magasin d'Etat des temps modernes", affirme Raphaël Palti, directeur de la société de conseil aux entreprises Altavia (4). Ensuite, à chaque type de demande complémentaire devrait correspondre un lieu d'achat: des circuits courts comme les paniers bio en ville ou les achats à la ferme en milieu rural, des commerçants de proximité, les stores ouverts tard le soir, etc. "On va aller vers un modèle à la japonaise", estime François Bellanger, animateur et fondateur du think-tank Transit City. Ce modèle est basé sur des achats de proximité ou réalisés dans des lieux de transition (comme les gares) ou encore via des commandes par portable ou sur Internet.

D'après la Fédération de l'e-commerce et de la vente à distance (Fevad), le commerce en ligne a connu une croissance de 29% en 2008. A la fin de cette année-là, près de 70% des internautes français avaient déjà effectué un achat Internet. Cette croissance profite cependant d'abord aux secteurs du voyage et de l'habillement; les supermarchés en ligne des grandes enseignes (Ooshop pour Carrefour, Houra pour Cora, etc.) restent marginaux. "Nous n'allons pas tous faire nos achats à deux heures du matin en ligne. Le commerce restera le premier élément de la vie d'une ville", estime Michel Pazoumian. Une réalité qui rejoint les prévisions de François Bellanger: "Le couple voiture-hypermarché va être remplacé par un duo piéton-Internet."
Claire Alet-Ringenbach

Alternatives Economiques - n°281 - Juin 2009
Notes



(1) Dans Libération du 12 mars 2009.



(2) "Le commerce en France", Insee Référence, éd. 2008.



(3) Le schéma de cohérence territorial (Scot) a pour but de présenter une stratégie globale d'aménagement à l'échelle d'un même bassin de vie. Il s'impose au plan local d'urbanisme (Plu), qui définit l'usage des sols et détermine les droits à construire.



(4) Lors d'une table ronde dans le cadre de "La cité du commerce et de la consommation", organisée par l'école de management ESCP-EAP, les 28 et 29 novembre 2008 à Paris.
Le modèle de l'hypermarché fait de moins en moins recette. Un nouvel urbanisme commercial émerge, plus hétérogène et plus durable.

Qui ne s'est jamais perdu dans les kilomètres de rayons d'un hypermarché? Qui n'a été plongé dans un abîme de perplexité devant l'offre pléthorique de yaourts au rayon frais? Qui n'a eu le vertige face à l'enfilade de caisses dans ces grandes surfaces qui s'étalent en moyenne sur 5 700 mètres carrés par magasin? "Il ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 251 - p.43 à p.45

La convergence entre téléphonies fixe, mobile et accès à Internet devrait remettre en selle les grands opérateurs.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 251 - p.83 à p.85

Ingénieur de formation, Frederick Taylor a mis au point une méthode de rationalisation de la production afin d'augmenter la productivité. Son organisation scientifique du travail a rencontré beaucoup de résistances.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Spécial Crise | Alternatives Economiques 01/11/08

Article

... Lire [+]

V

- n° 274 - p.45 à p.72

La crise, jusqu'où ?
Les experts mettent en garde contre la plus forte récession de l'après-guerre dans les pays développés. Faillites d'entreprises et défaillances des ménages (et plus seulement des très pauvres) fragilisent de nouveau les institutions financières.

Par Guillaume Duval, rédacteur en chef d'Alternatives Economiques.

Pas facile de dire de quoi demain sera fait. La panique financière a bien été stoppée, mais si le spectre de 1929 s'est éloigné, la confiance n'est pas revenue. Produits dérivés, fonds spéculatifs, les cadavres restent probablement encore nombreux dans les placards du " système financier fantôme " construit grâce à la dérégulation financière.

Lors du G20 du 15 novembre dernier, les grandes puissances ont bien annoncé leur intention d'y mettre bon ordre à l'avenir, mais il faut encore traduire ces paroles en actes. Et, en attendant, finir de purger les montagnes de mauvaises dettes entassées en toute opacité dans les paradis fiscaux. Surtout, l'économie réelle flanche partout : l'immobilier plonge, la consommation est en berne, l'investissement recule et le chômage repart à la hausse.

La vague de défiance et le rationnement du crédit déclenchés par la panique financière ont brutalement accéléré un ralentissement économique déjà bien engagé. Parallèlement, les espoirs mis sur les pays émergents se sont envolés : nombre d'entre eux, en effet, pâtissent de la fuite des capitaux, repartis vers les pays riches, et de la baisse des exportations et du prix des matières premières causées par la récession au Nord.

Résultat : les conjoncturistes pronostiquent désormais pour 2009 la plus forte récession de l'après-guerre dans les pays développés. Faillites d'entreprises et défaillances des ménages (et plus seulement des très pauvres) fragilisent de nouveau les institutions financières. Avec à la clef le risque d'un nouveau resserrement du crédit et de nouveaux besoins de recapitalisation. Une dynamique qui pourrait déboucher sur une stagnation prolongée comme dans le Japon des années 90.

Pourrait-on limiter l'ampleur et la durée d'une telle crise ? Cela dépend surtout des politiques monétaires et budgétaires. Comme d'habitude, les pouvoirs publics américains réagissent massivement. Mais le surendettement des ménages américains est tel qu'il est peu probable que cela suffise à éviter une récession prolongée. Les autorités chinoises viennent elles aussi de lancer un plan ambitieux de soutien à la demande intérieure.

Toutefois, malgré sa croissance spectaculaire, l'économie chinoise ne pèse encore que 6 % de l'économie mondiale, tandis que celle des Etats-Unis en représente toujours 25 % et celle de la zone euro 22 %.

Parallèlement, le Fonds monétaire international, qui a tiré des leçons du passé, vient au secours sans barguigner des pays du Sud en difficulté. Pour l'instant, c'est surtout l'Europe qui est le maillon faible de la lutte contre la récession. Sur le plan monétaire, la Banque centrale européenne a tardé à prendre la mesure du ralentissement. Et malgré le plan de sauvetage bancaire, l'Europe n'a pas encore su s'entendre pour soutenir budgétairement l'économie réelle à la hauteur des enjeux.
Guillaume Duval

SOMMAIRE :

La machine à dettes

La crise est celle d'un système financier hypersophistiqué qui, à force de transférer les risques, les a massivement sous-évalués. Explications.

Comment les Etats ont sauvé le capitalisme

L'entrée en scène des politiques pour enrayer la déroute financière a suivi leur prise de conscience progressive de la gravité de la situation. Retour sur les moments forts d'une panique mondiale.

Les dix chantiers de la régulation financière

Des marchés de produits dérivés au contrôle interne aux banques, en passantpar les paradis fiscaux et les fonds spéculatifs, pas moins de dix chantiers sont ouverts pour tenter de réguler la finance.
Il faut changer le ...

Quelles banques pour demain ?

Les banques commerciales ont mieux traversé la crise que les banques d'affaires. Mais seule une régulation de l'ensemble de leurs activités permettra d'assurer leur pérennité.

Vers la fin de la suprématie américaine ?

Annoncer la fin du pou voir financier des Etats-Unis est aller vite en besogne. Pour l'heure, les marchés financiers américains et le dollar demeurent des incontournables de la finance mondiale.

Demain, la dépression ?

Le rationnement du crédit a déjà des conséquences sur la croissance. Pour éviter une récession prolongée, les gouvernements doivent agir simultanément sur le secteur financier et sur l'économie réelle.

"La crise d'un modèle de croissance inégalitaire"

L'économiste Michel Aglietta revient sur l'impact de la crise sur la croissance et sur les nouveaux modes de régulation qui doivent émerger.
La crise, jusqu'où ?
Les experts mettent en garde contre la plus forte récession de l'après-guerre dans les pays développés. Faillites d'entreprises et défaillances des ménages (et plus seulement des très pauvres) fragilisent de nouveau les institutions financières.

Par Guillaume Duval, rédacteur en chef d'Alternatives Economiques.

Pas facile de dire de quoi demain sera fait. La panique financière a bien été stoppée, mais si le spectre de 1929 ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Sommes-nous trop nombreux ? | Alternatives Economiques 01/05/2018

Article (INTERNATIONAL)

... Lire [+]

V

Depuis cinquante ans, la population mondiale a plus que doublé et elle devrait encore s'accroître de 50 % d'ici la fin du siècle. Une explosion démographique qui entre en contradiction avec les limites de la planète. Inverser la tendance n'est pas impossible, même si cela pose de nombreux problèmes.

SOMMAIRE :

Vers une planète à 11 milliards d'humains

Et si Malthus avait finalement raison ?

Ghana : la liberté d'enfanter

Demain, la décroissance ?
Depuis cinquante ans, la population mondiale a plus que doublé et elle devrait encore s'accroître de 50 % d'ici la fin du siècle. Une explosion démographique qui entre en contradiction avec les limites de la planète. Inverser la tendance n'est pas impossible, même si cela pose de nombreux problèmes.

SOMMAIRE :

Vers une planète à 11 milliards d'humains

Et si Malthus avait finalement raison ?

Ghana : la liberté d'enfanter

Demain, la ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 281 - p.280 à p.281

Les médias sont accusés de rendre les foules moutonnières, violentes et enclines à la surconsommation. La diatribe est ancienne, elle remonte au XIXe siècle et a connu son développement dans la première moitié du XXe. Mais elle est contestable. Car loin d'être reçus passivement, les contenus diffusés sont perçus de manières très différentes selon la position sociale des individus. Si les médias posent un problème à la démocratie, c'est sans doute moins par ce qu'ils exposent que par ce qu'ils ne montrent pas.
1. L'essor de la propagande, entre craintes et espoirs

"Vendre du temps de cerveau humain disponible" aux annonceurs publicitaires. Voilà comment l'ancien PDG de TF1, Patrick Le Lay, définissait la mission de sa chaîne il y a quelques années. Ces propos avaient alors soulevé de vives émotions, les uns fustigeant le cynisme du dirigeant, les autres saluant son franc-parler. Mais peu ont alors souligné sa vanité. C'est que le pouvoir des médias est souvent admis comme allant de soi, qu'on le dénonce ou qu'on cherche à l'instrumentaliser à son profit. Rappelons que Max Weber définissait le pouvoir comme "toute chance de voir triompher, au sein d'une relation sociale, sa propre volonté". Le sociologue allemand soulignait ainsi la nature essentiellement relationnelle du pouvoir, s'opposant à la conception courante qui voudrait qu'il s'agisse d'un attribut que l'on posséderait ou non. A la suite d'auteurs tels que Rousseau, il ajoutait dans son analyse qu'une telle relation de pouvoir n'était durable que si elle était perçue comme légitime, c'est-à-dire que si elle obtient le consentement de ceux qui la subissent. Autrement dit, pour diriger les comportements d'autrui, l'influence s'avère plus efficace que l'injonction, ce que confirment les études sur la socialisation (1).

Qu'il s'agisse pour un régime dictatorial de faire adhérer sa population à ses objectifs ou, en démocratie, d'influencer l'opinion ou les actes de consommation, les dirigeants ont rapidement cherché à contrôler les outils de communication. Ce fantasme a pu devenir réalité avec le progrès technique, et en premier chef l'essor des instruments de communication de masse: imprimés, radio et cinéma. Pour les observateurs, loin de se réduire à faciliter les échanges, ces nouvelles techniques entraînent alors un véritable bouleversement social, marquant l'avènement d'une société de masse. A la fin du XIXe siècle, des auteurs comme Gabriel Tarde et Gustave Le Bon pointent ainsi le rôle essentiel de l'imitation et de l'inconscient dans la formation de foules grégaires et irrationnelles.

Observant le recours important aux techniques de propagande durant la Première Guerre mondiale par des régimes aussi soucieux d'influencer leurs propres populations que celles de leurs adversaires, Harold Lasswell développe pour sa part le modèle dit de la "seringue hypodermique". Le public y est envisagé comme une masse atomisée et passive qui reçoit les messages émis par les médias de manière directe et indifférenciée. Considéré comme le fondateur de la sociologie des médias, celui-ci infléchira par la suite sa théorie, insistant notamment sur la nécessité d'enquêter concrètement sur les conditions de production des contenus médiatiques.

Les théories de la propagande vont ensuite connaître un succès qui ne se démentira pas jusqu'à aujourd'hui. Certains dénoncent ainsi les menaces qu'elle fait peser sur la démocratie. C'est le cas par exemple de Serge Tchakhotine pour qui la radio a joué un rôle essentiel dans le conditionnement de la population allemande par les Nazis. Les émissions orchestrées par Goebbels seraient parvenues à hypnotiser des Allemands, le sortilège étant entretenu par des symboles tels que la croix gammée ou le salut hitlérien. Egalement marqués par la montée du nazisme, les philosophes allemands Theodor Adorno et Max Horkheimer soulignent de leur côté l'ambiguïté de l'idéologie du progrès héritée des Lumières. Alors que les avancées techniques permettraient de résoudre nombre des problèmes de l'humanité, la rationalisation qui l'accompagne tend à détruire toute valeur humaniste. Exilés aux Etats-Unis, ils dénoncent notamment le développement de l'industrie culturelle. Obéissant à la seule logique économique, sa production de masse conduirait, selon eux, à formater les opinions et les comportements, faisant ainsi le lit de nouveaux totalitarismes à venir.

La propagande n'est cependant pas seulement un objet de réprobations. Certains louent au contraire ses vertus et son efficacité, tels Edward Bernays, le neveu de Sigmund Freud. Fort de multiples succès en la matière - comme d'avoir rendu la cigarette populaire parmi les femmes -, celui-ci publie en 1928 un manuel dédié à cet "art" des "relations publiques" (2). Notant qu'il a toujours été recherché par les gouvernants, Bernays affirme que le contrôle de l'opinion est "nécessaire à une vie bien réglée", et ce dans tous les secteurs de la vie sociale. Bref, mieux vaut la propagande que le désordre. Mais tout en distillant ses conseils à longueur de pages, il fustige l'archaïsme des responsables de son époque alors que de nouvelles techniques prometteuses sont alors à leur disposition. A voir la place prise par le marketing, y compris dans l'activité politique (3), son appel semble depuis avoir été largement entendu.
2. Une réception toujours médiatisée

Progrès technique aidant, les médias ont pu s'adresser à une audience toujours plus grande, au point que la notion de "médias de masse" soit devenue un pléonasme. A cela s'ajoute un temps toujours croissant passé devant les écrans, ceux des téléviseurs mais aussi de plus en plus des ordinateurs à surfer sur le Web. Autant de facteurs qui expliquent que les dépenses de publicité n'aient cessé, elles aussi, de croître au cours des dernières décennies, de même que les dépenses de communication politique. A elle seule, la dernière campagne présidentielle aux Etats-Unis a ainsi coûté plus de 1,5 milliard de dollars, le double de celle de 2004 et dix fois plus que celle de 1980.

A contrario, mûs par des motifs certes bien différents, les gouvernements s'interrogent sur la manière de contrôler les accès à certains contenus, à commencer par ceux de la Toile. Qu'il s'agisse de faire taire les opinions dissidentes ou de protéger les plus jeunes contre des contenus illicites ou jugés immoraux, les médias de masse sont supposés posséder une puissante force de suggestion.

Ce préjugé n'a pas épargné le livre, comme le rappellent notamment les travaux de Roger Chartier (4). Dès l'invention de l'imprimerie par Gutenberg au XVe siècle, les censeurs ont redoublé de vigilance. Cela n'a pas freiné le développement du colportage et de la circulation d'imprimés sous le manteau, bien au contraire. Car l'historien souligne qu'entre l'auteur et le lecteur d'un texte, les intermédiaires sont nombreux: éditeur, typographe, imprimeur, libraire ou encore commentateur. En d'autres termes, pour comprendre comment se construit le sens d'un texte, il faut tenir compte des conditions dans lesquelles celui-ci a été transmis et reçu, mais aussi de la liberté des lecteurs. Car ceux-ci conservent toujours la possibilité de s'affranchir des multiples normes que leur imposent les "producteurs", en sélectionnant ce qui les intéresse dans les contenus et en l'interprétant en fonction de leurs propres valeurs. Un rapport aux oeuvres que Michel de Certeau qualifie de "braconnage culturel", contestant de cette manière la passivité et la domination dont certains a priori élitistes affublent les publics populaires.

Ce changement de regard doit en particulier beaucoup au sociologue britannique Richard Hoggart, considéré comme le père du courant des Cultural Studies (*) . Dans La culture du pauvre (5), il analyse les effets des produits de l'industrie culturelle sur les membres de la classe ouvrière, dont il est lui-même issu. Il montre la distance que ceux-ci savent entretenir, pratiquant une "attention oblique", ainsi qu'un filtrage des messages reçus en fonction d'une forte division du monde entre "eux" - les membres des classes dominantes - et "nous". "Il ne faut jamais oublier que ces influences culturelles n'ont qu'une action fort lente sur les transformations des attitudes et qu'elles sont souvent neutralisées par des forces plus anciennes. Les gens du peuple ne mènent pas une vie aussi pauvre qu'une lecture, même approfondie, que leur littérature le donnerait à penser." Peu auparavant, étudiant l'influence des médias sur le vote aux Etats-Unis, Elihu Katz et Paul Lazarsfeld mettaient en lumière le rôle crucial des "leaders" d'opinion présents dans l'entourage des électeurs, agissant comme un filtre vis-à-vis des mes-sages médiatiques. Ces différents travaux incitent à considérer les médias comme un agent de socialisation (*) parmi d'autres.

Culture légitime, misérabilisme et populisme

La création du ministère de la Culture il y a tout juste un demi-siècle sous l'égide d'André Malraux marquait l'avènement d'une conception optimiste du public. Pour réduire les inégalités culturelles, il suffisait, pensait-on alors, de faciliter l'accès aux oeuvres et de compter sur la "bonne volonté" des milieux défavorisés. C'était faire trop peu de cas des méca-nismes de socialisation, mais aussi des logiques de distinction.

La sociologie de Pierre Bourdieu est par la suite venue rappeler ces réalités aux promoteurs un peu trop enthousiastes de la culture pour tous. En 1979, le chercheur publie notamment La distinction, ouvrage dans lequel il met en évidence la construction sociale de systèmes de goûts et de dégoûts suivant les milieux, ainsi que leur rôle central dans la stratification sociale. Les pratiques culturelles - au sens large, c'est-à-dire l'ensemble des manières d'agir, de sentir et de penser - vont être inégalement valorisées dans la société, certaines étant jugées comme "nobles" et d'autres "vulgaires", selon le point de vue de la classe dominante.

Plus encore que les médias, de par sa proximité avec les codes culturels des classes dominantes, l'école contribue grandement à légitimer ce classement des choses, qui n'est autre qu'un classement des hommes. Cette théorie dite de la "légitimité culturelle" a cependant attiré certaines critiques. La plus aboutie est celle de Claude Grignon et Jean-Claude Passeron qui, dans Le savant et le populaire en 1989, contestent l'absence supposée d'autonomie dans les goûts des classes populaires qu'ils qualifient de misérabilisme, tout en la renvoyant dos-à-dos avec l'écueil inverse du populisme qui consiste à nier toute domination culturelle. Les travaux plus récents de Richard Peterson ou Bernard Lahire ont montré du reste que la domination culturelle passait désormais davantage dans l'éclectisme des pratiques pour les classes dominantes, plutôt que dans la conformité permanente aux canons de la "haute culture".

Leur influence se mêle ainsi à celle que peuvent exercer la famille, l'école, les amis ou encore le milieu professionnel. Elle ne peut donc se déduire de la seule analyse des contenus. Les sociologues de la culture sont dès lors incités à faire preuve de plus de modestie, à partir à la recherche du public plutôt que de lire les courbes d'audience. Il s'agit de se livrer à des études localisées, accordant une attention marquée au contexte de réception, et à parler de publics au pluriel et non plus au singulier. Aux analyses de contenu vont ainsi être privilégiées les études de réception, qui font dès lors l'objet d'un engouement certain. Parmi les très nombreuses enquêtes de ce courant, on peut citer celle de Janice Radway sur la fonction d'évasion que remplissent les romans "à l'eau de rose" pour leurs lectrices à l'égard d'une situation domestique insatisfaisante, ou celle de Dominique Pasquier, qui montre comment le feuilleton Hélène et les garçons servait d'initiation à la "grammaire amoureuse" pour ses jeunes téléspectatrices, apportant un démenti cinglant aux préjugés élitistes.
3. Des obstacles structurels à un échange démocratique

L'un des pionniers de cette approche, David Morley, va étudier la réception de Nationwide, émission d'information à succès de la BBC. Pour cela, il réunit plusieurs groupes de spectateurs en fonction de leur position sociale et recueille leurs impressions. Ce faisant, il constate que l'interprétation des reportages visionnés dépend étroitement de leurs sous-cultures (*) respectives. Les banquiers de l'échantillon affichent ainsi leur accord avec l'orientation politique conservatrice des repor-tages, à l'inverse des militants syndicaux. Les jeunes apprentis, eux, n'aper-çoivent pas ce parti pris, faute de posséder la culture politique nécessaire.

Elihu Katz et Tamar Liebes adoptent une méthode similaire pour comparer la réception de la série Dallas aux Etats-Unis, au Japon et en Israël. La communauté russe de ce dernier pays y lit la responsabilité du capitalisme dans le déclin de cette dernière, tandis que les Palestiniens voient surtout la perte des valeurs morales. Les Japonais, trop éloignés culturellement, se désintéressent largement du programme, tandis que les Américains s'appliquent à déceler les astuces des scénaristes. Les auteurs montrent également comment le visionnage de la série construit un certain nombre de rituels et de références communes, créant de ce fait une nouvelle sous-culture.

Si la réception culturelle est un phénomène bien plus complexe qu'il n'y paraît, il ne s'agit pas pour autant d'exagérer la liberté des publics. Les travaux évoqués précédemment montrent ainsi, tous à leur manière, la subsistance de rapports de domination au sein des pratiques culturelles. Si l'uniformisation redoutée derrière la diffusion mondialisée de certains contenus s'avère peu crédible, il n'en reste pas moins que les conditions de production des messages posent un certain nombre de questions quant au fonctionnement d'une société démocratique. Celle-ci repose en effet largement sur la constitution et l'entretien d'un espace public, lieu d'expression et de rencontre des opinions variées, permettant à la société de contrôler l'Etat. Telle est la thèse de Jürgen Habermas, qui montre cependant que, dès le XVIIe siècle, la constitution d'une sphère publique libérale s'est accompagnée de la répression des opinions issues des classes populaires. Une telle spoliation s'est prolongée selon lui jusqu'à aujourd'hui, avec la privatisation de l'espace public au profit de quelques groupes d'intérêt constitués dans les démocraties de masse. Le problème de la concentration dans les médias français est ainsi régulièrement dénoncé.

C'est, enfin, sans doute sur le plan des structures symboliques que le rôle des médias est le plus déterminant, comme incitent notamment à le penser certains écrits de Pierre Bourdieu. Selon lui, comme tout agent social, les journalistes évoluent dans un champ (*) où la concurrence les conduit à se référer les uns aux autres de manière circulaire. Ils se con-forment dès lors à un agenda commun - une hiérarchisation des sujets dont il faut parler, compte tenu des con-traintes d'audience intériorisées.

Bref, les médias ne dictent pas ce qu'il faut penser, mais ce à quoi il faut penser, en évacuant surtout les sujets jugés trop ennuyeux ou conflictuels qui pourraient faire fuir le public. Leur défaut majeur réside ainsi dans ce qu'ils ne montrent pas, réalités ou opinions dérangeantes, livrant de ce fait une vision déformée de la société, ce qui entrave la délibération poli-tique. Bouc émissaire idéal, les médias ne forment qu'une partie du problème démocratique. Mais une partie tout de même.
Igor Martinache

Alternatives Economiques - n°281 - Juin 2009
(*) Cultural Studies : courant de recherche pluridisciplinaire qui étudie les relations entre culture et pouvoir, initié en 1964 par Richard Hoggart avec la création du Center for Contemporary Cultural Studies à l'université de Birmingham(*) Agent de socialisation : personne ou instance qui exerce un rôle dans la construction de la personnalité d'un individu(*) Sous-culture : ensemble des valeurs et normes de comportement d'un groupe particulier, différencié de celles de la société nationale plus vaste dont il fait partie(*) Champ social : concept de Pierre Bourdieu qui désigne un secteur de la société qui fonctionne suivant des enjeux et des res-sources (capitaux) spécifiques
Notes

(1)

Voir La socialisation, par Muriel Darmon, coll. 128, éd. Armand Colin, 2006.

(2)

Propaganda. Comment manipuler l'opinion en démocratie, coll. Zones, éd. La Découverte, 2007.

(3)

Voir Sociologie de la communication politique, par Philippe Riutort, coll. Repères, éd. La Découvertes, 2007.

(4)

Voir par exemple Culture écrite et société, éd. Albin Michel, 1996.

(5)

Ed. de Minuit, 1970 (1957). Citation page 378.
En savoir +

Comment sont reçues les oeuvres?, par Isabelle Charpentier (dir.), éd. Creaphis, 2006.
Du côté du public. Usages et réceptions de la télévision, par Brigitte Le Grignou, éd. Economica, 2003.
Introduction aux Cultural Studies, par Armand Mattelart et Erik Neveu, coll. Repères, éd. La Découverte, 2003.
Sociologie des publics, par Jean-Pierre Esquenazi, coll. Repères, éd. La Découverte, 2003.
Sur la télévision, par Pierre Bourdieu, éd. Liber-Raisons d'agir, 1996.
www.acrimed.org: le site de l'association Acrimed (Action-critique-média).
Les médias sont accusés de rendre les foules moutonnières, violentes et enclines à la surconsommation. La diatribe est ancienne, elle remonte au XIXe siècle et a connu son développement dans la première moitié du XXe. Mais elle est contestable. Car loin d'être reçus passivement, les contenus diffusés sont perçus de manières très différentes selon la position sociale des individus. Si les médias posent un problème à la démocratie, c'est sans ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 255 - p.82 à p.84

Qualifié de "géant de l'économie du XXème siècle par Paul Samuelson, Simon Kuznets a eu pour principale préoccupation l'étude de la croissance économique et la répartition des revenus.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 259

Chercheur, écrivain et militant politique, Samir Amin mène une critique radicale du capitalisme, caractérisé comme un système à la fois mondial et impérialiste.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 214 - p.32 à p.35

Une vraie politique de prévention supposerait une limitation du recours à la sous-traitance. On est loin du compte.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 213 - p.38 à p.49

L'évolution démographique impose de réformer le système de retraite. Après les retraites du privé, fortement réduites en 1993, le secteur public est désormais dans le collimateur. Tout le monde risque de devoir travailler plus longtemps ou toucher des pensions réduites. Or, on ne défendra pas le niveau de vie des retraités sans augmenter les cotisations.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 196 - p.72 à p.75

Les voies de l'intégration des populations issues de l'immigration.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- p.44 à p.48

Le tri développé depuis dix ans a permis d'améliorer le traitement des déchets, mais néglige le problème de fond : l'explosion des quantités.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 255 - p.56 à p.66

Le travail n'est pas vraiment un espace de convivialité où chacun peut s'épanouir. Les enquêtes montrent même que le travail s'intensifie depuis une trentaine d'années. La charge mentale supportée par les salariés augmente, tandis que les pénibilités physiques n'ont pas disparu.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 248 - p.46 à p.56

Tourisme, musique, médias, marché du travail, de l'occasion..., l'irruption d'Internet remet en cause les positions de nombre d'acteurs économiques traditionnels et change en profondeur les rapports entre offreurs et clients.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 264 - p.7 à p.12

Le volontarisme présidentiel en matière de pouvoir d'achat s'est avéré stérile jusqu'à maintenant. C'est même une dégradation qui se profile désormais à l'horizon.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 268 - p.70 à p.73

Le départ des entreprises des pays développés vers le Sud est l'une des grandes peurs économiques de notre temps: nous n'aurions d'autre choix que de nous aligner sur les salaires chinois ou nous résigner à voir nos emplois disparaître. Cependant, la menace que représentent ces délocalisations est très surestimée, car le niveau des salaires n'est qu'un élément parmi de nombreux autres qu'une entreprise prend en considération au moment de choisir la localisation de ses activités. C'est plutôt la concurrence sauvage entre pays développés pour attirer les entreprises qu'il faut redouter.

1. Une grande liberté d'installation
La mondialisation n'est pas une idée neuve. Mais la liberté d'installation des entreprises n'a jamais été aussi grande. L'origine de cette liberté réside dans le progrès des transports de biens et de données, accompagné d'une libéralisation des échanges. Les bateaux porte-conteneurs associés à des terminaux portuaires adaptés et à des flottes de camions sillonnent la planète rapidement avec une manutention limitée au minimum (1). Le résultat est qu'il n'est guère plus onéreux de transporter des marchandises en France depuis la Chine que depuis l'Espagne.

La diminution du coût des communications téléphoniques et entre ordinateurs, en particulier dans les pays en développement, est considérable: en Inde, le prix des communications internationales à haut débit a été divisé par vingt en cinq ans ! La voie est alors ouverte à la délocalisation (*) de nombreuses activités de service, des centres d'appels à la gestion des fiches de paye ou à la maintenance informatique à distance. Les services comptent aujourd'hui pour 50 % des investissements étrangers reçus par les pays en développement, contre 35 % en 1990. Dans le même temps, les barrières tarifaires ou réglementaires aux échanges ont régressé, par la mise en oeuvre d'accords mondiaux ou par des accords régionaux et bilatéraux. L'internationalisation de la finance permet aux banquiers d'accompagner l'expansion de leurs clients. Notons que cette facilité des échanges a parfois des effets ambigus, car certaines délocalisations sont la conséquence de la difficulté technique ou réglementaire d'échanger.

Les conditions techniques sont donc réunies pour que les entreprises qui le souhaitent délocalisent leur production. Le font-elles ? Les données manquent un peu pour le savoir et la délocalisation est une notion mal définie. Au sens strict, c'est le déplacement d'une activité existante d'un pays vers un autre. Mais cette vision statique est inadaptée: lorsqu'une entreprise crée une activité à l'étranger qui aurait pu être créée dans le pays, n'est-ce pas également une délocalisation ? Lorsqu'un service est externalisé, c'est-à-dire supprimé dans l'entreprise et remplacé par le recours à la sous-traitance et que le sous-traitant est étranger, n'est-ce pas une délocalisation ? Dans ce cas, toute création à l'étranger d'activités qui auraient pu être localisées dans le pays est une délocalisation, mesurée par l'ampleur des investissements directs à l'étranger (IDE).

Ceux-ci sont passés de 2 % de l'investissement mondial en 1980 à 13 % aujourd'hui, ce qui est une progression remarquable. Toutefois, les délocalisations pures ne concernent que quelques milliers d'emplois. Mais cette situation est assez rare. Plus importantes sont les délocalisations par création d'activités qui auraient pu être créées sur place. Le cas de figure le plus fréquent est toutefois la délocalisation par externalisation (*) . Concernant d'abord les fonctions périphériques de l'entreprise, comme les services informatiques ou la gestion des impayés, elle se développe également dans la production elle-même par modularisation (*) : un ordinateur est obtenu en assemblant des éléments standardisés (processeur, carte mère, périphériques...), dont chacun peut être fabriqué par une entreprise spécialisée (disques durs à Singapour, mémoires en Corée, etc. Ainsi, le iPod d'Apple est-il composé d'un minidisque dur Toshiba, d'un lecteur Nidec, d'un processeur ARM (tout ceci japonais), d'une carte Texas Instruments et d'une interface USB Cypress, une mémoire flash Sharp, le tout assemblé en Chine par le taiwanais Inventec. Le design lui-même a été en partie sous-traité (2). La modularisation de la production est donc une étape importante dans le développement de la division internationale du travail (*) .

Cependant, en 2004, 49 % des contrats de sous-traitance concernent l'Europe et 42,3 % les Etats-Unis (3), le reste du monde n'en absorbant que 8,7 %. Quant aux IDE, les deux tiers continuent d'aller vers les pays développés. A l'exception de l'Asie orientale, dont la part est passée de 5 % à 15 % en trente ans, la redistribution des cartes ne se fait donc guère en faveur du Sud, toujours marginalisé. Comment peut-on l'expliquer?

2. Les bas salaires, élément secondaire
La recherche du coût du travail le plus bas est censée être le motif essentiel des délocalisations vers le Sud, alimentant la peur des salariés des pays développés d'être mis en concurrence avec des ouvriers d'Asie ou d'Europe orientale bien meilleur marché. Mais, dans ce cas, pourquoi les entreprises des pays développés ne se précipitent-elles pas en masse au Malawi, qui n'a reçu que 2 millions de dollars d'IDE en 2005, c'est-à-dire 40 000 fois moins qu'en Chine ? Il est pourtant possible d'y embaucher un ouvrier pour 30 centimes de l'heure, soit 40 fois moins qu'en France.

La première raison est que le travail d'exécution n'est qu'un élément du coût de production d'un produit parmi d'autres. Du fait de la mécanisation, il ne représente plus aujourd'hui que 5 % du coût dans la fabrication de fils de nylon, sans doute moins de 25 % dans l'automobile. L'avantage conféré par les bas salaires est alors limité.

D'autre part, la qualité de l'environnement est souvent médiocre dans les pays à bas salaires, qu'il s'agisse des institutions (stabilité politique et économique, droit des affaires, monnaie), des infrastructures (routes, télécommunications, électricité) ou des machines et biens intermédiaires. Cette faiblesse entraîne des surcoûts qui font plus qu'annihiler, dans la plupart des cas, l'avantage de salaire. Ainsi, malgré les grandes qualités et le bas coût de sa main-d'oeuvre, l'Inde accueille très peu d'entreprises industrielles étrangères, du fait de ses routes encombrées, de ses pannes d'électricité récurrentes et de son droit de la propriété incompréhensible.


Importance perçue des facteurs de localisation
N. B. : quelques facteurs ont été omis. Le taux de non-réponses au questionnaire envoyé par la Cnuced est assez élevé. Mais des enquêtes plus anciennes ont abouti à des conclusions proches.



Enfin, il faut tenir compte de la qualité de la main-d'oeuvre, car il existe finalement peu d'emplois non qualifiés. La plupart des entreprises qui délocalisent dans les pays à bas salaires sont obligées d'encadrer les opérateurs locaux par des cadres expatriés, ce qui leur coûte extrêmement cher et ne suffit pas toujours. Ainsi, pour l'entreprise Luxottica, fabriquer des verres pour lunettes de soleil coûte deux fois moins cher en Italie qu'en Chine, à cause des pannes, des défauts de fabrication et du gaspillage de matières premières; ce qui renvoie à la qualité de la main-d'oeuvre. En outre, la réactivité et la capacité à diversifier la production sont désormais des objectifs importants pour les entreprises. Pour y parvenir, la main-d'oeuvre doit être polyvalente et capable de gérer plusieurs processus en même temps, ce qui suppose un niveau de formation élevé.

Or, il est rare de trouver une main-d'oeuvre compétente et bon marché. C'est le cas dans certaines régions d'Asie orientale pour le travail industriel simple ou en Inde, où 200 000 ingénieurs anglophones sortent de l'école chaque année. Dans ce dernier pays, l'investissement en formation joue un rôle essentiel. Par exemple, les employés des centres d'appels ou de recouvrement de créances apprennent à parler avec l'accent américain et suivent des cours sur la culture américaine. Cependant, ce vivier commence à se tarir, si bien que les salaires indiens dans les technologies de l'information et de la communication augmentent de 10 % à 15 % par an, approchant, pour les cadres dirigeants, les niveaux occidentaux.


Importance perçue des facteurs de localisation
N. B. : quelques facteurs ont été omis. Le taux de non-réponses au questionnaire envoyé par la Cnuced est assez élevé. Mais des enquêtes plus anciennes ont abouti à des conclusions proches.



Il n'en est pas de même pour la main-d'oeuvre non qualifiée. Mais les créneaux sur lesquels elle peut se déployer sont limités. Dans le textile, par exemple, de nombreux pays du Sud ont reçu par le passé des IDE et ont développé une capacité de production destinée à l'exportation. Mais c'était d'abord la conséquence de l'accord multifibres, qui empêchait la concentration de la production dans les pays les plus efficaces. Maintenant que le libre-échange est revenu, la production s'effondre dans de nombreux pays, au bénéfice de la Chine. Cependant, l'avantage chinois ne se limite en aucune façon aux bas salaires. Ainsi, l'industrie mondiale de la chaussette est largement concentrée dans la région de Datang. Mais cette domination s'explique par la présence de 10 000 PME, d'un vaste marché accueillant les acheteurs internationaux, d'un complexe portuaire et de l'absence de droit du travail, conditions qui permettent de valoriser les bas salaires.

L'image de pays du Sud prenant par millions les emplois du Nord car pouvant réaliser les mêmes productions pour des salaires de misère est donc fausse. La compétitivité de certains pays du Sud augmente avec leur expérience, mais elle est pour l'instant limitée par la qualité de l'environnement et de la main-d'oeuvre.

3. Les autres facteurs de la localisation
Une motivation essentielle des délocalisations est de se rapprocher des clients. Certains pays en développement, les plus grands, ont compris qu'un de leurs atouts maîtres était leur marché intérieur, pour lesquels ils négocient l'accès des firmes transnationales contre des transferts de technologie. Par exemple, un pays peut limiter les droits de douane ou offrir des subventions pour les produits fabriqués sur place, en fixant un seuil minimal de contenu local. Les marchés publics sont un autre moyen de négocier la production sur place (équipements ferroviaires contre TGV, participation à la production contre achat d'Airbus, etc.). Cette attraction des grands marchés est une explication de la multiplication des accords créant des marchés régionaux en Asie, en Amérique ou en Afrique. D'autre part, il existe en fait peu d'industries mondiales susceptibles de proposer les mêmes produits d'un bout à l'autre de la planète. Etre proche des clients est nécessaire pour connaître le marché sur lequel l'entreprise vend: la concurrence et la dynamique des prix, les habitudes de consommation locales, les réseaux de distribution, les modes d'achat.

Les entreprises cherchent également toutes les ressources rares: main-d'oeuvre très qualifiée, instituts de recherche, sources d'énergie bon marché. Elles peuvent le faire en étant présentes ou en utilisant la sous-traitance. La géographie économique enseigne que la présence de facteurs rares en un même lieu peut entraîner des effets d'agglomération. Un ensemble de compétences uniques est en effet réuni en un même endroit; la main-d'oeuvre très qualifiée passe d'une entreprise à l'autre, contribuant à la diffusion des connaissances; les échanges informels permettent de connaître les tendances de la production et de la demande; le réseau de fournisseurs est dense. Les politiques publiques tentent de favoriser ces agglomérats (ou clusters), en particulier dans les techniques avancées. On en trouve dans le nord de l'Italie (textile, habillement haut de gamme), à Toulouse (aérospatial), en Suisse (horlogerie), à Los Angeles ou Mumbay (cinéma). L'exemple le plus connu est la Silicon Valley, au sud de San Francisco, dans le domaine de l'informatique. Le paradoxe de cette situation est qu'elle incite les grandes entreprises du Sud, comme l'indien Ranbaxy (médicaments génériques) ou le chinois Lenovo (informatique) à investir au Nord, plutôt que l'inverse.

L'autre solution pour accéder à ces ressources rares est la sous-traitance. Par exemple, une firme américaine peut confier à un sous-traitant indien un projet de recherche impliquant de coordonner le travail de 300 ingénieurs et chercheurs. Un fabricant de baladeurs numériques chinois peut sous-traiter le design de ses produits à un spécialiste italien, etc. De la sorte, ne reste dans l'entreprise que ce qu'elle fait mieux que les autres. Le recours à ce type de sous-traitance s'explique également par le fonctionnement par projet: réunir des compétences variées au sein d'une équipe mobilisée sur un projet de développement d'un produit, d'une technique, d'un nouveau service ou d'une nouvelle implantation ne nécessite pas d'engager toutes ces personnes comme salariés permanents. Il est beaucoup plus pratique de s'adresser à une entreprise spécialisée, comme l'indien Wipro dans les télécoms.

Enfin, les entreprises localisent leurs activités là où l'environnement est le plus favorable, en particulier dans les arbitrages qu'elles font entre pays développés. Les avantages fiscaux, la stabilité macroéconomique et politique (jugée comme le critère le plus important dans l'enquête de la Cnuced) sont essentiels. Cependant, la faible qualité des institutions peut paradoxalement être un avantage: l'absence de contrôle de la santé sur les chantiers navals indiens ou le fait que les autorités africaines ferment les yeux sur la pollution engendrée par le recyclage des vieux PC sont en quelque sorte des avantages compétitifs de ces pays.


Les délocalisations sont-elles un danger ?
"Ce qui est bon pour General Motors est bon pour les Etats-Unis", disait autrefois son directeur général C. Wilson. Mais les destinées des entreprises et des nations sont aujourd'hui séparées, car les entreprises ne produisent plus toujours là où elles vendent et réciproquement. Les politiques visant à favoriser des "champions nationaux" sont sans doute plus dictées par les relations personnelles qui unissent le personnel politique aux dirigeants d'entreprise qu'à une réflexion stratégique sur la politique industrielle.



Dans ce contexte, le débat sur les délocalisations est marqué par deux craintes. La première concerne la désindustrialisation (hollowing out). Il est particulièrement vif aux Etats-Unis. L'idée est que la délocalisation de l'essentiel de l'industrie ferait perdre le contact avec l'innovation, qui se fait largement dans l'atelier. Cette analyse est partagée par les firmes japonaises, qui estiment indispensable de continuer à produire sur place pour innover.



Le second débat porte sur l'emploi. En France, l'Insee estime que l'emploi des grandes entreprises françaises est passé de 2,6 millions à 3,75 millions de personnes dans le monde entre 1997 et 2002, alors qu'il n'augmentait que de 100 000 personnes en France. Mais ces emplois sont largement liés aux marchés étrangers. Dans les services, le McKinsey Global Institute estime les emplois perdus par les pays développés au bénéfice du Sud à 1,5 million en 2003 et sans doute 4,1 millions en 2008, ce qui est peu au regard de l'emploi global.



Cependant, l'impact se fait aussi sentir sur les salaires, la menace réelle ou supposée de la délocalisation pesant sur les négociations salariales. D'autre part, l'effet sur l'emploi dépend largement du degré de flexibilité et de réactivité des marchés. La mondialisation reconfigure l'emploi rapidement et certains pays s'adaptent plus vite que d'autres. Une autre enquête du McKinsey Global Institute, datant de 2004, a montré que les délocalisations avaient un effet global positif aux Etats-Unis et négatif en Allemagne, essentiellement parce que 70 % des personnes licenciées aux Etats-Unis retrouvaient un emploi dans les six mois, contre 40 % seulement en Allemagne.


La concurrence oppose donc les pays développés entre eux et le risque pour la France, plutôt que le fantasme chinois, c'est de voir les sièges sociaux partir aux Pays-Bas et les usines en Europe de l'Est. Dans cette concurrence renouvelée, l'attractivité repose sur la qualité de la main-d'oeuvre, des institutions et des infrastructures, autant que sur le coût du travail.

Arnaud Parienty


Alternatives Economiques - n°268 - Avril 2008
(*) Division internationale du travail : répartition de la production entre territoires selon les spécialisations. Autrefois, elle opposait industries de main-d'oeuvre au Sud et haute technologie au Nord. La situation est aujourd'hui nettement plus nuancée.(*) Modularisation : division du produit en modules indépendants jusqu'à l'assemblage final, ce qui favorise l'externalisation et la division internationale du travail.(*) Externalisation (outsourcing) : abandon de fonctions de l'entreprise, désormais confiées à la sous-traitance. A l'extrême, l'externalisation aboutit au modèle de l'entreprise sans usines.(*) Délocalisation : ou offshoring en bon franglais. Au sens strict, c'est le changement de localisation internationale d'une activité économique. Au sens large, c'est la création d'unités de production dans des pays étrangers.
Notes
(1)
Les plus modernes embarquent 10 000 conteneurs de 20 pieds (6 mètres) à 46 km/h, ce qui permet de traverser l'Atlantique en cinq jours, le Pacifique en huit.

(2)
Ces informations viennent de Made in monde, voir "Pour en savoir plus".

(3)
The Economist, 3 mars 2005.

En savoir +
Made in monde, par Suzanne Berger, éd. du Seuil, 2006. Le compte rendu de la nouvelle enquête du MIT est passionnant. Une visite guidée dans les entrailles de l'économie mondiale, au-delà des clichés et des généralisations faciles.
Mondialisation et délocalisation des entreprises, par El Mouhoub Mouhoud, éd. La Découverte, 2006. Un point de vue universitaire sur la question, qui s'appuie largement sur les théories économiques.
Les nouvelles géographies du capitalisme: comprendre et maîtriser les délocalisations, par Olivier Bouba-Olga, éd. du Seuil, 2006. Une présentation complète du mouvement de délocalisation dans le cadre de modèles de développement nationaux variés.
Made in monde, par Suzanne Berger, éd. du Seuil, 2006. Le compte rendu de la nouvelle enquête du MIT est passionnant. Une visite guidée dans les entrailles de l'économie mondiale, au-delà des clichés et des généralisations faciles.
Mondialisation et délocalisation des entreprises, par El Mouhoub Mouhoud, éd. La Découverte, 2006. Un point de vue universitaire sur la question, qui s'appuie largement sur les théories économiques.
Les nouvelles géographies du capitalisme: comprendre et maîtriser les délocalisations, par Olivier Bouba-Olga, éd. du Seuil, 2006. Une présentation complète du mouvement de délocalisation dans le cadre de modèles de développement nationaux variés.
Le départ des entreprises des pays développés vers le Sud est l'une des grandes peurs économiques de notre temps: nous n'aurions d'autre choix que de nous aligner sur les salaires chinois ou nous résigner à voir nos emplois disparaître. Cependant, la menace que représentent ces délocalisations est très surestimée, car le niveau des salaires n'est qu'un élément parmi de nombreux autres qu'une entreprise prend en considération au moment de choisir ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 201 - p.32 à p.42

La France dépense beaucoup en formation continue. Mais celle-ci profite d'abord aux mieux formés, aux hommes plutôt qu'aux femmes, aux jeunes plus qu'aux salariés âgés. Alors que les compétences demandées par les entreprises changent, il faut réformer le système, de manière à ce qu'il profite enfin à tous.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

Pour mettre un terme au monopole et à la toute-puissance d'Alphabet Inc, la holding qui coiffe Google, de plus en plus de voix réclament le démantèlement du géant. "Google is watching you".

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- p.50 à p.60

La Terre devrait compter 9,1 milliards d'habitants en 2050, contre 6,5 milliards aujourd'hui. Globalement, la fécondité diminue, mais de redoutables contrastes demeurent. Dans une partie du monde riche, on s'en tient désormais à un enfant par femme, contre encore plus de cinq ou de six dans de nombreux pays pauvres.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 236 - p.51 à p.62

Trente ans après le choc pétrolier des années 70, le monde redécouvre sa dépendance vis-à-vis des matières premières, dont les prix flambent à nouveau : l'économie mondiale est encore loin d'être dématérialisée. Mais un développement fondé sur l'exploitation intensive des ressources naturelles ne peut être ni juste ni durable.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° H.S. n°62 - p.78

Consommation en constante progression et diminution des réserves font grimper le prix du pétrole.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 262 - p.83 à p.85

"Pape du management", Peter Drucker attribue aux hommes le rôle majeur au sein des organisations et fait de la grande entreprise l'acteur central de la société.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 251 - p.80 à p.82

Nicholas Kaldor a interrogé la dynamique des économies modernes et contribué au développement de la théorie de la concurrence imparfaite. Partisan de l'intervention de l'Etat, il a aussi été très actif sur le terrain des politiques économiques.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 194 - p. 42-51

Le tourisme de masse est une ressource économique considérable pour de nombreux pays. Mais son impact sur les sociétés et l'environnement est souvent très négatif, notamment au Sud.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

Sous l'effet de la crise, la mondialisation a marqué le pas. Et si rien ne laisse présager son déclin à court terme, son bilan est sérieusement revu à la baisse par de nombreux économistes. Du coup, des voix toujours plus nombreuses réclament une "démondialisation".

SOMMAIRE :

- La tention de la "démondialisation : un débat qui monte entre les économistes
- Pourquoi la mondialisation est réversible : fausses inquiétudes et vraies menaces
- La mondialisation est-elle coupable ?
Sous l'effet de la crise, la mondialisation a marqué le pas. Et si rien ne laisse présager son déclin à court terme, son bilan est sérieusement revu à la baisse par de nombreux économistes. Du coup, des voix toujours plus nombreuses réclament une "démondialisation".

SOMMAIRE :

- La tention de la "démondialisation : un débat qui monte entre les économistes
- Pourquoi la mondialisation est réversible : fausses inquiétudes et vraies menaces
- La m...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Mondialisation : le coup d'arrêt | Alternatives Economiques 01/06/2018

Article (TENDANCES)

... Lire [+]

V

Une autre mondialisation est en cours. La dynamique internationale du capitalisme change de tempo : l'hyperglobalisation des années 1990-2000, qui ne répond plus aux intérêts de nombreux acteurs, semble prendre fin. Pour autant, l'internationalisation des économies n'est pas terminée.

Sommaire :

- Le procès de l'hypermondialisation
- "Une parenthèse se referme"
- Radiographie d'un monde ouvert
- Délocaliser puis relocaliser, c'est le bon sens !
-"Il y a peu de relocalisations en France, car il y a eu peu de délocalisations"
Une autre mondialisation est en cours. La dynamique internationale du capitalisme change de tempo : l'hyperglobalisation des années 1990-2000, qui ne répond plus aux intérêts de nombreux acteurs, semble prendre fin. Pour autant, l'internationalisation des économies n'est pas terminée.

Sommaire :

- Le procès de l'hypermondialisation
- "Une parenthèse se referme"
- Radiographie d'un monde ouvert
- Délocaliser puis relocaliser, c'est le bon s...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 262 - p.80 à p.82

Economiste mathématicien, Michio Morishima a contribué à la théorie de la croissance qu'il analyse en dynamique. Sa synthèse originale réconcilie la pensée de Marx et celle de Walras, jugées jusque-là antagonistes.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 258 - p.77 à p.79

Fondateur de la sociologie française des organisations, Michel Crozier a étudié les relations des acteurs au sein des systèmes grâce à une méthode originale, celle de l'analyse stratégique.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 287 - p.77 à p.79

Ingénieur allergique aux idées reçues, Taiichi Ohno a mis en place chez Toyota un modèle organisationnel novateur. Fondé sur le juste-à-temps et sur de nouvelles règles de management, celui-ci a peu à voir avec le taylorisme et le fordisme.

Qui connaît Taiichi Ohno? Peu de monde. Il est pourtant l'artisan de la deuxième révolution organisationnelle du XXe siècle. Et le mot "révolution" prend ici tout son sens: pour la plupart des problèmes de production, le Japonais a fait des choix strictement inverses de ceux de ses prédécesseurs américains, Frederick Taylor et Henry Ford. Allergique aux idées reçues, il se définissait lui-même comme l'homme qui aimait "penser à l'envers".


Une vie chez Toyota

Taiichi Ohno a commencé sa carrière en fabriquant des métiers à tisser et l'a terminée comme vice-président de Toyota, l'une des plus importantes firmes mondiales de l'automobile. Et ce, sans jamais changer d'entreprise ni de métier. Né le 29 février 1912 à Dalian, une ville de Mandchourie (en Chine) alors contrôlée par les Japonais, Taiichi Ohno fait ses études à l'université de Nagoya, sur la côte Pacifique du Japon. Il y obtient son diplôme d'ingénieur en 1932 et entre la même année chez un fabricant de métiers à tisser, Sakichi Toyoda. Il travaillera pendant soixante ans chez Toyota, nom que prendra l'entreprise en 1937.

Quelques années plus tôt, Kiichiro Toyoda, le fils de Sakichi, persuade son père de se lancer dans la construction de véhicules. Après avoir complété sa formation d'ingénieur chez Ford, à Détroit, il monte avec son cousin, Eiji Toyoda, un petit laboratoire de recherche où les deux hommes étudient des moteurs et des machines-outils. En 1933, les 100 000 livres (1) qu'ils tirent de la vente d'un brevet de machine à tisser automatique leur permettent de développer cette nouvelle branche de l'affaire familiale. En 1935, ils fabriquent la première automobile entièrement nippone, copie conforme de la DKW, une voiture allemande (2). Un site d'assemblage pour les véhicules légers est construit à Kariya, à quelques kilomètres au sud de Nagoya, et la Toyota Motor Corporation (TMC) voit le jour en 1937.

En 1943, Taiichi Ohno passe des métiers à tisser à l'automobile: il rejoint TMC comme responsable des stocks, puis comme directeur de l'atelier d'usinage. Toyota est alors une petite entreprise. En 1948, sa production totalise 30 voitures et 300 camions. En 1950, un conflit social très dur se termine par le licenciement, imposé par les banques, de 1 600 employés. Kiichiro Toyoda ne supporte pas cette catastrophe sociale et démissionne. Le nouveau président, Taiizo Ishida, réorganise le groupe, secondé par le cousin de Kiichiro, Eiji Toyoda. C'est sous la direction de ce dernier que Taiichi Ohno met au point le TPS (le système de production de Toyota). Ses qualités d'ingénieur et son opiniâtreté conduisent Ohno à la tête des principales usines du groupe, dont il devient vice-président en 1975. Il renonce à tout poste opérationnel en 1978, à 66 ans, tout en restant conseiller de la présidence jusqu'en 1982. Il meurt le 28 mai 1990 à Toyota City.


Rattraper les Américains

Pour vendre des voitures, Toyota devait les produire à des coûts suffisamment bas, mais les méthodes taylorienne et fordiste n'étaient pas applicables au Japon d'alors. A la fin des années 1940, le pays restait en effet fort éloigné des Etats-Unis: il ne s'était pas encore relevé d'une guerre terrible, et les Japonais, qui travaillaient à redresser leur économie le plus vite possible, étaient très peu nombreux à avoir les moyens de s'offrir une voiture. En 1950, on comptait dans le pays 1 900 immatriculations neuves, dont 1 500 véhicules japonais. La même année, les Etats-Unis fabriquaient 6 600 000 voitures.

Bien que le Japon ne puisse alors soutenir la comparaison avec le géant d'outre-Atlantique, Kiichiro Toyoda déclare pourtant vouloir "rattraper les Américains en trois ans". Le pari a été réussi... en cinquante ans. C'est en 2007 que la firme nippone est devenue le premier constructeur automobile du monde, grâce à Ohno. Celui-ci avait en effet compris qu'il était impossible d'utiliser les mêmes méthodes que les Américains: alors que ces derniers jouaient sur les énormes quantités produites pour réaliser des économies d'échelle, les Japonais devaient quant à eux abaisser les coûts tout en produisant des séries courtes, adaptées à la taille de leur marché. Au défi - que faire pour augmenter la productivité quand les quantités n'augmentent pas? -, ils vont apporter une réponse originale: il faut fabriquer rapidement, éliminer les coûts inutiles et vendre les voitures dès leur sortie d'usine, pour éviter des frais de stockage et faire rentrer de l'argent frais. Ils devaient agir à la fois sur l'organisation du travail et sur tous les postes de dépenses, depuis les approvisionnements jusqu'à la distribution aux consommateurs. Pour y parvenir, Ohno va introduire deux innovations majeures: le juste-à-temps et l'autonomation, un néologisme forgé par la contraction d'autonomie et d'automatisation.


Deux innovations

Eiji Toyoda voulait "produire juste ce dont on a besoin et le faire juste à temps". Ohno réussit à concrétiser ce principe en supprimant tout stock inutile, grâce à une organisation singulière de la chaîne de montage. Le nombre et le type des véhicules à sortir de l'usine sont dictés par la demande des consommateurs. Toute l'information part donc de la fin du processus, de l'aval, et est matérialisée par des étiquettes (kanban en japonais) qui informent chaque poste de travail sur les quantités à produire et qui rythment la production. Le kanban remonte la chaîne de poste en poste, chacun commandant à celui qui les lui fournit les pièces qu'il doit assembler. Personne n'a le droit de fabriquer sans avoir de commande, et il est interdit de poser des pièces sur le sol, ce qui limite l'approvisionnement de chaque poste au contenu d'un chariot, quantité nécessaire pour cinq voitures.

Cette méthode économise les nombreux techniciens qui programment finement le travail des ateliers dans le système fordien. La régulation est assurée par les kanban ainsi que par les contremaîtres et chefs d'équipe (les "superviseurs" dans le langage Toyota), qui veillent en permanence à ce que le processus fonctionne sans à-coup. Le nombre de kanban en circulation définit le nombre de véhicules en construction à un moment donné. De plus, Ohno prend le pari d'"arrêter la production plutôt que de produire des pièces insatisfaisantes". C'est l'autonomation, qui répond à un impératif du juste-à-temps: obtenir la qualité voulue du premier coup. Il préfère ralentir la chaîne qu'occuper des ouvriers à l'activité parasite de réparer des pièces. Au moindre dysfonctionnement, la machine s'arrête automatiquement. On évite ainsi les fabrications non conformes, sans pour cela mobiliser un ouvrier en permanence. Avant la mise en place des automatismes, il fallait un homme pour surveiller chaque machine et intervenir sans délai en cas d'incident. A partir du moment où l'arrêt est automatique, l'ouvrier dispose de plus de temps pour intervenir et peut surveiller plusieurs machines. Pour que ce système soit efficace, chaque ouvrier doit être capable de régler les incidents et de réparer les pannes les plus fréquentes. L'ouvrier de Toyota n'est pas l'ouvrier spécialisé fordien.


Produire plusieurs modèles sur la même chaîne

La chasse aux stocks et aux gaspillages vise à faire tourner les usines avec le moins de monde possible. L'explication est historique. Le groupe vient juste de sortir de la crise de 1950 lorsqu'éclate la guerre de Corée. Les commandes militaires affluent, mais les dirigeants de Toyota, traumatisés par l'expérience qu'ils viennent de vivre, refusent d'embaucher massivement pour des causes conjoncturelles. Pour produire plus avec un effectif "ajusté", il faut éliminer les variations brutales de production, qui imposent des stocks intermédiaires et des surcapacités en équipement et en main-d'oeuvre. D'où l'importance de la régularité du flux, obtenue en organisant la "production mixte": produire tous les modèles avec les mêmes machines et les mêmes hommes.

Le chef-d'oeuvre d'Ohno est de s'être affranchi de la longueur des séries, facteur clef de réussite dans le système fordien, et d'avoir réussi à produire des modèles différents dans des conditions de coût et de délai acceptables. Pour y parvenir, il faut savoir changer rapidement d'outil entre deux modèles. Les matrices des presses utilisées pour mettre en forme les tôles sont des outils très lourds, changés entre deux vagues de fabrication à l'aide de ponts roulants. Une telle opération prenait de douze heures à trois jours. En automatisant les réglages et en organisant le poste de travail, Ohno parviendra, avec l'aide de Shigeo Shingo (3), à ramener ce temps à moins de dix minutes.


De nouvelles règles de management

Taiichi Ohno préconise "la direction par les yeux". Le kanban, vulgaire étiquette, en dit plus sur l'état des stocks que de longs tableaux de chiffres, et chaque machine est pourvue d'un voyant lumineux (andon) qui indique si celle-ci fonctionne correctement. De même, le management se pratique dans l'atelier, pas dans les bureaux. Chez Toyota, la règle est d'étudier les méthodes en face des pièces réelles et avec les personnes impliquées. Les managers doivent sortir de leurs bureaux et de leurs salles de réunion, et les opérateurs doivent apprendre à décrire et analyser les problèmes pour en parler avec les ingénieurs. En effet, Ohno pensait que les ouvriers étaient les mieux placés pour repérer les défauts du système. Ils ont donc toujours été encouragés à proposer des solutions et à faire des suggestions pour gagner du temps ou économiser de la matière. Un processus qui n'a rien d'anecdotique. C'est un outil puissant de développement des compétences et d'implication des opérateurs dans le changement, et il évite d'avoir recours à des investissements lourds. Lors de la crise de 1950, Toyota était à la merci de ses banquiers. D'où sa volonté de progresser au quotidien par des aménagements peu coûteux - mais très efficaces, par leur accumulation - et d'investir uniquement pour lancer une nouvelle production.

Dans le même esprit, le management par la qualité totale (TQC) a été introduit chez Toyota en 1961, et les groupes de qualité ont été lancés en 1964. "L'une des caractéristiques des travailleurs japonais est qu'ils se servent de leur cerveau tout autant que de leurs mains. Nos ouvriers nous apportent un million et demi de suggestions par an, et 95% d'entre elles sont mises en pratique", déclarait Eiiji Toyoda. Beau discours... mais la réalité a souvent été plus dure et plus conflictuelle. La construction du TPS n'a pas, en effet, été un long fleuve tranquille: les ouvriers ont fortement réagi à l'intensification du travail, et l'adaptation des agents de maîtrise aux innovations d'Ohno a pris beaucoup de temps. Pour faire accepter ses méthodes, la direction de Toyota a dû, au fil des années, mettre de l'huile dans les rouages: accorder la pérennité de l'emploi (l'emploi "à vie"), embaucher suffisamment de main-d'oeuvre, valoriser les initiatives et former avec soin l'encadrement.

Marc Mousli


Alternatives Economiques - n°287 - Janvier 2010

Notes


(1)
24 millions d'euros 2009.


(2)
DKW (Deutsche Kraftfahrzeug Werke) a sorti en 1931 la première traction avant de grande série européenne. La firme berlinoise avait techniquement une dizaine d'années d'avance sur ses concurrents.


(3)
Shigeo Shingo (1909-1990), consultant spécialisé dans les questions de production.

En savoir +
Penser à l'envers, par Benjamin Coriat, éd. Christian Bourgois, 1991.
Le toyotisme, par Koïchi Shimizu, coll. Repères, éd. La Découverte, 1999.
L'esprit Toyota, par Taiichi Ohno, éd. Masson, 1989 (rééd. 1997).
Toyota, l'usine du désespoir, par Satoshi Kamata, éd. Demopolis, 2008.
www.lean.enst.fr/wiki/bin/view/Lean/LesPublications: le site du projet "Lean entreprise" de Telecom Paris Tech.

Ingénieur allergique aux idées reçues, Taiichi Ohno a mis en place chez Toyota un modèle organisationnel novateur. Fondé sur le juste-à-temps et sur de nouvelles règles de management, celui-ci a peu à voir avec le taylorisme et le fordisme.

Qui connaît Taiichi Ohno? Peu de monde. Il est pourtant l'artisan de la deuxième révolution organisationnelle du XXe siècle. Et le mot "révolution" prend ici tout son sens: pour la plupart des problèmes de ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 260 - p.84 à p.86

Mathématicien réputé, pédagogue dans l'âme et auteur prolifique, Luca Pacioli a mis les connaissances en comptabilité à la disposition du plus grand nombre.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 255 - p.7 à p.12

La relance de la construction depuis trois ans ne résoudra pas le mal-logement. Car la politique actuelle privilégie une offre trop chère pour la majorité des ménages.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

Entre le dynamisme économique des métropoles et la qualité de vie du rural, les villes moyennes seraient promises au déclin. Un discours ambiant réducteur qui ne rend pas compte de la diversité de leurs situations et sous-estime les atouts de certains territoires.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 289 - p.48 à p.59

Le livre ne connaît pas la crise, les chiffres le prouvent. Mais les nuages s'amoncellent à l'horizon. Entre révolution numérique, mutations du lectorat, "best-sellerisation" du marché, crise de la librairie indépendante et concentration du secteur, son avenir paraît de plus en plus incertain. (chiffres)

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Les premiers pas de l'IA en entreprise | Alternatives Economiques 01/06/2018

Article (TECHNOLOGIES)

... Lire [+]

V

Le grand chambardement annoncé des métiers par les systèmes d'intelligence artificielle n'est pas pour demain. Enquête dans les firmes françaises expérimentant Watson, logiciel star d'IBM.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 252 - p.56 à p.68

Les paradis fiscaux jouent un rôle essentiel dans les flux bancaires internationaux, mais aussi dans les stratégies d'investissement international des firmes. Loin de l'image des petites îles ensoleillées, ces paradis tiennent d'abord aux activités des Etats les plus puissants.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 295 - p.56 à p.57

S'ils ne sont plus le premier groupe social, les ouvriers sont pourtant loin d'avoir disparu : ils étaient près d'un actif sur quatre en 2008.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 214 - p.68 à p.71

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

Loin du mythe de l'entrepreneur libéré, nombre de micro-entrepreneurs sont pris au piège d'une situation de salariat déguisé, sans marge de manoeuvre ni protection sociale.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 220 - p.52

Sommaire :
- La société de la télé
- Le petit écran accusé
- La télé poubelle

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

La compétitivité d'une entreprise dépend du prix de ses produits, mais aussi de bien d'autres caractéristiques. Appliquée à un pays, la notion de compétitivité est moins simple qu'il n'y paraît. Elle reflète des avantages ou des difficultés structurels touchant à de nombreuses variables.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 216 - p.38 à p.54

A côté des grands flux commerciaux et financiers mondiaux et échappant aux normes des institutions de régulation internationales, se développe une mondialisation par le bas, qui se joue des barrières douanières. Portée par de nouveaux nomades, elle entretient des relations ambiguës avec les pouvoirs politiques et les multinationales.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 265 - p.68 à p.71

Les classes moyennes sont bien loin de rassembler des individus et des milieux homogènes, cohérents et organisés. Pour autant, on ne saurait les ramener à une sorte d'entre-deux informel entre "France d'en haut" et "France d'en bas". Elles forment un ensemble traversé de nombreux clivages (indépendants/salariés, public/privé, lettrés/éloignés de la culture savante, etc.) au sein duquel quelques groupes, pourvus d'une identité sociale forte et de ressources organisationnelles, s'affirment périodiquement dans l'espace social, culturel et politique. Les classes moyennes sont bien loin de rassembler des individus et des milieux homogènes, cohérents et organisés. Pour autant, on ne saurait les ramener à une sorte d'entre-deux informel entre "France d'en haut" et "France d'en bas". Elles forment un ensemble traversé de nombreux clivages (indépendants/salariés, public/privé, lettrés/éloignés de la culture savante, etc.) au sein duquel quelques groupes, pourvus d'une identité sociale forte et de ...

Z