m

Documents  L'Usine Nouvelle | enregistrements trouvés : 100

O

-A +A

P Q

UV

L'Usine Nouvelle


Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

UV

Ce que vous trouverez dans notre édition 2009-2010 de "L'Atlas des Usines" (version papier)

> Un classement régional, départemental, puis alphabétique de 3 753 sites de production, de plus de 85 salariés.

> Pour chaque site, une description détaillée, avec coordonnées complètes, e-mail et site internet, groupe d'appartenance et nationalité, effectifs au 31 décembre 2008 et 2007, activité (certifications, chiffre d'affaires, classement Seveso...) et équipe dirigeante.

> La structure industrielle et les chiffres clés des 65 premiers groupes industriels en France.
Ce que vous trouverez dans notre édition 2009-2010 de "L'Atlas des Usines" (version papier)

> Un classement régional, départemental, puis alphabétique de 3 753 sites de production, de plus de 85 salariés.

> Pour chaque site, une description détaillée, avec coordonnées complètes, e-mail et site internet, groupe d'appartenance et nationalité, effectifs au 31 décembre 2008 et 2007, activité (certifications, chiffre d'affaires, classement ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

UV

SOMMAIRE

Les sièges sociaux
8 secteurs d'activité - 26 sous-secteurs d'activité - 6 000 entreprises - 30 000 dirigeants

Secteurs d'activité référencés :
- Aéronautique
- Agroalimentaire
- Automobile
- Bois - Papier - Matériaux
- Chimie - Pharmacie - Énergie
- Électrique - Électronique - Informatique
- Mécanique - Métallurgie - Sidérurgie
- Services - Textile

Index
- Index des Sociétés
- Index des Dirigeants
SOMMAIRE

Les sièges sociaux
8 secteurs d'activité - 26 sous-secteurs d'activité - 6 000 entreprises - 30 000 dirigeants

Secteurs d'activité référencés :
- Aéronautique
- Agroalimentaire
- Automobile
- Bois - Papier - Matériaux
- Chimie - Pharmacie - Énergie
- Électrique - Électronique - Informatique
- Mécanique - Métallurgie - Sidérurgie
- Services - Textile

Index
- Index des Sociétés
- Index des Dirigeants

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Cobotique - Travailler main dans la pince | L'Usine Nouvelle 01/05/2018

Article (TECHNOLOGIES)

... Lire [+]

V

C'est une petite révolution dans le monde industriel : les cobots, robots collaboratifs, prennent de plus en plus d'importance en 2018. Leur marché pourrait atteindre 2 milliards de dollars en 2021. Ces nouvelles machines ne sont pas là pour remplacer l'homme mais pour l'assister, au coeur de l'usine et de la production. Le but principal est de confier les tâches les plus répétitives aux cobots, pour que l'homme puisse se concentrer sur les étapes à valeur ajoutée, qui demandent davantage de travail intellectuel et ne sont pas juste une suite de mouvements. L'interaction se développe également de plus en plus entre les deux parties, même s'il faut faire en sorte que la présence d'un robot à ses côtés n'entrave pas la liberté de l'employé ou sa manière de faire. L'objectif n'est pas que le salarié devienne un assistant du robot. A terme, les deux doivent pouvoir travailler en parfaite synchronisation, via des outils comme les exosquelettes ou les robots mobiles intelligents. Les cobots sont avant tout au service des employés et de la production. Sommaire. Mon collègue, ce cobot. Homme et robot en duo. Marc-Eric Bobilier Chaumon, professeur de psychologie du travail : "Eviter que le salarié devienne un assistant". Gobio en quête de l'exosquelette ultra-light. Allemagne, la cobotique intègre les usines avec prudence. Dossier. Données chiffrées (nombre de cobots vendus en 2015, valeur potentielle du marché dans le futur, etc.). C'est une petite révolution dans le monde industriel : les cobots, robots collaboratifs, prennent de plus en plus d'importance en 2018. Leur marché pourrait atteindre 2 milliards de dollars en 2021. Ces nouvelles machines ne sont pas là pour remplacer l'homme mais pour l'assister, au coeur de l'usine et de la production. Le but principal est de confier les tâches les plus répétitives aux cobots, pour que l'homme puisse se concentrer sur les ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.
Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

Cobotique / robotique, machines intelligentes, réalité augmentée, augmentée, fabrication additive, big data/prédictif, maquette numérique et blockchain : ces sept technologies dessinent l'industrie du futur et gagnent en maturité. Cependant, elle nécessitent encore beaucoup d'innovations afin de stabiliser des solutions pérennes pour l'Industrie 4.0. L'homogénéisation du format des échanges de données sera notamment un grand défi pour la transformation du dialogue entre les hommes et les machines. En France, 4100 entreprises sont engagées dans une démarche Industrie du futur. 127 robots pour 10 000 salariés étaient installés en 2015. Détails. Tour d'horizon d'une sélection d'entreprises qui proposent des solutions en lien avec l'industrie 4.0. Cobotique / robotique, machines intelligentes, réalité augmentée, augmentée, fabrication additive, big data/prédictif, maquette numérique et blockchain : ces sept technologies dessinent l'industrie du futur et gagnent en maturité. Cependant, elle nécessitent encore beaucoup d'innovations afin de stabiliser des solutions pérennes pour l'Industrie 4.0. L'homogénéisation du format des échanges de données sera notamment un grand défi pour la ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Attractivité - Un record d'investissements | L'Usine Nouvelle 05/04/2018

Article (INTERNATIONAL)

... Lire [+]

V

La France connaît un regain notable de l'attractivité de son industrie. Certes, l'élection d'Emmanuel Macron a séduit les industriels étrangers, surtout, puis ses discours et ses initiatives sont à l'origine de nombreux projets, portés par des entreprises tricolores ou internationales. L'agence Business France liste les indicateurs (évolution 2016 -2017) : + 23 % de projets industriels en France, dont 16 % sont issus d'investissements allemands - la France devient le premier marché européen de l'Allemagne. Les projets de R&D augmentent de 9 %, une croissance alimentée essentiellement par les investissements américains. Les décisions d'investissements étrangers en France progressent de 16 % avec 1 300 projets, ce qui correspond au maintien ou à la création d'environ 33 500 emplois. Les investissements étrangers portent massivement sur les activités de production qui captaient 26 % des IDE en 2017 et qui ont progressé de 23 % sur un an. La France est également plébiscitée pour la qualité de sa recherche et de son ingénierie. Nombreuses précisions. Explications de Christophe Lecouturier, directeur général de Business France sur la stratégie de l'agence. Graphiques : courbe du nombre de décision d'investissements étrangers par an en regard du nombre d'emplois créés par ces décisions (période 2007-2017) ; origine des décisions d'investissements et typologie des investissements étrangers en 2017 (%). Données chiffrées. La France connaît un regain notable de l'attractivité de son industrie. Certes, l'élection d'Emmanuel Macron a séduit les industriels étrangers, surtout, puis ses discours et ses initiatives sont à l'origine de nombreux projets, portés par des entreprises tricolores ou internationales. L'agence Business France liste les indicateurs (évolution 2016 -2017) : + 23 % de projets industriels en France, dont 16 % sont issus d'investissements allemands ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

En entretien, les candidats n'hésitent plus à être exigeants sur l'intérêt du travail ou les engagements sociétaux de l'entreprise.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

L'intelligence artificielle est plus qu'une technologie, elle est le moteur de la prochaine grande révolution industrielle. Un bouleversement auquel l'industrie se prépare et un business que les géants du numérique comptent bien s'accaparer.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

Serta, fabricant de vérins, a adapté son fonctionnement pour réaliser des produits personnalisés.
Elle a également mis au point un système d'ordonnancement complexe, constitué de plusieurs logiciels réalisés sur mesure dont un développé en partenariat avec l'école d'ingénieurs Icam Vendée.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

Sur un marché mondial en baisse de 20%, les industriels français évitent les écueils. Si certaines entreprises sont en difficulté, d'autres résistent bien en marquant leur différence. La bonne image de marque de l'industrie nautique française et le lancement de nombreuses nouveautés leur permettent de résister, affirme Jean-François Fountaine, président de la Fédération des industries nautiques (FIN). Le marché français du nautisme compte 5 000 entreprises et 40 800 salariés et réalise 4,3 milliards d'euros de CA global dont 66% à l'export. 16 000 bateaux neufs ont été immatriculés en 2011-2012. Sur un marché mondial en baisse de 20%, les industriels français évitent les écueils. Si certaines entreprises sont en difficulté, d'autres résistent bien en marquant leur différence. La bonne image de marque de l'industrie nautique française et le lancement de nombreuses nouveautés leur permettent de résister, affirme Jean-François Fountaine, président de la Fédération des industries nautiques (FIN). Le marché français du nautisme compte 5 000 ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

Serge PAPIN, le PDG de Système U a imposé, en moins de dix ans son groupement coopératif de magasins comme la quatrième enseigne alimentaire de France. Avec la valorisation des terroirs et de l'économie locale comme fers de lance.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3187 - p.24 à p.25

Fini la petite épicerie bio de quartier. La pression sur les prix pousse les réseaux spécialisés à se regrouper et à s'agrandir, tandis que les industriels multiplient les investissements.
Chiffres :
2,9 milliards d'euros de C.A. en 2009 pour la vente de produits biologiques en France (+15% par rapport à 2008) dont :
- 45% réalisés par les 2 200 magasins spécialisés
- 42% par la grande distribution
- 13% en vente directe
Le top 5 des enseignes de produits bio en 2009 :
1. Biocoop
2. La Vie Claire
3. Biomonde
4. Naturalia
5. Satoriz
Fini la petite épicerie bio de quartier. La pression sur les prix pousse les réseaux spécialisés à se regrouper et à s'agrandir, tandis que les industriels multiplient les investissements.
Chiffres :
2,9 milliards d'euros de C.A. en 2009 pour la vente de produits biologiques en France (+15% par rapport à 2008) dont :
- 45% réalisés par les 2 200 magasins spécialisés
- 42% par la grande distribution
- 13% en vente directe
Le top 5 des enseignes ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3181 - p.17 à p.61

comment produire plus et mieux ? Tour d'horizon de ces industriels qui apportent des solutions aux grands défis du monde agricole.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3125 - p.32 à p.42

Poussées par des règlementations contraignantes et des politiques volontaristes publiques et privées, les entreprises saisissent les opportunités de l'économie verte. Un pari prometteur à long terme, malgré la crise.
Le succès est tel que les organisateurs ont dû rajouter des chapiteaux devant le centre d'exposition ! Jamais Pollutec, qui se tiendra à Lyon du 2 au 5 décembre, n'aura connu une telle affluence d'exposants. Pour sa vingt-troisème édition, le salon des équipements, des technologies et des services à l'environnement accueille 2 700 sociétés spécialisées dans les économies d'énergie, le traitement de l'air, de l'eau ou encore des déchets (elles n'étaient que 220 lors de la première édition en 1986) ! Des chiffres records qui témoignent de la vigueur de ces nouvelles industries. Bien qu'elles ne soient pas épargnées par la crise, leur avenir à long terme reste prometteur. Elles s'appuient, en effet, sur un solide socle de normes. " La croissance verte est tirée essentiellement par les seuils réglementaires qui obligent à renouveler le parc d'équipements et de produits, par exemple, dans le bâtiment ou l'automobile ", constate Eric Duvaud, associé en charge du département environnement et développement durable d'Ernst et Young. La future législation européenne sur le climat (" paquet Energie/climat "), en cours de discussion à Bruxelles, comprend plusieurs textes visant à réduire de 20 % les émissions de gaz à effet de serre de l'Union et à porter la part des énergies renouvelables (ENR) dans sa consommation d'énergie de 8,8 % en 2006 à 20 % d'ici à 2020. Elle devrait faire changer d'échelle ces marchés. Rien qu'en France, selon l'Agence de l'environnement et de la maîtrise de l'énergie (Ademe), les énergies vertes (solaire, éolien, biomasse, géothermie...) pourraient représenter en 2012 un marché (équipements et ventes d'énergie) de 24 milliards d'euros et générer 120 000 emplois. En 2007, ce marché était de 9,4 milliards d'euros pour 52 000 emplois. Ces décisions sont les effets les plus visibles des politiques volontaristes qui se dessinent partout dans le monde. Barack Obama s'est engagé à investir 150 milliards de dollars sous dix ans afin de promouvoir les énergies vertes et de relancer les économies d'énergie. A la clé, selon lui, cinq millions d'emplois. Le premier ministre britannique, Gordon Brown, veut réduire de 80 % les émissions de CO2 du pays d'ici à 2050. Et il vient de lancer un plan d'un milliard de livres pour promouvoir l'isolation des habitations financé par les distributeurs et les producteurs d'énergie. UNE FORMIDABLE RÉSERVE DE CROISSANCE Même tendance en France. " Le Grenelle représente une réserve de croissance fantastique. Je suis convaincu que la crise financière que traverse l'Europe ne peut être résolu que par la révolution verte ", assène à tout propos Nicolas Sarkozy. Dans le cadre du projet de loi Grenelle, l'Etat prévoit un vaste plan de rénovation des bâtiments, le développement des transports collectifs et des énergies renouvelables. Et multiplie les outils d'incitation : bonus/malus automobile, crédit d'impôt pour les consommateurs préférant des équipements performants énergétiquement (chauffage, panneaux solaires) ou encore un futur prêt à taux zéro plafonné à 30 000 euros pour aider les ménages à financer les travaux d'isolation et les économies d'énergie de leurs logements. Du pain béni pour les Lafarge, Saint-Gobain, Knauff et une myriade de PME. En parallèle, les entreprises misant sur le vert ont la cote auprès des fonds privés. Selon le cabinet britannique New Energy Finance, les fonds d'investissement ont engagé 13,5 milliards d'euros en 2007 dans les technologies propres, soit + 46 % par rapport à 2006. Même si la crise a freiné les ardeurs, les éco-industries continuent à trouver de l'argent dans le solaire, l'éolien, le stockage de l'énergie, le traitement de l'eau ou les biomatériaux. Au troisième trimestre 2008, le groupe de recherche américain CleantechGroup a recensé 127 accords entre ces sociétés et des fonds d'investissement, contre 106 au trimestre précédent. DES OBJECTIFS REVUS À LA BAISSE AVEC LA CRISE ? Cependant, des ombres viennent nuancer ce tableau optimiste. Avec un baril revenu autour de 50 dollars, il n'est pas exclu que l'intérêt des entreprises et des Français pour les énergies renouvelables ou les biocarburants retombe. Ensuite, les ménages devront mettrent la main à la poche. Il faut en effet que ceux-ci transforment leur envie de produits et de solutions " verts " en dépenses effectives. Selon l'Ademe, dans le seul domaine de l'efficacité énergétique des bâtiments, les objectifs du Grenelle seront tenus à la seule condition que les dépenses des ménages atteignent 15 milliards d'euros par an d'ici à 2012, deux fois plus qu'actuellement. Par ailleurs, la dernière étude d'impact, publiée en octobre, estime que le Grenelle pourrait coûter 440 milliards d'euros d'ici à 2020. Où l'Etat va t-il trouver l'argent et comment va-t-il aider à former à ces nouveaux métiers ? Des questions qui restent pour l'heure sans réponse. .
@ CAMILLE CHANDÈS
Poussées par des règlementations contraignantes et des politiques volontaristes publiques et privées, les entreprises saisissent les opportunités de l'économie verte. Un pari prometteur à long terme, malgré la crise.
Le succès est tel que les organisateurs ont dû rajouter des chapiteaux devant le centre d'exposition ! Jamais Pollutec, qui se tiendra à Lyon du 2 au 5 décembre, n'aura connu une telle affluence d'exposants. Pour sa vingt-troisème ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3125 - p.28

Les étudiants de certaines écoles de commerce vont pouvoir obtenir le titre d'ingénieur. Mais sous conditions.
C'est une première ! La Commission des titres d'ingénieur (CTI), le gendarme des écoles d'ingénieurs, a autorisé Télécom Bretagne à diplômer des étudiants de l'école de commerce de Grenoble. Certes, le principe du double diplôme n'est pas récent. L'appétit croissant des entreprises pour les profils à la fois techniques et managériaux a poussé les écoles d'ingénieurs et de commerce à se rapprocher. Mais dans un sens uniquement : jusqu'à maintenant, seuls les élèves ingénieurs pouvaient passer une année supplémentaire en école de commerce pour obtenir les deux diplômes. " Nos étudiants qui partaient à Télécom Bretagne ne revenaient qu'avec une simple attestation de scolarité ", souligne Béatrice Nerson, la directrice adjointe de l'Ecole supérieure de commerce (ESC) de Grenoble. Ils pourront désormais devenir de véritables ingénieurs. Mais sous conditions. " La marque ingénieur se vend bien, cependant il ne faut pas la brader, lance Bernard Remaud, le président de la CTI, qui ne cache pas ses réticences. Ce cursus est autorisé à titre expérimental, ouvert uniquement à des profils d'étudiants en management disposant d'un fort bagage scientifique. " L'ESC Grenoble va ainsi privilégier des jeunes passés par les classes préparatoires scientifiques ou issus de DUT ou de licence en sciences. " Avant de partir à Télécom Bretagne, ils suivront un mois de remise à niveau ", ajoute Béatrice Nernon. La CTI a aussi limité le nombre de places à cinq étudiants par an. Mais la brèche ouverte par les établissements grenoblois et breton pourrait faire des émules auprès des autres écoles de commerce. L'ESC Grenoble, elle-même, est déjà en discussion avec une autre école d'ingénieurs pour réitérer cette initiative .
Les étudiants de certaines écoles de commerce vont pouvoir obtenir le titre d'ingénieur. Mais sous conditions.
C'est une première ! La Commission des titres d'ingénieur (CTI), le gendarme des écoles d'ingénieurs, a autorisé Télécom Bretagne à diplômer des étudiants de l'école de commerce de Grenoble. Certes, le principe du double diplôme n'est pas récent. L'appétit croissant des entreprises pour les profils à la fois techniques et managériaux a ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3125 - p.26

Le vice-président exécutif de Nestlé prend la direction du numéro 2 mondial de la distribution. Il doit définir une stratégie pour un groupe en mal d'image.
C'est une surprise. On savait depuis l'été que les grands actionnaires de Carrefour cherchaient à remplacer l'espagnol José Luis Duran, le patron du numéro 2 mondial de la distribution. Mais l'arrivée d'un industriel, issu du numéro 1 mondial de l'agroalimentaire, Nestlé, a étonné. Le Suédois Lars Olofsson, 56 ans, vice-président exécutif de Nestlé, en charge du marketing et des ventes, prendra ses fonctions le 2 janvier 2009. Une belle revanche pour ce manager francophone qui avait échoué de peu, en avril, à la succession de Peter Brabeck à la tête de Nestlé. Un groupe où Lars Olofsson a réalisé la quasi-totalité de sa carrière. Il y entre en 1976 en tant que chef de produits, passe par la direction de Findus France, puis devient successivement le patron de Nestlé France en 1997, puis de la zone Europe en 2001. Son arrivée à la tête de Carrefour intervient dans une période d'incertitudes pour le distributeur, deux ans et demi après une révolution au capital, avec l'arrivée du fonds d'investissement Colony Capital et de LVMH, regroupés dans Blue Capital. " Il est étonnant que ce changement ne soit pas intervenu plus tôt, tant José Luis Duran et les nouveaux actionnaires étaient en désaccord sur de nombreux sujets comme la cession du parc immobilier du groupe et le développement à l'international ", explique un observateur. Image détériorée, difficultés des hypermarchés en France et effondrement du cours de Bourse ont conduit le conseil d'administration présidé par l'omniprésent Amaury de Sèze, à chercher un homme fort pour diriger le distributeur français. Jugé charismatique par ses proches, éternellement bronzé, Lars Olofsson devra apporter du sang neuf à un groupe qui a réalisé 92,3 milliards d'euros de chiffre d'affaires en 2007 et emploie 490 000 personnes. La marge de manoeuvre de ce chevalier de la Légion d'honneur et du Mérite agricole est étroite. Il aura, en peu de temps, à réinventer un modèle d'organisation et de gestion des ressources humaines et à écrire un projet stratégique clair. Alors que l'énorme chantier de changement d'enseigne des supermarchés Champion en Carrefour Market est commencé, Lars Olofsson devra s'atteler à l'épineux problème de l'immobilier. Carrefour Property, qui possède 60 % des actifs du groupe, représentant 14 milliards d'euros en France,en Espagne et en Italie, sera-t-elle finalement cédée ? Pas simple dans le contexte financier actuel. Au final, de lourdes décisions stratégiques au moment où la consommation mondiale s'érode dans les pays émergents et recule en Europe. " Ce serait dramatique pour Carrefour si Lars Olofsson échouait ", souligne un observateur. Blue Capital, qui a vu la valeur du groupe fondre de 45 % depuis début janvier, optera-t-il alors pour la vente par appartement ? Une stratégie déjà mise en oeuvre dans l'industrie et qui pourrait s'appliquer pour la première fois à un géant de la distribution. Mais Lars Olofsson n'est sans doute pas venu pour cela. .
Le vice-président exécutif de Nestlé prend la direction du numéro 2 mondial de la distribution. Il doit définir une stratégie pour un groupe en mal d'image.
C'est une surprise. On savait depuis l'été que les grands actionnaires de Carrefour cherchaient à remplacer l'espagnol José Luis Duran, le patron du numéro 2 mondial de la distribution. Mais l'arrivée d'un industriel, issu du numéro 1 mondial de l'agroalimentaire, Nestlé, a étonné. Le ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3124 - p;64 à p.66

Les préoccupations environnementales s'invitent dans la supply chain ! Lors du congrès de l'Aslog, les 26 et 27 novembre à Nantes, dont " L'Usine Nouvelle " est partenaire, la logistique verte occupera le devant de la scène. Achats, entrepôts, flux et camions sont concernés.
Des entrepôts intégrés dans le paysage et fonctionnant avec des énergies alternatives. Des trains et des péniches en pagaille pour les transports de gros volumes et de longue distance. Et des camions roulant à l'hydrogène ou à l'électricité pour les livraisons urbaines. Voilà un tableau idyllique de la logistique dans un monde merveilleux. Nous en sommes encore loin ! Le monde industriel a beaucoup de progrès à accomplir pour que le transport et la logistique ne soient plus montrés du doigt pour leurs nuisances sonores et surtout environnementales. Depuis quelques années, certaines entreprises comme les Brasseries Kronenbourg ou HP jouent les pionnières. Elles ont pris ce problème à bras le corps dans le but de réduire significativement leurs émissions polluantes. Mais dans la grande majorité des cas, il s'agit de " mesurettes " ou d'effets d'annonce. Pour Valentina Carbone, enseignant-chercheur à l'ESCP-EAP, qui présentera son observatoire de la supply chain lors du congrès de l'Aslog (Association française pour la logistique), " on raisonne de façon cloisonnée, mais il faut réfléchir au niveau de la chaîne entière ". Voici les quatre chantiers primordiaux à mener pour rendre sa supply chain plus écologique. 1SE RAPPROCHER DES FOURNISSEURS En toute logique, la première étape dans la chaîne d'approvisionnement concerne les achats. L'idéal est d'éviter des pays trop lointains pour limiter les nuisances liées au transport. La solution ? Identifier un réseau de fournisseurs dans un rayon proche ou amener ses sous-traitants à s'installer près de son site de production. Certaines industries comme l'automobile ont déjà adopté ces schémas depuis bien longtemps. Mais il n'est pas toujours facile de les mettre en place, surtout pour les entreprises qui ont délocalisé. Chez Kindy, qui est déjà passé à l'acte, " nous avons réorganisé nos achats pour massifier les volumes au lieu de nous éparpiller dans trente pays. Cela permet d'éviter le cadencement et de limiter les coûts de transport ", précise Daniel Ejarque, en charge du développement durable pour le groupe. Un meilleur sourcing n'a pas seulement une vertu écologique. Il permet aussi de " gagner 10 % sur les coûts de transport ", estime Patrick Poiret, consultant chez l'éditeur Oracle qui développe des outils intégrant les considérations environnementales. 2 OPTER POUR DES BÂTIMENTS ÉCONOMES Choisir des modes d'énergie alternatifs. Concevoir des bâtiments peu énergivores... Les chantiers ne manquent pas pour améliorer les entrepôts, même si la norme Haute qualité environnementale (HQE) n'existe pas dans ce domaine. " Certains ne font que de l'habillage en dotant leurs centres de stockage de panneaux photovoltaïques, alors qu'il y a des actions beaucoup plus lourdes à effectuer ", estime Christophe Chauvet, le directeur des opérations d'Elcimaï, société d'ingénierie industrielle et logistique. Si le recours à des énergies alternatives - panneaux photovoltaïques, éoliennes, géothermie - n'est pas neutre, des mesures de bon sens permettent de réaliser des économies substantielles et de réduire les émissions de CO2. L'isolation du bâtiment permet d'économiser 15 % sur la facture énergétique. Privilégier l'éclairage naturel ou les ampoules à basse tension offre des gains de 20 %. HP espère ainsi réduire de 16 % la consommation d'énergie de ses entrepôts entre 2005 et 2010. Pour d'autres industriels, c'est l'implantation même des entrepôts qui peut être remise en cause. Ainsi, selon Sophie Garrigou, la directrice transport et mobilité du conseil en stratégie BeCitizen, " il faut revoir l'implantation des plates-formes. Leur emprise au sol et l'urbanisation qu'elles engendrent créent d'importantes nuisances, par exemple l'imperméabilisation des sols et le déplacement des employés en voiture ". Chez Prologis France, qui exploite des parcs logistiques, Jean-Louis Lazuech, le directeur du développement, évoque " la nécessité de concentrer la logistique sur un même site pour mutualiser les coûts, la surveillance de l'environnement et les différents services ". L'idée de développer des plates-formes urbaines pour alimenter les grandes villes va également dans ce sens. Le promoteur de parcs Urban Real Estate tente d'ailleurs de se lancer sur ce créneau porteur avec son concept écologique d'Urban Crossdocker. Les entrepôts qu'il conçoit peuvent réceptionner les produits arrivés par le train avant de les dispatcher dans des véhicules électriques pour assurer la livraison des derniers kilomètres. 3 RÉORGANISER LES CIRCUITS LOGISTIQUES En matière de logistique verte, les gains les plus importants peuvent être obtenus en revenant sur des concepts répandus depuis des années : les stocks zéro et les flux tendus. Ces systèmes engendrent des émissions de CO2 considérables car les stocks se trouvent le plus souvent sur la route. Aujourd'hui, certaines entreprises, comme Kronenbourg, optent pour des entrepôts intermédiaires plutôt que pour un seul stock central. Jean-Michel Rothier, le président du club Demeter, estime pour sa part qu'" il faut définir le juste stock en choisissant éventuellement de fonctionner avec des stocks avancés ". Les fournisseurs de PSA Peugeot-Citroën sont en train de mettre en place des entrepôts de ce type au pied des usines du constructeur, pour assurer un semblant de flux tendu. Parfois, il est même possible de supprimer un flux de transport. Elcimaï cite l'exemple de Cereal Partners France (Nestlé) à Itancourt (Aisne) : l'entrepôt de débord, autrefois situé à quelques kilomètres de l'usine, a été abandonné au profit d'un nouveau site tout proche et relié par convoyeur. Enfin, la mutualisation des moyens logistiques et de transport par des industriels concurrents permet également de réduire le nombre de camions sur les routes. Une étude réalisée par Eric Ballot, Frédéric Fontane et Shenle Pan, chercheurs à Mines ParisTech, montre que le regroupement de onze fournisseurs pour livrer les plates-formes de deux distributeurs en Ile-de-France a permis de diminuer les émissions de CO2 de 24 %. Plusieurs projets de mutualisation ont vu le jour récemment, notamment celui des fabricants de pneus Bridgestone et Continental. Depuis le 1er avril, leurs stocks destinés au marché français sont réunis sur un seul site situé à Mer (Loir-et-Cher) et sont gérés séparément par le prestataire Deret. " Les résultats sont en deçà de nos prévisions avec 5 % de gain sur le transport au lieu de 10 % ", explique David Stoler, le directeur logistique de Bridgestone France, les distributeurs n'ayant pas encore pris l'habitude de passer les commandes en même temps. Mais les deux manufacturiers ont bon espoir d'obtenir les résultats prévus d'ici à fin 2009. 4 PRIVILÉGIER LES CAMIONS VERTS Le matériel de transport demeure le point noir de la chaîne. Si les véhicules polluent de moins en moins avec la mise en place, courant 2009, des normes Euro V, ils sont de plus en plus nombreux sur les routes. Outre la solution de réduire leur nombre avec de meilleurs taux de remplissage ou des circuits raccourcis, de multiples tests ont lieu sur des camions roulant avec des énergies propres. La ville de Lyon (Rhône) teste ainsi des camions hybrides pour approvisionner les magasins de centre-ville. TNT utilise des véhicules électriques pour certaines livraisons urbaines. Mais c'est surtout DHL, la filiale de la Deutsche Post, qui est la plus engagée. Le livreur s'est lancé dans un vaste programme de contrôle des émissions de CO2. En 2007, l'ensemble du groupe générait 21 millions de tonnes de CO2 (dont 14 pour la logistique et six pour la messagerie et l'express). Si rien n'est fait, ses émissions pourraient atteindre 45 millions de tonnes en 2020. Inacceptable ! L'objectif du postier allemand est donc de limiter à 30 millions de tonnes ses rejets. Comment ? En privilégiant, via le programme GoGreen, les véhicules électriques et hybrides, les avions de dernière génération, le ferroutage et en favorisant " l'écoconduite " des chauffeurs. Ce seul poste permettrait d'économiser 15 % de carburants !
@ OLIVIER COGNASSE
Les préoccupations environnementales s'invitent dans la supply chain ! Lors du congrès de l'Aslog, les 26 et 27 novembre à Nantes, dont " L'Usine Nouvelle " est partenaire, la logistique verte occupera le devant de la scène. Achats, entrepôts, flux et camions sont concernés.
Des entrepôts intégrés dans le paysage et fonctionnant avec des énergies alternatives. Des trains et des péniches en pagaille pour les transports de gros volumes et de ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3124 - p.38 à p.40

Design, technologies, business model... Les acteurs des télécoms et de l'informatique revoient leurs copies pour faire enfin décoller l'internet sur les terminaux mobiles.
Les industriels ont changé leur fusil d'épaule. Ils n'essaient plus d'adapter l'internet aux terminaux mobiles, mais d'adapter les terminaux à l'internet ! " Les utilisateurs veulent retrouver en situation de mobilité le même internet que sur le PC ", explique Jean-Marc Tassetto, le directeur général grand public et marketing de SFR. D'où le succès de l'iPhone d'Apple, le premier modèle à proposer une navigation sur internet similaire à celle d'un micro-ordinateur. Les industriels vont désormais plus loin, proposant des terminaux optimisés avant tout pour la navigation sur internet... et dépourvus de la fonction téléphonie. Une révolution ! Le fabricant français de lecteurs multimédia portables Archos met ainsi sur le marché un produit de la taille d'une console de jeux avec un écran de 12 centimètres de diagonale et un affichage des pages web proche de celui d'un PC. Intel et son partenaire Compal ont quant à eux dévoilé un PC de poche à peine plus gros qu'un téléphone portable. Ces deux produits intègrent en standard une puce de communication 3G pour télécharger rapidement les pages web et sont vendus depuis le 19 novembre par SFR, à partir de 249 euros grâce à une forte subvention... et à la condition d'acheter un forfait d'accès illimité à internet à 24,90 euros. " L'usage d'internet s'individualise, chacun veut son propre terminal pour y accéder ", justifie Jean-Marc Tasseto. Orange et Bouygues Telecom pourraient emboîter le pas à SFR. Certes, en France, les revenus des services internet et multimédia sont encore embryonnaires, représentant moins de 10 % du chiffre d'affaires des opérateurs mobiles au deuxième trimestre 2008, mais ils connaissent de loin le plus fort développement, avec 40 % de croissance. UN BESOIN DE PUISSANCE ET D'ERGONOMIE Pour augmenter ces revenus, les opérateurs pourront compter sur l'expertise des acteurs de l'informatique, du web et de l'électronique grand public. Pour une raison simple : internet ayant été conçu en premier pour le PC, ce sont eux qui en connaissent le mieux le fonctionnement. Si Apple et Google ont été les plus visibles avec le lancement de leurs premières solutions, un autre acteur emblématique de cette industrie avance avec de grandes ambitions : Intel, le leader mondial des processeurs. Le PC de poche distribué par SFR, tout comme celui lancé par Telecom Italia en Italie, est équipé de processeurs Intel. Face à ses concurrents (Texas Instruments, Qualcomm, STMicroelectronics...), le fondeur met en avant un argument de poids en soulignant que son processeur Atom, destiné aux terminaux mobiles, repose sur la même architecture de base que ses processeurs pour PC et offre donc la puissance nécessaire à l'affichage fluide des applications web (lire page 40). Si de fortes capacités de calcul sont nécessaires, elles ne suffiront pas à faire décoller l'internet mobile. Les fabricants de terminaux parient pour cela sur de nouvelles ergonomies. Avec des écrans et des claviers trop petits, les smartphones de Nokia ou de Sony Ericsson ont montré leurs limites pour surfer sur le web. D'où le succès des nouveaux produits incluant de plus grands écrans, comme les mini-PC portables. L'utilisateur profite alors d'un écran d'environ 10 pouces et d'un véritable clavier, tout en pouvant ranger son appareil dans un sac à main. Une offre technologique qui a trouvé son public. Asus, l'un des pionniers de ce type de machines, devrait écouler 5 millions d'unités en 2008. LES TECHNOLOGIES RADIO EN PREMIÈRE LIGNE La révolution de l'internet mobile demandera aussi un effort de R& D soutenu. Et particulièrement dans le domaine très complexe des technologies radio. Leader des infrastructures mobiles, le suédois Ericsson anticipe le déploiement des réseaux de quatrième génération. " Nous sommes le premier contributeur en termes de propositions pour l'édification de la 4G auprès des organismes de normalisation ", indique Philippe de la Fortelle, le directeur marketing d'Ericsson France. A Massy, en région parisienne, l'équipementier démontre aux opérateurs la rapidité des transmissions 4G. Grâce à des liaisons sans fil atteignant un débit de 160 Mbps, il réalise une visioconférence sur un grand écran haute définition ! Cette course technologique bouscule tous les acteurs. Ainsi, Alcatel-Lucent et le japonais NEC ont mis un terme à leur société commune, créée en février dernier. " La 4G se déploie plus vite que prévu, notamment aux Etats-Unis. Or, d'un continent à l'autre, des versions différentes de cette technologie seront déployées ", justifie Michel Rahier, l'un des nouveaux directeurs exécutifs d'Alcatel-Lucent. DES MODÈLES ÉCONOMIQUES RÉVISÉS EN PROFONDEUR La révolution la moins perceptible aux yeux des utilisateurs est celle des modèles économiques. Elle est pourtant fondamentale et touche aussi bien les opérateurs cherchant à se rémunérer via les rentrées publicitaires que les éditeurs des plates-formes logicielles. Ainsi, Google et Apple ont déployé un système d'exploitation pour terminaux mobiles largement ouvert aux développeurs d'applications. " Leurs plates-formes logicielles favorisent la grande diffusion des applications. En quelques clics, un utilisateur peut installer un nouveau service sur son téléphone ", indique Laurent Geffroy, consultant pour le cabinet d'études Greenwich Consulting. Ce modèle a rapidement été copié par Nokia et ses rivaux, qui ont complètement revu en septembre dernier le positionnement de Symbian, le logiciel d'exploitation pourtant le plus diffusé sur les téléphones portables. Un pragmatisme de l'industrie du GSM de bon augure pour le décollage tant attendu de l'internet de poche. .
@ HASSAN MEDDAH
Design, technologies, business model... Les acteurs des télécoms et de l'informatique revoient leurs copies pour faire enfin décoller l'internet sur les terminaux mobiles.
Les industriels ont changé leur fusil d'épaule. Ils n'essaient plus d'adapter l'internet aux terminaux mobiles, mais d'adapter les terminaux à l'internet ! " Les utilisateurs veulent retrouver en situation de mobilité le même internet que sur le PC ", explique Jean-Marc ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3115 - p.82 à p.84

Derrière les opérations très médiatisées des grandes entreprises, les PME, voire les TPE, s'impliquent de plus en plus pour défendre et valoriser le patrimoine. Avec des dons, mais aussi avec les compétences de leurs salariés. Les réductions d'impôts prévues par la loi d'août 2003 sur le mécénat les y incite fortement.
La rénovation des vitraux de la Sainte-Chapelle, à Paris, par Velux ? Un coût total de 10 millions d'euros, financé pour moitié par l'entreprise. La restauration de la galerie des Glaces du château de Versailles par Vinci ? 12 millions d'euros. En 2008, les entreprises auront consacré quelque 2,5 milliards d'euros au mécénat culturel. Les chiffres donnent le tournis... et réservent quelques surprises. La dernière enquête de l'Admical (Association pour le développement du mécénat industriel et commercial) montre que 23 % des entreprises de 20 salariés et plus pratiquent le mécénat soit, au total, près de 30 000 entreprises (1). Plus étonnant : 73 % des mécènes sont des PME qui comptent de 20 à 99 salariés. Et si les sommes qu'elles engagent ne rivalisent pas encore avec les montants des grands groupes, leurs dons représentent la bagatelle de 500 millions d'euros. Légitimer le projet en y associant les salariés De la rénovation d'une statue du parc du château de Versailles (à partir de 3 000 euros) au soutien d'artistes contemporains, en passant par la création d'une passerelle au château d'Angers, les PME répondent souvent favorablement aux sollicitations des porteurs de projets (établissements publics et privés, collectivités locales...). Quelles sont leurs motivations et comment agissent-elles ? Etat des lieux d'une France où le patrimoine devient, de plus en plus, l'affaire des entreprises et de leurs salariés. Premier constat : le temps où le chef d'entreprise, passionné de vieilles pierres, investissait sans réfléchir aux impacts financiers et aux bénéfices éventuels de son action pour sa société est terminé. Les dirigeants sont soucieux de légitimer leur projet en y associant leurs collaborateurs. Le mécénat valorise l'entreprise aux yeux des salariés et permet de les fédérer autour d'un projet mobilisateur. Bruno Grand-Pierre, le patron de POK (matériels de lutte contre les incendies, 17 millions d'euros de chiffre d'affaires), a cofinancé, pour 30 000 euros, l'acquisition d'une statue de Camille Claudel par le musée de Nogent-sur-Seine (Aube). Cette opération lui a permis de faire passer un message fort sur l'importance de l'esthétique des produits. Nous en créons deux par semaine. J'ai rédigé un texte que j'ai fait distribuer à l'ensemble des salariés ", explique-t-il. Informer le personnel constitue la première étape d'un projet de mécénat, les associer au choix et aux retombées du projet la deuxième. Soirées privées dans des lieux rénovés, visites gratuites dans les musées aidés, création d'une exposition dans les locaux de l'entreprise... " Avec les contreparties qu'autorise la loi sur le mécénat, il n'est pas interdit d'être créatif ", explique Pauline Soumoy, consultante à l'agence de conseil Etat de fête, à Paris. Une entreprise mécène de la Cinémathèque française a demandé à bénéficier de l'expertise de l'établissement pour concevoir des soirées ciné-club. l'un des leviers du dynamisme économique L'ultime degré d'implication consiste à faire participer les collaborateurs au projet. Ce mécénat de compétences a tendance à se développer : des salariés sont dédiés au projet et leur prestation valorisée pour que l'entreprise puisse bénéficier des avantages fiscaux. La société d'électricité SEE prépare pour octobre la projection dans la cathédrale de Reims d'un chemin de lumière représentant l'ancien labyrinthe. Le bureau d'études de la SEEI, basée à Cormontreuil, dans la Marne, a réalisé la faisabilité technique et ses électriciens vont tirer les câbles. Eclairer une cathédrale lorsque le quotidien est plutôt fait d'hypermarchés et d'immeubles de bureaux ne peut que valoriser les collaborateurs " et leur prouver que l'entreprise n'est pas seulement là pour faire de l'argent ", assure le directeur général de SEEI, Philippe Desplanques. Le mécénat permet aussi aux entreprises de participer à la vie locale. Sollicitée par la Fondation du patrimoine (lire l'interview ci-contre), Motul finance la rénovation de la cheminée de l'ancienne fabrique d'allumettes d'Aubervilliers (Seine-Saint- Denis), où la société a son siège. Ce type d'initiative contribue à améliorer les relations des chefs d'entreprise avec les élus locaux. Selon Robert Fohr, le patron de la mission Mécénat au ministère de la Culture, " les entreprises sont conscientes que la culture constitue, avec les infrastructures de transport et l'éducation, l'un des leviers de l'attractivité d'un territoire et de son dynamisme économique ". L'envie est là, il ne reste plus selon lui qu'à faire mieux connaître la loi d'août 2003 qui " a su créer un cadre juridique et fiscal adapté ". La formule policée de ce haut fonctionnaire cache une vraie bonne affaire. La réduction d'impôt s'élève depuis cette loi à 60 % du don, effectué en numéraire, en compétences ou en nature. Pour l'achat de trésors nationaux ou d'oeuvres d'intérêt patrimonial majeur, la réduction grimpe à 90 %. Les 70 000 euros consacrés par le cabinet d'expertise-comptable Bonnet à l'achat de " La Fuite en Egypte " du peintre Nicolas Poussin coûteront à l'entreprise, déduction incluse, seulement 7 000 euros. Du coup, l'un des plus ardents promoteurs du mécénat, aux côtés des chambres de commerce et d'industrie qui ont signées une convention avec le ministère de la Culture, est l'ordre des experts-comptables. Engagé dans un tour de France, il organise des sessions d'information pour sensibiliser les clients de ses membres. On peut être homme de chiffres et aimer les arts et les lettres... .
@ Anne-Sophie Bellaiche (1) Enquête Admical-CSA, " Le mécénat d'entreprise en France ", juin 2008.
Derrière les opérations très médiatisées des grandes entreprises, les PME, voire les TPE, s'impliquent de plus en plus pour défendre et valoriser le patrimoine. Avec des dons, mais aussi avec les compétences de leurs salariés. Les réductions d'impôts prévues par la loi d'août 2003 sur le mécénat les y incite fortement.
La rénovation des vitraux de la Sainte-Chapelle, à Paris, par Velux ? Un coût total de 10 millions d'euros, financé pour moitié ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3115 - p.62 à p.65

Les résultats d'Interphone, la plus vaste étude épidémiologique portant sur le lien éventuel entre l'utilisation du téléphone portable et l'apparition de tumeurs au cerveau, devraient être connus dans les prochains mois. Commandée par l'OMS en 1999 et menée dans 13 pays, cette étude très attendue par les pouvoirs publics, les industriels et les associations ne devrait cependant pas trancher sur la dangerosité de l'utilisation des téléphones portables. Une absence de conclusion qui ne peut qu'alimenter les craintes sur la nocivité des ondes radiofréquences (téléphones mobiles, antennes relais et Wi-Fi).
Des incertitudes scientifiques demeurent Chaque année, plus d'un milliard de téléphones portables sont vendus dans le monde. Une explosion du nombre de terminaux et d'antennes relais qui accroît l'exposition des personnes aux radiofréquences. Et qui ne fait qu'amplifier la question qui hante les esprits depuis le début des années 90 : ces ondes ont-elles des effets sur la santé (troubles du sommeil, dépression, accélération de cancers...) ? Des interrogations liées à la proximité des téléphones portables avec la tête, et à celle des antennes relais avec les lieux d'habitation. Jamais sujet n'a été l'objet de tant de recherches en un temps si court. Selon l'Organisation mondiale de la santé, 1 300 études ont été menées à ce jour sur les effets des ondes radio, essentiellement sur la téléphonie mobile. Tests sur des animaux et sur des cellules en culture, études épidémiologiques... tout y passe. La Commission européenne et les Etats soutiennent ces travaux, tout comme des fondations financées par les industriels. Les risques à long terme ne peuvent être écartés Le cas des antennes relais a été vite réglé. " Compte tenu des très faibles niveaux d'exposition, il n'existe aucun élément scientifique confirmant d'éventuels effets nocifs des stations de base ", résume Bernard Veyret, chercheur au CNRS et directeur du laboratoire Interaction ondes-matière à l'université de Bordeaux. Quant au téléphone portable, les scientifiques concluent à l'absence de preuve de sa nocivité... sans pour autant exclure un risque pour la santé à long terme. La raison ? Le manque de recul, dû à l'apparition récente des mobiles. " Peut-être n'avons-nous pas trouvé les bons mécanismes. Ou mené les bonnes études ", avance Martine Hours, médecin épidémiologiste et responsable du volet français d'Interphone. Des conclusions auxquelles l'Agence française de sécurité sanitaire de l'environnement et du travail (Afsset) aboutit aussi dans ses avis rendus en 2003 et 2005. Son prochain rapport devrait être publié dans les mois qui viennent. " Il faut continuer, pour en savoir plus sur les effets à long terme ", insiste Olivier Merckel, le chef de l'unité Agents physiques de l'Afsset. Mais d'autres scientifiques sont plus alarmistes. Publiée en juin 2008, une étude de l'Université catholique de Louvain affirme que le taux de mortalité des rats double quand ils sont exposés aux ondes de téléphones et de réseaux Wi-Fi. " L'effet des ondes au niveau du système immunitaire n'est plus à démontrer, même si leur impact n'est pas entièrement connu ! ", s'étrangle Catherine Gouhier, cofondatrice du Centre de recherche et d'information indépendante sur les rayonnements électromagnétiques (Criirem), une association de lutte contre les antennes créée en 2005. . Industriels et opérateurs abonnés au service minimum Les opérateurs de téléphonie mobile ont choisi d'opter pour la prudence en se retranchant systématiquement derrière les avis publiés par le ministère de la Santé et l'OMS. Sur ce sujet, ils sont plutôt sur le mode de la réaction que de la prévention. Ainsi, c'est seulement depuis 2008 et après avoir engrangé 56 millions d'abonnés que les opérateurs mobiles glissent dans leurs packs de téléphonie mobile un dépliant " Mon mobile et ma santé ", définissant les bons usages du téléphone mobile... De même, l'intégration systématique du kit oreillettes dans les packs a suivi le développement des inquiétudes au sein de la population et les demandes des associations d'utilisateurs. forfaits illimités contre principe de modération L'obsession des opérateurs, jusqu'ici, a plutôt été le développement de leur marché. Cela passe aujourd'hui par l'augmentation de la facture des clients grâce au lancement de forfaits illimités incitant à une consommation 24 h/24, 7 j/7... A l'encontre du principe de modération prôné par les autorités sanitaires pour limiter la durée d'exposition aux ondes radio. Avec la puissance marketing qu'on leur connaît : ils figurent parmi les premiers investisseurs publicitaires du pays ! " Ils n'ont pas un marketing responsable ", regrette Jérôme Clauzure, le délégué général de l'Afutt, Association française des utilisateurs de télécommunications. Opérateurs et constructeurs ont plutôt tendance à appliquer le principe de précaution a minima. Par exemple, si les constructeurs respectent la limite de 2 W/kg imposée par la loi pour le DAS (débit d'absorption spécifique), aucun ne fait de surenchère technologique pour tenter de le réduire ou d'en faire un argument commercial ! La priorité est de séduire le consommateur grâce à l'introduction des dernières technologies (écran tactile, GPS, Wi-Fi...). Ils ont cependant pris soin de s'interdire de cibler les enfants, plus sensibles aux risques d'exposition. les opérateurs marchent sur des oeufs En France, industriels et opérateurs financent la Fondation santé et radiofréquences pour la moitié de son budget de 4,8 millions d'euros sur cinq ans. L'autre moitié incombant à l'Etat. Pour faire le point sur le risque sanitaire lié au portable, la Fondation s'appuie sur un conseil scientifique composé de 14 spécialistes nommés par son conseil d'administration... à l'exclusion des représentants des industriels fondateurs. Les opérateurs marchent en effet sur des oeufs. " Si nous finançons directement les études, on nous accuse d'influencer les résultats. Si on ne le fait pas, on nous reproche de fuir nos responsabilités ", résume l'Afom, l'Association française des opérateurs de téléphonie mobile. . Les associations d'opposants montent au créneau L'incertitude nourrit la confusion. D'abord, les scientifiques sont divisés. A l'image de la polémique de juin dernier, qui a opposé l'Académie nationale de médecine et 19 cancérologues emmenés par le médecin spécialiste du cancer, David Servan-Schreiber. Ces derniers ont lancé un appel à la prudence concernant l'utilisation des téléphones portables, mais la réplique de l'institution a été sanglante : " Inquiéter l'opinion relève de la démagogie mais en aucun cas d'une démarche scientifique. " Par ailleurs, quelle que soit leur bonne foi, l'indépendance des scientifiques est mise en question en raison des liens de certains avec les industriels. Et ce n'est pas le silence radio des pouvoirs publics qui va rassurer les citoyens. " L'Etat ne veut pas se mouiller sur le sujet ", affirme Catherine Gouhier, du Criirem. Enfin, le message délivré consistant à dire qu'il n'y a pas de risque avéré sur la santé mais que la prudence s'impose induit le doute. Face à ce flot de messages contradictoires, bon nombre d'associations constituées de simples citoyens ont vu le jour. Plutôt que d'incriminer le téléphone portable, qui relève de choix individuels, elles cristallisent leurs inquiétudes sur les antennes relais. Refusant d'être mis devant le fait accompli, elles décident d'agir pour faire appliquer le principe de précaution au niveau local. des antennes démontées Ainsi, à Villeneuve-lès-Avignon (Gard), après cinq ans de persévérance, des associations de parents d'élèves ont obtenu en juin dernier le démontage de sept antennes situées sur le toit d'une école. Un exemple parmi des dizaines. En parallèle, quatre associations - Criirem, Priartem, Robin des toits et Agir pour l'environnement - s'activent au niveau national pour faire modifier les normes. " Nous voulons une diminution de l'émission des antennes relais à 0,6 V/m. Une étude du TNO, organisme gouvernemental hollandais, a montré en 2003 qu'à partir de cette valeur des effets sont observés sur la santé ", indique Stéphen Kerckhove, le délégué général d'Agir pour l'environnement. . Une réglementation peu contraignante Quelques textes de lois définissent les obligations à respecter en matière de santé par les opérateurs mobiles et leurs fournisseurs. Les fabricants de téléphones portables ont l'obligation de mettre sur le marché des terminaux avec une puissance de rayonnement limitée. Le débit d'absorption spécifique (DAS) doit être inférieur à 2 W/kg, valeur qui doit apparaître lisiblement sur la notice de l'appareil. Concernant les antennes relais, la réglementation française (décret n° 2002/775 de mai 2002), suivant les recommandations de l'OMS et du Conseil de l'Union européenne, définit un seuil maximal d'émission de 41 V/m. Une proposition de loi française de décembre 2007 visait à un encadrement bien plus strict de l'implantation des antennes : seuil d'émission réduit à 0,6 V/m et obligation d'une distance minimale de 300 mètres entre l'antenne relais et un bâtiment d'habitation. Elle est tombée à l'eau au grand dam des associations. Toutefois, si l'antenne est installée à moins de 100 mètres d'un établissement dit sensible (hôpital, crèche, école...), des mesures doivent être réalisées attestant de l'innocuité de l'installation. la belgique et l'italie plus prudentes Pour répondre à ces insuffisances, les opérateurs et les élus locaux, via l'Association des maires de France (AMF), ont signé une charte de bonnes pratiques en 2004. Mais en fait, en cas de différend entre les parties, les élus n'ont d'autre ressource que d'entamer une procédure administrative pour faire déloger une antenne. Les opérateurs s'engagent aussi à financer des mesures de niveau d'exposition aux ondes radio à la demande des citoyens, mesures réalisées par des laboratoires indépendants accrédités par le Comité français d'accréditation. Au niveau européen, les recommandations émises par le Conseil de l'UE concernant les antennes relais en 1999 sont suivies de diverses manières selon les pays. Alors que la France, le Royaume-Uni ou encore le Danemark se contentent de respecter le seuil d'émission de 41 V/m, d'autres pays vont plus loin en instaurant des valeurs plus basses. A l'image de la Belgique (20,6 V/m) ou de l'Italie (20 V/m). Le principe de précaution s'applique, mais à géométrie variable. .
@ Camille Chandès et Hassan Meddah
Les résultats d'Interphone, la plus vaste étude épidémiologique portant sur le lien éventuel entre l'utilisation du téléphone portable et l'apparition de tumeurs au cerveau, devraient être connus dans les prochains mois. Commandée par l'OMS en 1999 et menée dans 13 pays, cette étude très attendue par les pouvoirs publics, les industriels et les associations ne devrait cependant pas trancher sur la dangerosité de l'utilisation des téléphones ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3113 - p.69 à p.81

Machines cinq axes ou multifonctions, cellules flexibles, chacun de ces équipements a ses atouts et ses limites. Compression du cycle et précision pour les premiers, pièce terminée en une seule fixation pour les seconds, travail sans fin pour les derniers... Les solutions techniques sont multiples, l'impératif est unique: la productivité.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3112 - p.50 à p.52

Le marketing direct sur internet peut être très efficace pour se lancer à l'international. Il permet de toucher de nouvelles cibles, à condition de s'adapter aux spécificités des pays.
Internet abolit les frontières et rend accessibles aux entreprises de gigantesques zones de chalandise. Les campagnes d'e-mailing permettent de se libérer des contraintes du courrier traditionnel (transport, affranchissement...). Même sans grands moyens, une PME peut se lancer dans le marketing direct à l'international. Mais il faut adapter ses envois à la culture locale et les calibrer pour ne pas risquer de passer pour un spammeur (lire ci-dessous). Bienvenue dans un domaine où empirisme et bon sens doivent guider une stratégie de conquête. 1 campagne centralisée ou locale ? Avant toute chose, définissez votre cible. S'agit-il de prospecter pour conquérir une place dans un pays où vous ouvrez une filiale, de fidéliser une clientèle existante, de renforcer votre image de marque ? Ou voulez-vous générer davantage de trafic sur votre site de vente en ligne (ou d'e-commerce) ? L'usage de l'e-mail marketing doit répondre à trois objectifs, rappelle le Syndicat national de la communication directe : être ouvert, être cliqué et générer une action de l'internaute. Choisissez avec soin le ou les pays que vous comptez cibler et déterminez si le contexte s'y prête. Au préalable, vous pouvez procéder à une phase de test dans une zone pilote. Tel Samsung, qui mène depuis avril 2008 des campagnes d'e-mailing et d'envois de SMS en France, avec deux millions d'e-mails et 30 000 SMS envoyés chaque mois. Le groupe coréen de l'électronique étendra ensuite cette opération à l'échelle européenne. Autre point essentiel : répartir les tâches des équipes marketing entre le pays d'origine et celui (ou ceux) de destination. Vous pouvez les gérer de manière centralisée ou laisser l'équipe locale adapter à la cible le discours de la marque, les visuels... L'idéal consiste à opter pour une formule mixte, avec une équipe centralisée déterminant les grandes lignes de la campagne et des relais locaux les adaptant. Le groupe Accor dispose d'une gestion centralisée de ses e-mailings, mais son prestataire Neolane laisse les équipes locales personnaliser les mailings. Il convient de définir si vous recourez ou non à un prestataire de services pour piloter vos campagnes d'e-mailing ou de SMS. Capables de vous fournir une gamme de solutions en mode ASP (EmailVision, Neolane, Epsilon International), ces sociétés facturent en général leurs prestations au nombre de destinataires, indépendamment du nombre de pays. Ainsi, Neolane facture à la base de données. Le prix d'entrée sera de 50 000 euros pour un mailing destiné à un million de clients ou prospects. Des ASP, loueurs de logiciels installés sur internet, facturent aussi au CPM (ou coût pour mille pages affichées avec publicité) comme Epsilon International, qui applique un CPM moyen de 5 dollars aux Etats-Unis et de 1,5 à 2 euros en France. 2Achat d'adresses e-mails ou propre base de données ? Etape suivante, indispensable au déploiement d'une campagne d'e-mailing, la collecte des données. Vous pouvez passer par un " broker " (un courtier en adresses assurant le conseil en recherche et la sélection de fichiers de marketing direct) basé en France qui loue ou vend des bases d'adresses internationales. Ou vous louez des bases de données dans chaque pays. Le coût d'une adresse e-mail peut varier du simple au quintuple, allant de 20 centimes pour une adresse de prospect non qualifiée, à 1,50 euro pour un profil qualifié. Il est donc important de choisir un broker " fiable ". N'hésitez pas à lui demander comment il gère la réactualisation de ses fichiers. " Pour le tester, vous pouvez vérifier dans un premier temps la fiabilité de ses adresses sur un seul pays ", recommande Guillaume du Poy, le directeur marketing de Regus, une société de location de bureaux. L'intérêt de disposer d'une base de clients et de prospects qualifiée, sans trop d'adresses incorrectes ou obsolètes ? Vous éviterez d'être assimilé à un spammeur, puis " blacklisté ", y compris par les fournisseurs d'accès internet, intégrant des filtres automatiques dans leurs systèmes. Si vous souhaitez exploiter votre propre base, la difficulté sera de collecter des adresses e-mails dans votre coeur de cible. La mécanique la plus utilisée pour y parvenir demeure l'organisation de jeux concours en ligne, comme l'ont fait Nespresso, PriceMinister, La Poste... Tout dépend si vous êtes dans une campagne d'acquisition ou de fidélisation de clientèle. 3Législation européenne et adaptation locale Autre étape cruciale, préparer votre campagne d'e-mailing. Le destinataire doit comprendre d'un coup d'oeil l'origine du message, son objet et en quoi cela le concerne. L'essentiel repose sur l'ajustement de votre discours à la culture du pays. Evitez la traduction au mot à mot des e-mails d'un pays à l'autre et oubliez l'humour ou le second degré. Pour faire référence à des codes culturels locaux, veillez à bien composer votre équipe marketing, en déléguant cette tâche à des connaisseurs de la culture des pays ciblés, comme l'a fait Regus. Pensez à inclure dans vos e-mails des liens hypertextes renvoyant vers des sites internet dans la même langue que le message. Mais songez à réactualiser ces sites avant de lancer votre campagne. Dernière précaution : " Il est indispensable d'obtenir les labels locaux d'e-commerce pour votre site ", rappelle Philippe Hervieu, le directeur marketing d'Yves Rocher. Chaque pays possède ses propres lois pour encadrer l'e-mailing, en termes de respect de la vie privée, de loi antispam ou de législation d'e-commerce. La directive Com2000/385 (adaptée en France via la loi pour la confiance dans l'économie numérique du 21 juin 2004) fournit un cadre juridique au niveau européen. Elle exige pour tous les pays membres de l'Union " l'opt in ", soit le consentement préalable des internautes pour toute prospection par e-mail. Ainsi, le Luxembourg, qui attire les sociétés de vente de services ou de biens via internet avec son taux de TVA réduit, a instauré le " Luxembourg e-commerce certified ". L'idée est d'aider les consommateurs à reconnaître les entreprises répondant à des standards élevés de sécurité, garantissant le traitement confidentiel de leurs données personnelles collectées sur internet. Dans certains pays, vous devrez faire oeuvre de pédagogie. Notamment là où le consommateur se méfie de l'e-commerce, comme en Espagne. " De même, en Russie ou en Chine, peu de gens disposent d'une carte bancaire. Il faut donc orienter sa campagne différemment si elle vise à faire payer ou commander les clients en ligne ", recommande Didier Gaultier, le directeur général France d'Epsilon. Des variantes existent au gré des interprétations locales de la loi et des règles antispam appliquées par les fournisseurs d'accès à internet (FAI) locaux. " Le marketing viral par e-mail, incitant l'internaute à transférer son e-mail à un ami, est interdit en Allemagne, en Belgique et en Italie ", avertit Didier Gaultier. L'Allemagne applique même le double opt in, alors que la Grande-Bretagne et les Etats-Unis restent très souples. Enfin, vous devrez respecter la demande des internautes inscrits sur la liste e-Robinson (gérée par l'Union européenne du marketing direct), qui ne souhaitent pas recevoir de courrier à caractère publicitaire. Autre cas particulier, la Russie, où votre campagne d'e-mailing ne devra comporter aucun mot en anglais, sous peine d'être bloquée par les FAI russes ! Comment respecter ces contraintes locales ? Certains prestataires ou agences de marketing disposant d'un réseau à l'international peuvent faire le travail. Un prestataire tel Neolane intègre en automatique les modes de filtrage selon les règlements des pays destinataires. 4Campagnes mesurées et impact Il faut toujours assurer une continuité entre vos campagnes d'e-mailing, tout en les dosant. Préférez des envois espacés d'une semaine au maximum. " Il faut miser sur des mailings qualitatifs et soigner leur personnalisation ", conseille Philippe Hervieu. C'est aussi le meilleur moyen d'enrichir vos profils de clients et de prospects. Quitte à jouer sur la complémentarité entre l'e-mailing et d'autres médias (mailings postaux, affichage publicitaire...). Dernière étape : mesurer l'impact de vos envois. Les prestataires vous proposent souvent un bilan par zones géographiques, avec une kyrielle d'outils . Ou même des mises à jour des profils de vos clients : " Par exemple, sur les internautes arrivés sur votre site événementiel via votre newsletter ", précise François Laxalt, le responsable marchés et innovations chez Neolane.
@ Capucine Cousin
Le marketing direct sur internet peut être très efficace pour se lancer à l'international. Il permet de toucher de nouvelles cibles, à condition de s'adapter aux spécificités des pays.
Internet abolit les frontières et rend accessibles aux entreprises de gigantesques zones de chalandise. Les campagnes d'e-mailing permettent de se libérer des contraintes du courrier traditionnel (transport, affranchissement...). Même sans grands moyens, une PME ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3109-3110 - p.99

Exit les aides directes à l'investissement. Désormais, les fonds privilégient le conseil aux PME, les actions collectives par filières, l'aide aux pôles et les grands équipements associés, comme le Technocampus de Nantes.
"Il faut chasser en meute ! ", aime répéter Jacques Auxiette, le président du conseil régional des Pays de la Loire. Ce qui, en matière d'aides aux entreprises, signifie moins d'aides individuelles et le maximum de soutien aux projets collectifs. Les fonds Feder sont au diapason. Ils n'alimenteront plus les investissements industriels individuels fait savoir le préfet de région, Bernard Hagelsteen. Sur ce point, les services de l'Etat et ceux de la majorité de gauche élue en 2004 sont en phase. L'heure est au soutien de projets innovants et à la dynamique de clusters. Dès lors, les 136 millions d'euros d'aides à l'innovation seront fléchés sur trois guichets : le dispositif Dinamic Entreprises, les contrats de développement filières, et dans une moindre mesure Oseo. Dispositif original mis en place dès 2007, et doté de 30 millions d'euros sur sept ans (dont 12 millions du Feder), Dinamic Entreprises permet toujours aux PME d'accéder individuellement aux fonds européens, mais sous forme immatérielle. Ce programme comprend un volet formation et l'autre en conseil. D'un point de vue méthodologique, il s'inspire du plan " Cap compétences " mis en place en 2004 dans la filière navale alors en creux de charge. " Auparavant, de nombreuses subventions individuelles étaient accordées, mais elles avaient parfois un effet pervers, note Dominique Mailhot, chef de la division développement industriel à la Drire des Pays de la Loire. Une entreprise pouvait, par exemple, investir dans un outil d'usinage à grande vitesse sans que cela soit sa priorité réelle. Une analyse globale peut faire ressortir d'autres urgences comme la réorganisation de la production ou la mise en place d'une nouvelle démarche commerciale. " Pour Dominique Mailhot, ce dispositif présente, en outre, l'avantage de ne pas s'adresser aux seules entreprises " au top de l'innovation ". 100 PME ont adhéré à Dinamic Entreprises en 2007. Elles devraient être 220 cette année. les problèmatiques bien identifiées Mais le principal réceptacle du Feder sont les " contrats de développement filières ", dotés de 86 millions d'euros. " Ils sont la synthèse entre les pôles de compétitivité et les démarches de filières déjà engagées ", résume Dominique Mailhot. Douze domaines d'activité ont été identifiés. Les trois premiers contrats ont été signés avec la filière textile-habillement, le pôle automobile haut de gamme et la filière mécanique et matériaux. Pour ce dernier, qui englobe le naval et l'aéronautique, les problématiques sont bien identifiées. Il s'agit de combler les faiblesses en matière d'innovation, de réseaux d'entreprises, d'international, de jouer sur la taille critique en favorisant les fusions et sur les problématiques de pénurie de main-d'oeuvre qualifiée. Les besoins en personnel pour le seul estuaire de la Loire sont estimés à 6 000 postes d'ici à 2011. tout le monde sait ce que fait l'autre Pour ce contrat, l'Etat et la région ont choisi comme partenaires les organisations jugées les plus représentatives : Neopolia et ses 70 sous-traitants du naval, Plasti-Ouest, une association d'industriels de la plasturgie et le Comité de développement de la métallurgie. Le Cetim et le pôle EMC² figurent également parmi les signataires. " Chacune de ces organisations pilote l'une des problématiques. On sait qui fait quoi ", poursuit Dominique Mailhot. Dans le cadre de ces contrats, les fonds Feder seront mobilisés sur les projets d'équipements, nombreux dans la région, dont le Technocampus de Nantes (Loire-Atlantique), centré sur les composites pour l'aéronautique, les plates-formes techniques du pôle Génie civil Ouest, l'Institut de recherche thérapeutique de Nantes (Loire-Atlantique) ou le Campus végétal d'Angers (Maine-et-Loire), un projet de 23millions d'euros prévu pour 2011.
@ De notre correspondant, Emmanuel Guimard
Exit les aides directes à l'investissement. Désormais, les fonds privilégient le conseil aux PME, les actions collectives par filières, l'aide aux pôles et les grands équipements associés, comme le Technocampus de Nantes.
"Il faut chasser en meute ! ", aime répéter Jacques Auxiette, le président du conseil régional des Pays de la Loire. Ce qui, en matière d'aides aux entreprises, signifie moins d'aides individuelles et le maximum de soutien aux ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3108 - p.14 à p.19

Omnubilés par les potentiels de croissance et de réduction de coûts des pays émergents, PSA et Renault réduisent peu à peu leurs bases de production nationale. Bon gré mal gré, c'est un pan entier de l'économie qui doit s'adapter. Dans la douleur.
Que restera-t-il de la filière automobile française dans quelques années ? A voir l'allure de la courbe des derniers chiffres de la production publiés par le Comité des constructeurs français d'automobiles (CCFA), pas grand-chose ! Depuis 2003, Renault et PSA désertent peu à peu leur terre natale faisant ainsi chuter de 25 % le nombre de leurs voitures produites en France. Sur le premier trimestre 2008, le repli est de 2,6 % pour la marque au Lion et même de 16,6 % pour celle au losange. Et la tendance n'est pas prête de s'inverser. Si les immatriculations progressent de 5,3 % depuis le début de l'année, elles ne profitent que très peu aux usines françaises. L'introduction du bonus-malus écologique fait la part belle aux petites voitures... produites surtout hors du territoire national. Cette baisse de l'activité n'impacte pas seulement les constructeurs. Les équipementiers et sous-traitants des rangs 2, 3 et 4 trinquent aussi. Il ne se passe plus une semaine sans que l'on n'annonce des suppressions d'emplois. Mecachrome, ThyssenKrupp-Sofedit, Bosch, Kléber, Heuliez, Ascométal... La litanie semble sans fin. Inquiets, les syndicats tirent la sonnette d'alarme depuis des mois. Le gouvernement tente, lui, de mettre sur pied de timides plans d'adaptation. Christine Lagarde, la ministre de l'Economie, a signé ce jeudi une " charte automobile " visant à déterminer et à financer à hauteur de 150 millions d'euros les futurs besoins en formation en fonction de l'évolution du secteur. Dans la même veine, le parlement européen devrait " prochainement " valider la distribution d'un fonds européen créé fin 2006 (!) pour " aider les entreprises contraintes aux licenciements par la mondialisation ". Cadence Innovation, une PME sous-traitante de Renault et Thomé-Guénot, son pendant chez PSA, devaient récupérer par ce biais près de 4 millions d'euros. Trop tardivement, elles ont, depuis le montage du dossier, déposées le bilan... Toutes ces initiatives ressemblent plus à des cataplasmes sur des jambes de bois qu'à des solutions durables. L'industrie automobile semble prise dans une spirale sans fin dont la première cause est la chute de ses parts de marché en France. Du fait de la concurrence essentiellement allemande et japonaise, PSA et Renault, qui vendaient encore 1,4 million de véhicules dans l'Hexagone en 1980, doivent aujourd'hui se contenter de 1,1 million d'immatriculations. A l'époque, 77 % des voitures produites en France y étaient vendues, ce taux ne dépasse pas les 25 % aujourd'hui. Des usines trop obsolètes Et alors que tous les constructeurs annoncent vouloir rapprocher leurs usines des lieux de vente, il y a, comme le note Florent Maisonneuve, consultant chez Alix Partners, " une vraie disproportion entre les volumes fabriqués et ceux vendus sur notre territoire. Il n'est donc pas logique de garder le même effectif et la même capacité de production sur un marché en régression ". L'équation est d'autant moins discutable que la Vieille Europe dispose d'installations déjà âgées (et donc moins performantes) pour affronter la concurrence interne des sites flambants neufs installés en Europe de l'Est. Les constructeurs ont beau jurer qu'ils s'implantent localement pour vendre localement, l'argument ne tient qu'un temps. La nuance est acceptable pour des sites comme la future usine russe de PSA à Kaluga, voire de Dacia à Pitesti en Roumanie. Mais ce distinguo est nettement plus contestable lorsqu'il s'agit d'usines implantées il y a quelques années en Espagne, ou plus récemment en Slovénie, en Slovaquie ou en République tchèque. Car ces sites ne servent pas seulement à alimenter ces marchés en croissance. Les constructeurs ne nient d'ailleurs pas l'intérêt qu'ils ont à basculer une partie de leur production dans des pays où le coût horaire de la main-d'oeuvre est jusqu'à dix fois moins élevé qu'en France (3,90 euros en Roumanie, 6,40 euros en Slovaquie, 8,20 euros en République tchèque..., contre 31,60 euros en France). Un marché déflationniste Selon Yann Lacroix, consultant chez Euler Hermès, " à équipement comparable, le secteur automobile est depuis des années un marché déflationniste. Délocaliser est la seule solution pour préserver ses marges ". L'option est même obligatoire lorsqu'il s'agit de fabriquer des modèles d'entrée de gamme tels que les 107/C1 produits à Kolín en République tchèque par PSA ou la Renault Twingo version II qui a préféré Novo Mesto en Slovénie au site historique de Flins. Face à ces usines flambant neuves, la plupart des sites français ne supportent pas la comparaison en termes de compétitivité. Pourtant, ni PSA ni Renault n'osent annoncer une quelconque fermeture, à proche ou moyen terme. Langue de bois ou voeux pieux ? " Cela coûte une fortune de fermer un site, répond Florent Maisonneuve d'Alix Partner. Les investissements en ferrage ou en peinture ne se rentabilisent qu'en une trentaine d'années. Ceci explique que les deux dernières usines supprimées par Renault ou PSA en Europe ont été celles de Vilvoorde en Belgique [où il n'y avait pas de ferrage] et de Ryton en Angleterre [où les investissements étaient très anciens]. " Les constructeurs continuent cependant d'investir et de moderniser leurs appareils de production français. Certes, le coût de la main-d'oeuvre est un - gros - point noir. Mais leur position géographique sur la plaque européenne (élément qui a su convaincre Toyota de s'installer à Valenciennes en 2000), le très bon niveau d'expertise des salariés, les possibilités d'automatisation et les investissements qui ont été fait ces dernières années sont des atouts de choix. Renault se veut rassurant : si le faible taux de charge (lire la carte ci-contre) du site de Sandouville est dû aux méventes de la Laguna, ceux de Douai ou de Flins ne sont liés qu'à la fin de vie des produits qui y sont fabriqués. Le lancement de la nouvelle Mégane en fin d'année devrait donner une bouffée d'oxygène à Douai, même s'il pourrait y avoir une autre répartition de la production pour les Scenic entre la France et l'Espagne, à Palencia. PSA se veut encore plus persuasif. Le constructeur a annoncé fin avril, quelque 300 millions d'euros d'investissements à Trémery (Moselle) dans un site qui produira annuellement 640 000 moteurs essence de 1 000 cm3. Et s'il prévoit de rationnaliser sévèrement ses sites d'Aulnay et de Rennes en y supprimant une de leurs deux lignes pour faire face à la baisse des volumes de ventes, il envisage de rapatrier la production de la future C3 de Madrid à Poissy. Pour tous les sites français, Roland Vardanega, le directeur technique et industriel de PSA, s'est fixé des objectifs clairs : " Tout doit être fait pour que, dans les quatre ans à venir, ils aient, logistique comprise, le même coût "rendu client" que nos usines de l'Est. La future C4 qui sera fabriquée à Mulhouse devra, par exemple, afficher un coût de revient de 30 à 40 % inférieur à l'actuelle version. " Misant pour cela sur le " système de production PSA ", largement inspiré par l'organisation lean de Toyota (lire " L'U.N. " n° 3106), il affiche sa confiance même s'il reconnaît que le combat " n'est pas gagné... ". Ce mouvement de rationalisation des usines françaises ne s'est évidemment pas fait sans réduction franche du personnel. Renault a ainsi supprimé 5 000 postes entre 2006 et 2007. Plus impressionnant, PSA a poussé dehors, dans un quasi anonymat, 10 500 personnes l'an dernier en jouant sur des départs volontaires et en profitant d'une pyramide des âges vieillissante. Dans ce contexte, l'embauche récente de 700 personnes en CDI à Mulhouse et à Sochaux fait figure de goutte d'eau. Pour les équipementiers, la chanson est en revanche toute différente. Ils n'ont, pour la plupart, d'autres choix que de s'expatrier pour conserver leur compétitivité et leurs clients. " Si une pièce est moins chère hors de France, ce serait suicidaire de ne pas l'acheter là-bas ", reconnaît Roland Vardanega de PSA. Pressurés par les constructeurs qui leur demandent de 3 à 5 % de baisse de prix chaque année, les fournisseurs délocalisent massivement. Les " rang 1 " ont dû prendre place au pied des usines en Europe de l'Est, en Inde ou en Chine pour fournir Renault et PSA en flux tendu. Et les sous-traitants suivent le mouvement avec plus ou moins de bonheur. le salut dans l'innovation Face à cette lame de fond, l'avenir des sites français est plutôt sombre. A marche forcée, certains équipementiers tentent de se convertir à l'automatisation de masse à l'image de ce qui se pratique chez Continental (ex-Siemens VDO), qui produit des composants électroniques à Foix (Ariège). Bosch, qui ferme son activité freinage à Beauvais (Oise), a réussi à maintenir une production à Rodez (Aveyron) en renégociant l'accord sur le temps de travail. Le siège allemand a débloqué 65 millions d'euros (en échange d'un assouplissement des 35 heures) pour reconvertir le site fabriquant des injecteurs-pompes en un spécialiste du " common rail " de dernière génération. La hausse du prix du baril, et donc la hausse des coûts logistiques, pourraient aussi jouer en leur faveur. Du moins pour conserver la production des gammes moyennes, essentiellement destinées aux marchés proches de l'Europe de l'Ouest. Mais certains n'y croient plus vraiment. Le délégué général de la Fédération des équipements pour véhicules (Fiev), Jacques Monnet, pense que la meilleure façon de préserver l'emploi national est de délocaliser. " Cela permettra d'assurer la santé de l'entreprise et de préserver ses marges pour financer la R et D ", précise-t-il. Avec un train de retard sur leurs confrères allemands, les équipementiers français espèrent d'ailleurs trouver leur salut dans l'innovation. Comme l'expliquait Thierry Morin, lors de l'assemblée générale de Valeo le 20 juin, investir sans cesse dans de nouveaux produits est la seule façon de résister à la concurrence low cost et de faire face à la pression des constructeurs. Le premier équipementier français a ainsi cédé en fin d'année son activité câblage à l'allemand Leoni et cherche à acquérir des entreprises dans ses deux principaux coeurs de métier : la propulsion écologique et la sécurité. Mais le dernier bastion que représentent les activités de R et D est déjà en partie assiégé par la concurrence des pays émergents. En Roumanie ou ailleurs, PSA ou Renault cherchent à profiter des ingénieurs bon marché pour développer leurs futurs modèles. La mayonnaise n'a pas encore complètement pris mais ce n'est qu'une question de temps. A l'image de ce qui s'est passé pour la production où le poids de l'étranger a dépassé les 50 % en 2006, les centres de développement français pourraient à leur tour être distancés. .
@ Anne Léveillé et thibaut de jaegher
Omnubilés par les potentiels de croissance et de réduction de coûts des pays émergents, PSA et Renault réduisent peu à peu leurs bases de production nationale. Bon gré mal gré, c'est un pan entier de l'économie qui doit s'adapter. Dans la douleur.
Que restera-t-il de la filière automobile française dans quelques années ? A voir l'allure de la courbe des derniers chiffres de la production publiés par le Comité des constructeurs français ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3105 - p.76 à p.78

Concevoir un produit commun permet à une PME de conquérir une nouvelle clientèle, de gagner en notoriété, et surtout d'innover. A condition de bien fixer les règles du jeu.
Quand Philips et Maison du Café dévoilent en 2002 la Senseo, à la fois cafetière individuelle et machine à expresso, le grand public se rue sur ce produit bien moins cher que son concurrent haut de gamme (la Nespresso de Nestlé). Résultat : la Senseo s'est depuis imposée comme un cas d'école de cobranding parfaitement maîtrisé. La raison du succès ? Philips a assuré le développement technique de la cafetière, tandis que Maison du Café (groupe Sara Lee) fournit les capsules de café. Mieux, au fil des années, les deux marques continuent d'innover, avec une déclinaison à l'envi des dosettes, allant de la version cappuccino aux gammes de sélections de grains par pays. Le cobranding est une recette marketing éprouvée : le temps d'un contrat, deux marques conçoivent ensemble un produit commun, dont elles assurent également la promotion, voire la distribution et la vente. Cela peut être l'occasion pour une PME d'acquérir de la notoriété ou un nouveau relais de distribution, de se construire un nouvel univers, et surtout d'innover en économisant des frais de R et D. Le partenaire, lui, s'insère dans un marché de niche et bénéficie de l'expertise de l'autre. Les secteurs concernés sont variés. Agroalimentaire, automobile ou cosmétique, avec des cas d'école tels que les " séries spéciales " Peugeot Roland Garros, ou la gamme de cosmétiques Evian Affinity, à base d'eau d'Evian. Le secteur des hautes technologies en est aussi devenu adepte, avec même des incursions dans l'univers du luxe, comme le lancement, ce mois-ci, d'un téléviseur LCD cobrandé Samsung/Giorgio Armani. 1Se fixer un objectif clair Pour initier ce type de démarche marketing, il convient toutefois de procéder par étapes, de négocier et fixer dès le départ plusieurs règles dans un contrat entre les deux partenaires. Avec, pour première étape, une réflexion poussée sur l'objectif du cobranding que l'on souhaite mettre en place. " Il faut déterminer s'il s'agit d'un objectif d'image ou promotionnel ; ou si l'on veut simplement vendre de gros volumes ", souligne Valérie Depincé, la directrice du marketing et de la communication de Nissan France et Pays-Bas. Autre impératif : ne pas s'engager dans des projets où l'association en elle-même serait incohérente. Il s'agit bien d'élaborer un produit en commun, les deux marques partenaires apportant chacune leur savoir-faire et/ou leur image. Tout le monde doit y trouver son compte ! Avant même d'approcher un partenaire potentiel, " une marque doit bien le connaître, mais aussi se connaître elle-même, maîtriser son ADN. Et savoir en quoi ce partenariat entre deux marques, deux univers parfois lointains, est légitime ", explique Alice Darmon, consultante en stratégies marketing et déploiement, et auteur de l'étude Eurostaf sur le cobranding dans le secteur de l'agroalimentaire, parue en avril dernier. Ainsi, en 2004, lorsque Brossard et Weight Watchers sortent des gâteaux allégés, c'est Brossard qui les fabrique, tandis que son partenaire apporte sa caution minceur. " Brossard légitime sa présence sur des produits allégés, mais apporte aussi une notion de gourmandise qui aurait peut-être manqué à Weight Watchers s'il était entré seul sur ce marché ", décrypte Alice Darmon. 2Choisir le bon contrat Une fois ces objectifs définis, il faut s'entendre sur le type de contrat de cobranding à monter. C'est un point déterminant pour bien répartir les tâches de chacun, notamment pour celui qui assure la fabrication. Le cobranding peut passer par plusieurs formes de contrats, avec un degré plus ou moins important d'implication des deux partenaires. Dans la typologie esquissée par Alice Darmon (lire page ci-contre), un contrat similaire à une pseudo-licence attribue à un partenaire la fabrication et la distribution du produit cobrandé ; l'autre l'autorisant à utiliser sa marque et son logo. C'est le cas du téléviseur LCD Samsung/Giorgio Armani. Le couturier italien apporte sa touche design au produit ainsi que sa renommée, tandis que le constructeur coréen amène son expertise technique, assure la fabrication et le service après-vente. Autre option, un cobranding similaire à une relation client-fournisseur. Une marque apporte un ingrédient à son partenaire, qu'elle peut concevoir exclusivement dans le cadre de cette opération. Pour le dessert lacté Café onctueux, lancé en 2006 par Rians et Maison du Café, le groupe Laiteries H. Triballat fabrique et distribue le produit tandis que Maison du Café fournit un extrait de café. " Nous les rémunérons en tant que tel ", précise Pierre Filaudeau, le directeur marketing des Laiteries H. Triballat. Autre possibilité : le deal promotionnel. En septembre 2007, Okay a lancé, par le biais de son agence médias ZenithOptimedia, 12 millions de rouleaux d'essuie-tout portant, en impression, des recettes de cuisine Maggi. Un contrat très ponctuel. 3Clarifier le rôle de chacun Une fois les objectifs du cobranding définis, il faut passer aux détails " techniques " du contrat. La durée de l'opération doit y figurer, ainsi que les éventuelles clauses de renouvellement (en cas de succès) ou de sortie. L'objectif implicite dans ce genre de contrat étant tout de même de pouvoir réitérer l'opération. Ainsi, le constructeur automobile Nissan avait sorti fin 2005 une Micra cobrandée avec Lolita Lempicka, destinée à être un " one shot " (opération exceptionnelle). Le succès étant au rendez-vous, c'est devenu une série spéciale, rééditée chaque année. Ensuite, le contrat doit arrêter l'agenda, en incluant les négociations et la période de production : il faut compter au moins six à huit mois avant le coup d'envoi réel de l'opération. Parallèlement, il faut fixer dès la signature " le nombre d'innovations dans l'année, et de nouveaux produits à sortir ", précise la consultante Alice Darmon. Car, en s'alliant, les deux marques innovent à moindres frais. Le volume de la production devra aussi y figurer, avec le nombre total de produits à fournir, les délais de fabrication et le gestionnaire de la production. Dans le cadre du cobranding entre Nissan et le créateur belge Nicky Vankets pour la Micra (lire ci-dessus), le constructeur a monté son opération en à peine six mois. " Le processus est plus lourd lorsque Peugeot prévoit sa ligne cobrandée avec Roland Garros, programmée en production longtemps à l'avance ", remarque Arnaud Villette, le directeur marketing de Nissan Benelux. Autre point à fixer : la gestion de la campagne de communication. Il faut bien anticiper cette étape, car une opération de cobranding est souvent montée avec de fortes attentes en retour sur image. Pour cela, il faut concevoir le packaging en commun, les deux marques y apparaissant avec leurs logos respectifs, côte à côte. Le plan média doit figurer dans les négociations entre les partenaires. " Chaque partie doit s'engager sur les contacts qu'elle apporte dans la corbeille, et s'accorder, dans le contrat même, sur la campagne, la période de communication et les modalités d'échanges de bases de données clients ", conseille Valérie Depincé, de Nissan. 4Définir le " business model " Il est indispensable de valider le business plan dans le contrat. Il doit stipuler les chiffres d'affaires prévisionnels par année ainsi que les volumes de vente et de production fixés. Et indiquer comment seront réparties les recettes. Que l'opération soit pérennisée ou pas, il est indispensable de dresser un bilan final global par rapport aux objectifs initiaux. Mais aussi, dans une démarche plus marketing, d'observer l'évolution de la perception des deux marques, quitte à effectuer un sondage auprès des consommateurs. " Dans l'automobile, par exemple, il faut regarder de près s'il y a eu un pic des ventes lors du lancement de l'opération de cobranding ", recommande Valérie Depincé. .
@ Capucine Cousin
Concevoir un produit commun permet à une PME de conquérir une nouvelle clientèle, de gagner en notoriété, et surtout d'innover. A condition de bien fixer les règles du jeu.
Quand Philips et Maison du Café dévoilent en 2002 la Senseo, à la fois cafetière individuelle et machine à expresso, le grand public se rue sur ce produit bien moins cher que son concurrent haut de gamme (la Nespresso de Nestlé). Résultat : la Senseo s'est depuis imposée ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3105 - p.101 à p.131

Longtemps réticente, la France s'équipe et voit les investissements se multiplier dans l'hydraulique, l'éolien, le solaire, la biomasse... Equipementiers et PME innovent pour mieux répondre à la demande.
Objectifs nationaux et européens ambitieux, disponibilité des capitaux et amélioration des technologies, incitations fiscales... permettent l'envol des énergies renouvelables, qui représentent encore une part négligeable du portefeuille énergétique français.
ALaudun dans le Gard, c'est Urbasolar qui finit d'installer sur un entrepôt de FM Logistic, 5,4 hectares de toiture solaire totalisant 1,4 mégawatts crête (MWc). A Narbonne, c'est la municipalité qui a inauguré en janvier pour le réseau de chaleur du quartier Saint-Jean Saint-Pierre, une chaufferie qui brûle des plaquettes forestières. Un investissement de 2,8 millions d'euros pour cette installation de 2,7 mégawatts (MW) gérée par Dalkia. A l'autre bout du monde c'est Paul Vergès, le président du conseil régional de la Réunion qui rêve pour 2030 d'une île capable de produire 100 % de son électricité sans hydrocarbures. A Fienvillers, enfin, bourgade de la Somme, c'est Gérard Mestrallet, le patron de Suez, pourtant accaparé par la fusion avec GdF, qui a tenu à se déplacer vendredi 6 juin pour inaugurer un champ d'éoliennes de sa nouvelle filiale La Compagnie du vent. Issues du soleil, du vent ou du végétal, les énergies nouvelles s'installent dans le paysage français, alors que se tient à Paris du 19 au 21 juin le Salon des énergies renouvela- bles. Déjà, le territoire compte 1 300 éoliennes - il faudra s'y faire -, des milliers de sites photovoltaïques et des centaines de milliers de capteurs solaires thermiques. Et le rythme s'accélère avec une croissance à deux chiffres attendue pour au moins cinq ans. Rien que l'an dernier, le marché français du photovoltaïque a bondi de 200 % à 45 MWc installés. Derrière cette envolée, les inquiétudes sur notre futur énergétique, avec " un coût des énergies fossiles qui restera à un niveau élevé ", prévient Philippe Gattet, directeur d'études chez Xerfi. En cette époque de frénésie sur l'or noir, même le baril à 100 dollars semble un bon souvenir. Sans compter la contrainte carbone et l'engagement de l'Union européenne de réduire de 20 % ses émissions de CO2 en 2020 par rapport à 1990. l'effort à mener est considérable Après avoir longtemps tergiversé - le nucléaire ne nous mettait-il pas à l'abri ? - les pouvoirs publics ont appuyé sur l'accélérateur. Même brouillon, le Grenelle de l'environnement vient d'aboutir à un premier projet de loi en pleine navette parlementaire. Un projet qui inscrit dans le marbre les objectifs nationaux. A l'horizon 2020, en France, 23 % de la consommation finale d'énergie devra être d'origine renouvelable. Ces objectifs reprennent le grand plan de l'Union européenne que devra mettre en musique la présidence française, le 1er juillet. Le 9 mars 2007, un sommet européen adoptait l'objectif juridiquement contraignant de 20 % d'utilisation d'énergie primaire renouvelable pour 2020, transformé en projet de directive (2008/2016). Un message clair destiné aussi bien à la population européenne... qu'aux producteurs de pétrole. Et leur signifiant : " Nous pouvons nous passer [un peu] de vous ! " En France, l'effort à mener est considérable. En 2005, seuls 6,03 % de la consommation d'énergie finale (6,38 % en Europe) provenaient de ces énergies " vertes ", en grande partie grâce à la biomasse, y compris la cheminée de grand-papa, et à nos vieux barrages hydroélectriques. Pour démontrer la faisabilité de ces objectifs, le Syndicat des énergies renouvelables (SER) a déroulé un plan de route ambitieux (lire tableau page 106). André Antolini, son président, martèle : " La France peut tenir l'objectif. Cela signifie mettre tout en oeuvre, tout de suite pour toutes les énergies, de l'éolien à la biomasse en passant par le solaire, les biocarburants ou la géothermie. " l'état met en place des incitations fortes Le texte de loi du Grenelle donne des objectifs précis, qui doivent encore accélérer le développement de certaines technologies comme le solaire thermique. Sans oublier les économies d'énergie, le véritable " gisement de pétrole " de nos économies. Dès 2010 pour les bâtiments publics et tertiaires ou 2012 pour toutes nouvelles constructions, les normes basses émissions devront être appliquées. La consommation d'énergie primaire de chaque bâtiment ne pourra dépasser 50 kilowattheures (kWh) par an et par mètre carré - contre 400 aujourd'hui en moyenne. Pour amorcer le mouvement, l'Etat a mis en place depuis deux ans des incitations fortes. Un nouvel " appel à projet " (en clair une aide indirecte à l'investissement) a été lancé le 6 juin pour la biomasse (lire page 116). Dans un autre registre, pour l'ensemble des équipements solaires, c'est un crédit d'impôt de 50 % qui est déjà accordé aux particuliers. Pour l'installation d'un chauffe-eau solaire, des aides supplémentaires sont même accordées qui varient suivant les régions. " Ces aides à la pose peuvent aller de 300 à 800 euros ", rappelle Richard Loyen, le délégué général d'Enerplan, l'association professionnelle de l'énergie solaire. Un moyen de rendre les retours sur investissements supportables. Car on l'oublie souvent, même en ces heures de pétrole cher, la rentabilité des énergies alternatives n'est pas toujours assurée. D'où l'habile lobbying des professionnels en faveur d'avantages fiscaux ou tarifaires, dénoncé par quelques voies discordantes comme Jean Syrota, l'ex-patron de la Commission de régulation de l'énergie, qui n'hésite pas à parler de " rente éolienne ". Car ce sont les très incitatifs tarifs de rachat de l'électricité, réévalués en 2006, qui ont suscité le vrai décollage des électrons verts. EdF a, en effet, une obligation de rachat à des tarifs imposés pour les quinze prochaines années, un système financé par la surtaxe dite CSPE (contribution au service public de l'électricité) que chacun paie sur sa quittance. Un moyen imparable de donner de la visibilité aux investissements, ce qui n'a pas échappé aux multiples développeurs de parcs éoliens et photovoltaïques qui se sont multipliés ces dernières années. les îles françaises favorisées L'électricité générée par des éoliennes terrestres est achetée aux producteurs 8,2 centimes d'euro par kWh pendant dix ans, puis entre 2,8 et 8,2 centimes par kWh les cinq années suivantes, selon la durée annuelle de fonctionnement. A titre indicatif, le coût de revient du parc nucléaire français (chiffre tenu secret par EdF) est sans doute de 2 à 3 centimes. L'éolien offshore, technologie émergente, est davantage valorisé, avec un tarif de 13 centimes pendant dix ans puis de 3 à 13 centimes pour les dix années suivantes. Le photovoltaïque bénéficie, lui, d'un tarif de base de 30 centimes par kWh en France continentale, plus 25 centimes de prime si les cellules sont intégrées au bâti. Nicolas Sarkozy avait annoncé, lors des conclusions du Grenelle de l'environnement, viser l'indépendance énergétique pour les îles françaises. La Corse et les départements d'outremer (DOM) bénéficient donc d'avantages particuliers en matière photovoltaïque : 40 centimes par kWh et de 15 centimes de prime d'intégration au bâti. De quoi faire des territoires ultramarins des pays de cocagne pour les Tenesol, Apex BP Solar, EdF Energies nouvelles, Séchilienne et autres Aérowatt. En 2007, selon Enerplan, sur 45 MWc de capacités photovoltaïques instal- lées en France, 40 % l'ont été dans les DOM. Mêmes incitations fiscales pour le géothermique depuis cet arrêté de 2006. Cette technologie a vu une croissance annuelle moyenne de 25,6 % durant ces dix dernières années selon Eurobserver. " Ce système d'aide permet à la filière de devenir rentable ", déclare Philippe Gattet, chez Xerfi. Mais il n'y a pas que les aides. Le progrès des technologies - effet d'échelle aidant - a aussi favorisé ces filières. Grâce aux programmes de R et D des Nordex, Enercon, Siemens et autres GE Energy, et à l'augmentation de la taille des moulins (jusqu'à 6 MW aujourd'hui), les coûts de production éoliens ont diminué de 80 % en vingt ans et de 20 % ces cinq dernières années. Côté photovoltaïque, si les rendements actuels des cellules (de 6 % à plus de 15 % du rayonnement solaire, soit 100 Wc/m2) restent limités par les lois de la physique, de nombreuses recherches sont menées par les géants du secteur comme Sharp, Q-Cel, Kyocera et, jusqu'en France, par Solarforce (lire page 120) pour augmenter les rendements. Et aussi faire chuter les prix (actuellement environ 3 euros par watt crête pour les modules), comme cela a été le cas ces dernières années. Un autre moteur de cette évolution vers le renouvelable est la disponibilité du vent. Car, de ce côté, la France est plutôt bien pourvue. Avec ses façades sur l'océan, notre territoire bénéficie de régimes de vent, qui permettent d'avoir en permanence une production éolienne. Autre atout, végétal celui-là. La superficie de ses forêts fait de la France le plus important producteur européen de biomasse solide, sans parler des résidus agricoles. Leur débouché le plus probable étant la production thermique, avec un rendement plus favorable que la génération d'électricité. " Les ressources sont importantes, la demande est solide, les revenus sont garantis, cela rend l'investissement pérenne et donc attractif pour les financiers ", constate Christophe Ripert, administrateur chez Voltalia. Créé en 2003, ce producteur d'électricité renouvelable est entré avec succès en Bourse en 2006. Les 30 millions d'euros levés depuis, et des prêts bancaires lui ont permis de lancer les investissements pour créer ces parcs. L'intérêt des fonds d'investissement Le thème de la " bulle des renouvelables " perdant des adeptes, les financiers ne sont pas avares de liquidité. Certains fonds, comme Demeter et ses 105 millions d'euros, sont exclusivement dédiés à ces éco-industries. Aucune technologie renouvelable ne manque à leur portefeuille, qui a notamment financé Vergnet, le seul producteur français d'éoliennes qui s'est fait une spécialité des moulins rabattables pour zones cycloniques. Les grands industriels aussi s'arrachent tout ce qui est labellisé énergie verte. L'an dernier, Areva a dû laisser l'indien Suzlon Energy prendre le contrôle du fabricant allemand REpower, mais Alstom a investi 350 millions d'euros pour acquérir l'espagnol Ecotecnia, qui détient 2 % du marché mondial des éoliennes. Les énergéticiens ne sont pas en reste. Suez a mis la main en novembre 2007 sur 50 % des parts de La Compagnie du vent pour 321 millions d'euros. Le groupe annonce la réalisation de 2 000 MW de fermes éoliennes en 2015, soit 15 % du marché à cette échéance. EdF ne souhaite pas être seulement l'entreprise qui rachète - cher - l'électricité verte produite par d'autres. Sa filiale dédiée, EdF Energies nouvelles, a annoncé 3 milliards d'euros d'investissement en France et aux Etats-Unis d'ici à 2010. Le mois dernier, elle a signé un accord de livraison et pris une participation de 30 millions d'euros dans la start-up californienne Nanosolar, spécialisée dans le photovoltaïque en couche mince. Bref, tout est en place pour que les projets se multiplient. Dans l'éolien, les demandes affluent pour toutes les puissances, de la petite turbine domestique de 2KW pour équiper sa maison à l'éolienne géante. Conséquence de ce boom : une tension sur les productions de turbines (lire page 110). Dans le solaire, la profession se met en place : " Les normes s'installent, les profes- sionnels montent en compé- tence ", constate Richard Loyen, le délégué général d'Enerplan. répondre à de nouvelles questions Dans certains secteurs même, l'industrie se transforme en profondeur. " Le marché du chauffage qui n'avait pas bougé de- puis vingt ans vit une véritable révolution depuis les trois dernières années ", témoigne Claude Gemelli, le directeur général distribution de MTS Group, société spécialisée dans le chauffage. Le marché de la bonne vieille chaudière s'effondre et celui des pompes à chaleur explose. L'engouement est certain. L'objectif national d'atteindre 23 % d'énergie renouvelable est un pari extrêmement ambitieux. Il nécessitera de lourds investissements mais aussi de trouver les réponses à de nouvelles questions : stabilité des réseaux électriques, gestion décentra- lisée, recyclage des panneaux solaires (lire page 124). Mais, pour l'instant tout le monde veut y croire. .
Agathe REMOUE
Longtemps réticente, la France s'équipe et voit les investissements se multiplier dans l'hydraulique, l'éolien, le solaire, la biomasse... Equipementiers et PME innovent pour mieux répondre à la demande.
Objectifs nationaux et européens ambitieux, disponibilité des capitaux et amélioration des technologies, incitations fiscales... permettent l'envol des énergies renouvelables, qui représentent encore une part négligeable du portefeuille ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3105 - p.82 à p.

Pour créer des filières non concurrentes de l'agroalimentaire, la recherche s'intensifie sur les biocarburants de deuxième génération, y compris à travers des unités pilotes. Les études se focalisent sur la baisse des coûts de production
Les avantages des biocarburants, mais sans leurs inconvénients. Pour atteindre ce résultat optimal, la deuxième génération de carburants d'origine végétale veut utiliser les plantes entières et tous les débris végétaux, minimiser son impact sur l'environnement et, surtout, éviter les conflits avec les autres filières agricoles. Un programme particulièrement pertinent au moment où la première génération de biocarburants, produite à partir de canne à sucre, betterave, blé, maïs, huiles végétales, etc., est accusée d'aggraver la crise alimentaire mondiale. La polémique en cours a au moins pour avantage de soutenir le développement de cette deuxième génération, qui vise à exploiter au mieux des ressources végétales peu valorisées. Les projets de R et D se multiplient, tout comme les unités de production pilotes, en Europe et aux Etats-Unis. Deux voies sont explorées : la filière biologique, qui donne du bioéthanol, et la voie thermochimique, qui produit directement du carburant biodiesel. Après des années de recherche, les principes physico-chimiques et biologiques de transformation sont dans l'ensemble maîtrisés. Mais la rentabilité des opérations est loin d'être satisfaisante. Dès l'approvisionnement, la dispersion des ressources risque d'imposer aux industriels des transports coûteux, à moins de développer des cultures dédiées (miscanthus, switchgrass...) proches des sites de production de biocarburants. Mais c'est sur les procédés de transformation que pèsent les principales difficultés. Ainsi, la voie biologique est bien établie : elle extrait la cellulose et l'hémicellulose contenues dans la biomasse et les transforme en sucres par hydrolyse enzymatique. Puis, les sucres obtenus sont fermentés à l'aide de levures pour donner le bioéthanol. Mais les difficultés surviennent dès le prétraitement, qui sépare la cellulose et l'hémicellulose de la lignine, le polymère complexe donnant sa rigidité à la plante. " La matière première est beaucoup plus résistante que pour les biocarburants de première génération. La déstructurer nécessite une montée en température, ce qui fait apparaître des inhibiteurs qui alourdissent ensuite le coût de la fermentation ", explique Frédéric Monot, le coordonnateur à l'Institut français du pétrole (IFP) du projet européen Nile (New Improvement for Lignocellulosic Ethanol), axé sur les procédés de production économique de bioéthanol. des enzymes pour dégrader cellulose et hemicellulose La dégradation en sucres fermentiscibles de l'hémicellulose pose aussi des problèmes spécifiques. " L'hydrolyse de l'hémicellulose par des enzymes ordinaires donne certains sucres que les levures classiques - et peu onéreuses - ne savent pas transformer en éthanol ", précise Frédéric Monot. Pour mieux dégrader cellulose et hémicellulose, les chercheurs et les industriels misent sur des enzymes produits par certains champignons. L'un d'entre eux s'est même imposé : Trichoderma reesei. Sa découverte n'est pas récente, mais ses secrets viennent seulement d'être percés : une équipe du CNRS / Université de la Méditerranée - en partenariat avec, entre autres, le producteur d'enzymes Novozymes - a publié son génome au mois de mai 2008. Comme il est relativement simple, Trichoderma reesei se prêtera bien aux modifications génétiques. Aussi, depuis la publication des résultats, de nombreuses équipes cherchent à lui faire sécréter le cocktail d'enzymes le plus efficace possible pour dégrader la biomasse en sucres. tester la voie biologique Pendant que les recherches se poursuivent pour optimiser chaque étape, d'autres équipes mettent tous ces maillons bout à bout afin de tester la voie biologique dans son ensemble. Ainsi, le projet Futurol, qui prévoit la construction d'une usine pilote près de Reims, devrait être officialisé dans les semaines qui viennent. Il réunit des instituts de recherche comme l'IFP ou l'Inra, mais aussi des industriels, parmi lesquels Total, Lesaffre, le leader mondial dans la fabrication de levures, ou encore la société sucrière Tereos. Sur le continent américain, la canadienne Logen, importante productrice d'enzymes pour les industries papetières, textiles et agroalimentaires, avait lancé dès 2006 la première unité pilote américaine. Depuis, les projets se multiplient et, le 15 mai dernier, deux géants du secteur, le chimiste DuPont et le producteur d'enzymes Genencor, ont annoncé la mise en place d'une usine de démonstration à échelle commerciale dans les trois prochaines années. En France, les acteurs de la filière espèrent que le bioéthanol cellulosique arrivera dans les pompes en 2015. C'est aussi à cette date que les chercheurs français espèrent aboutir, par voie thermochimique cette fois, à une production industrielle de biocarburants de deuxième génération. Mais pour cela, la filière thermochimique, appelée BTL (Biomass to Liquid) devra elle aussi faire des progrès. Son principe : transformer la biomasse en gaz (gazéification) en la chauffant à plus de 1 200 °C, sous pression et en présence d'oxygène. Le mélange obtenu de monoxyde de carbone et d'hydrogène est ensuite converti en hydrocarbures de synthèse par le procédé Fischer-Tropsch. Cette seconde étape est bien rodée et déjà utilisée industriellement. La gazéification, en revanche, soulève de nouveaux obstacles. " Les gazéifieurs n'acceptent pas la matière première végétale telle quelle. Il faut donc, soit la diviser finement, soit la rendre liquide ", souligne Jean-Luc Duplan, le chef du projet biomasse pour l'IFP. Deux techniques de préconditionnement sont à l'étude. La torréfaction réduit la biomasse en fine poudre ; la pyrolyse la transforme en bio-huile. En France, un pilote qui tentera d'optimiser la pyrolyse est en construction près de Montpellier, dans le cadre du projet Precond, auquel participent le Cirad, l'IFP, le CEA, Total et EdF. déjà une bioraffinerie en allemagne Second obstacle dans la voie BTL, l'épuration du mélange de monoxyde de carbone et d'hydrogène qui sort des gazéifieurs. " Les gaz obtenus par transformation de la biomasse contiennent des impuretés, et certaines techniques d'épuration mécaniques ou chimiques ne sont pas encore au point, ou difficilement extrapolables ", explique Jean-Luc Duplan. Cependant, des unités pilotes fonctionnent déjà. La société canadienne Ensyn, par exemple, utilise son procédé RTP (Rapid Thermal Processing) pour produire des bio-huiles. Mais l'Allemagne a coiffé ses concurrents au poteau. Le 17 avril dernier, Angela Merkel inaugurait à Freiberg la première bioraffinerie au monde de biocarburants de deuxième génération, fruit de la collaboration du spécialiste des carburants de synthèse Choren avec, entre autres, Shell, Daimler ou encore Volkswagen. Choren prévoit qu'après quelques mois d'activité, l'usine synthétisera 18 millions de litres d'hydrocarbures par an. Une production qui reste toutefois insuffisante pour rentabiliser l'usine sans subventions... De leur côté, Linde, le numéro 1 mondial des gaz industriels, et le chimiste Süd-Chemie ont signé au début du mois de mai un accord de coopération exclusif pour développer et commercialiser des usines de production de biocarburants. récolter les huiles nichées dans des micro-organismes La deuxième génération est en marche... déjà talonnée par une troisième : des micro-algues capables de fabriquer de l'huile. Sous l'effet du stress - lorsqu'ils manquent d'azote ou de silice, par exemple -, certains de ces organismes stockent le carbone produit via la photosynthèse sous forme de lipides au lieu de l'utiliser pour leur croissance. L'idée est donc de cultiver ces algues dans les conditions propices à la production d'huile. Mais là encore, plusieurs difficultés doivent être résolues. Le projet français Shamash, qui réunit sept organismes de recherche et une start-up, s'y emploie actuellement. " Nous cherchons d'abord le meilleur compromis entre la croissance de l'algue et la quantité d'huile qu'elle produit ", souligne Olivier Bernard, le responsable scientifique du projet et chercheur à l'Inria. Il faudra ensuite concevoir un photobioréacteur qui optimise l'exposition à la lumière. Et enfin récolter quantité d'algues d'à peine quelques microns pour récupérer les lipides nichés à l'intérieur. " Pour l'instant, aucune méthode ne permet de récupérer les huiles avec des rendements énergétiques satisfaisants ", reconnaît Olivier Bernard. Autrement dit, difficile d'espérer produire des biocarburants à partir de micro-algues avant une dizaine d'années. Un peu de patience sera donc nécessaire pour disposer de biocarburants de nouvelle génération à la pompe. Et comme des questions se posent déjà sur les conséquences écologiques des cultures dédiées intensives et du transport de la biomasse, les chercheurs devront peut-être mettre à profit ce délai pour évaluer finement l'impact environnemental de ces relèves prometteuses. .
@ par Anne Orliac
L'éolienne flottante prend le large
12/06/2008
La première turbine offshore pour grands fonds flottera bientôt en mer de Norvège. Un prototype qui préfigure une exploitation optimale de l'énergie éolienne.
Le vent souffle où il veut... Pour utiliser son énergie, autant donc aller le chercher où il est le plus fort : au grand large. Le groupe pétrolier norvégien StatoilHydro relève le défi, en investissant 50 millions d'euros dans la construction d'une éolienne flotttante de 2,3 MW qu'il placera en haute mer, où et quand il le souhaite. Hywind, c'est son nom, commencera à pro- duire de l'électricité à l'au- tomne 2009, après avoir été remorquée jusqu'à son point d'ancrage, à 10 km de l'île norvégienne de Karmøy, par un fond de 200 à 220 mètres. Une première : jusqu'ici, les éoliennes offshore se fixaient sur de hauts fonds (quelques dizaines de mètres de profondeur). Hywind sera maintenue en place de manière semi-permanente par trois câbles d'ancrage. Une solution relativement économique jusqu'à 700 mètres de fond, tandis qu'à ces profondeurs, les solutions de fixation traditionnelles de l'offshore, comme les monopiles ou les tripodes, deviennent trop coûteuses. La connection au réseau électrique sur la côte se fera par des câbles de Nexans, qui conforte ainsi sa présence dans l'offshore, puisqu'il vient aussi de signer le contrat du câblage de la ferme éolienne de Sheringham, en eaux peu profondes (une vingtaine de mètres), au large de l'Ecosse. L'éolienne flottante a demandé des développements particuliers. Un modèle de trois mètres a d'abord été testé dans le bassin de simulation marine de Sintef - société de recherche sous contrat scandinave - afin de prouver la viabilité de la technologie, son comportement en service et sa résistance à la fatigue. Des pales à angle variable Hywind sera constituée d'une turbine Siemens de 82 mètres de diamètre et de 138 tonnes, et d'une tour culminant à 65 mètres au-dessus de la mer. Sa base, une bouée espar (du type balise flottante), fabriquée par le français Technip dans son chantier finlandais, est un cylindre de métal et de béton descendant à 120 mètres au-dessous du niveau de la mer. La bouée est équipée de ballasts contrôlant la position du centre de gravité de l'ensemble, afin de minimiser sa réponse dynamique au vent et aux vagues. Mais le développement est loin d'être fini : parmi les innovations, Siemens et StatoilHydro prévoient d'utiliser des pales à angle variable en fonction du vent, pour mieux garantir l'équilibre de l'éolienne. Si le prototype est validé, c'est l'exploitation des meilleurs champs éoliens offshore qui deviendra possible. Une perspective qui permettrait aussi de s'éloigner de la terre ferme, où l'implantation se heurte à de nombreux obstacles. Sur le strict plan de l'efficacité énergétique, StatoilHydro précise l'enjeu : son nouveau champ gazier d'Ormen Lange va produire 125 TWh/an pendant vingt ans, une ferme éolienne couvrant une surface de 32 x 64 km produirait autant d'énergie, et sans doute bien plus longtemps. .
@ Philippe Deroin
Les chariots en quête d'une alternative au moteur thermique
12/06/2008
Les grands constructeurs préparent des modèles basés sur la motorisation hybride, l'alimentation directe à hydrogène, ou encore la pile à combustible.
Linde, Toyota, Still, Nissan... Les grands fabricants de chariots élévateurs travaillent sur des concepts alternatifs au moteur thermique, moins polluants et plus économes en carburant. Une démarche qui profite des développements déjà effectués dans l'automobile. Même si, avant de voir dans les usines des chariots fonctionnant avec une pile à combustible ou à l'hydrogène, il faudra sans doute que l'automobile ait franchi le pas : le développement du marché rendra du même coup ces innovations abordables financièrement. a l'image de la toyota prius La technologie la plus proche d'une commercialisation est sans aucun doute la motorisation hybride. Déjà présente dans l'automobile, notamment avec la Prius de Toyota, elle devrait voir le jour en manutention dans deux à quatre ans. Le constructeur japonais, par ailleurs leader mondial du chariot, a développé une motorisation alliant moteur thermique et électrique, imitant celui de la Prius. Le prototype, présenté au dernier Cemat (salon de la manutention, à Hanovre), repose sur un moteur thermique qui alimente une batterie via un générateur. Cependant, comme pour la voiture, cette motorisation ne permet pas de rouler longtemps avec le seul moteur électrique : cinq à dix minutes, tout au plus ! En fait, la partie électrique n'est pas une véritable chaîne de traction : elle sert d'assistant au moteur thermique, afin de réduire sa consommation. avantage compétitif limité L'allemand Still a lui aussi développé un chariot hybride, mais avec une technologie différente. Son RX70 Hybride convertit l'énergie cinétique, libérée par exemple lors du freinage (voir " L'U. N. " n° 3099), en énergie électrique. Allié au constructeur Volkswagen, Linde (Fenwick en France), filiale de Kion, utilise la même technologie mais se lance avec un peu de retard dans l'hybride. En revanche, il songe sérieusement à implanter une coupure automatique du moteur thermique lorsque le véhicule s'arrête. En termes de gains, l'hybridation affiche des performances très disparates. Toyota promet 50 % d'économie d'énergie là où Still n'en annonce que 10 %. De toute façon, compte tenu du surcoût à l'achat - 20 à 25 % -, l'avantage compétitif reste limité. Sauf à miser sur une image respectueuse de l'environnement... Plus prometteuse, l'alimentation directe à hydrogène devrait arriver dans les entrepôts d'ici à 2020. Cette solution intéresse Kion et son partenaire Linde Gas, mais aussi Nissan. Pour l'instant, les coûts de production, de transfert et de stockage de l'hydrogène freinent son développement. Une station coûterait 250 000 euros... Des problèmes qui ne se posent pas avec la pile à combustible fonctionnant à l'hydrogène. Les grands groupes comme Nissan et Toyota s'y intéressent de près. Ce dernier a développé depuis trois ans un prototype, FCHV-F, alors que Kion, via sa filiale Still, multiplie les tests dans des aéroports avec l'aide financière du gouvernement allemand. Cette technologie représente sans doute l'avenir en raison de son absence de pollution et de sa grande autonomie. Reste à trouver les moyens de la rendre plus sûre. .
@ Olivier Cognasse
Pour créer des filières non concurrentes de l'agroalimentaire, la recherche s'intensifie sur les biocarburants de deuxième génération, y compris à travers des unités pilotes. Les études se focalisent sur la baisse des coûts de production
Les avantages des biocarburants, mais sans leurs inconvénients. Pour atteindre ce résultat optimal, la deuxième génération de carburants d'origine végétale veut utiliser les plantes entières et tous les débris ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3105 - p.68 à p.72

L'engouement pour les énergies renouvelables impacte directement sur l'emploi à tous les niveaux de qualification. Les recrutements massifs attendus, tous profils confondus, laissent même entrevoir un risque de pénurie. L'offre de formation doit au plus vite s'adapter aux nouveaux besoins.
L'appel d'air est sans précédent. En quelques années, le développement, presque soudain, des entreprises positionnées dans les énergies renouvelables a provoqué une vague de recrutement que rien ne semble pouvoir arrêter. " La pénurie dans les énergies renouvelables est un phénomène à la fois naissant et mondial ", assure Luigi Slaviero, qui travaille au sein du cabinet de conseil en recrutement de cadres dirigeants Heidrick et Struggles. La raison de cette situation ? " Comme à chaque fois lors de l'émergence d'un secteur technologique, tout le monde s'est d'abord focalisé sur les idées, puis sur les technologies et enfin sur l'argent. Mais une quatrième et dernière étape semble avoir été négligée : la mise en place d'équipes, indispensables pour la réalisation de projets. " Dans le tumultueux boom des énergies renouvelables, alors que les technologies et les investissements sont désormais au rendez-vous, aurait-on négligé le facteur humain ? D'ores et déjà, les besoins des entreprises vont tous azimuts. En réalité, il n'existe pas de " secteur " des énergies renouvelables à proprement parler. Les besoins recouvrent l'ensemble de la chaîne des activités propres à cette filière, avant tout, industrielle : R et D, conception, production, commercialisation, étude de projets, installation, distribution, maintenance... Et ce, à tous les niveaux de qualification, du CAP à l'ingénieur surdiplômé. des postes nombreux et non délocalisables D'après le Syndicat des énergies renouvelables (SER), l'organisation professionnelle regroupant les industriels de l'ensemble des filières, les effectifs pourraient passer de 75 000 emplois aujourd'hui (équivalent temps plein) à plus de 300 000 à l'horizon 2020 ! Une estimation qui a notamment pris en compte l'un des objectifs du projet de loi issu du Grenelle de l'environnement. A savoir : faire passer à 20 % la consommation d'énergie finale d'origine renouvelable en 2020 (lire notre dossier page 101). " Pour le moment, il est difficile de dire quelle part de ces emplois sera le fait d'une création nette, concède Damien Mathon, le délégué général adjoint du SER. Une chose est sûre : le nombre de créations sera élevé et ces postes seront en grande partie non délocalisables. " Les sociétés françaises, qui n'ont peut-être pas pris le train du renouvelable aussi vite que leurs consoeurs allemandes, s'empressent de rattraper leur retard. Poussées par le vent favorable des aides et des subventions multiples offertes aux particuliers pour l'installation d'équipement, elles doivent renforcer leurs équipes en vue de de répondre à l'expansion du marché. Du coup, les tensions qui se font déjà sentir sur le marché de l'emploi deviennent un enjeu majeur de développement. C'est en tout cas ce que laisse penser l'enquête publiée en mai (1), menée conjointement par Heidrick et Struggles et New Energy Finance : 96 % des dirigeants interrogés estiment que le recrutement constitue un défi sérieux au développement de leur entreprise. Les postes de directeur opérationnel technique, de chef de projet expérimenté et de directeur général semblent particulièrement recherchés. Des cadres et des installateurs Mais si l'étude citée ne concerne que les profils d'encadrement, les besoins sont loin de s'arrêter là. " Il y a de fortes demandes pour les métiers d'installateurs, explique Richard Loyen, le délégué général d'Enerplan, l'association professionnelle de l'énergie solaire. Les métiers de plombier, d'électricien, de couvreur ou bien encore de chauffagiste multicompétents sont déjà en tension. " Ils constitueront, en effet, une grande partie des troupes de la filière solaire thermique et pompe à chaleur, dont les effectifs devraient passer de 2 800 aujourd'hui à 35 000 en 2020, soit une croissance de 1 150 %. On retrouve, peu ou prou, ces mêmes métiers dans le monde de l'éolien. Mais là encore, " les difficultés pour recruter sont de plus en plus importantes ", témoigne Jean-Charles Pericchi. Le DRH de La Compagnie du vent, l'une des sociétés pionnières de l'éolien en France, pointe du doigt la concurrence accrue dans le secteur. Ce ne sont pourtant pas les besoins qui manquent : les effectifs de La Compagnie du vent devraient passer de 71 salariés fin 2007 à 170 d'ici à la fin 2009. Les embauches concerneront aussi bien des ingénieurs que des techniciens. Mais la concurrence dépasse le simple cadre de l'éolien. " Nous nous trouvons en concurrence avec le secteur du BTP ", continue Jean-Charles Pericchi. C'est l'une des problématiques de taille à laquelle doit s'atteler le secteur des énergies renouvelables : la convergence en terme de besoins humains avec d'autres secteurs d'activité comme la construction, l'industrie et les énergies traditionnelles (pétrole, gaz, charbon et nucléaire). " Car les emplois dans les énergies renouvelables sont avant tout des emplois classiques adaptés à des technologies nouvelles ", selon Damien Mathon. Mais ces filières ont une carte à jouer : celle de l'image. Ce qui fait dire au délégué général adjoint du SER que la pénurie devrait nettement moins toucher les postes en amont, types ingénierie et finance, nombre de jeunes ingénieurs s'enthousiasmant pour la thématique du développement durable. L'offre de formation, encore émergente, commence d'ailleurs peu à peu à façonner ses contenus en fonction de ces nouvelles demandes. Mais attention ! Elle ne doit pas se tromper de cible. " Il y a une tendance à ce que les formations s'établissent davantage suivant les souhaits des étudiants qu'en fonction des réels besoins du marché ", met en garde Raphaël Claustre, le directeur du Comité de liaison énergies renouvelables (Cler). Un problème dont a conscience un certain nombre de directeurs de formation. gare a la spécialisation des formations " Depuis la création en 2000 de notre licence professionnelle, nous avons établi des synergies avec de nombreux chefs d'entreprise, précise Yvan Pujol, le responsable de la licence professionnelle Sciences et technologies des énergies renouvelables à l'IUT de Tarbes. Constituée à 75 % d'intervenants issus du monde professionnel, la formation est fondée sur trois piliers qui répondent aux besoins du marché : les compétences techniques, la communication professionnelle et le management de projet. " Preuve de son succès, ce sont 500 étudiants, principalement détenteurs de BTS et de DUT, qui demandent tous les ans à passer par cette année de spécialisation. Pour seulement 50 places... Pourtant, malgré leur multiplication, ces formations n'ont pas encore les faveurs de tous les professionnels. L'ensemble des interlo-cuteurs contactés s'accordent tous sur le même point : avant de travailler dans les énergies renouvelables, rien ne vaut un cursus généraliste auquel on ajoutera (via un module, un stage ou une option) une touche de renouvelable. Gare à l'hyperspécialisation ! L'enjeu clé de la formation, initiale et peut-être plus encore continue, ne se situerait pas tant dans les filières spécialisées (lire le tableau des formations en page 70) que dans l'ajout de contenu spécifique au sein des formations classiques existantes. " Dorénavant, résume Raphaël Claustre, un plombier ne doit plus arriver sur le marché de l'emploi sans avoir touché à un chauffe-eau solaire. " . (1) Etude réalisée auprès de 75 dirigeants à travers le monde. Il s'agit de chefs d'entreprise spécialisés dans le secteur des énergies propres, de cadres de haut niveau en charge de l'activité " énergies propres " de grandes entreprises ou de dirigeants de fonds d'investissement spécialisés dans le secteur.
@ par olivier james
L'engouement pour les énergies renouvelables impacte directement sur l'emploi à tous les niveaux de qualification. Les recrutements massifs attendus, tous profils confondus, laissent même entrevoir un risque de pénurie. L'offre de formation doit au plus vite s'adapter aux nouveaux besoins.
L'appel d'air est sans précédent. En quelques années, le développement, presque soudain, des entreprises positionnées dans les énergies renouvelables a ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3103 - p.24 à p.28

Sous-investissement dans les nouvelles technologies, faible présence des PME sur le web... Le retard français en matière de TIC est criant. Un sursaut permettrait de stimuler la croissance et de créer 200 000 emplois.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3103 - p.18 à p.19

La procédure destinée à vérifier l'innocuité de 30 000 substances chimiques est lancée le 1er juin. Les entreprises auront alors six mois pour déclarer les molécules qu'elles produisent.
Avec Reach, décidément, il sera toujours difficile d'anticiper. Le compte à rebours commence le 1er juin et, pourtant, les explications portant sur la réglementation et ses obligations tardent à arriver. Sans compter que les outils informatiques supposés seconder les entreprises dans leurs démarches ne sont pas encore prêts. L'objectif de la réglementation la plus complexe jamais générée par l'Union européenne est de vérifier l'innocuité de 30 000 molécules mises sur le marché avant 1981, et qui n'ont jamais fait l'objet d'analyses toxicologiques. Une agence européenne des produits chimiques, chargée de coordonner ce travail a été créée à Helsinki (Finlande). Pour que ce règlement soit applicable, l'enregistrement de ces milliers de molécules et surtout, l'évaluation des risques qu'elles présentent, ont été étalés sur onze ans. Les 2 000 substances identifiées comme les plus dangereuses ainsi que les composés chimiques produits en quantité supérieure à 1 000 tonnes devront avoir été enregistrés et évalués avant le 30 novembre 2010. Les sites produisant plus de 100 tonnes de composés chimiques devront avoir réalisé leurs dossiers toxicologiques pour le 31 mai 2013 et les fabricants de produits en petits tonnages, entre 1 et 100 tonnes, devront remettre leur copie le 31 mai 2018. Mais, pour bénéficier de cet étalement dans le temps, encore faut-il que chaque producteur déclare toutes les molécules qu'il fabrique entre le 1er juin et le 1er décembre 2008. Pour ce pré-enregistrement, il suffit de transmettre le nom des substances fabriquées et les tonnages produits. Il n'est pas obligatoire mais s'y soustraire oblige l'industriel à fournir tout seul, dès le 2 décembre 2008, l'ensemble des analyses toxicologiques nécessaires à l'enregistrement ou l'autorisation de mise sur le marché de ces molécules. Une procédure que bien peu ont envie de réaliser seuls et dans ces délais. Le pré-enregistrement a justement pour objectif de mettre en liaison tous les producteurs d'un même composé chimique, afin qu'ils s'allient pour effectuer les analyses toxicologiques nécessaires. Un moyen de partager les frais de ces études, évalués par l'Union des industries chimiques à 4 ou 5 milliards d'euros pour l'industrie européenne. Les frais qui ne pourront être partagés, en revanche, sont ceux de la redevance. Le pré-enregistrement est gratuit mais lors de son établissement, chaque industriel devra verser à l'agence européenne une redevance d'enregistrement par produit, qui pourra aller de 120 euros à 31 000 euros, suivant la taille de l'entreprise et les quantités produites. Celles qui fabriquent des composés soumis à autorisation, donc potentiellement dangereux, pourront avoir à verser des redevances allant jusqu'à 50 000 euros par molécule. Tâche ingrate du moment, donc, recenser et informer l'agence des molécules produites. Un premier frein à l'opération, les outils informatiques promis pour faciliter l'enregistrement ne sont pas encore disponibles. Il faut, à l'heure actuelle, pré-enregistrer en ligne chaque produit, un à un. Autre frein à une bonne visibilité des opérations à mener, le manque de guides d'élaboration (ou RIP) édités par la communauté européenne pour aider les industriels à appliquer le règlement. Ils portent sur les outils informatiques permettant de communiquer les informations et sur les détails de ces dernières et tests à apporter au dossier d'enregistrement. Des renseignements dont les industriels aimeraient déjà disposer. Pour faciliter les démarches futures, les fédérations européennes de la chimie ont lancé, en janvier, une société appelée ReachLink SA chargée de développer un outil pour faciliter la mise en relation des industriels et importateurs dans les forums d'échange qui vont se créer. Malgré des années de protestation, malgré les incertitudes, Reach est lancée et l'industrie européenne doit s'organiser pour se mettre en conformité. " La question, désormais, est : comment vont réagir les autres régions du monde ", s'interroge Jean Pelin, le directeur général de l'UIC. Les Etats-Unis, notamment, avaient un temps menacé de porter plainte à l'OMC. Ils viennent cependant de s'allier avec le Mexique et le Canada autour d'un projet destiné à analyser la toxicité de près de 7 000 molécules.
La procédure destinée à vérifier l'innocuité de 30 000 substances chimiques est lancée le 1er juin. Les entreprises auront alors six mois pour déclarer les molécules qu'elles produisent.
Avec Reach, décidément, il sera toujours difficile d'anticiper. Le compte à rebours commence le 1er juin et, pourtant, les explications portant sur la réglementation et ses obligations tardent à arriver. Sans compter que les outils informatiques supposés ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3102 - p.52 à p.54

Une certification environnementale, ça se mérite ! Avant d'apposer un tel logo sur ses emballages, un check-up complet s'impose. Tour d'horizon des cinq étapes à respecter.
C'est une véritable endémie. Depuis plusieurs années, les labels environnementaux connaissent une croissance exponentielle. NF Environnement en France, Ange bleu en Allemagne, Nordik Swan dans les pays scandinaves, écolabel européen : une multitude de sigles, à portée nationale ou européenne, coexistent aujourd'hui. Des labels sectoriels ou spécialisés sur une thématique (agriculture biologique, étiquette énergie, PEFC pour le bois, anneau de Moebius pour le recyclage...) tentent aussi de se faire une place sur les emballages de nos produits. A tel point que l'on recense aujourd'hui pas moins de 700 étiquettes différentes arborant un caractère écologique. Difficile pour le client, comme pour l'industriel, de s'y retrouver. Submergés, les professionnels peinent à trouver le label qui leur correspond le mieux. Ils sont parfois tentés de jeter leur dévolu à la va-vite sur le logo le plus connu. Alors qu'il convient, au contraire, de prendre le temps de la réflexion avant d'arrêter son choix. 1Faire le ménage chez soi Une bonne introspection n'a jamais fait de mal à personne. Avant de se lancer dans une démarche de labellisation environnementale, elle s'impose. Mieux vaut avoir fait le ménage chez soi pour arborer un logo écolo. Si l'obtention de la norme ISO 14001 n'est pas une obligation, cette certification peut constituer un bon marchepied vers la labellisation produit. " Les deux options sont complémentaires, reconnaît Jacques Beslin, directeur général délégué de l'Afnor. Si l'ISO permet de se fixer des objectifs et donne des méthodes en termes d'organisation, le label environnemental prend en compte le cycle de vie du produit. " Polypore a ainsi profité à plein de son expérience avec l'ISO 14001 pour décrocher la marque NF Environnement. L'ISO permet notamment de sensibiliser le personnel à la question des déchets ou des économies d'énergie. Et de se pré-munir d'un risque majeur en matière de certification : la labellisation dite de façade. 2Définir sa cible Aucune législation n'interdit la cohabitation de plusieurs labels. Mais estampiller à tout va un même produit ne servira à rien. Au contraire : " Leur prolifération sur un emballage nuit à leur lisibilité ", pense Jean Delorme, le directeur marketing du groupe V33, qui a quand même choisi d'apposer la marque NF Environnement et l'écolabel européen sur ses pots de peintures. Aussi, pour limiter l'inflation de logos sur les produits, l'industriel doit-il avoir les idées claires sur sa cible. A qui est destinée sa fabrication ? Dans quel pays sera-t-elle vendue ? L'écolabel européen semble, par exemple, le plus pertinent pour une commercialisation sur l'ensemble du Vieux Continent, mais il n'est pas toujours suffisant. Il reste largement ignoré dans la plupart des pays, notamment en France. Un Français sur cinq seulement reconnaît ce sigle, alors que la marque NF jouit, elle, d'une bonne notoriété. Plus surprenant, ces labels peuvent être aussi utiles hors de leur zone de chalandise originelle. L'écolabel est exigé pour percer sur des marchés hors Europe et notamment en Asie. " Les distributeurs coréens apprécient tout particulièrement notre gamme frappée de l'écolabel, assure Vincent Lepais, le directeur marketing de Blanchon, fabricant de vernis et de vitrificateurs. Ils vont jusqu'à accompagner ces produits d'une notice explicative sur cette certification. " 3Bachoter la documentation La lecture des pavés de normes en rebute plus d'un. Il faudra pourtant accepter d'y jeter un peu plus qu'un oeil distrait pour dénicher le label qui convient le mieux à votre entreprise. NF 130 pour les peintures, NF 335 pour les cartouches, EU 163 pour les peintures et vernis d'intérieur... Chaque domaine d'activité possède sa propre norme. Ecrite à chaque fois par un comité d'experts (organismes techniques, législateurs, ONG et industriels), elle affiche des exigences précises qui nécessitent cependant une analyse approfondie. Pour obtenir son label sur ses bureaux professionnels, le fabricant de meubles Gautier a dû plancher sur seize critères définis dans la norme destinée aux produits du bois. " Nous regardons les aspects de transports, d'origine du bois ou de rejets des composés organiques volatiles, témoigne Jean-Claude Petit, le responsable du développement de l'ameublement au FCBA, un organisme certificateur spécialisé dans le bois. Nous prêtons attention également à la performance du produit. Le label environnement ne doit pas se faire au détriment de la qualité du produit. " Pour y retrouver ses petits, l'Afnor a mis au point, sur son site, un " moteur de rechercher normatif " (www.afnor.fr). Il permet de trouver rapidement la réglementation correspondant au produit visé. L'Ademe et la Fédération nationale de l'agriculture biologique (Fnab) possèdent aussi un réseau de conseillers aptes à répondre aux questions les plus techniques. L'Agence de l'environnement a également édité un passeport " achat responsable ". 4Evaluer les impacts L'intérêt marketing des labels produits est évident, mais ne constitue que la partie immergée de l'iceberg. S'engager dans une démarche de certification produit va également modifier sérieusement la production, la logistique et les achats. Il sera parfois nécessaire de revoir complètement le processus de fabrication pour répondre aux nouvelles exigences. Des entreprises comme Polypore ont dû restreindre leur panel de fournisseurs (lire ci-contre). D'autres, comme V33, ont retravaillé la compostion des peintures pour en bannir les composants les plus nocifs. Le passage à l'agriculture biologique impose, lui, un changement radical. Dans le cas de l'agriculture intensive, les contraintes sont telles que la transition n'est pas possible. Quant aux industriels, " s'ils décident de se lancer dans le bio, ils préfèrent quelquefois le faire par acquisition de petites sociétés, remarque Xavier Dupuis, le responsable de l'agriculture biologique au sein du certificateur SGS ICS. Ils les organisent alors complètement en fonction de la réglementation biologique. " C'est le cas de Danone, qui a acquis StonyField, société américaine de yaourts biologiques (sous marque " Les 2 vaches "), pour se lancer sur ce créneau. En termes de coût, la certification est loin d'être neutre. Sa mise en place nécessite de débourser quelques milliers d'euros, mais la facture peut flamber et atteindre le million d'euros pour aller au bout du processus. Et ce n'est pas tout. Après deux ans de travail acharné, il faudra encore payer pour maintenir son label (audit régulier, veille sur les évolutions...). Et accepter de verser une cotisation annuelle d'exploitation. Pour la marque NF, l'Afnor la facture 5 000 euros. Ces surcoûts peuvent toutefois être limités si l'entreprise joue pleinement le jeu. Par le biais des économies d'énergie notamment, elle peut réussir à réduire sérieusement la note. Il est également possible de labelliser ses produits en participant à la conception des futures normes en tant qu'experts. 5Frapper à la bonne porte Attention, chasse gardée ! Pour décrocher les deux certificats (NF Environnement et écolabel européen), la seule porte d'entrée en France est l'Afnor. L'organisme fait donc la pluie et le beau temps en la matière, même s'il délègue un certain nombre d'audits à des certificateurs spécialisés comme le FCBA pour le bois. Pour les labels auto-déclarés ou privés (anneau de Moebius pour le recyclage, étiquettes énergie, Monoprix vert...), l'entreprise est seule responsable de ce qu'elle déclare. Elle peut toutefois s'appuyer sur la norme ISO 14021, qui régit les marquages environnementaux, pour bâtir son processus d'auto-certification. Si cette solution peut paraître intéressante et économique (elle évite de subir les visites d'auditeurs), elle suppose quand même de posséder une certaine maîtrise du sujet. " Avec Conforama, nous avons travaillé à une gamme de bureau écoconçue reposant sur l'auto-déclaration. Le fait d'avoir labellisé au préalable deux produits avec la marque NF constituait un gage de confiance ", témoigne Pierre-Emmanuel Berthault, le responsable QSE chez Gautier. Histoire de ne pas prendre de mauvaises habitudes. Et de rassurer les clients. .
@ Jessy Picard
Une certification environnementale, ça se mérite ! Avant d'apposer un tel logo sur ses emballages, un check-up complet s'impose. Tour d'horizon des cinq étapes à respecter.
C'est une véritable endémie. Depuis plusieurs années, les labels environnementaux connaissent une croissance exponentielle. NF Environnement en France, Ange bleu en Allemagne, Nordik Swan dans les pays scandinaves, écolabel européen : une multitude de sigles, à portée ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3102 - p.30 à p.31

Si les cultures d'OGM se développent de plus en plus dans le monde, elles reculent en Europe. En France, on attend la levée du moratoire, mais il est peu probable que la nouvelle loi parvienne à rassurer agriculteurs et consommateurs.
Un marché de 7 milliards d'euros, des cultures en croissance de 12 % par an : la production d'OGM explose aux Etats-Unis et dans les principaux pays en développement, mais elle périclite en Europe. Actuellement, un seul organisme génétiquement modifié y est en effet autorisé à la culture : le maïs de Monsanto résistant aux insectes, le MON810. Et les différents pays européens ont toute latitude de faire appliquer la clause de sauvegarde et d'empêcher les plantations s'ils estiment manquer d'informations sur l'innocuité de la semence. Une possibilité dont certains ne se sont pas privés. En France, le long débat qui a fait rage lors des discussions sur la loi devrait s'achever ce jeudi 22 mai. Le texte a pour objectif de transcrire la directive européenne de 2001 sur la coexistence des cultures avec et sans semences génétiquement modifiées. Amendées, disputées, rognées, les conclusions du projet français vont aboutir à un paradoxe : la culture d'OGM sera possible, mais, en pratique, les agriculteurs ne franchiront sans doute plus le pas. Le texte fait en effet peser la responsabilité de la contamination accidentelle de parcelles non OGM sur l'agriculteur. Un risque que ces derniers ne voudront sans doute pas prendre, les assureurs étant peu enclins à les protéger sur ce point. ETIQUETER LES PRODUITS " avec ogm " Autre point épineux, qui concerne la consommation cette fois, la définition du " sans OGM " promet elle aussi d'être inapplicable. Les mesures en débat ce jeudi prévoient de laisser l'étiquetage " avec OGM " quand la composition en semences génétiquement modifiées dépasse 0,9 %, renvoyant à la définition communautaire pour le seuil du " sans OGM ". Sauf que, justement, la directive de 2003 sur laquelle s'appuie le texte (1829/2003/CE) laisse le choix aux Etats membres sur ce point précis. Pourtant, en France, depuis 2004, une note de la DGCCRF (Direction générale de la concurrence, de la consommation et de la répression des fraudes) interdit l'étiquetage " sans OGM " au-delà du seuil de détection des OGM, à savoir 0,01 %. Un choix qui n'est pas repris dans la loi. " Nous nous opposons à une définition du "sans OGM" fixée à moins de 0,9 %, trompeuse pour le consommateur ", insiste Virginie Guérin, la chef de projet qualité à l'Association nationale des industries alimentaires. Le vote de la loi n'arrêtera pas le débat. .
@ Agathe Remoué
Si les cultures d'OGM se développent de plus en plus dans le monde, elles reculent en Europe. En France, on attend la levée du moratoire, mais il est peu probable que la nouvelle loi parvienne à rassurer agriculteurs et consommateurs.
Un marché de 7 milliards d'euros, des cultures en croissance de 12 % par an : la production d'OGM explose aux Etats-Unis et dans les principaux pays en développement, mais elle périclite en Europe. Actuellement, un ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3102 - p.14

La loi de modernisation de l'économie donnera le coup de grâce à la loi Galland. C'est un chapitre de l'histoire de la grande distribution française qui s'achève. C'est aussi la fermeture d'une formidable fenêtre d'opportunité pour un secteur confronté à une exigence de mutation structurelle. En 1996, désignée par Jacques Chirac comme la mère de tous les maux, la grande distribution devient la cible d'une offensive réglementaire d'envergure. La loi Raffarin durcit les termes de la loi Royer de 1973, régulant les créations de grandes surfaces. La loi Galland vise à rééquilibrer les relations entre les distributeurs et leurs fournisseurs : dès lors, l'essentiel des remises obtenues, par les premiers auprès des seconds, est supposé être la contrepartie de prestations de services clairement identifiées et donnant lieu à une facturation spécifique au titre de la " coopération commerciale ". Par ailleurs, afin d'éviter une concurrence prédatrice à l'égard des autres formes de commerce, la loi proscrit de vendre à un prix inférieur au seuil de revente à perte. Les marges arrière n'entrent pas dans le calcul de ce seuil. On connaît la suite : la loi n'ayant rien changé aux rapports de force, le pouvoir des centrales d'achat s'exprime au travers du montant des marges arrière, qui a finalement très peu à voir avec les prestations de services effectivement fournies. En prévision des concessions qu'ils devront faire, les fournisseurs augmentent les prix figurant dans leurs conditions de vente, servant de base au calcul du seuil de revente à perte. Autrement dit, les prix aux consommateurs augmentent à la vitesse à laquelle progressent les marges arrière. Et celles-ci évoluent très vite... Selon l'Ilec (Institut de liaisons et d'études des industries de consommation), elles passent globalement de 22 % du prix net facturé en 1998 à plus de 37 % en 2006. La loi Galland a ainsi favorisé la poussée des prix des produits de marque, qui décollent un petit peu avant le passage à l'euro, pour n'amorcer leur décrue qu'à partir de 2004. Entre-temps, le sentiment d'inflation s'est diffusé dans les ménages, la pénétration du hard discount s'est accélérée et les produits à marque de distributeurs ont grignoté le marché des grandes marques. Personne ne pleurera sur la dépouille de la loi Galland, même si le cadre réglementaire à venir suscite déjà des inquiétudes. Et pourtant, cette loi a constitué une opportunité, pour la grande distribution, d'accélérer une mutation inéluctable. Pendant douze ans, elle a mis entre parenthèses la concurrence par les prix dans la distribution. Une occasion unique de faire sortir le secteur de son modèle fondateur du discount, auquel il doit tant, mais qui se révèle de moins en moins adapté aux comportements de consommation du XXIe siècle et, plus généralement, au système économique post-fordien contemporain. Les enseignes ont disposé d'une réelle marge de manoeuvre pour déplacer les modalités de la concurrence vers la différenciation et une approche plus " servicielle " de leur métier. La même loi aurait pu aussi permettre de sortir les relations industrie-commerce de leur tradition conflictuelle, pour les engager, enfin, dans une logique partenariale créant de nouveaux leviers d'efficacité économique et de satisfaction des clients. Au lieu de cela, les distributeurs se sont comportés en rentiers. La marge arrière n'a pas été réinvestie dans l'innovation ; elle a, tout au plus, contribué à financer l'expansion internationale. Elle a dopé la rentabilité à court terme, favorisé l'installation d'un fonctionnement oligopolistique du secteur et envenimé davantage les relations avec les fournisseurs. Les lois passent et l'hypermarché reste toujours à réinventer. .
@ Philippe Moati Directeur de recherches au Credoc
La loi de modernisation de l'économie donnera le coup de grâce à la loi Galland. C'est un chapitre de l'histoire de la grande distribution française qui s'achève. C'est aussi la fermeture d'une formidable fenêtre d'opportunité pour un secteur confronté à une exigence de mutation structurelle. En 1996, désignée par Jacques Chirac comme la mère de tous les maux, la grande distribution devient la cible d'une offensive réglementaire d'envergure. La ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3102 - p.12

Au point mort depuis deux ans, les négociations sur les règles de libre-échange pourraient progresser avant juillet. Au coeur des débats, le rééquilibrage des échanges avec la Chine et l'Inde.
Les négociations du cycle de Doha à l'Organisation mondiale du commerce (OMC) pourraient faire un pas en avant d'ici l'été. Pour les industriels européens, l'enjeu est de taille. Officiellement suspendu depuis juillet 2006, le cycle de Doha bute notamment sur la possibilité pour les pays émergents - Inde et Chine compris - de maintenir certaines barrières douanières afin de protéger leurs marchés intérieurs. " Nous ne voulons pas donner trop de marge de manoeuvre à la Chine, qui est déjà le troisième exportateur mondial. Les échanges doivent être plus équilibrés. L'Europe ne peut pas être la seule à faire des efforts ", s'inquiète Adrian Van den Hoven, le directeur des relations internationales du syndicat patronal européen BusinessEurope. De son côté, la Chine fait valoir son adhésion récente à l'OMC (2001) pour réclamer un sursis avant d'abaisser ses tarifs douaniers. Les entrepreneurs européens ont remporté une manche. Selon le dernier compromis, les exemptions possibles au libre-échange devraient être réduites. Les négociations devraient aussi avancer sur la réduction des barrières non tarifaires, formées par les normes et les labels spécifiques qui compliquent l'accès aux marchés. Le cycle de Doha devrait aussi atténuer les contraintes douanières, qui pèsent près de 4 % des prix à l'importation. Pour les gros exportateurs, les économies potentielles sont importantes. Mais dans le meilleur des cas, ces nouvelles règles ne s'appliqueront que dans plusieurs années. " Toute la difficulté est de trouver un compromis entre libéralisation et protection de certains secteurs. Depuis trois ou quatre mois, on sent que les négociateurs se rapprochent d'un équilibre ", assure Patrick Messerlin, le directeur du Groupe d'économie mondiale à Sciences Po. Les négociateurs devraient publier ces jours-ci deux textes de compromis sur la libéralisation des échanges dans l'agriculture et dans l'industrie. Une conférence ministérielle des 152 membres de l'OMC devrait suivre. Le directeur général de l'organisation, Pascal Lamy, espère ensuite aboutir à un accord définitif avant la fin de l'année et les élections présidentielles américaines. " C'est possible, mais difficile ", reconnaît Adrian Van den Hoven. .
Au point mort depuis deux ans, les négociations sur les règles de libre-échange pourraient progresser avant juillet. Au coeur des débats, le rééquilibrage des échanges avec la Chine et l'Inde.
Les négociations du cycle de Doha à l'Organisation mondiale du commerce (OMC) pourraient faire un pas en avant d'ici l'été. Pour les industriels européens, l'enjeu est de taille. Officiellement suspendu depuis juillet 2006, le cycle de Doha bute notamment ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3096 - p.10 à p.16

Le gouvernement veut faire baisser les prix. Pour l'instant, il fait monter la température. Les industriels s'alarment de la possibilité offerte aux distributeurs de négocier librement leurs tarifs. Petites et moyennes entreprises anticipent un durcissement du rapport de forces.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3096 - p.10

La Cour de cassation a estimé que ce message écrit sur mobile constitue un mode de preuve spécifique, distinct de l'enregistrement des conversations téléphoniques d'ordre privé.
Les nouvelles techno-logies de l'information et de la communication sont généralement à l'honneur en droit du travail lorsqu'il s'agit de délimiter la frontière entre vie professionnelle et vie privée du salarié, dont le respect doit être assuré (Cass. Ch. Mixte 18/05/07, Soc. 19/9/08, Soc. 19/12/07). Le 23 mai 2007, la Cour de cassation a rendu un arrêt qui mérite d'être retenu en ce qu'il appréhende le SMS comme un mode de preuve à part entière. Dans cette affaire, une salariée se prétendait victime de harcèlement sexuel de la part de son employeur. Elle avait alors produit en justice la retranscription, par huissier de justice, des SMS qui lui avaient été adressés et que son téléphone portable avait enregistrés, afin de prouver de tels actes. La Cour a accepté ce mode de preuve. De prime abord, une telle solution peut surprendre : il est, en effet, de jurisprudence constante que l'enregistrement d'une conversation téléphonique d'ordre privé, effectué à l'insu de l'auteur des propos invoqués, est un procédé déloyal rendant irrecevable en justice la preuve ainsi obtenue (Com. 25/02/03, Civ 2e. 7/10/04). Pourquoi en irait-il autrement du SMS ? L'évolution des technologies de l'information et de la communication, et tout particulièrement l'apparition du SMS, amène cependant à repenser un tel encadrement juridique de la preuve. A cet égard, l'expression retenue par la Cour de cassation pour qualifier les SMS " messages écrits téléphoniquement adressés " n'est pas anodine : elle retient le caractère d'écrit de ce type de message, par principe, conservé après lecture dans l'appareil récepteur ainsi que dans l'appareil émetteur afin qu'une éventuelle relecture soit possible. Dès lors, une solution différente de celle appliquée au simple enregistrement d'une conversation téléphonique paraît s'imposer. Pour juger irrecevable un enregistrement téléphonique, la Cour de cassation se fonde sur le fait qu'il soit obtenu à l'insu de celui à qui il est opposé. Or, ce n'est pas le cas du SMS, dont l'auteur sait pertinemment qu'il sera conservé dans le téléphone de son destinataire. La Cour de cassation a ainsi indiqué : " Si l'enregistrement d'une conversation téléphonique privée, effectué à l'insu de l'auteur des propos invoqués, est un procédé déloyal rendant irrecevable en justice la preuve ainsi obtenue, il n'en est pas de même de l'utilisation par le destinataire des messages écrits téléphoniquement adressés, dits SMS, dont l'auteur ne peut ignorer qu'ils sont enregistrés par l'appareil récepteur. " Là encore, l'expression retenue par la Cour prend tout son sens. En effet, si " l'auteur ne peut ignorer ", c'est donc que l'enregistrement ne s'est pas fait à son " insu ", fondement de la déloyauté rendant irrecevable en justice les preuves obtenues à l'aide de procédés ainsi mis en place. En mettant en avant le caractère écrit des SMS, la Cour s'aligne sur l'admission légale de l'écrit sous forme électronique, au même titre que l'écrit papier, sous réserve que " puisse être dûment identifiée la personne dont il émane et qu'il soit établi et conservé dans des conditions de nature à en garantir l'intégrité " (article 1316-1 du Code civil). Cet arrêt marque l'évolution logique et inévitable du régime de la preuve, qui doit s'adapter aux NTIC. Il ouvre, par ailleurs, des perspectives non négligeables en matière de droit du travail. Notons, en effet, que ce mode de preuve, nouvellement reconnu ici au salarié, l'est naturellement aussi pour l'employeur qui pourra alors établir, à l'appui de SMS, une faute de son subordonné. .
@ par Valérie Dubaile, Avocat associée, responsable de l'activité Droit social, Field Fisher Waterhouse
La Cour de cassation a estimé que ce message écrit sur mobile constitue un mode de preuve spécifique, distinct de l'enregistrement des conversations téléphoniques d'ordre privé.
Les nouvelles techno-logies de l'information et de la communication sont généralement à l'honneur en droit du travail lorsqu'il s'agit de délimiter la frontière entre vie professionnelle et vie privée du salarié, dont le respect doit être assuré (Cass. Ch. Mixte ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3093 - p.71 à p.81

Appréciés pour leur légèreté et leurs propriétés mécaniques, les matériaux composites percent dans tous les secteurs. L'innovation sur les procédés de mise en forme permet de diversifier les applications. Les projets de développements collectifs, associant PME et grands groupes, accélèrent la mutation des industriels.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3092 - p.50 à p.52

Les performances récemment atteintes en laboratoire relancent l'intérêt de l'électricité d'origine photovoltaïque. Les cellules classiques se dotent de dispositifs pour améliorer le rendement. De nouveaux matériaux sont expérimentés
Les prouesses des cellules solaires sont à la hausse. Voici quelques mois, l'université du Delaware a fait la démonstration d'une cellule en silicium cristallin affichant 42,8 % de rendement (conversion du flux lumineux en électricité). Fin 2006, le rendement record atteignait 40,7 %. Il était déjà impressionnant, puisque celui des cellules habituellement commercialisées varie entre 5 et 20 % et que les modèles les plus performants utilisés en aéronautique taquinent les 33 %. Au vu des progrès, le gouvernement américain - emmené par la Darpa - relance un programme qui pourrait aller jusqu'à 100 millions de dollars de financement sur trois ans, dans le cadre d'un nouveau consortium associant l'université du Delaware et DuPont (le géant industriel local). Il pourrait aussi impliquer BP Solar, Corning et LightSpin, entre autres sponsors industriels. L'objectif de ce consortium, baptisé VHESC (cellule solaire à très haut rendement), est de franchir la barre des 50 % de rendement dans trois ans pour une cellule commercialisable et produite dans des conditions rentables. Cette ambition, qui aurait semblé déraisonnable voici peu, est partagée : Spectrolab, la filiale de Boeing qui détenait le précédent record, prédit une limite théorique du rendement de sa technologie à 58 % et des rendements pratiques crédibles entre 45 et 50%. Les milieux de la recherche fondamentale, eux, suggèrent qu'un rendement de 65 % serait un jour envisageable avec des cellules à points quantiques, décrites par le laboratoire américain NREL en 2005. des matériaux plus exotiques que le silicium Comme toutes les cellules à haute performance, celle de l'université du Delaware " exploite " le spectre solaire de plusieurs manières. Les cellules photovoltaïques ne sont en effet pas toutes identiques. La grande majorité des cellules commercialisées sont fabriquées à partir de silicium amorphe, poly- ou monocristallin (par ordre croissant de rendement... et de coût). Les rendements dépendent également de la technique de fabrication utilisée. Les rendements des cellules " simples " plafonnent autour de 25 % en laboratoire. Pour contourner l'obstacle, plusieurs leviers sont possibles. En abandonnant le silicium au profit de matériaux plus exotiques, comme l'arséniure de gallium ou autres composés de type III-IV, on gagne en rendement. Pour des applications de petits volumes, où le coût est secondaire, comme le spatial, on peut même empiler plusieurs cellules élémentaires utilisant des matériaux différents pour augmenter la proportion du spectre solaire capturée par ces cellules " multijonctions ". Enfin, il est possible d'utiliser des concentrateurs de lumière pour compenser la nature diffuse du rayon solaire. Le concept développé par le consortium VHESC ajoute un outil à cet arsenal. Un " concentrateur optique latéral " sépare la lumière solaire en plusieurs niveaux d'énergie, de manière à alimenter plusieurs cellules élémentaires avec des faisceaux différents, optimisant ainsi l'utilisation du spectre incident. La technologie est prometteuse d'un point de vue industriel : alors que le procédé de Spectrolab fait appel à un concentrateur complexe et encombrant doté d'une optique de suivi, celui de l'université du Delaware utilise un concentrateur stationnaire conçu pour capturer la lumière incidente sous un angle important. Si l'on perd un peu en concentration, on gagne beaucoup en facilité de fabrication. " En intégrant l'optique au design même de la cellule, nous entrons dans un nouveau domaine de conception et d'utilisation ", juge Allen Barnett l'un des responsables de VHESC. Quand cette génération de super-cellules photovoltaïques aura fait ses preuves en laboratoire, on peut espérer une industrialisation relativement aisée. Car après des dizaines d'années de progrès lents et difficiles, le photovoltaïque commence à disposer d'un arsenal riche lui permettant d'optimiser la fabrication des cellules tout en contrôlant leur coût. L'industrie s'ouvre ainsi de nouvelles possibilités avec l'arrivée des polymères actifs. De leur côté, les matériaux inorganiques habituels font des progrès économiques sensibles. Et comme le montrent les cellules les plus performantes, on assiste à un renouvellement des architectures photovoltaïques. les polymères sur les rangs A première vue, les cellules solaires à polymère ne sont pas impressionnantes. Leurs rendements sont encore de l'ordre de 5 % dans le meilleur des cas. On ne sera pas surpris, la technologie des polymères semi-conducteurs étant encore récente. Par leur nature même, ces matériaux vont demander beaucoup de développements supplémentaires, puisqu'il n'est pas possible de les transposer simplement dans les structures inorganiques classiques. Par exemple, le niveau d'excitation engendré par l'absorption d'un photon dans le polymère correspond à une énergie plus élevée que pour un matériau inorganique, forçant une réinvention de l'architecture photovoltaïque. Mais comme pour toutes les révolutions impliquant des polymères, les promesses sont plus grandes encore que les obstacles : des cellules solaires souples que l'on pourrait fabriquer le plus simplement du monde. Par exemple, par impression à jet d'encre, grâce à des processus industriels déjà maîtrisés et à des matériaux faciles à synthétiser. les matériaux inorganiques font de la résistance Les matériaux inorganiques ne sont pas pour autant condamnés à attendre la montée inexorable des cellules polymères. Déjà, plusieurs types de cellules sont en production, au point que l'industrie commence à bénéficier à la fois d'économies d'échelle et d'améliorations techniques régulières. C'est le cas de l'américain First Solar, un spécialiste des cellules en couches minces fabriquées à partir de modules tellurium/cadmium (TeCd). Avec des rendements de 16,5 % en laboratoire et de 10,5 % conditionnée en panneaux, cette technologie n'atteint certes pas des niveaux records. Mais First Solar affirme avoir désormais le coût de production le plus bas de toute l'industrie, taquinant le dollar par watt-crête. Le compromis est une technologie robuste fournissant un rendement moyen avec des modules polycristallins à simple jonction, faciles à fabriquer et utilisant peu de matériaux semi-conducteurs. De plus, ceux-ci sont abondants et peu coûteux, étant des sous-produits de l'industrie minière. Enfin, le photovoltaïque classique tire désormais avantage de son âge. L'industrie entre dans sa troisième génération de cellules, après celle des modules monocristallins rigides et celle des couches minces. Cette troisième génération offre le changement dans la continuité. Elle associe des matériaux facilement disponibles et peu toxiques à des architectures conservant le principe établi de structures en couches, mais enrichies d'astuces techniques. La technologie la plus évidente est celle des cellules multijonctions, empilage de modules capturant chacun une portion différente du spectre. Leur principe est différent de celui des cellules photovoltaïques conventionnelles : une jonction de deux semi-conducteurs dans laquelle on s'arrange pour que le courant ne puisse passer qu'avec l'apport d'une énergie extérieure, celle d'un photon. Dans une cellule multijonction, on empile des modules de gap énergétique croissant, de manière à extraire progressive-ment l'énergie du spectre incident. Pour affiner le concept, il est possi- ble d'insérer des impuretés de manière à viser plusieurs niveaux d'énergie en parallèle dans un même gap. Les concentrateurs s'intéressent à l'autre partie de l'équation, la manipulation du spectre incident lui-même, afin de fournir à la cellule l'équivalent de plusieurs soleils. Il est même possible de changer le spectre par conversion optique. Entre autres, pour apporter à des matériaux sensibles au spectre visible des photons émis dans l'ultraviolet. l'opportunité de travailler sur des systèmes compacts Enfin, les cellules photovoltaïques peuvent exploiter les trois dimensions de l'espace pour mieux piéger la lumière incidente. Georgia Tech a présenté en 2007 (voir "L'U.N. " n° 3056) une structure utilisant des nanotubes de carbone comme autant de tours en surface de la cellule, qui empêchent la lumière incidente de sortir quand elle n'est pas capturée immédiatement. Dans un même ordre d'idée, les chercheurs de Stanford ont proposé une cellule à base de couches minces organiques. Ils ont tiré parti de sa souplesse naturelle pour lui donner une forme en V, permettant ainsi de multiples réflexions de la lumière. Cette meilleure interaction avec le matériau assure un gain de rendement de 52 %. Compte tenu des niveaux déjà atteints, cette course au rendement présente par ailleurs l'opportunité de travailler sur des systèmes plus compacts, laissant envisager à moyen terme des coûts de production d'électricité de l'ordre de quelques dizaines de centimes d'euro par watt. En définitive, le succès du solaire photovoltaïque dépend maintenant de deux facteurs convergents. D'un côté, la baisse des coûts de fabrication et le prix du watt solaire. De l'autre, l'appétit insatiable de l'économie mondiale en énergie, dont la consommation, selon le Département de l'Energie américain, augmentera de plus de 70 % entre 2003 et 2030. .
@ par Philippe Deroin
Les performances récemment atteintes en laboratoire relancent l'intérêt de l'électricité d'origine photovoltaïque. Les cellules classiques se dotent de dispositifs pour améliorer le rendement. De nouveaux matériaux sont expérimentés
Les prouesses des cellules solaires sont à la hausse. Voici quelques mois, l'université du Delaware a fait la démonstration d'une cellule en silicium cristallin affichant 42,8 % de rendement (conversion du flux ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3092 - p.22 à p.24

L'offensive du spécialiste des voitures de sport relance la course à la taille critique en Europe. Pour préserver leur rang sur la scène mondiale, les autres constructeurs devront se mettre au diapason et se chercher des alliés
Un nouveau mastodonte de l'automobile est né. Douze marques, dont neuf dans l'automobile et trois dans le poids lourd, près de 130 milliards d'euros de chiffre d'affaires cumulé, une présence sur tous les continents... le rapprochement de Porsche et de Volkswagen donne naissance à l'un des tout premiers groupes du monde. Le nouvel ensemble, qui affiche des dimensions inconnues jusque-là en Europe, force le respect. Et sonne le retour des grandes manoeuvres pour les industriels européens. Un mouvement en marche dans toute l'europe Le patron de PSA, Christian Streiff, qui ne manque pas de superlatifs pour qualifier ce nouveau leader, jugeait devant une poignée de journalistes le 4 mars sur le salon de Genève que " le mouvement de concentration dans l'automobile européenne était loin d'être terminé. " De six aujourd'hui, le Vieux Continent passera-t-il à quatre constructeurs demain ? L'hypothèse n'est pas infondée. Carlos Ghosn lui-même l'affirmait en avril 2007, lors du lancement de la Logan en Inde : " Un groupe automobile peut disparaître du jour au lendemain, et personne ne s'en émouvra. " Depuis l'annonce de Porsche, les rumeurs vont bon train. La famille Quandt, propriétaire de BMW, et les Peugeot entretenant de très bonnes relations, l'idée d'un mariage franco-allemand fait son grand retour. Sans confirmer ces informations, chez PSA on se dit ouvert à toute nouvelle opportunité. Et du côté de BMW, on ne cache pas ses intentions d'élargir son portefeuille de marques (BMW, Mini, Rolls-Royce) ainsi que ses coopérations. Ses dirigeants feraient d'ailleurs actuellement le tour des différents groupes européens pour étudier toutes les possibilités de partenariats. Renault est lui passé à l'offensive. L'allié de Nissan a mis la main, le 29 février dernier, sur 25 % du capital d'Avtovaz, le propriétaire de Lada et le numéro 1 du secteur en Russie. Quant à Mercedes et Fiat (échaudés par leurs expériences avec Chrysler et General Motors), s'ils semblent plus en retrait, il n'est pas sûr qu'ils puissent encore jouer longtemps leur partition en solo. plusieurs fers au feu dans les bureaux d'études Sur un marché déjà assez concentré (les dix premiers mondiaux captent 80 % des volumes), tout plaide en effet pour relancer la course aux regroupements. L'effet de taille va devenir une impérieuse nécessité pour affronter les prochains défis technologiques et commerciaux. " Les besoins en investissement vont aller croissant, estime Laurent Desplaces, associé spécialisé dans l'automobile au cabinet d'audit comptable KPMG. Ne serait-ce que pour faire face au développement de nouvelles technologies, à la multiplication du nombre de modèles et à la montée en puissance des marchés émergents. " Faute d'avoir trouvé l'innovation capable de remplacer le bon vieux moteur à combustion, les constructeurs doivent en tout cas maintenir plusieurs fers au feu dans leurs bureaux d'études. Hybride diesel, hybride essence, électrique, biocarburant, hydrogène... tous investissent parallèlement dans ces modes de propulsion pour rester dans le coup. le poids des exigences environnementales " En termes de cash, cela nécessite d'avoir une certaine assise financière, mais il faut également être capable de rentabiliser ces investissements coûteux ", confie David Weill, le directeur en charge de l'automobile chez AT Kearney. La montée en puissance des exigences environnementales et la floraison des " bonus- malus " anti-CO2 dans une dizaine de pays européens poussent aussi dans ce sens. L'Union européenne a elle-même conseillé aux constructeurs de constituer des pools de marques pour que leurs modèles franchissent la barre des 130 g/km de CO2 en moyenne à l'horizon 2012. Ces alliances sont tout aussi essentielles pour partir à la conquête des pays émergents. Pour percer sur ces marchés, il est indispensable d'investir dans des usines, des réseaux de ventes et dans le marketing sans obtenir, dans un premier temps, un retour immédiat sur le front des ventes. Renault, qui n'a vendu en Inde que 12 000 Logan l'an dernier, a d'ores et déjà prévu de débourser près de 800 millions d'euros pour implanter une nouvelle usine d'une capacité de 400 000 unités à Chennai, sur la côte est du sous-continent. Mais le français projette également d'en partager les coûts avec Nissan. PSA est pour l'instant parti seul en Russie mais il laisse volontiers courir le bruit qu'il pourrait - aimerait ? - partager les frais de son usine de Kaluga, basée à 150 km de Moscou, à l'image de ce qu'il a fait dans le véhicule utilitaire, avec Fiat, ou dans les voitures de poche, avec Toyota. En coulisse, il se murmure que Mitsubishi (qui fournit à Peugeot et à Citroën ses tout-terrain 4007 et C-Crosser) serait intéressé. l'aventure hasardeuse des fusions Pour les petits poucets du secteur, la course à la taille demeure une question d'actualité pour peser face à des fournisseurs (eux aussi en voie de concentration) de plus en plus durs en affaires. Hyperrentables mais générant de petits volumes, les BMW et autres Mercedes devront s'appuyer sur une alliance ou un groupe pour asseoir leur puissance de frappe au niveau des achats. Reste à savoir quelle forme pourraient prendre ces coopérations. La fusion reste une aventure hasardeuse. Après neuf ans de liaison, Daimler s'est séparé de Chrysler l'an dernier sans qu'aucune synergie n'ait pu être réellement nouée. Et si l'on prend l'exemple de Peugeot et de Citroën, il aura fallu attendre trente ans pour former avec ces deux marques un véritable groupe intégré. " Les alliances ciblées, telles que les mènent Renault ou même PSA avec BMW ou Toyota, sont plus porteuses, estime Bernard Jullien, le directeur du Gerpisa, un réseau de recherche sur l'industrie automobile dépendant de l'université d'Evry. Elles sont souvent plus respectueuses de la culture de chaque groupe tout en permettant de générer des synergies importantes, que ce soit en termes industriel, d'achats ou de recherche et développement. " les premiers de la classe... et les autres Et à ce petit jeu, certains constructeurs ont déjà pris un tour d'avance. Toyota et Volkswagen, bien sûr, mais aussi Renault-Nissan ou le coréen Hyundai-Kia, font partie des meilleurs élèves de la classe. " Ils ont réussi, en mêlant stratégies d'acquisitions et alliances, à percer sur la plupart des marchés du globe, note David Weill. Ils offrent en plus, avec leurs marques, une couverture complète des différents segments du marché. " En revanche, PSA, BMW, Fiat et Mercedes semblent à la traîne au vu de ces critères. S'ils veulent encore peser sur la scène mondiale demain, ils devront eux aussi se plier à l'exercice. Faute de quoi, ils pourraient être rapidement rayés du paysage sous les coups de boutoir des groupes des pays émergents. Bien visibles à Genève, les Tata, Brilliance et autres BYD sont en embuscade et ne perdent jamais une occasion d'afficher leurs velléités de conquête. Ils ne manquent pas non plus de cash pour partir à l'assaut du Vieux Continent, comme le prouve l'indien Tata, qui vient de mettre la main sur Jaguar et Land Rover. Du côté de PSA, la menace a été identifiée et le message reçu cinq sur cinq par Christian Streiff. .
@ par Thibaut De Jaegher
L'offensive du spécialiste des voitures de sport relance la course à la taille critique en Europe. Pour préserver leur rang sur la scène mondiale, les autres constructeurs devront se mettre au diapason et se chercher des alliés
Un nouveau mastodonte de l'automobile est né. Douze marques, dont neuf dans l'automobile et trois dans le poids lourd, près de 130 milliards d'euros de chiffre d'affaires cumulé, une présence sur tous les continents... le ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3091 - p.28 à p.30

La stratégie de ce groupe suisse fort discret : fabriquer pour des industriels et des distributeurs. Numéro 1 mondial du secteur du chocolat, il se dévoile. Pour mieux trouver un partenaire ?
A Meulan-Hardricourt, petite commune des Yvelines, les vents d'ouest sont souvent annonciateurs de pluie. Ils apportent aussi les effluves de cacao de l'usine du géant suisse Barry Callebaut, numéro 1 mondial du chocolat. Un leader largement méconnu du grand public. Et pour cause : Barry Callebaut fabrique pour les autres. Tous les jours, des camions-citernes remplis de chocolat liquide sortent de cette usine pour se rendre dans celles de Kraft, Nestlé, Danone et autres, qui l'utiliseront dans leurs confiseries. L'usine fabrique aussi des tablettes de 1 à 5 kg, des pistoles et des barres de quelques grammes à destination des artisans chocolatiers et des boulangers. " C'est simple : un produit sur quatre dans le monde contenant du chocolat est fabriqué avec du chocolat Barry Callebaut ! ", résume Patrick de Maeseneire, le directeur général. Une success story qui démarre en 1990. Klaus Jacobs cède le groupe qui porte son nom pour 2,6 milliards d'euros à l'américain Philip Morris, propriétaire de Kraft. Il détient de prestigieuses marques (Carte noire, Jacques Vabre, Suchard, Milka, Côte d'or...). Mais l'acquéreur ne veut pas de la chocolaterie belge Callebaut, pourtant leader européen des produits dits " de couverture ", matières premières des industriels et des artisans boulangers pâtissiers. En 1996, Klaus Jacobs rachète son concurrent, le français Cacao-Barry, implanté à Meulan, et fusionne les deux entités lui donnant son nom actuel avant d'en confier les rênes à son fils Andréas. Celui-ci met le groupe sur les rails d'une croissance effrénée en Europe et aux Etats-Unis : entre 2000 et 2006, Barry Callebaut a doublé son chiffre d'affaires. Bataille sur les approvisionnements " La force de notre modèle, c'est d'être totalement intégré ", affirme Patrick de Maeseneire. Barry Callebaut achète entre 450 000 et 480 000 tonnes de fèves de cacao, 12 % de la production mondiale, notamment sur les trois grandes origines que sont la Côte-d'Ivoire, le Ghana et le Cameroun (qui représentent 70 % de la production mondiale). Face aux américains Cargill (60 milliards d'euros en 2007) et Archer Daniels Midland (30 milliards d'euros de chiffre d'affaires), deux géants de la transformation agricole multiproduit (maïs, blé, soja et cacao), Barry Callebaut est le seul opérateur spécialisé. Il peut proposer la plus grande palette d'origines à des clients souhaitant se différencier de plus en plus par leurs recettes. Son autre force, c'est l'efficacité industrielle. " Nos usines ont des taux d'utilisation de 80 à 97 %, sept jours sur sept ", se félicite Patrick de Maeseneire. Le site de Meulan tourne 24 heures sur 24, 360 jours par an : " Avec 115 000 tonnes par an, nous sommes le deuxième site du groupe en terme de performance, détaille Vincent Calanville, le responsable de l'atelier solide. Nous savons gérer des process complexes avec 48 types de masses de cacao différentes, soit environ 700 recettes possibles. " Cette usine est un centre d'excellence pour la production de chocolat bio et de chocolat de spécialités. " Nous avons pour stratégie de spécialiser les sites de production ", avoue Patrick de Maeseneire. Chaque site a son champ d'excellence, mais doit être aussi capable de délivrer des produits standards pour les clients installés dans un rayon de 1 000 kilomètres autour de l'usine. Comme tout bon fournisseur de produits aux marques de distributeurs (un tiers de son chiffre d'affaires), le groupe sait faire la chasse aux coûts qui baissent en moyenne de 5 % par an. Ce qui n'empêche pas le leader d'être attaqué. Notamment par Cargill, numéro 2 mondial du chocolat en volume avec moins de 400 000 tonnes (un tiers des volumes du suisse). L'américain a sensiblement accru ses capacités de transformation de fèves de cacao au Ghana, où il va cons-truire une usine d'une capacité de 65 000 tonnes, qu'il peut à terme doubler. En Côte-d'Ivoire, il est rapidement devenu l'un des principaux exportateurs de fèves. Jusqu'ici, Cargill transformait essentiellement du cacao pour le marché américain. Il a maintenant de fortes ambitions en Europe. En 2004, il a racheté OCG Cacao, qui possède quatre usines : une à Rouen, une au Royaume-Uni, et deux en Belgique, dont celle de Mouscron qui a doublé sa capacité de production en choco-lat liquide. Il vient également de racheter une usine en Allemagne. " 2008 va être une année difficile ! ", reconnaît-on à Meulan-Hardricourt : on s'attend à une compétition effrénée avec l'américain mais aussi avec les opérateurs européens comme l'espagnol Natra (lire " L'Usine Nouvelle " n° 3083) et le français Cémoi (Cantalou). Avec peut-être une nouvelle concentration du marché en vue. La carte de la sous-traitance La riposte du suisse ne s'est pourtant pas fait attendre. Le groupe a lui aussi doublé ses capacités de transformation de fèves, à San Pedro, en Côte- d'Ivoire et au Ghana. Il renforce ses achats directs auprès des producteurs pour mieux maîtriser ses volumes dans un marché tendu (lire p. 30) ainsi que la qualité et la traçabilité de la matière première. La deuxième étape de la riposte, c'est encore et toujours l'efficacité industrielle. Dans un marché où l'offre est de plus en plus large, Barry Callebaut mise sur sa capacité à gérer la complexité et à fournir en sous-traitance. Intervenant majeur de la tablette en marques de distributeurs, il veut fabriquer les produits des industriels, comme en témoignent quatre contrats signés l'an dernier avec les grands noms de la confiserie : le suisse Nestlé, l'américain Hershey, le japonais Morinaga (avec lequel il a noué une joint-venture en 2007) et le britannique Cadbury. A chaque fois, la reprise de l'outil industriel par Barry Callebaut a été assortie des contrats de fournitures. C'est le cas de l'usine Nestlé de Dijon, qui produisait les barres chocolatées Lion. " Ces deux sites ne tournaient pas à plus de 40 % d'utilisation : les usines Nestlé ne produisent que pour Nestlé alors que nous pouvons travailler pour différents clients ", explique Patrick de Maeseneire. Dijon, désormais spécialisé dans les productions de pâtes à glacer et les couvertures à base de graisse végétale, devrait voir sa production tripler. La sous-traitance est un modèle encore relativement peu développé en agroalimentaire. Pour Patrick de Maeseneire, il devrait s'amplifier dans les années à venir. Miser sur les pays émergents Dernier axe stratégique pour le groupe : être le premier dans les pays émergents qui s'ouvrent au chocolat. Notamment les Chinois : ils n'en consomment que 110 grammes contre 11 kg en moyenne pour un Européen. Le chocolatier possède déjà une usine à Singapour. Il vient d'ouvrir une unité d'une capacité de 25 000 tonnes en Chine afin de multiplier par six ses ventes avant 2012. Près de Moscou, une unité de taille semblable a également été ouverte en 2007. Barry Callebaut réalise 88 % de ses ventes en Amérique du Nord et en Europe, mais Patrick de Maeseneire se fixe pour objectif de faire passer les autres régions de 12 à 20 % de son activité d'ici à 2010. De quoi remplir l'objectif stratégique qui fait figure de devise dans le groupe : croître deux fois plus vite que le marché. .
@ Par Patrick Déniel
La stratégie de ce groupe suisse fort discret : fabriquer pour des industriels et des distributeurs. Numéro 1 mondial du secteur du chocolat, il se dévoile. Pour mieux trouver un partenaire ?
A Meulan-Hardricourt, petite commune des Yvelines, les vents d'ouest sont souvent annonciateurs de pluie. Ils apportent aussi les effluves de cacao de l'usine du géant suisse Barry Callebaut, numéro 1 mondial du chocolat. Un leader largement méconnu du ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3090 - p.73 à p.83

Avis de tempête sur les grosses cylin drées Contestée de toute part, l'automobile va devoir s'acheter une conduite plus écologique. Pas seulement en brandissant des concept cars mus par l'électricité ou l'hydrogène ! Lors du prochain salon de Genève, les constructeurs dévoileront aussi leur capacité à désintoxiquer les bons vieux moteurs à combustion.
La course aux moteurs sobres | Propriétaires de Porsche, de Ferrari ou de grosses berlines allemandes, passez votre chemin ! C'est en substance le message que veut adresser Ken Livingstone, le maire de Londres, aux amateurs […]
Avis de tempête sur les grosses cylin drées Contestée de toute part, l'automobile va devoir s'acheter une conduite plus écologique. Pas seulement en brandissant des concept cars mus par l'électricité ou l'hydrogène ! Lors du prochain salon de Genève, les constructeurs dévoileront aussi leur capacité à désintoxiquer les bons vieux moteurs à combustion.
La course aux moteurs sobres | Propriétaires de Porsche, de Ferrari ou de grosses berlines ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3090 - p.60 à p.62

Plusieurs techniques de laboratoire permettent de créer des métaux et alliages nanostructurés dans la masse, avec une forte augmentation de leur résistance mécanique. Mais pour les industrialiser, il faut adapter les procédés à la production en continu
On les maltraite un peu, mais c'est pour leur bien ! Soumis à de fortes déformations, métaux et alliages peuvent acquérir des propriétés mécaniques hors du commun. Un phénomène bien connu des métallurgistes, lié à la diminution de la tailles des cristaux (ou grains). Grâce à une panoplie de techniques de " déformation plastique sévère " (Severe Plastic Deformation, SPD), de nombreux laboratoires travaillent aujourd'hui à la mise au point de métaux dont les grains sont de taille submicronique, voire nanométrique (inférieure à 100 nanomètres). Des métaux nanostructurés, dont la résistance à la traction peut augmenter de 50 à 100 %, par rapport aux caractéristiques obtenues par des traitements thermomécaniques traditionnels. Ces résultats ont notamment été obtenus avec le titane et avec des alliages cuivreux par l'Ipam (Institute for Physics of Advanced Materials), un laboratoire basé à Ufa (Russie) et dirigé par Ruslan Valiev, considéré comme le " pape " du SPD. Des propriétés identiques ont été mises en évidence dans des alliages d'aluminium ou de magnésium, mais également dans des aciers. L'intérêt est de réaliser des pièces plus résistantes, ou d'utiliser moins de matière afin de gagner du poids, pour des applications dans l'automobile, l'aéronautique, le médical... Des perspectives qui mobilisent des laboratoires en Russie, aux Etats-Unis, en Allemagne, en Autriche, au Japon ou encore en Corée du Sud. En France, des chercheurs travaillent sur le sujet, notamment à l'université de Rouen, au Cnam de Paris et à l'université Paris-Sud d'Orsay. L'état des recherches sera exposé lors de la quatrième conférence internationale sur les nanomatériaux obtenus par SPD (nanoSPD4), qui se tiendra à Goslar, en Allemagne du 18 au 22 août prochain. Les études se focalisent sur la maîtrise des phénomènes physiques mis en jeu par les méthodes de déformation SPD, et sur l'adaptation des procédés à une production en continu. Elles sont stimulées par la concurrence, car la déformation sévère n'est pas seule en lice pour réaliser des " nanométaux ". La métallurgie des poudres, en particulier, dispose maintenant d'une palette de poudres nanométriques, accompagnée des techniques pour les compacter et fabriquer des pièces. Il est vrai que les métallurgistes des poudres ont eux aussi des problèmes à résoudre : la porosité du matériau final, et la croissance des tailles de grains sous l'effet de la température (frittage des poudres), qui risque de limiter l'effet " nano ". de nombreux procédés de déformation De leur côté, les adeptes de la déformation sévère font preuve d'une imagination débordante, en inventant de multiples méthodes aux acronymes énigmatiques : Ecap, HPT, MDF, ARB, RCS, TE... Le principe reste toujours le même : il s'agit d'imposer une très forte déformation plastique à un échantillon de matériau, sans modifier sensiblement sa géométrie. Mais les moyens techniques diffèrent. Avec l'Ecap (Equal Channel Angular Pressing), une barre de métal est pressée dans un canal présentant un angle abrupt : c'est au niveau du coude que le métal est " sévèrement " déformé - cisaillé, en fait. En répétant l'opération, il est possible d'accumuler dans le métal une très grande déformation, jusqu'à obtenir la finesse de grains souhaitée. C'est la méthode la plus répandue dans les laboratoires, et donc la mieux maîtrisée. Mais il y a d'autres manières d'obtenir des résultats analogues. Certaines sont basées sur le principe du laminage, telles l'ARB (Accumulative Roll Bonding) et le RCS (Repetitive Corrugation and Straightening). D'autres sont plus spécifiques : le MDF (Multidirectional Forging), comme son nom l'indique, consiste à appliquer successivement des charges à l'échantillon selon plusieurs axes, le HPT (High Pressure Torsion) applique une torsion à un disque de métal, tandis que le procédé TE (Twist Extrusion) combine extrusion et torsion... augmenter la résistance et la ductilité Chaque méthode a ses atouts et ses inconvénients. Mais tous ces procédés ont un souci commun : le gain obtenu en résistance mécanique ne doit pas se " payer " par un manque de ductilité du matériau (son aptitude à se déformer), avec des risques de rupture, évidemment préjudiciables aux applications. Et un inconvénient majeur : ils sont discontinus, ce qui est peu propice à une utilisation industrielle. " Accroître simultanément la limite élastique et la ductilité est un défi majeur pour les métaux nanostructurés, qui suscite de nombreuses recherches et publications ", indique Xavier Sauvage, chargé de recherche au groupe de physique des matériaux de l'université de Rouen, et qui travaille sur la stabilité des nanostructures obtenues par SPD, avec des équipes russe, allemande et autrichienne. Pour réunir les deux propriétés, les chercheurs peuvent jouer sur la composition des alliages utilisés et sur des traitements thermiques postérieurs au procédé de déformation SPD. Yunthian Zhu, professeur au département d'ingénierie et de science des matériaux à l'université de Caroline du Nord, a ainsi proposé une stratégie permettant de concilier au mieux résistance et ductilité dans des alliages d'aluminium. L'équipe américaine a montré qu'en chauffant à basse température l'alliage traité par laminage cryogénique (encore une autre technique de SPD !), dont les grains sont en moyenne de 100 nanomètres, on peut augmenter simultanément la limite d'élasticité et l'allongement de l'échantillon. " De toute façon, les métaux nanostructurés obtenus par SPD ont en général une plus grande ductilité que ceux réalisés par consolidation de nanopoudres ", se plaît à souligner Yunthian Zhu. L'autre point clé du développement des métaux nanostructurés est l'aptitude des procédés à fonctionner en continu, dans une perspective d'industrialisation et de réduction des coûts de production. Un critère qui, à lui seul, suffit à opérer une sélection naturelle entre les multiples méthodes SPD, toutes n'étant pas aptes à produire en continu. Les efforts ont notamment porté sur l'Ecap. C'est l'équipe russe de l'Ipam qui a mis au point le procédé Ecap-Conform (voir schémas page précédente), dans lequel la filière d'extrusion coudée est alimentée en continu grâce à un dispositif d'entraînement de la barre métallique. passer à l'échelle industrielle D'autres procédés, tels l'ARB et le RCS, sont a priori bien placés, car ils sont dérivés du laminage. L'avenir de ces techniques dépendra de leur capacité à passer à l'échelle de la métallurgie industrielle. Mais des chercheurs explorent déjà les possibilités d'une évolution inverse : l'utilisation de techniques SPD à une échelle miniature, pour fabriquer des éléments de MEMS (Micro Electro-Mechanical System). .
par Thierry lucas
Plusieurs techniques de laboratoire permettent de créer des métaux et alliages nanostructurés dans la masse, avec une forte augmentation de leur résistance mécanique. Mais pour les industrialiser, il faut adapter les procédés à la production en continu
On les maltraite un peu, mais c'est pour leur bien ! Soumis à de fortes déformations, métaux et alliages peuvent acquérir des propriétés mécaniques hors du commun. Un phénomène bien connu des ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3090 - p.34 à p.35

L'opérateur public investit à tour de bras pour affronter l'ouverture du marché et la concurrence d'internet. Et être à la hauteur des meilleurs groupes postaux européens.
L'usine de Wissous (Essonne), récemment mise en service, incarne les défis que devra relever La Poste face à l'ouverture totale du courrier à la concurrence, d'ici à la fin 2010. L'installation, située près d'Orly, atteindra sa pleine capacité en juin 2008, pour traiter plus de cinq millions d'objets par jour. Solystic, la filiale de l'américain Northrop Grumman, a fourni les douze machines de tri, dont neuf pour les plis de petit format et trois pour les grands formats. aucun site ne devrait être fermé Ces trieuses " dernier cri " traitent chacune près de 40 000 plis à l'heure, soit deux fois plus que les machines classiques. Grâce à la reconnaissance optique, elles lisent l'adresse du destinataire et trient les plis par quartier, voire, pour les petits formats, selon l'ordre de la tournée du facteur. L'image scannée des adresses non reconnues est dirigée vers l'un des sept centres de tri numérique du territoire. La Poste mise sur la mécanisation pour distribuer en 2011 90 % des lettres prioritaires au lendemain de leur dépôt, contre à peine 66 % en 2003. Quant aux facteurs, ils trient moins et s'orientent vers de nouveaux services, comme le relevage de l'index de consommation de gaz des particuliers. Le site de Wissous, qui dessert le sud parisien, est l'une des cinq plates-formes industrielles courrier (PIC) dédiées au tri en service. La Poste maillera le territoire avec trente-cinq PIC d'ici à 2010, au sein d'installations nouvelles, comme à Wissous, ou rénovées. En l'espace de deux ans, c'est un tour de force ! Tandis que les unités de tri s'agrandissent, les petits centres de tri urbains, devenus obsolètes, parfois installés sur plusieurs étages, vont changer de vocation et se limiter à la collecte, à la préparation et à la distribution du courrier. " Mais il n'y aura pas de fermeture de sites ", promet-on à La Poste. une filiale commune avec la SNCF va être créée Le réseau des PIC constitue la colonne vertébrale de Cap Qualité Courrier, ce programme qui mobilise 3,4 milliards d'euros de 2004 à 2010 (dont 1,3 milliard en 2008). L'opérateur investit beaucoup pour rattraper son retard, alors que ses homologues européens ont déjà bien engagé leur modernisation. Ainsi, la Deutsche Post, en Allemagne, ou la TNT Post, aux Pays-Bas, s'y sont mises il y a cinq ou sept ans. Or le français entend bien rester dans le trio de tête du marché européen. Une ambition confirmée par son nouveau plan stratégique 2008-2012, lequel doit faire passer la marge opérationnelle du groupe de 5,8 % à 6,1 % en 2008, puis à 8,5 % en 2012. Tout en se fixant des objectifs de meilleure qualité de service, La Poste veut ainsi égaler les niveaux de rentabilité de son homologue allemand. Celui-ci a réalisé une marge de 6,4 %, dès 2006. La mise en oeuvre de Cap Qualité Courrier, cheville ouvrière de ce plan, incombe à Muriel Barneoud, à la tête des grands programmes et de la direction industrielle. " J'ai toujours aimé les usines ", assure-t-elle. Et parce qu'elle a passé quatorze ans dans la finance, elle reste très attentive à la rentabilité et au retour sur investissement des projets. Ses équipes se trouvent aussi en première ligne, lorsqu'il faut trouver des solutions de rechange, en cas de panne de l'un des trois TGV postaux, par exemple. A ce titre, La Poste va renforcer son offre de fret ferroviaire à grande vitesse par la création de Fret GV, une filiale commune avec la SNCF. Elle sera opérationnelle en 2009. Et, si le courrier continuera à prendre la voie des airs, l'opérateur s'apprête toutefois à céder sa filiale Europe Airpost à l'irlandais Air Contractors. Outre le pilotage de l'outil industriel et logistique, Muriel Barneoud s'est attelée à la " révolution " de l'offre, en vue d'apporter une nécessaire valeur ajoutée aux services de distribution. Cela passe par le développement du marketing direct, qui représente près de 20 % du chiffre d'affaires de l'activité courrier, avec un fort potentiel de croissance. Prisé par les grands groupes, le marketing direct n'est, en effet, utilisé que par 1 % des PME. " Nos clients demandent de plus en plus de précision ", poursuit Muriel Barneoud. Il ne suffit plus d'acheminer un pli dans un laps de temps donné, mais de le délivrer à une date précise chez le destinataire. vers une plus grande traçabilité du courrier A Wissous, une ère de stockage de 6 000 mètres carrés permettra de gérer la distribution en juste-à-temps. De plus, La Poste compte se doter d'un système d'interprétation de l'enveloppe (SIE), afin de lire l'adresse du destinataire, mais aussi celle de l'expéditeur, ou la date d'affranchissement. Pour offrir une plus grande traçabilité. En parallèle, l'opérateur historique multiplie ses offres de gestion dématérialisée des documents. Car la concurrence vient aussi d'internet. Les envois croissants de factures par e-mail ont fait subir au groupe une perte de 200 millions d'euros en cinq ans. .
Chrystelle Carroy
L'opérateur public investit à tour de bras pour affronter l'ouverture du marché et la concurrence d'internet. Et être à la hauteur des meilleurs groupes postaux européens.
L'usine de Wissous (Essonne), récemment mise en service, incarne les défis que devra relever La Poste face à l'ouverture totale du courrier à la concurrence, d'ici à la fin 2010. L'installation, située près d'Orly, atteindra sa pleine capacité en juin 2008, pour traiter plus ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3090

Les distributeurs cherchent à rendre les courses moins ennuyeuses. A grand renfort de technologies. Un marché en or pour les intégrateurs de solutions.
Pressions accrues sur les prix et les marges, consommateurs zappeurs et exigeants, concurrence d'internet... Les centaines de millions d'euros injectés depuis deux ans dans les baisses de prix par les distributeurs ne parviennent pas à stopper la valse des étiquettes : les produits alimentaires ont augmenté de 2,39 % depuis janvier. Les commerçants doivent mener l'offensive sur deux fronts : gagner en efficacité opérationnelle pour améliorer leur productivité, et inventer de nouvelles manières de " draguer " le chaland plus sûrement que par le seul attrait du discount. A grand renfort de technologies. Un marché en or pour les grands pourvoyeurs de solutions logicielles, comme IBM ou Microsoft, les fabricants de matériels et de systèmes d'encaissement ou les fabricants de puces RFID, capables de rendre les magasins intelligents. Pour l'équipementier de télécoms Motorola, le développement d'outils de communication intelligents pour le commerce est même devenu une planche de salut. L'achat, en 2007, du fabricant de lecteurs de code à barres Symbol, très fortement implanté dans la grande distribution, permet aujourd'hui au groupe américain de s'imposer comme un acteur majeur du secteur (lire " L'UN " n° 3085). Mais pour les enseignes, l'obsession du moment porte d'abord sur les zones de caisses, dont l'engorgement aux heures de pointe symbolise le pire moment des courses. Les dernières générations de magasins, comme la chaîne de supermarchés Fresh and Easy que le britannique Tesco déploie aux Etats-Unis, sont toutes équipées de zones de caisses sans caissière (self-check out). Radical dans l'approche, ces systèmes de caisses commencent à fleurir un peu partout en France. Caisses sans caissière et paiements sans contact Selon l'association Perifem, qui conseille les distributeurs dans les aspects techniques de leur métier, entre 15 et 20 % des 10 685 magasins implantés sur le territoire auraient déjà installé des îlots de caisses automatiques pour les courses de moins de 10 articles. Des marchés sur lesquels on retrouve, à côté d'IBM et de Microsoft, les grands fabricants de systèmes d'encaissements. L'allemand Wincor Nixdorf, premier fabricant mondial de distributeurs de billets de banques, et l'américain NCR, l'inventeur des caisses enregistreuses, ont fait du commerce leur priorité après le secteur bancaire. C'est NCR, par exemple, qui a harmonisé les systèmes d'encaissements des 850 magasins de Système U en France, en déployant l'an passé près de 10 000 licences logicielles TP.net, fondées sur une architecture Microsoft. Un travail qui permet aujourd'hui à Système U d'être l'un des distributeurs les plus actifs sur le déploiement de caisses sans caissière. Il est le premier à avoir implanté un système unique en Europe de gestion informatisée des espèces (le paiement en billets et pièces est complètement automatisé), développé par Wincor Nixdorf. Ces nouveaux dispositifs ne devraient toutefois pas dépasser 10 à 15 % de l'ensemble des lignes de caisses. Les nouvelles solutions de paiement sans contact utilisant les technologies sans fil NFC (Near Field Communication), et utilisables à partir d'un téléphone portable ou d'une carte de fidélité, pourraient encore changer la donne. Ces technologies permettront d'aller plus loin dans l'optimisation du paiement. C'est en effet le caissier qui ira au client, et non l'inverse. Expérimentée à grande échelle à Caen et à Strasbourg, dans le cadre de l'opération " Payez mobile ", les systèmes de paiement à partir de téléphones portables pourraient se généraliser dès 2009. Dans ces deux villes, 1 000 clients ont été équipés d'un téléphone NFC muni d'une carte SIM contenant une application permettant l'opération de paiement sans contact. Au-delà de 20 euros, le client doit toutefois saisir un code personnel pour valider la transaction. Pendant la durée du test, 200 commerçants ont été équipés d'un terminal de paiement compatible NFC. La somme est directement prélevée sur la facture de l'opérateur. Ces derniers sont d'ailleurs en pointe dans le développement de ces nouvelles applications qui leur permettent de capter et de fidéliser leur clientèle. Bouygues Telecom et la société de transport Semitag ont lancé des expérimentations à Grenoble. Orange, la filiale de France Télécom a réalisé des tests locaux avec la SNCF à Rennes, et l'opérateur britannique O2 s'est rapproché de Visa pour un déploiement à Londres. Considérée comme une extension logique de la RFID - des puces à radiofréquence lisibles à distance - la technologie NFC pourrait constituer une étape intermédiaire avant le déploiement généralisé des puces RFID sur les produits. la rfid fait son entrée dans les magasins Stade ultime, ce déploiement permettra d'obtenir directement le montant total de ses courses en passant son chariot sous un portique équipé d'un lecteur. Précurseur dans ce domaine, Metro vient de décider de sauter le pas. En partenariat avec IBM, le distributeur allemand va implanter dans ses supermarchés Real près de 30 000 références munies de puces RFID. Près d'un quart des points de vente sont déjà équipés de lignes de caisses automatiques. Les produits seront donc scannés automatiquement, sans quitter le chariot. Mais que les clients se rassurent, les puces seront désactivées dès la sortie des magasins, pour éviter tout traçage jusqu'au domicile de l'acheteur. Pour l'instant. .
Yves Dougin
Les distributeurs cherchent à rendre les courses moins ennuyeuses. A grand renfort de technologies. Un marché en or pour les intégrateurs de solutions.
Pressions accrues sur les prix et les marges, consommateurs zappeurs et exigeants, concurrence d'internet... Les centaines de millions d'euros injectés depuis deux ans dans les baisses de prix par les distributeurs ne parviennent pas à stopper la valse des étiquettes : les produits alimentaires ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3089 - p.67 à p.76

Débats sur leur impact en matière d'environnement ou de santé et les enjeux de l'agriculture du futur, les politiques vont devoir enfin choisir une ligne claire sur les OGM.

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3089 - p.58 à p.60

Les géants d'internet et les industriels du GSM ont multiplié les annonces de produits et de services qui prennent en compte la position de l'abonné
La révolution d'internet mobile est en marche ! La dernière édition du World Mobile Congress, où se sont rués plus de 55 000 visiteurs et 1 300 exposants, du 10 au 14 février, à Barcelone, a balayé les doutes de voir les terminaux mobiles s'imposer comme de véritables accès à internet. Ainsi, aux côtés des stands d'acteurs traditionnels du GSM comme Nokia, Ericsson ou Samsung, les géants du web tels Yahoo, Microsoft et même Cisco avaient toute leur place. Et le salon a montré que la fusion des deux univers prenait tout son sens et s'accélérait avec la démocratisation du GPS. La localisation de l'abonné, couplée à des bases de données en ligne, inaugure des services nouveaux et radicalement différents de ceux accessibles depuis un PC. " Internet mobile a l'avantage d'apporter une information qui tient compte du contexte de l'utilisateur et de son entourage immédiat ", explique Marco Boerries, le vice-président de Yahoo Europe. Son dernier service montre comment le GPS révolutionne la simple application du répertoire téléphonique. Un utilisateur peut connaître à n'importe quel moment la position des contacts enregistrés dans son répertoire (s'ils ont accepté de publier leurs coordonnées GPS), et même recevoir une alerte en fonction de leur proximité ! Pour permettre l'émergence de tels services, les industriels présents sur le salon s'engagent à équiper massivement les téléphones de cette fonction. Selon eux, le GPS pourrait se diffuser aussi rapidement dans les combinés que la fonction appareil photo, en quasi-standard sur les derniers modèles. Nokia, le numéro 1 mondial des fabricants de terminaux, a présenté quatre nouveaux appareils, embarquant tous une puce GPS. " Nous avons pour ambition de vendre 35 millions de téléphones avec la fonction GPS en 2008 ", a indiqué Olli Pekka Kalasuvuo, le président de Nokia. Et le géant finlandais a présenté pour la première fois une application logicielle, Maps 2.0, (contrant celle de Google) spécifiquement conçue pour les piétons. connaître sa position en moins d'une seconde Les fabricants de semi-conducteurs, capables de produire des puces GPS pour une poignée de dollars, ne cessent de perfectionner leur technologie et corrigent les imperfections du GPS actuel. Notamment en réduisant la durée nécessaire pour établir la position à la première utilisation. Pour cela, le système E-GPS (GPS amélioré) exploite, outre les données des satellites, les informations fournies par le calcul de triangulation réalisé à partir de trois relais GSM. " On peut alors connaître sa position en moins d'une seconde ", explique Gérard Cronin, vice-président marketing de NXP, l'ex-branche semi-conducteurs de Philips. Les fabricants de processeurs d'applications enrichissent également la fonction GPS en apportant plus de réalisme aux cartes de navigation. Texas Instruments, avec Advanced Geospatial Solutions (AGS), un spécialiste britannique de la cartographie 3D, a présenté une carte électronique qui traite des images 3D sur le téléphone. Le réalisme et la fluidité sont impressionnants. " L'utilisateur peut ainsi se repérer plus rapidement en reconnaissant les bâtiments qui l'entourent ", explique Lez Andrew, développeur pour AGS. Le GPS n'est pas la seule fonction qui permettra de faire décoller l'internet mobile. D'autres briques technologiques arrivent à maturité. Les réseaux de transmission sans-fil tout d'abord. Le salon a été l'occasion de confronter les deux technologies en lice qui espèrent s'imposer pour la 4G mobile. Au niveau des performances, l'avantage va à la technologie de réseau cellulaire LTE (Long Term Evolution). Le suédois Ericsson a déployé sur le salon une station radio prototype capable d'établir des liaisons à un débit de 160 Mbps. Une performance à comparer aux 14,4 Mbps de la génération actuelle (le HSDPA). Au cours de la manifestation, bon nombre d'opérateurs mobiles (China Mobile, Vodafone...) ont affiché leurs préférences pour le LTE... Côté équipementiers, Alcatel-Lucent et NEC ont profité du salon pour annoncer la création d'une société commune dans ce domaine, réunissant dans un premier temps un millier de collaborateurs.La technologie concurrente Wimax a cependant l'avantage sur le plan du calendrier. Certains constructeurs ont présenté une panoplie complète d'équipements : réseaux, terminaux, cartes modems... Sur le stand du japonais NEC, le visiteur pouvait visualiser un film en téléchargement grâce à une connexion Wimax à 30 Mbps ! Reste que les deux technologies ont de grandes similitudes : même modulation OFDM (Orthogonal Frequency Division Multiplexing) et même technologie d'antennes multiples avec le Mimo (Multiple-Input Multiple-Output). deux défis à relever : l'interface et l'autonomie L'optimisation des technologies silicium permet de doper les capacités multimédia des téléphones. Samsung a réussi un nouveau tour de force dans la miniaturisation de ses mémoires. Pas plus grands qu'un timbre-poste, ses composants de stockage affichent 16 Go permettant d'enregistrer l'équivalent de vingt heures de vidéo ! Toutefois pour imposer leurs portables comme terminaux d'accès à internet, les fabricants ont deux défis majeurs à relever. D'abord, celui de l'interface, aujourd'hui forcément bridée par des écrans et claviers inadaptés à la navigation sur le Web. A Barcelone, les industriels ébauchaient des réponses séduisantes. D'une part la technologie de transaction sans contacts ou NFC, notamment en démonstration sur les stands d'Inside Contactless, de Gemalto, de NXP... Ainsi, le simple fait d'approcher le téléphone d'un objet contenant un émetteur radio NFC permet de télécharger automatiquement, via le web, le contenu associé à cet objet. D'autre part l'arrivée des écrans tactiles (dans la foulée de l'iPhone) et programmables. Comme le modèle KF600 de LG, où la partie inférieure du téléphone affiche un clavier dynamique en fonction de l'application ouverte par l'utilisateur : des touches de lecture (avance, retour...), pour la musique, par exemple. Le second défi est celui de l'autonomie des appareils mobiles. D'autant que les téléphones embarquent de plus de plus de fonctions (GPS, appareil photo, lecteur de musique...) drainant l'énergie des batteries. Les derniers progrès des technologies silicium résoudraient le problème. " Notre dernière génération de processeurs d'applications améliore sensiblement l'autonomie des portables tout en leur apportant encore plus de puissance de traitement ", indique Jay Srage, le directeur du marketing systèmes cellulaires de Texas Instruments. En passant à la technologie CMOS 45 nm (65 nm auparavant), le fabricant de puces revendique une optimisation de 63 % de l'efficacité énergétique de ses composants. Désormais les industriels ne s'interrogent plus sur la pertinence et la capacité du téléphone portable comme terminal d'accès à internet. Leur seule préoccupation réside dans les moyens et la durée pour convertir le plus rapidement possible les 3 milliards d'abonnés qui sont équipés d'un téléphone... pour simplement passer un coup de fil. .
Les géants d'internet et les industriels du GSM ont multiplié les annonces de produits et de services qui prennent en compte la position de l'abonné
La révolution d'internet mobile est en marche ! La dernière édition du World Mobile Congress, où se sont rués plus de 55 000 visiteurs et 1 300 exposants, du 10 au 14 février, à Barcelone, a balayé les doutes de voir les terminaux mobiles s'imposer comme de véritables accès à internet. Ainsi, aux ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

Le marché des PC | L'Usine Nouvelle 24/01/08

Article

... Lire [+]

V

- n° 3085 - p.72

- 270 millions de PC vendus en 2007 (parts de marché des fabricants)
- De plus en plus de portables
- Windows domine toujours
- L'Asie truste la productin des portables
- Client léger : la concentration se profile (parts de marché des fabricants dans le monde 2ème trimestre 2007)

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3085 - p.26 à p.27

Bolloré en Bretagne, Saft et peut-être Dassault en Aquitaine investissent près de 200 millions d'euros dans des usines de batteries. Tous trois parient sur le décollage de la voiture électrique et des moteurs hybrides.
Renault vient d'annoncer qu'il parie sur la voiture électrique en Israël en signant un partenariat avec Shai Agassi et sa start-up Better Place. Vincent Bolloré y croit tout autant. " Ce marché des véhicules électriques va décoller en 2010-2011 et nous devons être prêts ! " expliquait-il, l'automne dernier, devant un parterre de dirigeants bretons. Cette prophétie s'est traduite, dans les faits, par un investissement de 150 millions d'euros dans une usine de batteries pour sa filiale Batscap. L'homme d'affaires breton, qui a opté pour une technologie lithium-métal-polymère, devait inaugurer, le 24 janvier, le site de production d'Ergué-Gabéric, près de Quimper (Finistère). Capable de produire 1 million de batteries par an, il fournira des accumulateurs dits de super capacité, sorte de turbo donnant aux véhicules électriques un surcroît de puissance lors des accélérations. Une semaine plus tard, ce sera au tour de Johnson Controls-Saft d'inaugurer à Nersac, près d'Angoulême (Charente), une ligne de production dédiée aux batteries lithium-ion. " Quinze millions d'euros ont été investis pour fournir notre système énergétique hybride à Mercedes. Il intégrera la nouvelle Classe S 400 dès 2009 ", précise Franck Cecchi, le directeur opérationnel du joint-venture Johnson Controls-Saft, créé en janvier 2006 par les deux équipementiers. La nouvelle ligne pourrait fabriquer quatre fois la production envisagée pour Mercedes. Enfin, la SVE (Société du véhicule électrique), une filiale de Dassault, laisse entendre qu'elle serait prête à implanter, en Gironde, une unité d'assemblage de systèmes de batterie lithium-ion développés par Saft. L'investissement serait de 30 millions d'euros pour équiper en série les voitures électriques Cleanova II (testées par La Poste) et Cleanova III. La première est un véhicule Renault de type Kangoo, la seconde une Scenic. La SVE les a transformées (avec l'aide d'Heuliez) pour qu'elles puissent fonctionner à l'énergie électrique. " Notre technologie est très différente de celle de Bolloré ", explique-t-on chez Saft, dont les batteries sont pour la plupart rechargeables grâce à un système d'alimentation installé sur le véhicule. Cette astuce permet à l'utilisateur de bénéficier d'une autonomie plus grande sur des trajets de courte distance. Alors que les batteries de Bolloré, dotées d'une autonomie de deux à trois heures, ne s'auto-rechargent pas. Des débouchés incertains Le Breton balaie ces attaques d'un revers de la main et annonce que " dans les dix-huit prochains mois, notre parc sera constitué de 1 500 véhicules ". Un accord a d'ailleurs été passé en décembre avec le designer italien Pininfarina pour fabriquer, près de Milan, le modèle Bolloré BlueCar. Dans ce projet 150 millions d'euros seront investis avec un objectif de 10 000 à 12 000 unités par an dès 2012 ! Bolloré entend, parallèlement, mettre en place un réseau d'une soixantaine de concessionnaires en France qui commercialiseront sa voiture. D'après des informations internes au groupe, elle serait vendue de 15 000 à 20 000 euros. Mais l'ambition serait surtout de la louer pour une somme mensuelle de 500 euros. La hausse des prix du pétrole conjuguée à la prime accordée par les pouvoirs publics aux voitures propres (5 000 euros) poussent les industriels français à s'engager dans le tout-électrique. Même si les débouchés demeurent faibles. Le principal marché connu est aujourd'hui celui de La Poste. Le postier français souhaite acquérir 500 nouveaux véhicules électriques d'ici à la fin de l'année. Il est prêt à débourser 12 millions d'euros et espère baisser sa facture énergétique annuelle. Un " plein " électrique coûtant six fois moins cher qu'un réservoir rempli de diesel... " Le marché du véhicule électrique et hybride est très prometteur ", pense Franck Cecchi, le directeur opérationnel de Johnson Controls-Saft. Et il ne va pas dire le contraire ! Ses deux maisons mères viennent de décrocher un nouveau marché en Chine. Elles vont exporter leurs batteries au nickel-cadmium pour les installer sur la future berline A5 ISG du groupe automobile chinois Chery. " L'investissement nécessaire va être réalisé dans notre usine de Nersac ", précise Franck Cecchi. Tous les constructeurs s'y mettent Petit à petit, la folie électrique gagne tous les constructeurs. Au salon de Détroit qui fermera ses portes le 27 janvier, américains et asiatiques ont rivalisé d'annonces (lire page 26). Cette semaine Renault a donc signé un partenariat avec Better Place pour développer des véhicules électriques en Israël (lire aussi " L'Usine Nouvelle " n°3081). " L'expansion de l'hybride et de l'électrique ne s'arrêtera plus ", pense Franck Cecchi. Mais les ambitions butent encore sur un obstacle de taille : le prix. Ce type de modèle coûte - au moins - deux fois plus cher qu'une automobile à motorisation classique. A lui seul, le système énergétique représente près d'un tiers du budget total du véhicule. " L'obstacle financier va être progressivement levé ", estime Franck Cecchi. Les annonces de partenariats comme celui de Mitsubishi avec le fabricant japonais de batteries GS Yuasa ou celui de Toyota avec Panasonic confortent cette idée. Mais il faudra surtout que le marché décolle vraiment pour espérer des économies d'échelle. .
@ par Stanislas du Guerny, a rennes
Bolloré en Bretagne, Saft et peut-être Dassault en Aquitaine investissent près de 200 millions d'euros dans des usines de batteries. Tous trois parient sur le décollage de la voiture électrique et des moteurs hybrides.
Renault vient d'annoncer qu'il parie sur la voiture électrique en Israël en signant un partenariat avec Shai Agassi et sa start-up Better Place. Vincent Bolloré y croit tout autant. " Ce marché des véhicules électriques va ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3085 - p.70 à p.71

Le look d'un ordinateur est aujourd'hui aussi, voire plus, important que ses prouesses technologiques. Les fabricants de PC viennent à peine de le comprendre.
Apple a montré la voie d'une informatique design il y a dix ans avec ses iMac. Et jusque-là, à part Sony et ses modèles Vaio faits d'un alliage de magnésium et de carbone, aux formes épurées, peu de fabricants de PC se sont détournés des chemins gris et balisés de la bureautique. Mais au-jourd'hui, la tendance s'inverse. Objet du quotidien, le PC doit séduire, les femmes notamment. " Le design est désormais le premier critère de choix pour l'achat d'un ordinateur portable ", explique Alain Kergoat, le directeur marketing de Toshiba Informatique France. HP, le premier fabricant mondial, a mené en 2005 une étude mondiale sur les attentes des consommateurs en matière de design dans l'optique de renouveler sa gamme. Les résultats ont confirmé l'humeur du temps : les clients attendent plus de finesse, de sophistication et des couleurs par petites touches. HP l'a traduit dans une technologie brevetée, baptisée Imprint, inspirée du monde de la cosmétique. Elle permet de travailler les couleurs, l'insertion de motifs et d'appliquer des vernis spécifiques. Le fabricant s'est aussi doté d'une équipe interne de designers. Et, en mars 2007, il a sorti sa première édition spéciale, avec un design fleuri sur ton blanc, destiné à un public plutôt féminin. En décembre, les plus jeunes ont eu droit à leur modèle, la version " chocolate ". Et en mars prochain, c'est une édition tirant sur les rouges, plus masculine, qui sera commercialisée. 500 designers pour relooker toute la gamme Dell, le numéro 2 mondial derrière HP, a lui aussi tenté la différenciation. Il offre depuis juin 2007 le choix entre huit couleurs de coques pour ses portables. " Nous avons été surpris par le succès du rose, en France notamment ", précise Vincent Baijot, responsable marketing chez Dell Europe. Mais le constructeur ne va pas s'arrêter là. Il y a dix-huit mois, il a engagé 500 designers pour relooker tous ses ordinateurs. De nouveaux portables sont attendus début 2008. " La connectivité et le design sont aujourd'hui les deux facteurs différenciants ", estime Gianfranco Lanci, le président du fabricant taïwanais Acer. Pour passer du constat à l'action, il a fait appel au bureau de design d'un autre industriel, en l'occurrence BMW, qui a revu le look de ses portables. Le fruit de son travail, une gamme " Gemstone " inspirée de la pierre. Vers la personnalisation Quatrième mondial, le chinois Lenovo se lance sur le marché grand public et arrive déjà avec un design épuré bien qu'assez sage. Toshiba, le cinquième mondial, ne s'est réveillé qu'il y a six mois. Il faudra donc attendre le deuxième trimestre 2008, pour découvrir ses nouveaux modèles. Contraint d'aller sur le marché grand public pour assurer à ses fournisseurs chinois des volumes suffisants, l'allemand MaxData a, quant à lui, relooké dès mi-2007 toute sa gamme Belinea en blanc. Aussi design soient-ils, ces nouveaux PC sont toujours des objets de série. On est encore loin de la personnalisation vantée cet automne par HP dans sa campagne publicitaire " PC personal again ". Pour un PC bien à soi, il reste la solution des autocollants, avec des sites comme nvouspc.com ou coovz.com, qui proposent de réaliser sur mesure des stickers pour tous types de matériel électronique. Original, mais, attention, difficile à poser. .
@ A.B.
Le look d'un ordinateur est aujourd'hui aussi, voire plus, important que ses prouesses technologiques. Les fabricants de PC viennent à peine de le comprendre.
Apple a montré la voie d'une informatique design il y a dix ans avec ses iMac. Et jusque-là, à part Sony et ses modèles Vaio faits d'un alliage de magnésium et de carbone, aux formes épurées, peu de fabricants de PC se sont détournés des chemins gris et balisés de la bureautique. Mais ...

Déposez votre fichier ici pour le déplacer vers cet enregistrement.

... Lire [+]

V

- n° 3085 - p.66 à p.68

Des PC plus simples et surtout beaucoup moins chers... C'est possible grâce à Linux et à la technologie de mémoire flash. Les outsiders du marché multiplient les offres. Les géants observent.
C'est une petite révolution dans le monde informatique grand public. Depuis le 23 janvier, un ordinateur portable à moins de 300 euros est disponible en France. C'est le fabricant taïwanais Asus- tek qui relève le défi. Lancé en Asie en octobre 2007 et dans les pays anglo-saxons occidentaux en novembre, son modèle EEE PC a été écoulé à 380 000 exemplaires. En 2008, le fabricant compte en vendre 500 000 en France et 5 millions dans le monde. Mais pour passer de 500 euros - prix actuel minimum pour un notebook - à 300 euros, Asustek a dû réduire la taille de l'écran à 7 pouces (17,8 cm de diagonale), remplacer le disque dur par une mémoire flash de quelques gigabits et opter pour un processeur à 600 Mhz et 512 Mo de mémoire vive. Une configuration suffisante pour faire tourner le système d'exploitation open source gratuit Linux, installé à la place d'un traditionnel Windows, gourmand en ressources et payant. " L'EEE PC n'est pas un PC ultraportable, mais un terminal d'accès internet destiné aux néophytes de l'informatique ", précise Thomas Franchi, le directeur du marketing d'Asustek en France. Son slogan : " L'internet facile, partout, pour tous ". Linux pour les nuls ! Un comble ! Alors qu'il est impossible de trouver un PC sous Linux sur les rayonnages des grandes enseignes - les fabricants affirment qu'il n'y a pas de demande et que Linux est trop compliqué - le système d'exploitation open source serait l'idéal pour équiper les " PC pour les nuls ". Pourquoi ? Linux est gratuit. Surtout, il peut être modifié et personnalisé pour développer des machines avec des interfaces adaptées aux publics visés. Seule contrainte, il faut publier ses développements pour que toute la communauté en profite. Le grand public pourrait donc utiliser Linux ? Asustek n'est pas le premier à en faire le pari. Substantiel, start-up française créée en 2002, a développé l'Ordissimo, un ordinateur pour débutants doté d'un système d'exploitation basé sous Linux et dont les mises à jour sont automatisées. Il peut être testé pendant trois mois pour 79 euros, puis loué 9,95 euros par mois ou acheté. Lancé en septembre 2005, il est aujourd'hui distribué dans 250 points de vente des enseignes Darty, Digital et Boulanger. Mais à l'achat, les prix des Ordissimo rattrapent ceux des PC traditionnels, notamment dans leur version portable. " Il est impossible d'acheter un PC sans Vista auprès des fournisseurs chinois ", explique Christophe Berly, le cofondateur, qui distribue quelques centaines de machines par mois. un pc préinstallé Sur la même idée, Neuf Cegetel a décidé de marier intimement PC et connexion réseau haut débit par ADSL. Son offre EasyGate consiste en la fourniture d'un PC design avec clavier et souris (l'écran étant en option) pour 99 euros et d'un abonnement de 9,90 euros par mois pour n'avoir plus à s'occuper de rien. L'ordinateur est, en effet, livré préinstallé avec plus de 80 logiciels open source. Toutes les mises à jour logicielles et la maintenance sont effectuées automatiquement en ligne par l'opérateur. Ainsi verrouillé, le système est protégé des virus et des maladresses. Pour la conception de la machine, Neuf a étroitement travaillé avec le sous-traitant électronique français Asteel (lire page 67). " Nous positionnons l'EasyGate comme un deuxième ordinateur pour la maison, plutôt destiné aux enfants afin qu'ils ne mobilisent pas le PC familial. Nous avons même lancé une version indépendante de l'offre d'abonnement Neuf ", affirme Frédéric Charlier, le père du projet chez l'opérateur télécoms. 92 % des utilisateurs seraient satisfaits, mais Neuf Cegetel ne communique pas leur nombre. les nouveaux entrants ciblent l'enseignement Difficile de percer sur ce marché émergent des NetPC. Surtout qu'à défaut d'assurer d'importants volumes aux fournisseurs chinois, les machines proposées au public restent chères (300 euros sans écran, clavier ou souris) comparées à un portable de grande marque suréquipé. Les nouveaux entrants, comme DomoBox avec son Ordipost Zen ou Feelnet, ciblent donc plutôt le marché de l'enseignement avec des solutions plus faciles à entretenir et moins fragiles qu'un PC sous Windows. Linutop, qui fabrique ses PC sous Linux en Estonie, mise, lui, sur la basse consommation de son système pour s'imposer, dans des applications professionnelles. google pourrait changer la donne Pour faire encore baisser les prix, l'abonnement est donc la meilleure solution. Exclusivité mondiale, en France l'EEE PC d'Asus est vendu 200 euros chez SRF avec un abonnement à la 3G de vingt-quatre mois. Aux Etats-Unis, Zonbu, start-up californienne créée par deux français, teste la vente d'un PC à 99 dollars avec un abonnement de 12,95 dollars par mois pour disposer d'applications en ligne et d'un espace de 25 Go de stockage. Mais Google pourrait changer la donne ! Le fabricant Everex vend chez Wal-Mart un ordinateur de bureau à 199 dollars et lance le 25 janvier un portable avec disque dur à 399 dollars, le Cloudbook. Les deux machines tournant sous un OS Linux développé par Google, le GOS. Les leaders du marché du PC, HP, Dell, Acer, Lenovo ou Toshiba, eux, se contentent d'observer et limitent Linux au monde professionnel et encore, timidement. Pour combien de temps ?
@ Aurélie Barbaux
Des PC plus simples et surtout beaucoup moins chers... C'est possible grâce à Linux et à la technologie de mémoire flash. Les outsiders du marché multiplient les offres. Les géants observent.
C'est une petite révolution dans le monde informatique grand public. Depuis le 23 janvier, un ordinateur portable à moins de 300 euros est disponible en France. C'est le fabricant taïwanais Asus- tek qui relève le défi. Lancé en Asie en octobre 2007 et dans ...

Z