Bizi !

Articles du Vendredi : Sélection du 26 avril 2013

La période 1971-2000 est la plus chaude de ces quatorze derniers siècles

Audrey Garric
Le Monde 22.04.2013

L’agroécologie est-elle l’avenir de l’agriculture française ?

Angela Bolis
Le Monde 24.04.2013

Qui s’enrichit pendant la crise ?


www.inegalites.fr/spip.php?article1156&id_mot=130

Fraude fiscale : ces fichiers d’HSBC qui sentent le soufre

Dominique Richard
www.sudouest.fr/2013/04/21/ces-fichiers-qui-sentent-le-soufre-1031192-4697.php#xtor=EPR-260-[Newsletter]-20130421-[zone_info

Des millénaires de déchets radioactifs, quatre mois de débat public

Pierre Le Hir
Le Monde 24.04.2013

632 000 emplois créés si on changeait de politique énergétique…

Marie-Laure Nauleau
www.reporterre.net/spip.php?article4052

[:]

La période 1971-2000 est la plus chaude de ces quatorze derniers siècles

Audrey Garric
Le Monde 22.04.2013

La Terre n’a jamais connu un tel réchauffement des températures moyennes depuis près de 1 400 ans. C’est la conclusion d’une vaste étude sur l’évolution du climat de la planète depuis deux millénaires, réalisée par un réseau international de climatologues et publiée dans la revue Nature Geoscience, dimanche 21 avril.

Sa particularité : une analyse continent par continent, afin de permettre aux scientifiques d’affiner leurs projections et ainsi de mieux « régionaliser » les impacts possibles du réchauffement. L’équipe de 80 scientifiques de 24 pays, réunis dans le réseau « Past Global Changes » (PAGES), a ainsi reconstitué les courbes de températures de sept grands ensembles : l’Arctique, l’Amérique du Nord et du Sud, l’Europe, l’Asie, l’Australie et l’Antarctique. Seule l’Afrique n’est pas représentée, faute de données suffisantes. Les chercheurs ont récupéré ces données de nombreuses façons, à travers l’analyse des cernes des arbres, des coraux, des pollens, des sédiments, des carottes de glace et des stalagmites dans les grottes.

« On connaissait mal les structures géographiques des changements de températures, comment les courants marins et les vents affectent le climat localement, ce que l’on appelle la variabilité interne au climat », explique la paléoclimatologue française Valérie Masson-Delmotte, chercheuse au Laboratoire des sciences du climat et de l’environnement (LSCE).

HAUSSE DE 0,4 °C

Résultat : toutes les régions, sauf l’Antarctique, ont connu une tendance au refroidissement à long terme qui s’est brusquement renversée au cours du XXe siècle, avec des températures moyennes les plus élevées entre 1971 et 2000. La Terre a donc connu un rythme du refroidissement « lent mais global », allant de 0,1 à 0,3°C par millénaire qui s’explique par la « combinaison de facteurs naturels », tels que les variations de l’orbite terrestre, de l’activité volcanique et de l’activité solaire.

Puis la planète s’est brutalement réchauffée sous l’effet des émissions de gaz à effet de serre dues aux activités humaines. « Hormis l’Antarctique, la température moyenne du XXe siècle dans les six autres régions était d’environ 0,4 °C plus élevée que les températures moyennes des cinq siècles précédents et 0,8 °C plus élevée qu’au cours du XIXe siècle », écrivent les auteurs. Ce réchauffement s’est poursuivi depuis, puisque huit des neuf années les plus chaudes enregistrées sur le globe depuis le début des relevés de température en 1880 se sont toutes produites depuis 2000.

DISPARITÉS GÉOGRAPHIQUES

« Ce qui fait du réchauffement actuel quelque chose d’inhabituel dans l’histoire du climat, c’est qu’il est homogène, c’est-à-dire détecté sur tous les continents au même moment, analyse Valérie Masson-Delmotte. Au contraire, par le passé, le climat a connu de nombreuses anomalies, qui ne se sont pas produites au même moment dans toutes les régions du monde. »

L’épisode froid du « petit âge glaciaire » est ainsi mondialement démontré, mais il a commencé plusieurs décennies plus tôt (vers 1500 après J.-C.) en Europe, en Asie et dans l’Arctique que dans les autres régions du globe. De même, la période inhabituellement chaude que l’on nomme l’optimum climatique médiéval s’est produite entre 830 et 1 100 dans l’hémisphère Nord, contre trois cents ans plus tard dans l’hémisphère Sud, entre 1160 et 1370.

Certaines régions ont aussi déjà connu des épisodes plus chauds que la période de 1971 à 2000 : en Europe, par exemple, les températures étaient plus élevées au Ier siècle (entre 21 et 80 après Jésus-Christ) qu’à la fin du XXe siècle, probablement en raison d’un changement d’angle de l’orbite du Soleil et d’une absence d’éruptions volcaniques (les cendres réfléchissant les rayons du soleil). « Mais ce réchauffement, contrairement à celui que nous connaissons actuellement, s’explique seulement par des facteurs naturels, précise Valérie Masson-Delmotte. Aujourd’hui, les activités humaines modifient aussi le bilan radiatif terrestre. »

L’agroécologie est-elle l’avenir de l’agriculture française ?

Angela Bolis
Le Monde 24.04.2013

Il faut un œil averti pour identifier de quoi sont plantés les champs de Jacques Morineau, de part et d’autre des chemins de son exploitation vendéenne où bringuebale son vieux 4×4 tout infiltré de poussière de terre. Vingt-neuf variétés y poussent, sur une mosaïque de parcelles où il a mêlé ici du pois et de l’orge, là du blé et de la féverole, ailleurs un carré de maïs entouré de colza, de l’avoine, du sorgho, des prairies et des bosquets, un champ de peupliers… Sans compter les ruches, les vaches et les poulets. Ce savant assemblage ne doit rien au hasard. Le pois et l’orge, par exemple : le premier fixe dans la terre l’azote nécessaire au second, évitant ainsi le recours aux engrais azotés. L’orge, plus fragile, résiste mieux aux maladies quand elle pousse en mélange, l’autre variété empêchant que le pathogène ne contamine tout le champ. Au final, le rendement global de la parcelle s’en trouve accru, assure Jacques Morineau. « On fait l’inverse de la monoculture et de l’agriculture intensive, où on a spécialisé les plantes : on cherche un maximum de diversité génétique », explique le paysan agronome.

Les cultures associées sont l’une des méthodes employées dans sa ferme, qu’il a convertie dans les années 1990 à l’agroécologie. Union d’agronomie et d’écologie, ce mot-valise désigne une démarche agricole qui utilise les services rendus par les écosystèmes, plutôt que de chercher à les substituer par des intrants – engrais, pesticides… « Au lieu de lutter contre la nature, on compose avec », résume Benoît Drouin, président du réseau Agriculture durable des Civam. « Mon grand-père était agriculteur à l’époque de la deuxième guerre mondiale, et il mélangeait les cultures. Il faut retrouver la connaissance des plantes et le sens de l’observation. »

LA FRANCE, FUTUR LEADER MONDIAL DE L’AGROÉCOLOGIE ?

Ces méthodes, si elles restent marginales en France, sont acquises au gré des expérimentations de quelques agriculteurs « pionniers », et de plus en plus explorées par la science agronomique : l’INRA en a fait l’un de ses deux champs de recherche prioritaires en 2010. La démarche a aussi inspiré le ministre de l’agriculture, qui a déclaré vouloir faire de la France un leader mondial de l’agroécologie, et présenté un projet en ce sens fin février. Elle constitue le fil rouge de la future loi d’avenir de l’agriculture, qui est entrée en phase de concertation lundi 15 avril, avant une présentation en Conseil des ministres en septembre.

Stéphane Le Foll promet notamment de mobiliser 3 millions d’euros dès 2013 dans ce domaine, et de créer des « groupements d’intérêt économique et environnemental » pour permettre aux agriculteurs de s’associer et d’échanger leur savoir. « A ceux qui disent qu’on ne peut pas produire autant avec l’agroécologie, je réponds : « Venez constater avec moi, sur le terrain, que l’on peut faire des rendements de 80 quintaux à l’hectare en blé ou 9 000 litres par an pour une vache laitière avec des systèmes écologiquement performants », assure-t-il dans un entretien à Terra Eco

Dans l’exploitation de Jacques Morineau, les rendements sont légèrement inférieurs à ceux de l’agriculture conventionnelle, du moins en ce qui concerne les céréales comme le blé et le maïs. Mais l’homme se targue, pour compenser une production moindre, d’un gain de qualité : son blé, par exemple, peut être transformé en pain. Et « depuis cinq ans, notre productivité ne fait qu’accroître. Alors qu’avant, en chimique, c’était un échec : les rendements n’augmentaient plus », dit l’agriculteur.  Selon lui, il faudrait d’ailleurs, pour comparer, ramener la production à la surface réelle et à l’énergie consommées pour un hectare : lui n’achète ni semences cultivées ailleurs, ni fourrage pour ses animaux, ni engrais ou pesticides. Cette autonomie lui permet, surtout, de réduire ses coûts de production. Les marges qu’il obtient permettent de faire travailler sept personnes dans sa ferme.

 

Parmi les salariés, le gendre de Jacques Morineau, qui souhaite reprendre l’exploitation avec sa fille, arpente en tracteur un champ de blé et de féverole avant la tombée de la nuit. Autres méthodes expérimentées dans ces champs : l’épandage de bois et de fumier pour favoriser le développement des micro-organismes vivant dans la terre – « base de la productivité des sols » selon M. Morineau, ou la réduction des labours, pour « ne pas mettre sens dessus-dessous les couches dans lesquelles vit la microfaune du sol ».En surface, des insectes prédateurs « auxiliaires », utilisés pour remplacer les insecticides, ont investi les haies qui dessinent les parcelles de l’exploitation. L’agriculteur tente aussi d’agencer les différentes cultures de sorte qu’y circulent les coccinelles, qui mangent les pucerons. « Une sorte de parcours gastronomique », s’amuse-t-il. « C’est une question de regard. Quand mon voisin voit des coccinelles, il se dit qu’il y a des pucerons, donc il traite. Quand j’en vois, je m’en réjouis car elles mangent les pucerons. »

Qui s’enrichit pendant la crise ?


www.inegalites.fr/spip.php?article1156&id_mot=130

Entre 2008 et 2010, les 10 % les plus pauvres ont perdu 520 millions d’euros, alors que les 10 % les plus riches se sont enrichis de 14 milliards.

 

2008-2010 : les riches plus riches

La crise n’empêche pas que la France continue à s’enrichir. Entre 2008 et 2010 (dernière année connue), le revenu global des ménages, après impôts et prestations sociales, s’est accru de 23,8 milliards d’euros, inflation déduite. Si la richesse était équitablement répartie, chaque tranche de 10 % aurait donc dû recevoir 2,4 milliards, soit un hausse de 1,7 %. Mais cette richesse a été captée par une minorité.

Entre 2008 et 2010, les 10 % les plus pauvres (ils touchent moins de 870 euros par mois pour une personne seule [1]) ont vu la masse globale de leurs revenus baisser de 519 millions d’euros, soit -1,1 %. Pendant ce temps, les 10 % les plus riches (au moins 3 000 euros de revenu par mois pour une personne seule) ont accru leurs revenus de 14 milliards sur cette même période, soit +4,3 %. La tranche comprise entre les 10 % et les 20 % les plus pauvres (entre 870 et 1 080 euros de revenus mensuels) a connu la plus grosse perte : -1,5 milliard (-2%).

Les 30 % les plus pauvres n’ont rien perçu de l’enrichissement du pays entre 2008 et 2010 : ils touchent au total 3,2 milliards d’euros en moins… Les 10 % les plus riches en ont obtenu 59%, et les 30 % les plus aisés (à partir de 2 000 euros par mois pour une personne seule) 96 %.

La répartition du revenu depuis 10 ans

Les 10 % les plus pauvres reçoivent 3,5 % de l’ensemble du revenu global en 2010, contre 24,9 % pour les 10 % les plus riches. Au cours des dix dernières années, la répartition s’est déformée au profit des plus aisés, qui recevaient 23,5 % du revenu total en 2000. Au cours des dix dernières années, le revenu total des ménages a augmenté de 218 milliards, dont 70,6 milliards (un tiers de l’ensemble) est revenu aux 10 % les plus favorisés, contre 4,1 milliards (2 % de l’ensemble) aux 10 % les moins favorisés. Les 30 % les plus pauvres ont touché 12 % de l’ensemble et les 30 % les plus riches 55 %…

Conclusion générale :

Plus personne ne peut contester la hausse des inégalités dans les années récentes. Principalement parce que les revenus des très riches se sont envolés. Avec retard et avec moins d’ampleur, la France suit le chemin emprunté par les Etats-Unis dès le milieu des années 1970 et la Grande-Bretagne quelques années après. Les baisses d’impôts effectuées depuis dix ans ont accompagné ce mouvement.

[1] Après impôts et prestations sociales.

Fraude fiscale : ces fichiers d’HSBC qui sentent le soufre

Dominique Richard
www.sudouest.fr/2013/04/21/ces-fichiers-qui-sentent-le-soufre-1031192-4697.php#xtor=EPR-260-[Newsletter]-20130421-[zone_info

Sale temps pour les détenteurs de comptes non déclarés en Suisse. Les fichiers Falciani et la liste UBS pourraient mettre nombre de personnalités en fâcheuse posture

L’affaire Cahuzac aura eu au moins un mérite. Démontrer qu’il existe en France, comme ailleurs sans doute, une caste de privilégiés sûre de son impunité à qui la loi commune ne s’applique pas. Au sein de cette oligarchie, peu importe la couleur politique. Tout est affaire de réseaux et de connexions entre grands élus, chefs d’entreprises, financiers, professions libérales et parfois même hauts fonctionnaires.

S’il était dévoilé, un document révélerait probablement cette consanguinité délétère qui consume la démocratie : le fichier constitué entre 2006 et 2008 par Hervé Falciani, un informaticien franco-italien de HSBC Patrimoine, la filiale genevoise de la banque anglaise.

Plus que 3 000 noms

Il contient 127 000 comptes dont près de 9 000 ayant un encours supérieur à 1 million d’euros appartiennent à des Français. Avant d’être démasqué par son employeur, Hervé Falciani a essayé de vendre les informations qu’il avait dérobées. Sans grand résultat. Il avait aussi engagé des tractations avec les services fiscaux français alors dirigés par le ministre du Budget Éric Woerth. Arrêté en 2009 sur la Côte d’Azur à la demande de la justice suisse, qui le poursuit pour vol de données, il propose au procureur de Nice, Éric de Montgolfier, de collaborer.

Car Hervé Falciani est seul à même de casser le système de cryptage, le seul à même d’expliquer aux enquêteurs les mécanismes d’opacité conçus par HSBC. Selon lui, ils permettent d’effacer en interne les traces laissées par un transfert d’un compte à un autre, ou d’un serveur à un autre. Il faut aussi savoir qui se cache derrière les employés de HSBC. Officiellement détenteurs des fonds, ils servent de prête-noms. Hervé Falciani ne lâchant ses informations qu’au compte-gouttes, plusieurs mois sont nécessaires pour élaborer la liste.

En juillet 2009, Éric de Montgolfier la transmet aux services du ministre du Budget, Éric Woerth. Des industriels cohabitent avec un grand nombre de médecins, des artistes voisinent avec des hommes d’affaires. Quelques politiques se glissent aussi dans ce panel, à l’image de l’ancien préfet Jean-Charles Marchiani, un proche de Charles Pasqua.

Mais une fois ressortie de la lessiveuse de Bercy, la liste a singulièrement rétréci. « C’est avec étonnement que j’ai pris connaissance, pendant l’été, du communiqué du ministre du Budget faisant état de 3 000 noms », avouait d’ailleurs l’an dernier Éric de Montgolfier lors de son audition par la commission d’enquête du Sénat sur l’évasion fiscale.

Patrice de Maistre, le gestionnaire de fortune de Liliane Bettencourt, fait partie des épinglés. À l’époque, il vient de recruter la femme d’Éric Woerth au sein de la société qui gère les actifs de la milliardaire. Celle-ci détient plusieurs comptes non déclarés en Suisse. L’épouse du ministre du Budget peut-elle décemment l’ignorer ? À l’évidence, on nage en plein conflit d’intérêts. Mais nul n’en saura rien. C’est dans la plus totale opacité et sans aucun contrôle parlementaire que le fisc va exploiter cette liste.

Régularisation à la carte

Les familiers des tribunaux correctionnels assistent régulièrement aux comparutions de fraudeurs que l’administration fiscale n’hésite pas à renvoyer dans un prétoire pour quelques centaines de milliers d’euros soustraits à l’impôt. En 2009, le parquet de Paris a certes ouvert une enquête, dont on est sans nouvelles depuis, et quelques dizaines d’évadés fiscaux ont fait l’objet de poursuites pénales. Mais, dans leur immense majorité, ils ont échappé aux foudres de la justice grâce à des transactions amiables.

Selon les chiffres du ministère de l’Économie et des Finances, les opérations de régularisation auraient rapporté à l’État 1,2 milliard d’euros. Ce n’est pas anodin, si ce n’est que personne ne pourra juger de la pertinence des critères imposés par l’administration lors de ces négociations. Ils n’ont jamais été divulgués. De la même façon, on ignore toujours pourquoi la liste Montgolfier a perdu autant de sa substance.

En 2010, lorsque la police judiciaire suisse a reçu copie des fichiers informatiques Falciani, elle les a fait expertiser. Et conclu qu’ils avaient été manipulés. Des doublons, un même compte recensé sous des intitulés différents, expliqueraient cette cure d’amincissement. Mais pas au point de réduire la liste à 3 000 personnes.

Bernard Cazeneuve, l’actuel ministre du Budget, évoque désormais 6 313 personnes physiques ou morales. De quoi inciter son collègue Arnaud Montebourg à demander une relance des investigations.

Une bien étrange connivence

En août 2009, Éric Woerth, sans jamais citer le nom de HSBC, avait annoncé qu’il détenait une liste de 3 000 contribuables détenteurs d’un compte en Suisse, précisant même que deux banques helvétiques « avaient fourni spontanément un certain nombre de noms ». Des déclarations qui apparaissent aujourd’hui incompréhensibles. « Il s’agissait peut-être d’une stratégie qui a permis de récupérer pas mal d’argent de la fraude », relevait l’an passé le procureur de Montgolfier devant la commission d’enquête du Sénat sur l’évasion fiscale.

Quatre ans après, un épais brouillard entoure toujours la façon dont a été constitué ce fameux fichier. Bien qu’Éric Woerth ait toujours éludé les questions sur le sujet, il est probable que l’administration fiscale alors sous sa tutelle n’a pas exploité les fichiers Falciani comme elle aurait dû. Plus curieux, la gauche ne l’a pas forcément incitée à le faire.

En 2010, après avoir auditionné Hervé Falciani dans le cadre d’une mission d’information parlementaire, Arnaud Montebourg alerte par écrit Jérôme Cahuzac, alors président de la commission des finances. Il lui enjoint de saisir l’autorité de contrôle des banques « sur les mécanismes apparemment frauduleux employés par HSBC ». Sans réponse de sa part. Le député du Lot-et-Garonne reste taisant.

À croire que la Suisse a réuni les deux hommes. Jérôme Cahuzac y détenait un compte clandestin depuis vingt ans. L’épouse d’Éric Woerth participait à la gestion de ceux de Liliane Bettencourt. Nommé à Bercy en 2012, Jérôme Cahuzac, alors que personne ne lui demande rien, lance immédiatement une expertise sur la vente de l’hippodrome de Compiègne. Elle dédouane son prédécesseur en fâcheuse posture sur ce dossier. Inversement, Éric Woerth est resté étrangement silencieux lorsque les ténors de la droite se sont déchaînés contre son successeur. La clé de cette étrange connivence se trouve peut-être dans un fichier d’évadés fiscaux.

Des millénaires de déchets radioactifs, quatre mois de débat public

Pierre Le Hir
Le Monde 24.04.2013

« Donner une photographie de l’opinion dans toute sa diversité. » C’est l’objectif que se fixe Claude Bernet, président de la commission du débat public sur le projet français de centre industriel de stockage géologique (Cigéo) des déchets radioactifs. Prévue par la loi, cette consultation se déroulera du 15 mai au 15 octobre, avec une interruption en août. Soit quatre mois d’expression des citoyens sur une installation destinée à perdurer… pendant des millénaires.

Telle est la durée de vie des radioéléments que l’Agence nationale pour la gestion des déchets radioactifs (Andra) veut enfouir à 500 m sous terre, dans une couche d’argilite, à la frontière de la Meuse et de la Haute-Marne. Quelque 15 km2 de galeries seront nécessaires pour abriter les 80 000 m3 de résidus les plus radiotoxiques, produits pendant toute l’exploitation du parc nucléaire français actuel.

Quatorze réunions publiques sont prévues, pour la plupart dans la Meuse et la Haute-Marne, ou à proximité de centrales nucléaires et de sites d’entreposage de déchets radioactifs. Le site Internet www.debatpublic-cigeo.org recueillera aussi questions et commentaires.

 

Claude Bernet promet « indépendance » – en particulier vis-à-vis du maître d’ouvrage, l’Andra – et « neutralité », la commission n’ayant pas vocation à se prononcer sur le projet. Mais, avant même son ouverture, de fortes interrogations pèsent sur le déroulement du débat.D’abord parce que les sujets traités sont peu accessibles aux non-initiés, qu’il s’agisse de l’inventaire des déchets, de leur conditionnement, ou de la « réversibilité » du site, c’est-à-dire de la possibilité d’en retirer les colis. Ensuite et surtout, parce beaucoup d’associations ont choisi le boycottage pur et simple.

 

L’ENTREPOSAGE, UNE ALTERNATIVE TOMBÉE DANS LES OUBLIETTES

Une quarantaine d’entre elles, dont les antennes régionales de la puissante fédération France Nature Environnement (FNE), ont demandé, en vain, le report du débat après celui en cours sur la transition énergétique. Elles jugent « prématuré » de discuter du sort de déchets nucléaires dont la nature et le volume dépendront, pour partie, du cap énergétique que se fixera le pays.

En outre, elles estiment que l’exercice n’a d’autre but que de « faire passer la pilule » de l’enfouissement des déchets radioactifs, celui-ci étant la seule solution retenue par la France. Leur défiance est renforcée par le précédent de 2005. A l’issue d’un premier débat public sur « les options générales en matière de gestion des déchets radioactifs », la commission avait pris acte de « la possibilité d’une nouvelle stratégie », qui ouvrait la voie à un entreposage à long terme de ces résidus. Une alternative à l’enfouissement tombée depuis dans les oubliettes.

« Ceux qui disent que tout est joué ont tort, se défend Claude Bernet, nous en sommes au tout début de la procédure d’autorisation du Cigéo. » Il n’en craint pas moins qu’au boycottage s’ajoute la perturbation des réunions par des militants antinucléaires, comme cela avait été le cas pour la consultation sur les nanotechnologies qui, fin 2009-début 2010, avait tourné au fiasco. « Ne pas participer ne veut pas dire ne pas agir, préviennent les associations. Nous serons là pour donner une information différente de l’information officielle, biaisée. »

A l’issue du débat – quelque tournure qu’il prenne –, la commission aura deux mois pour en dresser une synthèse qui sera rendue publique. Puis l’Andra disposera de trois mois pour faire connaître les suites qu’elle donnera au projet Cigéo. Celui-ci devra encore franchir plusieurs étapes – notamment, en 2015, une demande d’autorisation soumise à enquête publique –, avant le début des travaux, prévu en 2019, pour une mise en service en 2025.


L’Hexagone dépend trop du nucléaire, selon l’IRSN

L’atome tient une place excessive dans le mix énergétique de la France, estime le directeur de l’Institut de radioprotection et de sûreté nucléaire (IRSN), Jacques Repussard. Alors que la part de l’électricité d’origine nucléaire est aujourd’hui de 75 %, la ramener à 50 % – comme s’y est engagé François Hollande à l’horizon 2025 – serait, selon lui, « un ordre de grandeur convenable pour assurer la sûreté du parc nucléaire sur le long terme ».

Dans une déclaration faite lundi 22 avril à l’agence Reuters, le patron de l’IRSN explique : « Un jour, on verra apparaître des dégradations dans l’acier des cuves, qui nous feront dire ‘maintenant, ça suffit !' » Et quand on le verra sur une, il est assez vraisemblable qu’on le verra sur toutes les autres de la même génération. » D’où la nécessité pour la France, à ses yeux, de moins dépendre du nucléaire et d’avoir « un mix énergétique plus équilibré ».

632 000 emplois créés si on changeait de politique énergétique…

Marie-Laure Nauleau
www.reporterre.net/spip.php?article4052

L’économiste Philippe Quirion a étudié le potentiel d’emplois créés par l’application du scénario négaWatt. Bilan : plusieurs centaines de milliers d’emplois de mieux que si l’on continuait la politique énergétique actuelle.

 

Face aux enjeux actuels que sont le changement climatique, la diminution des ressources fossiles et fissiles et le risque nucléaire, le scenario négaWatt 2011, en fondant sa démarche sur le triptyque énergétique « sobriété, efficacité, renouvelables », nous montre, grâce à une analyse détaillée, année par année, des différents secteurs de consommation et de production d’énergie, ainsi qu’à une description fine des évolutions sociétales et techniques, que la transition énergétique vers un système fondé à 90% sur l’utilisation d’énergies renouvelables est souhaitable et possible.

 

Philippe Quirion, économiste de l’environnement et chargé de recherche au CNRS-CIRED (Centre International de Recherche sur l’Environnement et le Développement), a rendu public vendredi 29 mars les résultats de son étude sur l’impact sur l’emploi et l’économie de l’actuel scenario négaWatt, enrichissant ainsi l’apport de ce scénario d’une dimension économique manquante.

 

Cette étude analyse l’effet en termes de création et destruction d’emplois du scénario négaWatt par rapport à un scénario tendanciel de laissez-faire à l’horizon 2020, 2025 et 2030. Elle porte sur les principaux secteurs concernés par la transition énergétique, soit plus de 75 postes de dépenses : les filières énergétiques, énergies fossiles, nucléaire et renouvelables, ainsi que les secteurs du bâtiment et du transport.

 

La méthode utilisée est celle dite du « contenu en emploi », consistant à regarder combien d’emplois sont créés ou détruits sur chaque secteur de l’économie en valeur de chacun de ces secteurs puis de faire le solde sur l’ensemble des secteurs considérés. La question n’est donc pas de savoir quel scénario, du tendanciel ou du négaWatt, coûtera le plus cher, mais lequel, à coût global identique, sera le plus bénéfique pour l’emploi.

 

 

 

En reposant sur les données des tableaux entrée-sortie de la Comptabilité Nationale de l’INSEE, l’ensemble des interactions entre secteurs sont intégrées. En outre, à travers l’ « effet induit », cette méthode prend en compte les écarts de coûts entre les différentes filières énergétiques.

 

Il est par exemple plus coûteux aujourd’hui de produire de l’électricité photovoltaïque que de l’électricité nucléaire. Le surcoût engendré par la substitution du photovoltaïque au nucléaire a donc besoin d’être financé, ce transfert budgétaire diminue d’autant les postes de dépenses, et donc in fine l’emploi, des autres secteurs de l’économie.

 

Il s’agit en fait de prendre en compte l’arbitrage opéré par les ménages. Pour prendre un exemple positif pour la transition énergétique cette fois, les économies de consommation d’énergie générées par les comportements de sobriété du scénario négaWatt, prendre moins souvent sa voiture, pour n’en citer qu’un seul, se transforment en économies monétaires, lesquelles peuvent alors être réallouées aux autres secteurs de l’économie, notamment aux secteurs riches en emploi tels que les services.

 

235 000 emplois en 2020, 632 000 en 2030

 

En utilisant des sources statistiques et des hypothèses officielles (celles de l’Energy Outlook de l’Agence Internationale de l’Energie pour les évolutions des prix de l’énergie par exemple) et la rigueur de la démarche scientifique, celle-ci passant par l’explication et la justification de la méthode ainsi que de ses limites, la présentation des hypothèses dans son exhaustivité, une analyse de sensibilité des résultats, etc, l’étude aboutit à un effet net sur l’emploi positif du Scénario négaWatt par rapport au
scénario tendanciel.

 

Cet effet irait de 235 000 emplois en plus dans le scénario négaWatt par rapport au scénario tendanciel en 2020, à 632 000 emplois en 2030. Les secteurs les plus porteurs en emplois seraient la rénovation des bâtiments puis les énergies renouvelables.

 

L’ « effet induit » serait quant à lui positif, ce qui montre que les dépenses annuelles d’investissement et d’exploitation de tous les secteurs pris en compte sont moins élevées dans le scénario négaWatt que dans le scénario tendanciel, et ce, dès 2015.

 

L’étude complète et sa synthèse sont disponibles sur le site de l’association Négawatt.

 

A l’heure où seulement une dizaine de scénarios sont débattus au sein du débat national sur la transition énergétique, et parmi eux le scénario négaWatt, il est certain que l’apport de ce volet économique offrira des arguments de poids en faveur de la transition énergétique promue par l’expertise négaWatt.

 

Dans un débat où la question de l’effet sur l’emploi comporte de vrais enjeux politiques, ce d’autant plus dans un contexte de crise économique et de chômage endémique, et cristallise des intérêts économiques divergents entre les parties prenantes, cette approche globale et transparente est véritablement bienvenue.