OBJECTIFS D’APPRENTISSAGE
|
En réponse au fort soutien de l’opinion publique en faveur de la protection de l’environnement, le président nouvellement élu Nixon, dans son discours sur l’état de l’Union de 1970, a déclaré que la décennie naissante des années 1970 « doit absolument être celle où l’Amérique paie sa dette au passé en reconquérant la pureté de son air, de ses eaux et de notre environnement vivant. C’est littéralement maintenant ou jamais.
Nixon a promulgué plusieurs textes de loi qui servent aujourd’hui de base réglementaire à la protection de l’environnement. Le 1er janvier 1970, il a approuvé le National Environmental Policy Act (NEPA), la pierre angulaire de la politique et du droit de l’environnement aux États-Unis. La NEPA stipule qu’il incombe au gouvernement fédéral « d’utiliser tous les moyens possibles… pour améliorer et coordonner les plans, fonctions, programmes et ressources fédéraux afin que la nation puisse… s’acquitter des responsabilités de chaque génération en tant que dépositaire de l’environnement pour les générations suivantes ».
Ce faisant, la NEPA exige des agences fédérales qu’elles évaluent l’impact environnemental d’une activité avant qu’elle ne soit entreprise. En outre, la NEPA a créé l’Agence de protection de l’environnement (EPA), qui a consolidé la responsabilité de la politique environnementale et de l’application de la réglementation au niveau fédéral.
C’est également en 1970 que la version moderne du Clean Air Act (CAA) a été promulguée. La CAA fixe des normes nationales de qualité de l’air pour les particules, les oxydes de soufre, le monoxyde de carbone, l’oxyde d’azote, l’ozone, les hydrocarbures et le plomb, dont la moyenne est calculée sur différentes périodes. Deux niveaux de normes de qualité de l’air ont été établis : des normes primaires pour protéger la santé humaine, et des normes secondaires pour protéger la vie végétale et animale, maintenir la visibilité et protéger les bâtiments. Les normes primaires et secondaires ont souvent été identiques dans la pratique. La loi stipulait également que les nouvelles sources fixes, telles que les centrales électriques, devaient établir des normes d’émission, que des normes devaient être établies pour les voitures et les camions, et que les États devaient élaborer des plans de mise en œuvre indiquant comment ils allaient atteindre les directives fixées par la loi dans les délais impartis. Le Congrès a ordonné à l’EPA d’établir ces normes sans tenir compte du coût de la mise en conformité.
Pour sensibiliser à l’environnement, le sénateur Gaylord Nelson du Wisconsin a organisé un séminaire national sur l’environnement. Nelson a caractérisé les principaux problèmes de l’époque comme étant les pesticides, les herbicides, la pollution de l’air et la pollution de l’eau, déclarant : « Tout le monde dans le pays a vu quelque chose partir en fumée dans sa région, un endroit charmant, un ruisseau charmant, un lac charmant dans lequel on ne pouvait plus se baigner.
Ce projet éducatif, qui s’est déroulé le 22 avril 1970 et a été organisé par Denis Hayes (alors étudiant en droit à Harvard âgé de vingt-cinq ans), est devenu la première Journée de la Terre.Hayes a organisé la Journée de la Terre alors qu’il travaillait pour le sénateur américain Gaylord Nelson. Hayes, un militant diplômé de Stanford et de Harvard et titulaire d’un diplôme de droit, a contribué à la fondation de Green Seal, l’un des systèmes d’écolabellisation les plus importants des États-Unis, et a dirigé le National Renewable Energy Laboratory sous l’administration Carter. Ce jour-là, vingt millions de personnes dans plus de deux mille communautés ont participé à des activités éducatives et à des manifestations pour exiger une meilleure qualité de l’environnement.
Cette participation sans précédent reflète l’inquiétude croissante du public. Les questions de santé et de sécurité étaient devenues de plus en plus urgentes. À New York, sur la Cinquième Avenue, des manifestants ont brandi des poissons morts pour protester contre la contamination du fleuve Hudson, et le maire John Lindsay a prononcé un discours dans lequel il a déclaré : « Au-delà de mots comme écologie, environnement et pollution, il y a une question simple : voulons-nous vivre ou mourir ?
Même les livres pour enfants évoquent l’incapacité de la nature à se protéger contre les demandes, les besoins et les excès perçus liés à la croissance économique et aux modes de consommation. Le livre pour enfants The Lorax du Dr Seuss, paru en 1971, était un signe des temps : il demandait que quelqu’un « parle au nom des arbres » qui étaient abattus à un rythme croissant dans le monde entier, laissant des paysages désolés et appauvrissant la vie des gens.
Figure 1.4 Le Lorax.
Le Lorax, écrit par le Dr Seuss et publié pour la première fois en 1971, illustre l’importance de s’exprimer au nom de l’environnement.
La Journée de la Terre a alimenté le soutien et l’élan du public en faveur d’une plus grande protection réglementaire de l’environnement et, en 1972, la loi fédérale sur le contrôle de la pollution de l’eau (FWPCA) s’est fixé pour objectif d’éliminer tous les rejets de polluants dans les eaux navigables avant 1985 et d’établir des normes provisoires de qualité de l’eau pour la protection des poissons, des mollusques, de la faune et des intérêts récréatifs avant le 1er juillet 1983.
L’inquiétude croissante dans tout le pays concernant la sécurité des approvisionnements en eau potable des communautés a abouti à la loi sur la sécurité de l’eau potable (SDWA) de 1974. Cette législation a établi des normes pour la turbidité, les contaminants microbiologiques et les agents chimiques dans l’eau potable. La loi sur les espèces menacées d’extinction (ESA) de 1973 interdit l’élimination des espèces végétales et animales et « impose au gouvernement le devoir positif d’agir pour protéger ces espèces de l’extinction ». Dix ans après la publication de Printemps silencieux, la loi fédérale sur les insecticides, les fongicides et les rodenticides (FIFRA) a été mise à jour pour interdire ou limiter sévèrement l’utilisation du DDT, de l’aldrine, de la dieldrine et de nombreux autres pesticides. En conséquence, les niveaux de pesticides persistants mesurés dans les tissus adipeux humains sont passés de 8 parties par million (ppm) en 1970 à 2 ppm au milieu des années 1980.
La lutte contre la pollution a été la réponse des entreprises aux réglementations environnementales dès la genèse du cadre réglementaire moderne, dans les années 1970 et 1980. La lutte contre la pollution est une stratégie en bout de chaîne qui se concentre sur le traitement des déchets ou le filtrage des émissions, ou les deux. Les stratégies de lutte contre la pollution supposent qu’aucun changement n’est apporté à la conception du produit ou aux méthodes de production, mais qu’une attention particulière est portée aux flux de déchets atmosphériques, solides et aqueux à la fin du processus de fabrication. Cette approche peut être coûteuse et impose généralement une charge à l’entreprise, bien qu’elle puisse permettre d’économiser des dépenses sous la forme d’amendes perçues par les organismes de réglementation en cas de non-respect de la réglementation. Habituellement, la lutte contre la pollution est mise en œuvre par les entreprises pour se conformer aux réglementations et reflète une relation contradictoire entre les entreprises et le gouvernement. Les causes de cette attitude antagoniste ont été révélées dans une enquête menée en 1974 par le Conference Board – un organisme indépendant et à but non lucratif de recherche sur les entreprises – qui a montré que peu d’entreprises considéraient la lutte contre la pollution comme rentable et qu’aucune n’y voyait une occasion d’améliorer les procédures de production. Ainsi, d’un point de vue strictement orienté vers le profit, qui ne considère ni la réaction du public à la pollution ni la responsabilité potentielle future comme affectant le résultat net, la lutte contre la pollution place l’entreprise dans une position « perdante » en ce qui concerne la protection de l’environnement.
La structure réglementaire environnementale des États-Unis a parfois contraint les entreprises à adopter une position de contrôle de la pollution en imposant des technologies spécifiques, en fixant des délais de conformité stricts et en se concentrant sur la dépollution plutôt que sur la prévention.
C’est ce qui ressort d’un rapport publié en 1986 par l’Office of Technology Assessment (OTA), selon lequel « plus de 99 % des dépenses environnementales du gouvernement fédéral et des États sont consacrées au contrôle de la pollution après la production de déchets. Moins de 1 % est consacré à la réduction de la production de déchets.
L’OTA notait à l’époque l’importance mal placée accordée au contrôle de la pollution dans la réglementation et concluait que les technologies existantes pouvaient à elles seules prévenir la moitié des déchets industriels.
Les économistes s’accordent généralement à dire qu’il est préférable pour la réglementation d’exiger un résultat plutôt que d’exiger un moyen d’atteindre ce résultat. Il est préférable d’exiger le contrôle de la pollution car cela incite les entreprises à réduire la pollution plutôt que de simplement déplacer les matières dangereuses d’un endroit à l’autre, ce qui ne résout pas le problème initial de la production de déchets. Par exemple, les chercheurs en économie Michael Porter et Claas van der Linde établissent une distinction entre les bonnes et les mauvaises réglementations selon qu’elles encouragent l’innovation et améliorent ainsi la compétitivité tout en répondant aux préoccupations environnementales.
Selon eux, les réglementations en matière de contrôle de la pollution devraient promouvoir la productivité des ressources, mais elles sont souvent rédigées de manière à décourager la prise de risques et l’expérimentation qui profiteraient à la société et à l’entreprise réglementée : « Par exemple, une entreprise qui innove et atteint 95 % de l’objectif de réduction des émissions tout en enregistrant d’importantes réductions de coûts compensatoires est encore 5 % en dehors de la conformité et peut être tenue responsable. En revanche, les régulateurs la récompenseraient pour avoir adopté un traitement secondaire sûr mais coûteux.
Les réglementations qui ont découragé l’innovation et imposé l’état d’esprit « en bout de chaîne » qui était courant parmi les régulateurs et l’industrie dans les années 1970 et 1980 ont contribué à l’approche contradictoire de la protection de l’environnement. Alors que ces conflits entre les entreprises et le gouvernement s’intensifiaient, les nouvelles connaissances scientifiques, la crise énergétique et les protestations croissantes du public ont alimenté le feu.
En 1972, un groupe d’hommes d’affaires et de scientifiques influents, connu sous le nom de Club de Rome, a publié un livre intitulé Les limites de la croissance. À l’aide de modèles mathématiques développés au Massachusetts Institute of Technology pour projeter les tendances en matière de croissance démographique, d’épuisement des ressources, d’approvisionnement alimentaire, d’investissement en capital et de pollution, le groupe est parvenu à une conclusion en trois parties. Premièrement, si les tendances actuelles se maintiennent, les limites de la croissance sur Terre seront atteintes d’ici cent ans. Deuxièmement, ces tendances pourraient être modifiées afin d’établir une stabilité économique et écologique qui serait durable dans un avenir lointain. Troisièmement, si le monde choisissait la deuxième solution, les chances de succès augmenteraient si l’on commençait à travailler rapidement pour l’atteindre. Une fois de plus, la notion de limites naturelles a été présentée, une idée qui allait à l’encontre des hypothèses de la plupart des gens à l’époque. Pour les habitants d’un pays dont l’histoire et la mythologie culturelle promettaient des frontières et des ressources illimitées, ces concepts de pleine terre remettaient en question des hypothèses et des valeurs profondément ancrées.
Le réveil le plus spectaculaire a peut-être pris la forme d’une vengeance politique. Les Américains ont été concrètement et douloureusement initiés au concept de ressources limitées lorsqu’en 1973, les membres arabes de l’Organisation des pays exportateurs de pétrole (OPEP) ont interdit les livraisons de pétrole aux États-Unis en représailles au soutien apporté par les États-Unis à Israël lors de la guerre du Kippour de dix-huit jours contre la Syrie et l’Égypte. Les prix des produits pétroliers, dont l’essence, s’envolent. Le choc pétrolier de 1973 a provoqué une inflation à deux chiffres et une récession économique majeure. En conséquence, les questions énergétiques sont devenues inextricablement liées aux questions politiques et environnementales, et de nouveaux groupes d’activistes se sont formés pour promouvoir le passage de sources d’énergie non renouvelables, à base de combustibles fossiles et très polluantes, comme le pétrole et le charbon, à des sources d’énergie renouvelables, plus propres, produites plus près de chez soi à partir d’énergie solaire et éolienne. Toutefois, avec la fin des pénuries d’essence et des prix élevés, ces voix sont passées au second plan. Bien sûr, une forte résurgence de ces idées a suivi la flambée des prix de 2008, lorsque le prix du pétrole brut a dépassé 140 dollars le baril.
Couverture de la réunion de l’OPEP par NBC Nightly News. (cliquez pour voir la vidéo)
Dans les années qui ont suivi la crise énergétique de 1973, l’attention du public et des gouvernements s’est à nouveau tournée vers les dangers posés par les produits chimiques. Le 10 juillet 1976, une explosion dans une usine chimique à Seveso, en Italie, a libéré un nuage de dioxine, un produit chimique hautement toxique. Quelque neuf cents résidents locaux ont été évacués, dont beaucoup ont souffert de maladies de peau défigurantes et de maladies durables à la suite de la catastrophe. Les malformations congénitales se sont multipliées à l’échelle locale après l’explosion, et le sol a été si gravement contaminé que les vingt centimètres supérieurs d’une zone de sept miles carrés ont dû être enlevés et enterrés.
Andrew Hoffman, dans son étude sur le mouvement environnemental américain dans le monde des affaires, note que « pour de nombreux Américains, l’incident de Seveso a jeté une lumière sinistre sur leur usine chimique locale. Les communautés ont commencé à avoir peur de l’inconnu, ne sachant pas ce qui se passait derrière les murs des usines chimiques….. L’antagonisme des communautés et des activistes envers les entreprises chimiques s’est accru, et les procès conflictuels en ont été la manifestation la plus visible.
Au fil du temps, ces évolutions ont renforcé la pression en faveur d’une réglementation supplémentaire des entreprises. Les politiciens ont continué à écouter les préoccupations des citoyens américains. En 1976, la loi sur le contrôle des substances toxiques (TSCA) a été adoptée malgré les vives objections de l’industrie. Le TSCA a donné au gouvernement fédéral le contrôle des produits chimiques qui n’étaient pas déjà réglementés par les lois existantes.
L’année suivante, la CAA et la loi sur la propreté de l’eau ont été renforcées et étendues. Selon l’Agence américaine de protection de l’environnement, « la loi sur la propreté de l’eau (CWA) établit la structure de base pour la réglementation des rejets de polluants dans les eaux des États-Unis et la réglementation des normes de qualité des eaux de surface. La base de la CWA a été promulguée en 1948 et s’appelait la Federal Water Pollution Control Act, mais la loi a été considérablement réorganisée et étendue en 1972. La loi sur la propreté de l’eau est devenue le nom commun de la loi avec les modifications apportées en 1977 ». En vertu de la CWA, des normes de qualité des eaux usées et de l’eau ont été fixées pour l’industrie et tous les contaminants des eaux de surface. En outre, des permis étaient nécessaires pour rejeter des polluants dans le cadre du programme NPDES (National Pollutant Discharge Elimination System) de l’EPA.
À la fin des années 1970, l’attention de l’Amérique se tourne à nouveau vers les questions énergétiques. En 1978, l’Iran a déclenché un deuxième choc pétrolier en réduisant soudainement ses exportations de pétrole vers les États-Unis. Un an plus tard, la confiance dans l’énergie nucléaire, une technologie que beaucoup considéraient comme une forme d’énergie alternative viable, a été sérieusement ébranlée par une quasi-catastrophe. Le 29 mars 1979, le réacteur numéro deux de Three Mile Island, près de Harrisburg, en Pennsylvanie, a perdu son eau de refroidissement en raison d’une série de défaillances mécaniques et d’erreurs de l’opérateur. Environ la moitié du cœur du réacteur a fondu, et les enquêteurs ont découvert par la suite que si une vanne particulière était restée ouverte pendant trente à soixante minutes supplémentaires, une fusion complète se serait produite. L’accident a entraîné l’évacuation de cinquante mille personnes, et cinquante mille autres ont fui volontairement. La quantité de matières radioactives libérées dans l’atmosphère à la suite de l’accident est inconnue, mais aucun décès n’a été immédiatement attribué à l’incident.
Le nettoyage du réacteur endommagé a coûté 1,2 milliard de dollars à ce jour, soit près du double de son coût de construction de 700 millions de dollars. En grande partie à cause de l’incident de Three Mile Island, les 119 centrales nucléaires commandées aux États-Unis depuis 1973 ont été annulées.
Aucune nouvelle centrale nucléaire commerciale n’a été construite depuis 1977, bien que certaines des 104 centrales existantes aient augmenté leur capacité. Cependant, en 2007, la Nuclear Regulatory Commission a reçu la première de près de vingt demandes de permis de construction de nouvelles centrales nucléaires.
L’un des épisodes les plus marquants de l’histoire environnementale américaine est celui de Love Canal. En 1942, la société Hooker Electro-Chemical Company a acheté la propriété abandonnée du Love Canal à Niagara Falls, New York. Au cours des onze années suivantes, 21 800 tonnes de produits chimiques toxiques ont été déversées dans le canal. Hooker, rachetée plus tard par Occidental Chemical Corporation, a vendu le terrain à la ville de Niagara Falls en 1953, en indiquant dans l’acte de propriété que le site contenait des produits chimiques dangereux. La ville a ensuite construit une école primaire sur le site, avec des routes et des égouts qui le traversent et des maisons qui l’entourent. Au milieu des années 1970, les produits chimiques ont commencé à remonter à la surface et à s’infiltrer dans les sous-sols.
Lois Gibbs, une femme au foyer locale, qui fonda plus tard le Citizens’ Clearinghouse for Hazardous Wastes, remarqua une fréquence inhabituelle de cancers, de fausses couches, de bébés difformes, de maladies et de décès parmi les habitants de son quartier. Après avoir lu un article dans le journal local sur l’histoire du canal, elle a parcouru le quartier avec une pétition, alertant ses voisins sur la contamination chimique qui se trouvait sous leurs pieds. Le 9 août 1978, le président Carter a déclaré Love Canal comme une urgence fédérale, lançant un effort massif de relogement dans lequel le gouvernement a acheté 803 résidences dans la zone, dont 239 ont été détruites.
Love Canal a conduit directement à l’une des lois environnementales les plus controversées jamais adoptées. Le 12 décembre 1980, le président Carter a signé la loi CERCLA (Comprehensive Environmental Response, Compensation, and Liability Act), ou Superfund. Cette loi rendait les entreprises responsables rétroactivement du nettoyage des sites de déchets, quel que soit leur niveau d’implication. Love Canal a également marqué le début d’une nouvelle forme de problème environnemental. Comme l’a indiqué l’historien de l’environnement Hoffman, « les problèmes environnementaux, jusqu’alors considérés comme visibles et prévisibles, pouvaient désormais provenir d’une source inattendue, apparaître de nombreuses années plus tard et infliger des dommages sanitaires et écologiques immédiats et latents. Les problèmes peuvent maintenant surgir d’un endroit aussi apparemment sûr que votre propre jardin.
Figure 1.5 Les enfants de Love Canal protestent contre la contamination.Source: AP.
Face à l’opposition véhémente de l’industrie, les États et le gouvernement fédéral ont réussi à mettre en place une vaste série de règlements qui ont défini des normes de pratique et forcé l’adoption de technologies de contrôle de la pollution. Pour superviser et faire appliquer ces réglementations, l’argent des contribuables a désormais financé une nouvelle et importante bureaucratie publique. Dans les années à venir, la taille et le champ d’action de ces organismes seront critiqués par des administrations favorables à l’industrie, élues sur la base d’un programme de réduction de la taille de l’État et de diminution de la surveillance et de l’intervention.
Entre-temps, la création de l’EPA a contraint de nombreux États à créer leurs propres départements équivalents pour la protection de l’environnement, souvent pour administrer ou faire appliquer les programmes de l’EPA, voire rien d’autre. Selon Denise Scheberle, spécialiste du fédéralisme et de la politique environnementale, « peu de domaines politiques ont imposé aux États des exigences plus grandes et plus diverses que les programmes environnementaux ».
Certains États, comme la Californie, ont continué à faire pression pour obtenir des normes environnementales plus strictes que celles fixées par le gouvernement fédéral. Presque tous les États ont vu leurs relations avec l’EPA varier de l’antagonisme à la coopération au fil des décennies, selon ce que les États estimaient qu’on leur demandait, les raisons de cette demande et le montant de l’aide financière fournie.
Malgré la sensibilisation croissante du public et la décennie précédente de législation fédérale visant à protéger l’environnement, les études scientifiques continuaient à prédire un désastre écologique. Le Council on Environmental Quality du président Carter, en collaboration avec le département d’État, a produit en 1980 une étude sur les problèmes écologiques mondiaux intitulée The Global 2000 Report. Ce rapport prévient que « si les tendances actuelles se poursuivent, le monde de l’an 2000 sera plus peuplé, plus pollué, moins stable écologiquement et plus vulnérable aux perturbations que le monde dans lequel nous vivons actuellement. De graves tensions concernant la population, les ressources et l’environnement sont clairement visibles à l’avenir. Malgré une production matérielle plus importante, les habitants de la planète seront plus pauvres à bien des égards qu’aujourd’hui.
Malgré ces prévisions, l’élection de Ronald Reagan en novembre 1980 a marqué un déclin spectaculaire du soutien fédéral à la législation environnementale existante et prévue. Avec la nomination par Reagan en 1981 de deux champions agressifs de l’industrie, James Watt au poste de secrétaire à l’intérieur et Anne Buford à celui d’administratrice de l’EPA, il était évident que les politiques environnementales de la nation étaient une cible privilégiée de sa révolution du « petit gouvernement ». Au cours de ses premières années d’existence, l’administration Reagan a rapidement procédé à des coupes budgétaires, réduit l’application de la législation environnementale et ouvert les terres publiques à l’exploitation minière, au forage, au pâturage et à d’autres utilisations privées. En 1983, cependant, Buford a été contraint de démissionner à la suite d’enquêtes du Congrès sur la mauvaise gestion d’une opération de nettoyage de déchets toxiques, et Watt a démissionné après que plusieurs de ses déclarations aient été considérées comme insensibles aux actions portant atteinte à l’environnement. Sous les successeurs de Buford, William Ruckelshaus et Lee Thomas, l’agence environnementale a repris un cours modéré, les deux hommes s’efforçant de restaurer le moral et la confiance du public.
Cependant, les crises environnementales ont continué à façonner l’opinion publique et les lois environnementales dans les années 1980. En décembre 1984, environ quarante-cinq tonnes de gaz méthylisocyanine se sont échappées d’un réservoir de stockage souterrain dans une usine de pesticides de Union Carbide à Bhopal, en Inde. L’accident, bien pire que celui de Seveso huit ans plus tôt, a causé 2 000 décès immédiats, 1 500 décès supplémentaires dans les mois qui ont suivi et plus de 300 000 blessures. L’usine de pesticides a été fermée et le gouvernement indien a intenté un procès à Union Carbide. Une médiation a abouti à un règlement de 470 millions de dollars par Union Carbide. Plus de vingt-cinq ans plus tard, en 2010, les tribunaux indiens en sont encore à déterminer la culpabilité des cadres supérieurs impliqués.
Cette catastrophe est à l’origine de la disposition relative au « droit de savoir » de la Superfund Amendments and Reauthorization Act (SARA) de 1986, qui oblige les industries utilisant des produits chimiques dangereux à divulguer le type et la quantité de produits chimiques utilisés aux citoyens des environs susceptibles d’être affectés par un accident. La disposition relative au droit de savoir s’est manifestée dans le Toxics Release Inventory (TRI), dans lequel les entreprises ont rendu publique l’ampleur de leurs émissions polluantes. Ces informations se sont avérées utiles pour les communautés et l’industrie en rendant les deux groupes plus conscients du volume de polluants émis et de la responsabilité de l’industrie pour réduire ces niveaux.
En 1990, Thomas Lefferre, vice-président des opérations pour Monsanto, a souligné l’effet sensibilisateur de cette nouvelle exigence sur les entreprises. Il écrivait : « Si… vous déposez un rapport au titre III qui indique que votre usine émet chaque année 80 000 livres de substances cancérigènes présumées dans l’air, vous pouvez être rassuré par le fait que vous êtes en conformité avec votre permis. Mais qu’en est-il si votre usine est située à deux pâtés de maisons d’une école primaire ? Comment vous sentiriez-vous alors ?
Figure 1.6 Émissions de divers polluants pour la Virginie dans le cadre du TRI en 2009.
Source : Bureau de l’air et des radiations de l’EPA
Jusqu’au milieu des années 80, les catastrophes environnementales étaient perçues comme étant confinées à des endroits géographiquement limités et les gens craignaient rarement une contamination venant d’ailleurs que de leur usine chimique ou de leur centrale électrique locale. Cette notion a changé en 1986, lorsqu’une explosion à l’intérieur d’un réacteur de la centrale nucléaire de Tchernobyl, en Ukraine, a libéré un gigantesque nuage de débris radioactifs qui, selon les normes météorologiques, s’est propagé de l’Union soviétique à la Scandinavie et à l’Europe occidentale. Les effets ont été graves et persistants. À la suite de l’explosion, on s’attendait à ce que quelque 21 000 personnes en Europe occidentale meurent d’un cancer et à ce qu’un nombre encore plus important de personnes contractent cette maladie. En Laponie, on a découvert que les rennes présentaient des niveaux de radioactivité sept fois supérieurs à la norme. En 1990, les moutons du nord-ouest de l’Angleterre et du Pays de Galles étaient encore trop radioactifs pour être consommés. Dans l’ancienne Union soviétique, plus de 10 000 kilomètres carrés de terres ont été jugés dangereux pour l’habitation humaine, mais la plupart des terres sont restées occupées et l’agriculture a continué. Environ 115 000 personnes ont été évacuées de la zone entourant le site de la centrale, 220 villages ont été abandonnés et 600 autres villages ont dû être « décontaminés ». On estime que la vie de plus de 100 000 personnes dans l’ancienne Union soviétique a été ou sera probablement gravement affectée par l’accident.
D’autres problèmes environnementaux d’envergure internationale ont fait la une des journaux dans les années 80. Le dioxyde de soufre et les oxydes d’azote provenant des cheminées et des pots d’échappement peuvent être transportés sur plus de six cents miles par les vents dominants et reviennent souvent au sol sous forme de pluies acides. C’est ainsi que la ville de Wheeling, en Virginie occidentale, a reçu un jour une pluie dont le pH était presque équivalent à celui d’un acide de batterie.
En raison de ces dépôts, les lacs et les cours d’eau sous le vent deviennent de plus en plus acides et toxiques pour les plantes aquatiques, les invertébrés et les poissons. La proportion de lacs des Adirondacks, dans l’État de New York, dont le pH est inférieur à 5,0 est passée de 4 % en 1930 à plus de 50 % en 1970, ce qui a entraîné la disparition des stocks de poissons. Les pluies acides ont également été impliquées dans l’endommagement des forêts à des altitudes supérieures à deux mille pieds. Le nord-est des États-Unis et l’est du Canada, situés sous le vent de grandes zones industrialisées, ont été particulièrement touchés. La pluie dans l’est des États-Unis est aujourd’hui environ dix fois plus acide que les précipitations naturelles. Des problèmes similaires sont apparus en Scandinavie, destination des polluants microscopiques de l’Europe.
Un rapport publié en 1983 par un groupe de travail du Congrès a conclu que la principale cause des pluies acides qui détruisent l’eau douce dans le nord-est des États-Unis était probablement la pollution provenant des cheminées industrielles situées au sud et à l’ouest. L’Académie nationale des sciences a suivi avec un rapport affirmant qu’en réduisant les émissions d’oxyde de soufre des centrales électriques au charbon de l’est des États-Unis, on pourrait endiguer les pluies acides dans le nord-est du pays et le sud du Canada. Cependant, l’administration Reagan a refusé d’agir, ce qui a tendu les relations avec le Canada, notamment lors de la visite du Premier ministre canadien Brian Mulroney en 1988. Les pluies acides ont finalement été abordées en partie par les modifications apportées à la loi sur la pureté de l’air en 1990.
La CAA, pièce maîtresse de la législation environnementale adoptée au cours de ce que l’on pourrait appeler la première vague environnementale, a été considérablement modifiée en 1990 pour traiter des pluies acides, de l’appauvrissement de la couche d’ozone et de la contribution de la pollution d’un État aux États situés en aval. La loi comprenait une clause révolutionnaire permettant l’échange de permis de polluer pour les émissions de dioxyde de soufre et d’oxyde d’azote des centrales électriques de l’Est et du Midwest. Les centrales avaient désormais des incitations commerciales à réduire leurs émissions polluantes. Elles pouvaient vendre des crédits, transformés en permis, sur le Chicago Board of Trade. L’effort d’une entreprise pour aller au-delà de la conformité lui permettait de gagner un actif qui pouvait être vendu aux entreprises qui ne respectaient pas les normes. Les entreprises étaient ainsi incitées à protéger l’environnement pour augmenter leurs bénéfices, un mécanisme considéré par beaucoup comme une avancée majeure dans la conception de la protection de l’environnement.
Cette innovation politique a marqué le début des mécanismes axés sur le marché pour résoudre les problèmes de pollution. La Clean Air Interstate Rule (CAIR) a élargi la portée du programme d’échange initial et a été rétablie après diverses contestations judiciaires de sa méthode. La question de savoir si les taxes directes ou les solutions de marché sont les meilleures continue toutefois d’être débattue. Avec l’élection du président Obama en 2008, la question d’une taxe fédérale sur le carbone aux États-Unis par rapport à celle de laisser évoluer les marchés régionaux et nationaux du carbone est devenue un sujet brûlant du débat national.
Un autre problème qui a pris des proportions mondiales est l’appauvrissement de la couche d’ozone. En 1974, les chimistes Sherwood Rowland et Mario Molina ont annoncé que les chlorofluorocarbones (CFC) faisaient baisser la concentration moyenne d’ozone dans la stratosphère, une couche qui bloque une grande partie des rayons ultraviolets nocifs du soleil avant qu’ils n’atteignent la terre. Avec le temps, la diminution de la protection contre les rayons ultraviolets entraînera une augmentation des taux de cancer de la peau et de cataractes chez les humains, ainsi que des dommages aux cultures et à certaines espèces marines. En 1985, les scientifiques ont observé une réduction de 50 % de l’ozone dans la haute stratosphère au-dessus de l’Antarctique au printemps et au début de l’été, créant ainsi un trou d’ozone saisonnier. En 1988, un phénomène similaire mais moins grave a été observé au-dessus du pôle Nord. Pressentant un désastre, Rowland et Molina ont demandé l’interdiction immédiate des CFC dans les bombes aérosol.
Un tel problème à l’échelle mondiale exigeait une solution mondiale. En 1987, les représentants de trente-six nations se sont réunis à Montréal et ont élaboré un traité connu sous le nom de protocole de Montréal. Les nations participantes ont accepté de réduire les émissions de CFC d’environ 35 % entre 1989 et 2000. Ce traité a ensuite été élargi et renforcé à Copenhague en 1992.
La quantité de substances appauvrissant la couche d’ozone près de la surface de la Terre a donc diminué, tandis que la quantité dans la haute atmosphère est restée élevée. La persistance de ces substances chimiques signifie qu’il faudra peut-être des décennies pour que la couche d’ozone retrouve la densité qu’elle avait avant 1980. La bonne nouvelle est que le taux de nouvelle destruction s’est approché de zéro en 2006. Il est intéressant de noter que les entreprises se sont opposées aux restrictions d’utilisation des CFC jusqu’à ce que des matériaux alternatifs protégés par des brevets soient disponibles sur le marché pour remplacer les CFC.
L’ampleur de plus en plus globale des menaces environnementales et la prise de conscience croissante par les nations de la nature interdépendante du développement économique et du fonctionnement stable des systèmes naturels ont conduit les Nations unies à créer la Commission mondiale sur l’environnement et le développement (CMED) en 1983. La commission s’est réunie l’année suivante, sous la direction de sa présidente, Gro Harlem Brundtland, ancien premier ministre de Norvège. En 1987, la Commission Brundtland a publié un rapport historique intitulé « Notre avenir à tous », qui associe les préoccupations relatives au développement humain, au développement économique et à la protection de l’environnement au concept de développement durable. Bien qu’il ne s’agisse certainement pas de la première apparition du terme « développement durable », la définition de la commission est devenue pour beaucoup une référence pour aller de l’avant : « Le développement durable est un développement qui répond aux besoins du présent sans compromettre la capacité des générations futures à répondre à leurs propres besoins. » À peu près à la même époque, l’expression « justice environnementale » a été inventée pour décrire les habitudes d’implantation d’industries dangereuses ou de déversement de déchets dangereux et de toxines dans des régions où vivent principalement des personnes pauvres ou des minorités raciales et ethniques.
Au milieu des années 1970, les entreprises ont commencé à agir pour prévenir la pollution plutôt que de se contenter d’atténuer les déchets déjà produits. La prévention de la pollution fait référence à des actions menées au sein d’une entreprise et est appelée une méthode de protection de l’environnement « en cours d’exécution » par opposition à une méthode « en fin d’exécution ». Contrairement à la lutte contre la pollution, qui ne fait qu’imposer des coûts, la prévention de la pollution offre la possibilité à une entreprise d’économiser de l’argent et de mettre en œuvre simultanément la protection de l’environnement. Encore utilisée aujourd’hui, les entreprises s’engagent souvent dans ce processus de manière hésitante, à la recherche d’un retour sur investissement rapide. Avec le temps, il s’est avéré qu’elles pouvaient obtenir des résultats positifs significatifs sur le plan financier et environnemental. Cela permet d’ouvrir les esprits au sein des entreprises sur le potentiel d’une reconception ou d’une réingénierie des processus respectueux de l’environnement, qui apporte des avantages en termes d’écologie et de santé, ainsi qu’en termes de rentabilité.
Il existe quatre grandes catégories de prévention de la pollution : le bon entretien, la substitution de matériaux, les modifications de fabrication et la récupération des ressources. L’objectif du bon entretien est que les entreprises fassent fonctionner leurs machines et leurs systèmes de production aussi efficacement que possible. Pour cela, il faut comprendre et surveiller les flux de matières, les impacts, les sources et le volume des déchets. Le bon entretien est une question de gestion qui garantit qu’il n’y a pas de pertes matérielles évitables et que toutes les ressources sont utilisées efficacement. La substitution des matériaux vise à identifier et à éliminer les sources de déchets dangereux et toxiques tels que les métaux lourds, les composés organiques volatils, les chlorofluorocarbones et les substances cancérigènes.
En substituant des alternatives plus respectueuses de l’environnement ou en réduisant la quantité de substances indésirables utilisées et émises, une entreprise peut éviter de recourir à des traitements coûteux en bout de chaîne. Les modifications de fabrication impliquent des changements de processus pour simplifier les technologies de production, introduire un traitement en circuit fermé et réduire la consommation d’eau et d’énergie. Ces mesures peuvent réduire considérablement les émissions et les coûts. Enfin, la récupération des ressources permet de récupérer les déchets et de les réutiliser dans le même processus, comme intrants pour un autre processus au sein du système de production, ou comme intrants pour des processus dans d’autres systèmes de production.
L’un des premiers exemples de prévention de la pollution en pratique a été le programme 3P (Pollution Prevention Pays) de 3M, établi en 1975. Ce programme a permis d’économiser plus d’un demi-milliard de dollars en coûts d’investissement et d’exploitation tout en éliminant 600 000 livres d’effluents, d’émissions atmosphériques et de déchets solides. Ce programme a continué à évoluer au sein de 3M et a été intégré aux systèmes d’incitation, récompensant les employés qui identifient et éliminent les déchets inutiles.
D’autres entreprises, qui ne poursuivent pas d’objectifs environnementaux en tant que tels, ont constaté que les programmes de gestion de la qualité totale (GQT) peuvent aider à réaliser des économies et des gains d’efficacité en matière de ressources, conformément aux objectifs de prévention de la pollution, grâce à des efforts conscients pour réduire les intrants et la production de déchets.
Bien que la prévention de la pollution soit une première étape importante dans la protection de l’environnement par les entreprises, Joseph Fiksel identifie plusieurs limites à la prévention de la pollution telle qu’elle est généralement pratiquée. Premièrement, elle ne fait qu’affiner et améliorer progressivement les processus existants. Deuxièmement, elle tend à se concentrer sur des mesures d’amélioration uniques, telles que la réduction du volume des déchets, plutôt que d’adopter une vision systémique de la performance environnementale. La célèbre analyste de systèmes Donella Meadows a proposé une définition simple d’un système : « tout ensemble d’éléments interconnectés ». Une vision systémique met l’accent sur les connexions et les relations.
Troisièmement, comme la plupart des gains se situent souvent dans des processus qui n’avaient pas été optimisés auparavant pour l’efficacité, les améliorations ne sont pas reproductibles. Quatrièmement, la prévention de la pollution est détachée de la stratégie commerciale de l’entreprise et est réalisée au coup par coup.
COMPRÉHENSIONS CLÉS
|