Aidez nous à garder notre planète sauvons la.

Créé par le 10 déc 2008 | Dans : Non classé

  Depuis la Révolution industrielle, les atteintes à l’environnement de l’homme n’ont cessé d’augmenter, au point de sembler parfois compromettre le devenir des générations futures. L’homme a détruit de nombreuses espèces, provoqué des modifications de climat et dramatiquement menacé sa propre santé. 

 

Bien que des recherches soient entreprises pour trouver des solutions écologiques, celles-ci, entravées par de multiples contraintes politiques et économiques, ne permettent guère de faire respecter les lois. 


Pollutions ancestrales et modernes L’histoire de la pollution est une histoire humaine, car l’homme est responsable de la perturbation du recyclage naturel. Depuis la conquête du feu, utilisé de façon intensive pour l’agriculture au cours du néolithique, l’homme a progressivement étendu son pouvoir sur son environnement, provoquant des phénomènes de désertification et des changements de climat. 

 

Nos ancêtres, paysans ou citadins, ont été confrontés à deux types de pollution : biologique (humaine et animale) et artisanale (celle des tanneries, par exemple) ; la souillure des sources entraînait la contamination, à distance, des sujets sains. Dès le VIIe siècle, une action préventive est menée ; le roi des Francs Dagobert Ier condamne à une amende les personnes qui salissent l’eau des fontaines. 

 

Depuis la fin du XIXe siècle, l’amélioration des conditions sociales et de l’hygiène en Occident a provoqué un recul très net de ce fléau, responsable de la propagation des grandes épidémies. Mais cette pollution perdure dans le tiers-monde, où les maladies transmissibles (choléra, typhoïde, poliomyélite, hépatite virale, etc.) font des ravages, notamment chez les enfants. 

 

La pollution augmente toujours plus rapidement depuis le grand tournant de la révolution industrielle, qui s’est appuyée sur la découverte de nouvelles sources d’énergie : les carburants d’origine fossile (charbon, puis pétrole). Leur exploitation permet de faire tourner les fabriques, mais ils produisent des déchets non biodégradables (les organismes biologiques présents dans la nature sont incapables de les détruire). En outre, l’industrie a un besoin accru en main-d’œuvre, ce qui a pour conséquence une forte augmentation de la population dans les villes, qui deviennent particulièrement polluantes. Dès 1810, les pouvoirs publics se sont préoccupés, en France, de la défense du voisinage industriel, répartissant les établissements industriels ou commerciaux dangereux, insalubres et incommodes. Ces adjectifs sont significatifs en eux-mêmes. 

 

Le XXe siècle continuera sur cette lancée ; avec l’explosion démographique, la situation ne fera qu’empirer. La production industrielle multiplie les polluants organiques ou inorganiques : objets, aliments végétaux et animaux, nouveaux matériaux. 

 

Dans le tiers-monde, en pleine mutation aujourd’hui, cette pollution moderne s’ajoute à l’ancienne. La formation de villes démesurées et l’industrialisation à un rythme accéléré, dans certains pays (de l’Amérique latine et de l’Asie du Sud-Est notamment), se font naturellement au détriment de l’environnement et de la santé des personnes. La lutte contre la pauvreté prévaut sur la protection de la nature. 


Une «sphère de vie» en danger Polluer signifie «souiller». De nos jours, ce verbe a pris le sens de «dégrader un milieu», qu’il soit naturel, urbain ou agricole. Combattre la pollution consiste d’abord à empêcher l’homme de s’empoisonner au moyen de ses propres déchets. 

 

Cependant, l’être humain ne vit jamais seul. La dégradation d’un environnement nuit à tous les êtres vivants qui le peuplent, à tous les matériaux qui le composent. Inversement, la pollution humaine peut être amplifiée par l’action d’un animal, d’un végétal ou même d’une substance chimique naturelle. Ainsi, l’homme, comme tout ce qui vit, appartient à un écosystème. 

L’écologie permet de définir ce système comme un milieu, dans un lieu limité de
la Terre. Tous les écosystèmes qui recouvrent la planète forment la biosphère, ou «sphère de vie». Les dimensions de celle-ci sont très petites : la vie se développe dans un espace de quelques kilomètres de part et d’autre de la surface du globe, entre les profondeurs terrestres et la haute atmosphère. 


La pollution de l’eau La pollution de l’eau, c’est-à-dire la dégradation de la qualité de l’eau, est en germe dans toute action de l’homme sur son milieu ; elle est, par conséquent, très ancienne, et augmente avec l’utilisation croissante et quasi universelle de nouveaux produits polluants, insecticides, engrais, détergents, colorants. Les substances nocives dissoutes ou en suspension migrent dans les sols et dans les nappes souterraines, et peuvent être entraînées par les cours d’eau très loin des lieux d’émission, jusque dans la mer. 

 

Les normes de qualité de l’eau 

La pollution est une notion relative, comme l’est celle de la qualité de l’eau : elle dépend des usages auxquels l’eau est destinée. Du liquide propre à la boisson à celui qui convient pour le bain ou qui suffit à l’arrosage des plantes, à l’alimention d’un vivier, à une retenue destinée aux jeux nautiques, il existe toute une gamme de qualités acceptables dont les limites ne sont ni tranchées ni même immuables. C’est pourquoi la définition, tardive, retenue par les experts de l’Organisation mondiale de la santé en 1961, puis celle de l’Organisation des Nations unies appliquée aux milieux marins en 1970 sont vagues. Elles stipulent que la pollution résulte, directement ou indirectement, des activités de l’homme et qu’elle se manifeste par les altérations ou les limites qu’elle impose à ces activités. Pas plus que l’eau polluée, l’eau propre ne se prête à une définition simple ; quand des normes (une soixantaine dans le Code français de la santé en matière d’eau potable) sont posées en vue d’un usage, elles s’appliquent à la qualité de l’eau fournie aux consommateurs et non à celle des aquifères dans lesquels elle est prélevée. 

 

Les formes de pollution de l’eau 

La contamination biologique 

La contamination biologique des eaux par des micro-organismes pathogènes, bactéries ou virus, peut causer de graves maladies : typhoïde, choléra, poliomyélite, amibiases, certaines hépatites… Nombre de parasitoses endémiques – paludisme, onchocercose, maladie du sommeil, bilharziose – ou de maladies infectieuses, comme la fièvre jaune, font des ravages dans les milieux tropicaux humides, car les insectes vecteurs prolifèrent dans les biotopes privilégiés que sont les rivières, les mares, les marigots. 

 

La pollution industrielle de l’eau 

L’industrie est une activité extrêmement polluante ; des secteurs tels que la papeterie, la chimie, le pétrole et la métallurgie atteignent des records en ce domaine, car ils utilisent un important volume d’eau dans leurs processus de fabrication. Les rejets des eaux usées («effluents») contiennent des produits comme les métaux lourds (mercure, plomb ou cadmium, entre autres), dont la toxicité est encore mal connue pour certains. Mais l’un des plus grands dangers de pollution vient directement du mode de vie adopté par l’homme à l’ère industrielle. La concentration urbaine et le système de tout-à-l’égout, par exemple, entraînent une souillure du milieu aquatique sans doute supérieure aux pollutions industrielles. L’eau est aujourd’hui l’élément naturel le plus pollué. 

 

Les produits toxiques
Les polluants chimiques, d’origine organique ou minérale, sont innombrables. Certaines matières sont biodégradables, c’est-à-dire susceptibles d’être reprises dans le cycle de la vie, dégradées et assimilées par les micro-organismes présents dans une eau suffisamment oxygénée. Les eaux véhiculent également, sous forme dissoute, des sels plus ou moins nuisibles, de produits hautement et immédiatement toxiques et d’autres qui, à dose minime, tels les métaux (arsenic, cadmium, chrome, cuivre, fer, mercure, plomb, zinc…), sont à long terme particulièrement dangereux. 

 

L’asphyxie des eaux
L’eau et les êtres vivants aquatiques s’asphyxient. Trois phénomènes, au moins, concourent à cette réduction alarmante de la quantité d’oxygène. Le premier résulte directement de la pollution organique d’origine humaine ou animale (transportée par les égouts ou produite par l’élevage). Ces matières organiques fermentent et pourrissent dans les eaux ; ces deux actions requièrent énormément d’oxygène, ce qui explique certains phénomènes ayant lieu en général l’été, la mort de tous les poissons vivant dans un point d’eau particulier, par exemple. 

 

Le deuxième processus important d’asphyxie des eaux se nomme eutrophisation («excès de nourriture» pour les algues). Il consiste en un enrichissement excessif en sels nutritifs des eaux douces ou marines, qui provoque une croissance démesurée d’algues vertes. On voit ainsi des «marées vertes» envahir les côtes et les rivières. Lorsqu’elles meurent, ces algues produisent une telle quantité de matière putride qu’elles épuisent l’oxygène de l’eau. De même, chaque année vers mars-avril, on constate sur le littoral du Nord-Pas de Calais, une efflorescence phénoménale d’algues unicellulaires Phaeocystis responsable d’abondantes formations d’écume. 

 

Le troisième phénomène concerne les industries (surtout les centrales électriques et nucléaires) qui rejettent des eaux chaudes. Outre le gaspillage d’énergie que cela représente, cette pollution thermique modifie la température de l’eau et perturbe, voire anéantit, nombre d’organismes. L’élévation anormale de la température engendre aussi une réduction de la quantité d’oxygène dans le milieu aquatique. 

 

La quantité d’eau potable en baisse
La pollution de l’eau douce, par manque d’oxygène ou en raison de la présence de produits toxiques, est un problème majeur dans les pays industrialisés. Autrefois, les eaux continentales retrouvaient leur qualité première grâce à un cycle naturel au sein de la Terre, après avoir été utilisées par les hommes. Aujourd’hui, on emploie des moyens techniques importants et on consent des investissements lourds pour conserver la quantité d’eau dont nous avons besoin, ainsi que sa qualité. En effet, plus de 90 % du volume de l’eau que contient notre planète sont salés, imbuvables (le dessalement est une opération extrêmement coûteuse), et les trois quarts de liquide restant demeurent sous forme de glace (calottes polaires et glaciers) : l’eau potable est donc une denrée rare, de plus en plus précieuse. Par exemple, l’eau du Rhin est à ce point polluée par l’industrie chimique (rejets de sels minéraux comme le chlorure de sodium par les installations minières) qu’elle ne peut même plus être réutilisée par l’industrie. Les eaux souterraines sont également touchées, notamment les nappes phréatiques, qui nous alimentent en eau potable. Les premiers responsables sont l’agriculture intensive et les engrais qu’elle emploie. 

 

La dégradation des zones côtières 

Les zones côtières sont les régions maritimes les plus riches en flore et en faune, et les plus intéressantes pour l’homme, mais ce sont aussi les plus vulnérables en raison de l’exploitation dont elles font l’objet ; on y rencontre une population humaine particulièrement dense, qui génère une grande pollution. Par exemple, certaines villes côtières se débarrassent de leurs déchets industriels et de leurs ordures ménagères dans les marais avoisinants, alors que ceux-ci devraient naturellement servir de filtres à la pollution entre la terre et
la mer. Dans les estuaires, des «communautés» entières de poissons ont été éliminées. Ainsi, la Méditerranée, avec ses nombreux ports, fait partie des mers les plus polluées du monde. 

 

La pollution des océans 

Plus grave encore, les eaux continentales, chargées de déchets, finissent un jour ou l’autre dans les océans. La plus grande part de la pollution marine provient des activités basées à terre : écoulements agricoles d’engrais et de pesticides, égouts et rejets industriels. De plus, de nombreux autres polluants sont déversés directement dans l’océan : environ 6 millions de tonnes de pétrole pénètrent chaque année dans les océans, au cours de l’extraction offshore (le pétrole du sous-sol marin est extrait à partir de plates-formes construites en mer) et du transport dans les pétroliers. Les marées noires ne représentent, en fait, qu’une infime partie de la pollution des océans. Le déchargement délibéré en haute mer («dégazage», ou vidange des réservoirs des pétroliers) est une pollution volontaire beaucoup plus importante. Le dépôt de déchets radioactifs en profondeur dans des réservoirs de stockage fait peser une grande menace sur l’océan et sur l’homme. Si les eaux océanes possèdent toutes les qualités pour recycler et nettoyer les déchets, leurs capacités sont aujourd’hui dépassées. 

 

L’épuration des eaux 

Quand il faut épurer un mélange d’eaux usées (domestiques, industrielles) et pluviales (qui ont balayé la voirie et les infrastructures de transport), on peut calculer ce qu’on appelle la population équivalente. 

 

L’équivalent-habitant (EH) est une unité conventionnelle qui représente le flux moyen de charge polluante engendrée par habitant et par jour dans un volume de 150 l d’eau, soit 90 g de matières en suspension, 57 g de matières oxydables, 15 g d’azote organique ou minéral, 4 g de phosphore total. La population équivalente d’une collectivité ou d’un pays peut être différente de la population réelle, et lui est souvent très supérieure. En France, le seul flux brut de pollution transitant dans les réseaux d’assainissement collectifs est de l’ordre de 70 millions d’équivalents-habitants, alors que la population urbaine réelle compte à peu près 45 millions de personnes. Cette unité de mesure est un paramètre utile pour choisir et fixer la taille des systèmes et des stations d’épuration. 

 

Les pollutions industrielles, ponctuelles et caractérisées, sont souvent traitées à la source, au sein même des usines. Des procédés d’épuration rustiques sont bien adaptés à un habitat f
aiblement concentré, à la campagne ou dans les zones périphériques des agglomérations : épandage sur le sol, lagunage simple ou aéré, assainissement individuel. Dans d’autres cas, le recours à une station d’épuration est nécessaire, avec différentes étapes de traitement selon les disponibilités financières des collectivités et les impératifs de protection du milieu naturel. 


L’air, les transports et le chauffage Alors que les rejets de polluants industriels régressent, ceux de gaz d’échappement augmentent sans cesse, proportionnellement au trafic automobile et aérien. Ils sont aujourd’hui la première cause de pollution atmosphérique, avec les installations de combustion. 

 

L’air pollué, avant tout dangereux pour la santé, perturbe profondément les écosystèmes végétaux (les forêts d’Europe centrale sont particulièrement touchées). Il est aussi la cause de graves dégradations qui mettent en péril le patrimoine architectural universel (c’est le cas pour l’Acropole d’Athènes). La ville de Mexico est un exemple extrême : cette métropole, l’une des plus grandes du monde, subit une pollution tout à fait catastrophique. L’air vicié, particulièrement concentré dans l’atmosphère urbaine, se répand également dans les campagnes sous l’action des vents. 

 

Le dioxyde de soufre est la substance chimique polluante la plus dangereuse pour les êtres vivants, surtout lorsqu’elle se transforme en acide sulfurique pour former des «smogs» urbains (mot anglais signifiant d’abord «brouillard»). Dans les années 1950, un smog londonien aurait provoqué, d’après un rapport médical, plus de 3000 décès en trois jours. 

 

Le dioxyde de soufre, les oxydes d’azote et les hydrocarbures (trois produits que l’on retrouve dans les gaz d’échappement des automobiles) sont par ailleurs responsables d’un dépérissement alarmant des forêts, constaté depuis le début des années 1980 (il est sensible, en France, dans les Vosges, le Jura et les Alpes du Nord). L’action continue de dépôts acides sur des sols déjà très pauvres aggrave les problèmes nutritionnels des végétaux. Cette acidification est généralement due à deux grands phénomènes chimiques. Le plus simple est une pollution acide causée par la transformation, dans l’atmosphère, du dioxyde de soufre et des oxydes d’azote en des substances acides plus dangereuses qui retombent sur la terre avec les pluies et les neiges. 

 

L’autre consiste en une pollution photo-oxydante qui résulte de l’action du soleil sur les oxydes d’azote et les hydrocarbures : les rayons solaires ultraviolets transforment ces deux substances chimiques en ozone et en peroxyacyl nitrate (ou PAN), deux produits qui provoquent sur les végétaux l’équivalent d’une brûlure. 

 

Mais l’ozone, polluant à basse altitude, est également un produit nécessaire à la vie : à 25 km au-dessus de la surface terrestre, une couche d’ozone protège
la planète. Elle filtre la quasi-totalité des rayonnements solaires ultraviolets B et laisse pénétrer les ultraviolets A. Si cette protection venait à diminuer, l’homme et son environnement seraient exposés à de nombreux ultraviolets B, qui provoquent des atteintes de la peau, des yeux et du système immunitaire. De plus, la concentration d’ozone au niveau du sol s’élèverait dramatiquement. L’altération de la couche d’ozone supérieure (le fameux «trou», découvert au-dessus du pôle Sud en 1985) est due avant tout aux chlorofluorocarbures (substances chimiques encore nommées fréons), qui se trouvent en grande quantité dans des objets d’usage quotidien, essentiellement les bombes aérosols (vaporisateurs), les réfrigérateurs et les conditionneurs d’air. 

 

 

Ces mêmes gaz s’ajoutent au gaz carbonique (CO2, dû aux combustions et aux transports), au méthane (CH4, dû aux décharges et à l’agriculture) et au protoxyde d’azote (N2O, produit surtout par l’agriculture). Tous ces polluants ajoutés entraînent une augmentation de température de l’atmosphère. Ce phénomène, que l’on nomme «effet de serre», est en partie naturel. S’il n’existait pas, la Terre aurait une température de -18o C environ, alors que la moyenne actuelle est de 15o C. Les gaz cités retiennent sur la Terre, en les absorbant, une partie des rayonnements solaires (chaleur rayonnante infrarouge) et permettent donc le chauffage de la biosphère terrestre. Mais, en quantité excessive, ces gaz polluants entraînent l’accroissement de l’effet de serre et, aujourd’hui, si rien n’est fait pour freiner le réchauffement déjà notable des climats, l’environnement risque de subir des bouleversements trop importants pour que tous les êtres vivants puissent s’y adapter. Des estimations pessimistes prévoient même, vers 2050, une hausse moyenne des températures de 2°C entraînant une élévation du niveau des mers de 30 à 150 cm. 

 

Parallèlement, le désert gagnerait certaines régions tempérées. Conclu en 1997, le protocole de Kyoto (« Protocole de Kyoto à la Convention-cadre des Nations-Unies sur les changements climatiques »), a pour objectif de limiter et réduire les émissions de gaz à effet de serre et exige que chaque pays fasse redescendre, d’ici à 2012, les émissions sous le niveau de 1990 : il prévoit une baisse globale de 5,2 % des émissions de gaz à effet de serre des pays développés à l’horizon 2008-2012. S’il paraît exprimer la prise de conscience des États des problèmes liés au réchauffement climatique, son entrée en vigueur est conditionnée par sa ratification par au moins 55 pays représentant 55 % des émissions de CO2, mais les États-Unis, responsables du rejet de 36 % des émissions mondiales de gaz à effets de serre et plus gros pollueurs de la planète, ont refusé sa ratification. Toutefois, malgré l’opposition américaine, un accord conclu à Bonn en juillet 2001 a réaffirmé son principe fondamental et a défini sa mise en œuvre. Lors de son entrée en vigueur, le 16 février 2005, il était ratifié par 141 Etats, dont la Russie (17,4 % des émissions). 


La terre et les engrais Les dépôts d’ordures ménagères solides, qui représentent déjà une pollution «esthétique» du cadre de vie, sont surtout nocifs dans le cas des cimetières de voitures et de l’accumulation de matières plastiques, deux caractéristiques des déchets familiers à la civilisation des pays développés. Les décharges industrielles, ou «friches industrielles», posent des problèmes tout aussi sérieux. Elles résultent souvent de faillites d’entreprises, mais aussi de dépôts non autorisés de produits dangereux dans des sites inadaptés (on les nomme alors «points noirs»). Ils sont constitués de substances polluantes accumulées depuis des années. Les sols risquent alors d’être contaminés par des produits toxiques. 

 

La pollution des sols est tout particulièrement liée à celle des eaux souterraines, et celle-ci résulte avant tout de l’agriculture. Un délai plus ou moins long peut s’écouler entre les deux pollutions : les engrais, les herbicides et les insecticides traversent plus ou moins vite la terre avant de s’infiltrer dans les nappes phréatiques. Par ailleurs, l’élevage produit une quantité de déchets organiques très supérieure à celle produite par les hommes. 

 

Mais le problème le plus grave est celui de la pollution par les nouvelles molécules synthétiques (utilisées en particulier dans les herbicides et les insecticides), car celles-ci ne sont que très lentement biodégradables. Elles peuvent même parfois se transformer en produits toxiques extrêmement dangereux pour l’homme. C’est le cas du DDT (dichloro-diphényl-trichloréthane), un insecticide très puissant utilisé depuis 1939 dans l’agriculture et dans la lutte contre les animaux vecteurs des épidémies de typhus, de malaria et de choléra. Aujourd’hui, cette substance extrêmement dangereuse est souvent interdite, aux Etats-Unis notamment. Mais les pays occidentaux subissent toujours la pollution de cet insecticide puisque leur population consomme les fruits et les légumes bon marché du tiers-monde. 

 

Les pays en voie de développement utilisent 43 % de la quantité mondiale d’insecticides, produits et vendus par les pays développés, alors que ces derniers interdisent chez eux l’usage de ces mêmes pesticides. Le tiers-monde est lentement empoisonné, et il nous transmet naturellement sa pollution. 


Le grand mélange planétaire des polluants Au sein de la biosphère terrestre, la pollution circule très vite, les réactions en chaîne (et des transformations chimiques complexes parfois) menant très loin de la source pollueuse. Les conséquences écologiques à distance sont plus ou moins graves selon la nature des polluants : substances biodégradables ou non, constamment nocives (radiations) ou dangereuses à forte dose seulement (produits toxiques), polluants immédiats ou à long terme (ces derniers menacent particulièrement la descendance des êtres vivants). C’est ainsi qu’on retrouve des produits chimiques comme le PCB (polychlorobiphényle) ou le lindane dans les glaces polaires. Autre exemple, le fameux DDT, interdit en Antarctique, est pourtant présent dans la graisse des manchots : transporté par les courants marins, il est parvenu aux extrêmes latitudes australes. 

 

Les processus de propagation et d’augmentation de la nocivité d’un polluant au cours d’une «chaîne alimentaire» sont des phénomènes connus, mais toujours aussi impressionnants – l’idée de «chaîne» recouvre la notion d’un lien naturel et nécessaire entre les matériaux et les êtres vivants, qui deviennent les aliments les uns des autres. Par exemple, les Américains répandirent, des années durant, du DDT sur certains marais de Long?Island (île de New York sur laquelle Brooklyn est construit) pour en supprimer les moustiques. 

 

Malgré toutes les précautions, la faune fut très atteinte. En effet, alors que l’eau contenait une quantité infime de cet insecticide puissant et non biodégradable, cette dose était multipliée par 12?000 dans la chair des poissons herbivores, par 30’000 dans celle des poissons carnivores, par 60?000 à 500?000 chez les oiseaux mangeurs de poissons. Finalement, les œufs de rapaces contenaient plus de 300’000 fois la quantité initiale présente dans l’eau. Le DDT tue ainsi des populations animales entières. La radioactivité se diffuse de la même manière, en provoquant une semblable concentration polluante. 


La pollution radioactive Il existe une radioactivité naturelle, et l’homme seul en fait une pollution en l’augmentant. Les bombes atomiques ont montré l’horreur de l’irradiation : brûlures, leucémie et surtout mutations génétiques d’une portée infinie. Aujourd’hui, l’industrie nucléaire pollue plus que les essais militaires. L’électricité française provient pour 70 % de centrales nucléaires, un moyen propre, a-t-on longtemps estimé. Mais les effets de la radioactivité sur la vie sont difficiles à contrôler. A l’état normal, les centrales libèrent constamment des radiations à f
aible dose, et les pays n’assurant pas une sécurité maximale dans leurs installations risquent l’accident. 

 

Les déchets radioactifs 

Les déchets radioactifs sont des substances solides ou liquides (appelées effluents dans le deuxième cas), provenant essentiellement de l’uranium employé dans les centrales nucléaires. Une partie de ces résidus ne peut plus être utilisée, que ce soit à cause d’un manque d’efficacité dans les réactions nucléaires ou d’une perte incontrôlée avant ou après la réaction. 

 

Les déchets de matériaux utilisés à d’autres fins que la production d’énergie forment une part beaucoup moins importante des déchets radioactifs. Ils proviennent des accélérateurs de particules ou des appareils utilisés en médecine, en géologie, etc. On doit aussi classer parmi les déchets les produits radioactifs dégagés par les bombes des expériences militaires. 

 

Les méthodes de stockage 

On a essayé plusieurs méthodes pour stocker les déchets radioactifs. Après avoir été concentrés et coulés dans du béton, du bitume, du verre, etc., et confinés dans des fûts métalliques, les déchets radioactifs sont en général lâchés dans l’océan au-dessus de fosses profondes ou entreposés sous terre dans des fosses très éloignées des zones de vie. Dans le cas de l’immersion, le risque est grand, du fait de l’instabilité de certains sols sous-marins. Il est à noter que, mis à part l’éventuelle contamination radioactive, les déchets produisent une pollution thermique pouvant être catastrophique pour certains écosystèmes. 

 

Les déchets à forte radioactivité sont d’abord entreposés sur place, puis, lorsque leur activité a suffisamment baissé (plusieurs dizaines d’années), ils sont stockés de manière conventionnelle. Certains pays d’Europe, notamment, ont décidé de retraiter certains déchets pour les réutiliser dans les surrégénérateurs. 


Les moyens d’action L’application des lois écologiques se heurte à un manque de preuves des délits commis à l’encontre de l’environnement et à une mauvaise volonté générale des pouvoirs publics et des industriels. Ces derniers invoquent la concurrence et menacent de fermer les usines. Pourtant, en termes de marché, l’environnement peut devenir une source de profit (activités de dépollution, de mesure, d’expertise, ou celles qui sont liées au tourisme, etc.). Un label écologique apposé sur un produit est également devenu un argument de vente. 

 

Rechercher les causes pour prévenir 

Etudier la pollution implique de pouvoir administrer la preuve qu’un composé chimique, un agent microbien ou un facteur physique sont nuisibles pour l’homme et
la nature. L’action de certains polluants sur une collectivité d’êtres vivants ne peut s’établir qu’à l’issue d’enquêtes. Il faut rechercher les sources pollueuses et définir leurs conséquences sur les autres constituants du milieu – l’air, l’eau, les aliments, ou encore les végétaux et les animaux. Enfin, il est essentiel de comprendre les mécanismes, souvent très complexes, de diffusion des polluants dans l’environnement local, régional et planétaire. 

 

Un fait complique l’évaluation des effets nocifs des polluants : la grande variabilité de leur action sur les organismes vivants. Le DDT, pour reprendre cet exemple, est immédiatement toxique pour la plupart des animaux invertébrés et vertébrés à sang-froid (reptiles et poissons), alors que, chez les oiseaux, il n’entraîne aucun trouble apparent ; par contre, on ne tarde pas à s’apercevoir que leurs œufs ont une coquille extrêmement fragile : elle se brise lors de la couvaison, entraînant la mort de tous les poussins. Il est donc généralement impossible, à partir de critères toxicologiques trop simples, de prévoir toutes les conséquences de la diffusion d’un polluant. En outre, aucune législation ne rend obligatoires, avant la commercialisation d’un nouveau produit, des études complètes sur la possibilité de toxicités prolongées, de processus cancérigènes ou de mutations génétiques. Ces recherches sont pourtant nécessaires à la réflexion sur les moyens de diminuer, voire d’éliminer, les effets néfastes. Une civilisation développée a besoin d’une protection de la nature à sa mesure. 

 

Nettoyer 

Mieux vaut prévenir que guérir, car guérir n’est pas toujours possible. Ainsi, certaines usines ont émis de très importants polluants atmosphériques à une époque où les dispositifs de filtrage mis en place étaient encore insuffisants. Il en résulte aujourd’hui une grave pollution des sols où se sont déposées les particules de fumées. Elle rend impossibles les techniques habituelles de réhabilitation de l’environnement. 

 

Quant aux décharges, légales ou non, elles se multiplient sur nos terres. Lorsqu’on traite ensuite les ordures, sans les récupérer, il reste toujours au moins des cendres, du mâchefer et d’autres matériaux («déchets ultimes»). Pourtant, ce n’est pas la seule solution pour nos poubelles. On peut «valoriser» (c’est-à-dire réemployer) ou recycler (transformer) une grande partie des déchets, à condition de prendre la peine de les trier. 

 

Aujourd’hui, on traite non seulement les effluents industriels et domestiques, mais même les eaux des fleuves et des rivières. Cependant toutes les eaux usées, sans exception, devraient passer par une station d’épuration. Ce serait là une protection minimale, car l’on sait que la plupart des procédés d’épuration ne suppriment que 10 à 30?% des phosphates (ceux-ci proviennent essentiellement des poudres à lessive). Par ailleurs, le coût de la lutte contre la pollution organique des eaux (provoquée par les matières naturelles et alimentaires des hommes et des animaux) est si élevé que les mesures prises jusqu’ici n’ont pu que freiner les détériorations de l’environnement. 

 

Que faire contre la mauvaise volonté? 

La pollution, pas plus que la nature, ne connaissent les frontières, tandis que les sociétés humaines en restent prisonnières. Tel est le grand problème. Certes, une coopération planétaire pour la protection des milieux naturels est mise en œuvre par les organisations régionales ou internationales (par exemple, l’ONU), ou encore grâce à des accords entre États. La Communauté européenne est en avance dans ce domaine. Ainsi, afin de regrouper les problèmes identiques que pose l’eau, entre autres, à travers le continent, des «comités de bassins» ont été instaurés en France, et des tribunaux des eaux en Suède. On effectue un classement des cours d’eau selon leur propreté et on réglemente leurs usages : alimentation, baignade, pêche, canotage, irrigation, énergie électrique ou navigation. Le déversement d’ordures est interdit, et l’épuration de certaines eaux souillées obligatoire. Cependant, la haute mer reste libre et vulnérable. Seule la frange côtière (les eaux territoriales des États) est contrôlée. Au-delà règne l’anarchie, malgré la réglementation internationale. 

 

Une meilleure manière de lutter contre la pollution de l’air serait de développer l’éducation des citoyens. Il suffirait d’inciter la population à conduire rationnellement (limiter la vitesse, entretenir les véhicules) et à employer avant tout les transports en commun. Les techniques de réduction d’émission de gaz toxiques – pots d’échappement catalytiques, essence sans plomb et véhicules électriques – ne sont en effet que des solutions partielles. Même si cette idée nouvelle de gestion de la circulation semble aller à l’encontre de certains intérêts économiques, le ministre français de l’Aménagement du territoire et de l’environnement a déterminé les modalités d’attribution de la « pastille verte » apposée depuis le 1er août 1998 sur les véhicules considérés comme « propres » et autorisés à circuler lors des pics de pollution de niveau 3 – les autres véhicules étant soumis à la circulation alternée.

Créé par le 10 déc 2008 | Dans : Non classé

 

 Avion_III_Adler L’Avion III de Clément Ader Musée des Arts et Métiers, Paris – Photo Roby

Le désir d’imiter les oiseaux, l’envie de voler se sont d’abord exprimés à travers des légendes d’hommes volants : en Crète, avec le mythe d’Icare, en Amérique, chez les Incas, ainsi qu’en Asie (Assyrie, Inde) et en Afrique. Puis vint le temps des machines.

Mais, contrairement à d’autres innovations liées aux moyens de transport, les progrès marquants des véhicules «plus lourds que l’air» ont attendu le XXe siècle pour se concrétiser.

L’essor fut rapide ; en un siècle, l’avion est devenu, avec l’hélicoptère, l’un des éléments de base d’une nouvelle industrie : l’aéronautique.  Les premières tentatives de vol En Chine, peu avant notre ère, des hommes essayent de s’envoler au moyen d’énormes cerfs-volants. Au Moyen Age, d’autres se jettent du haut des tours, des ailes de fortune fixées à leurs membres. C’est l’oiseau qui, au XVIe siècle, inspire à Léonard de Vinci l’étude d’ornithoptères, appareils à voilure battante actionnée par la force des bras et des jambes ou par un dispositif à ressort. Il établit les plans d’autres machines volantes, du type parachute ou hélicoptère, et a, vers la fin de sa vie, l’intuition de la possibilité du vol plané au moyen d’une voilure fixe. De ses projets, aucun ne voit le jour, et son œuvre, méconnue jusqu’à la fin du XIXe siècle, n’aura guère d’influence sur l’histoire de l’aviation.  Au XVIIe siècle, l’Anglais Robert Hook et l’Italien Giovanni Borelli démontrent, chacun de leur côté, qu’un homme ne peut voler en utilisant sa seule force musculaire et qu’une source additionnelle de puissance est nécessaire. Cependant, les «sauteurs de tours» poursuivent leurs dangereuses expériences. En 1742, le marquis de Bacqueville aurait traversé la Seine en s’élançant du toit de son hôtel parisien.  L’invention de l’aérostat A la fin du XVIIIe siècle, pour la première fois, on s’élève dans les airs, grâce à Joseph Montgolfier, qui découvre le principe du «plus léger que l’air» et invente le ballon à air chaud. Aidé de son frère Étienne, il mène avec succès une série d’essais qui permettent à Pilâtre de Rozier et au marquis d’Arlandes d’effectuer, au-dessus de Paris, le 21 novembre 1783, le premier voyage aérien.  L’histoire des aérostats va suivre son cours, ralliant, tout au long du XIXe siècle, toujours plus d’adeptes ; elle va aussi participer, grâce aux nombreux essais d’appareils effectués en vol, et en particulier des hélices, à l’aventure des «plus lourds que l’air».  Le «plus lourd que l’air» C’est sir George Cayley qui, le premier, présente le concept d’aéroplane. Dans son œuvre, où il aborde de façon scientifique l’aérodynamique appliquée au «plus lourd que l’air», il différencie nettement la sustentation et la propulsion, ouvrant ainsi la voie au vol au moyen d’ailes fixes.  En 1857, Jean-Marie Le Bris s’envole à bord d’un planeur inspiré de l’albatros. La même année, Félix du Temple construit un modèle réduit qui s’élève et atterrit par ses propres moyens. Cet appareil est mû par un petit moteur à mouvement d’horlogerie que l’inventeur remplacera ensuite par une petite machine à vapeur.  Du planeur à l’aéroplane  Poursuivant les recherches de Cayley, William Samuel Henson dépose en 1842 un brevet de machine volante à vapeur, l’Ariel. Aidé de son associé John Stringfellow, il en réalise une maquette qui, trop lourde, ne parvient pas à voler ; quelques années plus tard, Stringfellow présente à Londres le modèle réduit d’un triplan propulsé par deux hélices qui, cette fois, s’envolera. Cette démonstration suffit à révéler, au monde entier, ce que doit être un aéroplane avec ses plans de sustentation fixes et sa propulsion par hélices. Il construit, en 1804, le premier planeur ayant vraiment volé : un modèle réduit long de 1,50 m.  Quelques lacunes rédhibitoires L’aviation, mot lancé en 1863 par l’écrivain et inventeur Gabriel de La Landelle, se heurte néanmoins à trois difficultés majeures : l’absence de moteur léger suffisamment puissant, une définition encore imprécise des propriétés sustentatrices de l’aile et l’incontrôlabilité du vol. Parmi ceux qui travaillent à surmonter ces écueils, il faut mentionner Alphonse Pénaud pour ses recherches sur la stabilité et la manœuvrabilité des appareils, Francis Wenham et Horatio Phillips pour leurs études dans le domaine de l’aérodynamique, Louis-Pierre Mouillard pour ses écrits sur l’ornithologie appliquée à l’aviation et sur le vol sans battement.  Vers la maîtrise du vol Le 9 octobre 1890, Clément Ader, que l’on considère – en France – comme le père de l’aviation, effectue, sur 50 m, le premier vol en aéroplane à bord de l’Eole, engin en forme de chauve-souris muni de deux hélices entraînées par un moteur à vapeur. L’expérience qu’il tentera quelques années plus tard avec l’Avion III sera un échec. Cependant, c’est en hommage à Ader que l’on retiendra le terme d’avion pour désigner ce nouvel engin.  Le vol plané a son pionnier en la personne d’Otto Lilienthal. Cet Allemand, s’inspirant des œuvres de Mouillard, expérimente entre 1890 et 1896 plusieurs types de planeurs monoplans et biplans de son invention ; il réalise ainsi plus de 2000 vols, dont le dernier lui coûte la vie.  Le vol des frères Wright Les résultats des travaux de Lilienthal seront analysés par les frères Wilbur et Orville Wright qui, aux États-Unis, réunissent, avec l’aide de l’ingénieur français Octave Chanute, une solide documentation. L’étude de celle-ci conduit les frères Wright à aborder, par l’apprentissage du pilotage, la relation complexe qui existe entre stabilité et manœuvrabilité du vol. À partir de 1900, ils mènent à bien plusieurs milliers de vols sur différents planeurs avant de construire, à la fin de 1902, un moteur à essence dont ils équipent l’appareil synthétisant leurs recherches, le Flyer. Le 17 décembre 1903, sur la plage de Kitty Hawk, près de Norfolk en Caroline du Nord, ils réalisent devant quelques témoins quatre vols d’une durée comprise entre 12 et 59 secondes et, le 15 septembre 1904, réussissent le premier virage ; c’est le début du pilotage.  Une course aux records  Dès lors une véritable compétition s’engage : le capitaine Ferdinand Ferber effectue en 1905 le premier vol piloté dans le ciel européen ; le 12 novembre 1906, à Bagatelle, Alberto Santos-Dumont parcourt 220 m et reçoit de l’Aéro-Club de France le prix du premier vol de plus de 100 m officiellement contrôlé.  En 1909, un véritable exploit est réalisé par Louis Blériot qui traverse, le 25 juillet, la Manche en 32 min sur son Blériot XI, gagnant ainsi le prix de 1000 livres offert par le Daily Mail.  En 1910, son collaborateur Alfred Leblanc vole à plus de 100 km/h. Le 23 septembre 1913, Roland Garros traverse la Méditerranée sur un monoplan Morane-Saulnier et, le 29 septembre suivant, Maurice Prévost dépasse les 200 km/h sur un monoplan Deperdussin. La même année, Adolphe Pégoud réalise le premier looping : à l’approche de la Première Guerre mondiale, les nouveaux appareils sont suffisamment robustes pour permettre l’acrobatie aérienne.  La naissance d’une industrie En France, l’industrie aéronautique prend naissance à partir de 1907 avec les ateliers des frères Voisin. À cette époque, il n’est guère possible de différencier pilotes, constructeurs de moteurs et constructeurs d’avions ; inventeurs et constructeurs sont aussi leurs propres pilotes d’essais. En 1914 cette industrie est représentée par une vingtaine de constructeurs, parmi lesquels Blériot, Henri et Maurice Farman, les frères Gaston et René Caudron, Louis Breguet, Léon Morane.  La Première Guerre mondiale dope l’industrie aéronautique  La Première Guerre mondiale met en évidence l’efficacité des avions et les performances des pilotes. Elle révèle aussi le potentiel de production des constructeurs et contribue au développement de l’industrie aéronautique. En France, celle-ci, qui n’emploie que 2000 ouvriers en août 1914, voit ses effectifs portés à 168?000 en novembre 1918. Les cadences de production passent de 62 avions construits en septembre 1914 à 629 produits par mois en 1918. Durant ces quatre années de guerre, plusieurs dizaines de milliers d’avions militaires sortent des usines françaises (près de 200’000 dans l’ensemble des pays belligérants). L’industrie aéronautique est née. En France, pays qui détient alors le premier rang mondial, constructeurs, ouvriers, mais aussi pilotes, vont concentrer leurs efforts pour éviter sa disparition, une fois la guerre finie.  Le ralentissement des années 1930 Au début des années 1920, un peu plus de 5000 ouvriers et techniciens travaillent dans l’aéronautique. Ils sont 20’000 en 1930 et 34’000 environ en 1936. Les conflits sociaux qui accompagnent la victoire du Front populaire en 1936, l’absence de volonté politique dans la préparation générale de la guerre, mais aussi, d’un point de vue technique, une politique trop systématique de prototypes, portent des coups à l’industrie aéronautique française. En 1940, la France se trouve en situation d’infériorité aérienne alors qu’elle a été le berceau de l’industrie aéronautique. De nombreux avions, parmi les plus modernes, ne seront livrés qu’après la défaite de 1940, et qui plus est aux vainqueurs!  L’exploitation commerciale de l’avion Les constructeurs sont également à l’origine de la plupart des compagnies aériennes. À partir de 1919, ils s’appliquent à transformer les avions de guerre en appareils civils. C’est ainsi que des bombardiers, tels le De Havilland DH4 et le Vickers Vimy britanniques ou le Breguet XIV français, permettent la création des premières lignes aériennes permanentes. Mais les impératifs économiques de l’aviation commerciale s’accommodent mal de ces appareils, et les constructeurs se penchent sur le nouveau marché des avions de transport. À l’amélioration des performances mécaniques et aérodynamiques s’ajoute désormais la nécessité de construire des avions plus fiables, plus confortables et surtout plus grands.  Les premières compagnies aériennes Elles sont créées à partir de 1919 : Deutsche Luft Reederei et Lufthansa en Allemagne, BAT en Grande-Bretagne, KLM aux Pays-Bas, Sabena en Belgique, Pan American Airways aux États-Unis, Messageries aériennes, Franco-Roumaine et Lignes Latécoère en France. Les premières lignes régionales françaises, Biarritz-Bordeaux, Nîmes-Nice, sont ouvertes en 1919. La première ligne internationale de transport de passagers, Paris-Londres, est inaugurée la même année sur un biplan Farman. C’est de ce service que naît, en 1933, la compagnie Air France. Constituée par la fusion de cinq grandes compagnies, celle-ci disposait d’une flotte de 260 appareils de 28 types différents sillonnant un réseau de 38’000 km.  Les lignes internationales s’établissent  En 1924, la KLM inaugure la ligne la plus longue, Amsterdam-Batavia (Indes orientales), soit 13?740 km, desservie en douze jours par un Fokker trimoteur. À partir de 1930 commence l’exploitation des lignes transocéaniques : d’abord pour l’acheminement du courrier sur l’Atlantique Sud, puis sur l’Atlantique Nord et le Pacifique. L’avion est désormais capable de remplacer le dirigeable pour le transport des passagers, et l’accident du dirigeable allemand Hindenburg, survenu en 1937, ne fait que précipiter la fin du «plus léger que l’air».  Le 28 juin 1939 a lieu le premier vol transatlantique avec passagers : un hydravion quadrimoteur Boeing 314 relie Port Washington à Marseille. La quasi-totalité du réseau aérien mondial est tissé, franchissant tous les océans, reliant entre eux les cinq continents et les deux pôles.  Les évolutions techniques des matériels Jusqu’à la Seconde Guerre mondiale, le développement des techniques aéronautiques transforme considérablement l’avion dans ses formes, ses dimensions, ses performances. Ainsi, on passe du biplan à poste de pilotage ouvert de la Première Guerre mondiale aux trimoteurs Fokker (1925) et Ford (1928), puis au Douglas DC-3 (1935), qui peut transporter 21 personnes à plus de 300 km/h (ce fut, à l’époque, l’avion le plus vendu).  Le métal s’impose  L’aérodynamique prend une part de plus en plus importante dans la conception des appareils comme facteur essentiel d’amélioration de leurs performances. Dès 1911, le métal apparaît dans la construction aéronautique. Les frères Morane revêtent de tôles d’acier le fuselage de leur monoplan ; les ingénieurs Ponche et Primard créent, en 1912, le Tubavion avec une voilure entièrement en aluminium. Initiée en 1915 par l’ingénieur allemand Hugo Junkers, la construction de fuselages métalliques monocoques, plus rigides et acceptant une charge utile élevée, se généralise dans les années 1920. Les progrès en matière d’études et d’essais, ainsi que ceux effectués dans les domaines de l’outillage et de la métallurgie, donnent naissance à des moteurs moins lourds, plus puissants, qui offrent aux avions un plus grand rayon d’action. Le perfectionnement de certains éléments, comme le compresseur ou l’hélice à pas variable, permet un emploi plus rationnel des moteurs et contribue à leur longévité. Dès 1923, les 400 km/h et les 10’000 m d’altitude sont franchis et, le 23 octobre 1934, un hydravion italien dépasse la vitesse de 700 km/h.  L’apparition de l’instrumentation Les longues étapes sont aussi rendues possibles par la mise au point de procédés et d’instruments de navigation permettant le vol de nuit ou sans visibilité, le survol des océans ou des régions désertiques, et, enfin, le pilotage automatique. Les premiers instruments de bord (indicateur de vitesse et anémomètre) prennent place dans les avions avant même la Première Guerre mondiale. À partir de 1919 apparaissent les équipements de bord et de navigation (à l’occasion de la traversée de l’Atlantique par Alcock et Brown), suivis du «contrôleur de navigation» qui regroupe les instruments essentiels sous les yeux du pilote. L’exploit de Lindbergh est un triomphe du pilotage aux instruments.  Des progrès constants  Des études poussées sont effectuées sur les voilures et les conditions qui permettent le vol à haute altitude : en 1938, l’Italien Mario Pezzi dépasse les 17’000 m sur Caproni (record toujours valable de nos jours pour les avions à moteurs à pistons). D’autres progrès sensibles sont à signaler, comme la mise au point du train d’atterrissage rentrant. On commence à penser à la pressurisation de la cabine : le Boeing 307 ouvre la voie des transporteurs pressurisés.  Lors de la Seconde Guerre mondiale, alors que les Britanniques commencent leurs travaux sur le radar, les Allemands s’intéressent à la propulsion par réaction. La guerre est l’occasion de perfectionnements de tous ordres, relatifs en particulier à la radionavigation et à l’accroissement de puissance des systèmes moteurs. À la fin des hostilités, de nouveaux propulseurs, les turboréacteurs, sont mis en service sur les nouveaux avions de chasse ; une vitesse de 700 à 750 km/h devient courante.  La vitesse du son est franchie Après 1945, les constructeurs se penchent sur l’étude du vol dans les domaines transsonique, supersonique et hypersonique. Le 14 octobre 1947, l’Américain Charles Yeager franchit le mur du son sur Bell X-1 à Muroc, suivi, en Grande-Bretagne, par John Derry sur DH 108 le 6 septembre 1948, et, en France, par le commandant Roger Carpentier sur Mystère II le 13 novembre 1952. À partir de 1957 démarre le programme américain de l’avion-fusée X-15 (lancé en vol à partir d’un avion porteur Boeing B-52), destiné à l’étude de l’échauffement cinétique et du comportement des structures aux vitesses hypersoniques. Bob White atteint, avec un tel avion, la vitesse de Mach 6 en 1961, et l’altitude de 95’000 m en 1962.  L’ère des avions à réaction La période de 1945 à 1957 marque, pour les avions de transport, le passage progressif des moteurs à pistons aux turboréacteurs et aux turbopropulseurs. En 1948, la Grande-Bretagne met au point le premier appareil à turbopropulsion, le Vickers-Armstrong Viscount, puis, un an plus tard, le premier transporteur à réaction, le De Havilland Comet (720 km/h, 36 passagers), qui, entré en service en 1952, connaîtra un destin tragique en raison de la f aiblesse de sa structure. Les États-Unis, avec le Boeing 707, et la France, avec la Caravelle, se lancent à leur tour dans la production d’avions équipés de réacteurs. Les prototypes effectuent leur premier vol respectivement en 1954 et en 1955. Après de nombreux essais, le Boeing 707 entre en service en 1957 ; la Caravelle reçoit sa certification le 2 avril 1959.  Porté par le succès des avions à réaction, le transport aérien connaît dans les années 1960 un essor qui laisse prévoir un doublement du trafic tous les six ans. Cette demande favorise le développement d’appareils à fuselage de grand diamètre, les jumbo-jets, ou gros-porteurs. Le Boeing 747 sera le premier gros-porteur à réaction. Il prend l’air le 9 février 1969 et entre en service en 1970, bientôt suivi de divers modèles de conception analogue.  Les transporteurs supersoniques Très difficile sera la percée de ces appareils, puisque deux projets seulement verront le jour, l’un soviétique, le Tupolev 144, l’autre franco-britannique, le Concorde ; leur premier vol date, respectivement, du 31 décembre 1968 et du 2 mars 1969. Aux États-Unis, en raison de préoccupations d’ordre économique et écologique, le Congrès s’oppose, en 1971, au projet SST 2707 commencé en 1969, mettant ainsi dans ce pays un terme au programme de développement des transports supersoniques. Le Tupolev 144 ne sera jamais exploité commercialement. Le Concorde, quant à lui, entre en service en 1976 sur les lignes Paris-Dakar-Rio et Londres-Bahreïn ; il a assuré de 1977 à 2000, après une longue controverse, une liaison régulière entre Paris et New York, mais l’accident après le décollage de l’aéroport de Roissy, en juillet 2000, a mis un terme à l’exploitation commerciale de ce fleuron de l’aviation.  L’avion supersonique reste – provisoirement ? – une sorte d’«impasse évolutive» du transport aérien, celle qui privilégie le transport d’une clientèle d’affaires dans des délais très courts. L’évolution des avions s’oriente vers d’autres directions, et en particulier vers le transport de masse. De plus, d’un point de vue technique, les années 1970 sont marquées par l’apparition de réacteurs moins polluants et surtout plus sobres.  Les chocs pétroliers de 1973 et 1979, qui ont pour effet de multiplier le prix du carburant par quatre, incitent à l’usage de tels réacteurs et, de manière générale, conduisent les constructeurs à l’adoption de technologies permettant de produire des appareils plus économiques. Le constructeur Airbus Industrie fera en ce sens figure de pionnier et dynamisera la construction aéronautique européenne tout au long des années 1980. 

Créé par le 15 jan 2009 | Dans : Non classé

 

 Bell_telephone
Téléphone inventé par Alexander Graham Bell en 1875

Les précurseursL’homme, en tant qu’être social, s’est servi de tout temps d’outils pour communiquer à distance plus rapidement.

On peut penser à l’emploi du son ou de signaux lumineux, comme des flambeaux, ou de la fumée et du feu. Le message est codé, condition pour assurer un certain secret car on peut le voir ou écouter. Mais le codage a une fonction supplémentaire : réduire le temps de transmission, en diminuant le nombre de signes à transmettre tout en gardant l’essentiel du message. Cela est capital si l’on veut réduire aussi le nombre d’erreurs. D’autant plus que, en transmettant les signaux à distance, on a besoin de répétiteurs chargé de reproduire à l’identique le code. La transmission peut emprunter les chemins possibles, la contrainte étant que le signal devait être visible ou audible. Pas de transmission la nuit, ni par temps de brouillard, ni de pluie. La communication dépend des conditions météorologiques.

 

Un autre moyen de communiquer était d’envoyer un message écrit, le message pouvant être en clair ou chiffré. On pouvait le confier à des hommes qui se relayaient sur le trajet. Des services organisés existaient depuis la haute antiquité. Les lieux de changement de la bête de transport ou de repos pour l’homme ont donné le nom à l’un des services encore en fonction : la poste. Une variante de ce système a été de confier le message à des animaux. Le pigeon voyageur en est le symbole. On utilise la capacité de certains animaux de retrouver, même à de très grandes distances, leurs lieux de vie.

Un caractère est commun à tous ces systèmes : la fragilité qui faisait peser une incertitude élevée sur l’arrivée du message à destination. Qu’il s’agisse des hommes ou des animaux, des signaux visuels ou acoustiques, tous ces systèmes étaient soumis aux aléas les plus divers.

Le télégraphe
Un changement important intervient avec la naissance du télégraphe. Dès la découverte de la pile de Volta (1799), savants et inventeurs ont essayé de transmettre à distance l’information, de communiquer très rapidement. Ampère, Soemmering, Wheatstone, Gauss, Weber et naturellement Morse ont tous travaillé à réaliser ce moyen de communication. Pour la première fois on communiquait à la vitesse de la lumière et les nouvelles parvenaient à une vitesse presque instantanée. Le télégraphe a favorisé le développement de la presse, car les nouvelles voyagent vite, en temps réel pourrait-on dire, et on a pu transmettre aussi des images et des photos. Une fois la Grande-Bretagne reliée au Continent, on a pu spéculer à la bourse de Londres sans se déplacer. Ce sera de même avec New York à partir de 1865 quand un premier câble relie l’Angleterre aux Etats-Unis. Les téléscripteurs ont permis de relier le monde entier dans un vaste réseau où chaque point du globe est connecté à l’ensemble du globe. 

La guerre a transformé le télégraphe. Les ordres, comme les résultats des batailles, les commandes de déplacement des troupes au front ou de l’arrière, sont envoyés désormais d’un poste de commandement centralisé. Le télégraphe assure en outre aux nouveaux moyens de transport la sécurité. Un exemple typique est celui du chemin de fer : on peut communiquer d’une gare à une autre et annoncer le départ d’un train qui va occuper une ligne évitant ainsi des collisions. Seul écueil : il faut transmettre en code pour profiter pleinement des avantages offerts, il faut par conséquent passer par des opérateurs experts à traduire les messages. Il y a donc un intermédiaire qui fait écran entre le système de communication et l’utilisateur. On perd la vitesse gagnée avec l’emploi de l’électricité.

L’utilisation du téléphone
Le télégraphe avait déjà entouré la Terre d’un réseau de câbles. Le 10 mars 1876 Graham Bell dépose un brevet aux Etats-Unis : il a trouvé un moyen astucieux de transformer le son de la voix en courant électrique et vice-versa, le microphone. L’idée qui le guide est la suivante : à la place de l’opérateur qui traduit le message en code, l’utilisateur peut communiquer en parlant le message. Il suffit que les deux interlocuteurs soient reliés par un fil transmettant le courant électrique créé en parlant.

 

Il va de soi qu’il était impossible d’avoir pour chaque utilisateur autant de lignes que d’interlocuteurs. La solution a été la suivante : à chaque nœud du réseau une personne est chargée de relier, selon la demande de l’utilisateur, deux éléments du réseau. Les demoiselles du téléphone établissaient ces liaisons éphémères. Ce qu’on avait gagné en éliminant l’opérateur du télégraphe, on le perdait en confiant la liaison à un opérateur qui le faisait manuellement. La solution a été l’automatisation de cette opération. On éliminait d’emblée l’un des obstacles permettant d’utiliser au maximum la vitesse de propagation du signal et introduisant des sources d’erreurs répétées.

L’essor de la téléphonie
Avec l’introduction des premiers centraux automatiques le téléphone devenait un réel objet de consommation de masse. D’autres obstacles ont dû être surmontés. Les centraux mécaniques ralentissaient la mise en communication ; l’électronique a permis d’abolir cette difficulté en agissant à la même vitesse de propagation de l’information. 

Ensuite c’est la capacité des lignes téléphonique qu’il a fallu augmenter pour permettre à plus de personnes d’emprunter la même ligne, au moins partiellement. L’objectif est qu’il faut éliminer tous les obstacles qui ralentissent le composant le plus rapide d’un système technique.

Le boom du téléphone portable
Une contrainte empêchait encore à tout utilisateur de se servir du téléphone dans n’importe quel lieu, car pour communiquer il faut disposer d’un poste relié au réseau. Pour se débarrasser de cette contrainte, il fallait pouvoir ne plus avoir besoin du réseau. La solution existait depuis longtemps : la radio. Coupler la souplesse d’utilisation du téléphone avec la possibilité de transmettre en toute sécurité par ondes hertziennes : telle a été la solution adoptée.

Pendant la Seconde guerre mondiale, on avait expérimenté amplement ce système, là où il était impossible ou trop cher de construire des réseaux. La transmission radio avait permis, par exemple, de relier les bateaux entre eux et à la terre, les trains aux gares et les avions aux centres de suivi du vol. Il fallait pouvoir contrôler la fréquence de telle sorte à pouvoir ouvrir au plus grand nombre l’emploi des ondes électromagnétique.

Le développement formidable du téléphone portable prouve que les ingénieurs ont réussi à gagner ce défi. Ainsi on a éliminé tout intermédiaire.

Créé par le 09 déc 2008 | Dans : Non classé

Salut a tous je veux discuter sur le début des technologies , vous ne vous etes jamais posé les questions:

-Comment un humain a pu imaginer un appareil volant ?

-Comment quelqun a pensé a un sous-marin ?

Si vous avez des discussions dessus faites le.

 

Bonjour tout le monde !

Créé par le 09 déc 2008 | Dans : Non classé

Bienvenue sur Unblog.fr, vous venez de créer un blog avec succès ! Ceci est votre premier article. Editez ou effacez le en vous rendant dans votre interface d’administration, et commencez à bloguer ! Votre mot de passe vous a été envoyé par email à l’adresse précisée lors de votre inscription. Si vous n’avez rien reçu, vérifiez que le courrier n’a pas été classé par erreur en tant que spam.

Dans votre admin, vous pourrez également vous inscrire dans notre annuaire de blogs, télécharger des images pour votre blog à insérer dans vos articles, en changer la présentation (disposition, polices, couleurs, images) et beaucoup d’autres choses.

Des questions ? Visitez les forums d’aide ! N’oubliez pas également de visiter les tutoriels listés en bas de votre tableau de bord.

CAP 2002 Français, Histoire... |
petit prince |
Liberté d'expression. |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | PopKult
| michel fugain le blog
| Les Barthais de l'Adour