Obsolescence programmée, le point de vue du concepteur

L’obsolescence programmée est une théorie apparentée au conspirationnisme dont beaucoup parlent mais que personne n’a vraiment prouvé. En l’état, elle se base surtout sur une mauvaise compréhension de la notion de durée de vie d’un appareil et de ses composants, et l’attribution d’intentions démoniaques à des entreprises qui ne font guère qu’appliquer les lois du marché et de la physique. En effet, la plupart des pannes et des défaillances sont liées à des choix de conception qui visent le moindre coût, et bénéficient en fait largement au client. Si personne ne remet en doute le fait qu’un produit qui dure trop longtemps met les ventes en péril (on pense aux ordinateurs Thinkpad d’IBM, indestructibles, qui ont mené la compagnie au bord de la faillite), la presse consommateur oublie d’étudier les choix de conception, inévitables compromis qui font le quotidien de l’ingénieur, dont les conséquences impactent directement la durée de vie des produits industriels.

Cas d’école : le cartel Phœbus

Le cartel Phœbus est une entente entre les fabricants d’ampoules Osram, Philips, General Electric etc. remontant à 1924. Leur objectif n’est par clair, mais le cartel a notamment servi à normaliser à la fois les standards d’ampoules (puissance, diamètres et types de culots) mais également leur durée de vie (1000 heures). L’augmentation de cette durée de vie, bien que technologiquement possible en augmentant le diamètre du filament, aurait été empêchée, disent les complotistes, pour éviter de diminuer les ventes et toute compagnie mettant sur le marché une ampoule à durée de vie supérieure aurait dû payer une amende au cartel.

On dispose de trop peu d’études historiques sérieuses et sourcées pour trancher les motifs réels de ce cartel. Comme souvent, les sites complotistes et écologistes sont plus prolixes que les revues scientifiques à ce sujet, et les sources sur Internet se limitent à un documentaire Arte intitulé Prêt à jeter, montré ci-dessous. Ce reportage, rempli de formules choc d’experts dans un montage dramatique, ne fait rien de plus que conclure son hypothèse de départ (l’obsolescence programmée est partout), en versant dans le biais de confirmation épais. Qui n’entend qu’une cloche… La condamnation du cartel Phœbus en 1950 par la commission de la concurrence anglaise pour distorsion de concurrence mentionne seulement une entente sur les prix, pas celle sur la durée de vie.

Le problème de ce reportage est qu’il s’intéresse un peu trop aux motifs commerciaux et fait un procès d’intention, mais néglige les motifs techniques. Personne n’y explique pourquoi la durée de vie est si réduite (à part, on l’a compris, pour augmenter les ventes).

Il y a des raisons techniques tout à fait valides et absolument pas démoniaques au fait que la durée de vie des ampoules à filament ait été réduite à 1000 h : l’augmentation de la durée de vie du filament de l’ampoule passe par l’utilisation d’un filament plus froid et plus épais, et va de pair avec la diminution de son efficacité énergétique, donc une consommation électrique (très) supérieure. En effet, le principe de l’ampoule à incandescence est d’amener un filament métallique au bord de la fusion en le traversant avec un courant de haute tension. Un filament de la taille de la paille de fer, peut être porté au rouge avec une pile de 4.5 V. Pour le chauffer au jaune, il va falloir plus que cela. Démonstration :

On se trouve alors face à un conflit courant en ingéniérie, expliqué en termes physiques par le Dr Goulu, et que je vais résumer ici : plus on veut de lumière pour une consommation électrique donnée, plus on doit porter le filament à une haute température. Pour reconstituer le spectre lumineux du soleil, il faudrait une température de 5200°C pour aller de l’infrarouge à l’ultraviolet. Or la plupart des métaux à filaments fondent entre de 2900 à 3100°C. Les filaments au tungstène sont donc portés à environ 2750°C, mais à une telle température on produit plus de rayonnement infrarouge (autrement dit, de la chaleur, donc une forme d’énergie qui ne nous intéresse pas pour cette application) et moins de lumière visible. Si vous voulez doubler la durée de vie de l’ampoule, il faut diminuer sa température d’environ 6%, mais ce faisant vous diminuez sa luminosité de 20%. Et pour compenser cette perte de 20 % de luminosité, il faut multiplier la puissance électrique par 2,13. C’est donc un bête problème d’optimisation de coût d’électricité par rapport au coût de l’ampoule, qui trouve un optimum mathématique autour de 1000 h. Récapitulons :

Option 1000 hOption 2000 h
Puissance électrique60 W (référence)120 W (intensité lumineuse équivalente)
Prix ampoule au 19/09/20171 €1,50 €
Coût énergie premiers 1000 h60 kWh = 9 €120 kWh = 18 €
Seconde ampoule1 €
Coût énergie seconds 1000 h60 kWh = 9 €120 kWh = 18 €
TOTAL20 €37,50 €

 

En d’autres termes, pour économiser une ampoule de 60 W (1 €) qui durerait 1000 h, en doublant sa durée de vie à luminosité égale, vous allez devoir utiliser une ampoule de 120 W et consommer deux fois plus d’électricité (120 kWh de plus), soit 17,50 € supplémentaires en France en 2017. Économiser UNE ampoule coûte le prix de DIX-SEPT ampoules, soit 1,85 fois plus cher au total !!! L’obsolescence programmée joue-t-elle vraiment contre le consommateur ?

Dans tous les cas, la technologie utilisée par les ampoules à incandescence — le fait de porter un filament métallique à la limite de la fusion par le passage d’un courant électrique — est destructive : le filament est endommagé progressivement de façon irréversible pendant le fonctionnement (par oxydation et/ou sublimation du métal). La technologie est limitée par elle-même, et c’est pour ça qu’on a interdit ce type d’ampoule.

La plus veille ampoule encore en activité date de 1901, mais sa construction est particulière : au lieu d’un filament en tungstène, comme toute ampoule moderne, le sien est en carbone et présente la particularité de voir sa résistance interne augmenter avec le temps. Aujourd’hui, sa puissance électrique consommée est de 4 W, alors qu’elle était de 60 W à sa construction. Le rendement en est catastrophique, et la longévité de l’ampoule n’est dûe qu’au fait que celui-ci se dégrade avec le temps. Les ampoules à filament carbone, appelées ampoules Edison, sont néanmoins toujours utilisées en décoration puisque leur faible puissance lumineuse permet de jouer avec la forme du filament.

Crédit Ampoule -Retro.com

Les ampoules de types Edison construites aujourd’hui affichent une luminosité de 240 lumens pour 40 W (0,9 % de rendement), contre 505 lumens pour des ampoules de 40 W à filament tungstène moderne (1,9 % de rendement). De plus, les filaments en carbone sont connus pour se sublimer avec le temps, et forment alors un dépôt métallique gris-brun à l’intérieur du verre de l’ampoule, qui l’obscurcit. Donc, la longévité s’obtient clairement au détriment de la performance.

En mécanique

Partout où vous voulez améliorer la durée de vie d’une pièce, vous êtes obligé de la concevoir plus grosse, plus lourde, plus chère. Partout où des éléments bougent, l’énergie nécessaire pour les mettre en mouvement est proportionnelle à leur masse.

En aviation, où chaque kg coûte du kérosène, on préfère des tôles plus minces qui fissureront au bout de 35 000 heures de vol (environ 30 ans de service) à des tôles surdimensionnées qui coûteraient plus cher en carburant pour une durée de vie pas forcément plus intéressante. Idem en automobile. Tout un pan du génie mécanique s’intéresse aux analyses de l’usure et de la fatigue des matériaux, de façon à prévoir le plus précisément possible le temps de service des pièces avant rupture.

640px-BrittleAluminium320MPA_S-N_Curve
Diagramme de Wöhler d’un alliage d’aluminium

Le graphe de Wöhler ci-dessus est un exemple classique de données expérimentales permettant de prévoir la durée de vie d’une pièce mécanique en connaissant la force qu’elle supporte pendant une utilisation en présence de chocs ou vibrations. Si l’on imagine une pièce cubique conçue pour résister à 10 000 cycles (cycle = rotation, choc, etc.), pour doubler sa durée de vie, il faudrait multiplier sa masse par 1,11. Pour avoir une vie quasi-infinie, on multiplierait sa masse par 2,6. Si cette pièce est entraînée par un moteur électrique, on doit alors multiplier sa puissance réelle d’autant et sa consommation d’énergie par 2,5 environ (pour tenir compte du rendement).  Si le supplément d’énergie demandé est plus cher que la pièce, il vaut mieux remplacer plus souvent une pièce plus fragile. Pensez à votre voiture, vous préférez la changer dans 10 ans ou consommer 2,5 fois plus et la garder 50 ans ? Réponse : en moyenne, dans 8 ans, vous la changerez de toute façon.

Électronique

L’électronique moderne n’a jamais été si compacte, et c’est peu dire : les ordiphones qui tiennent dans notre poche sont plusieurs fois plus puissants que les ordinateurs utilisés pour piloter la mission Apollo. Cette compacité se paie néanmoins au prix fort.

hp-spectre-13.3
HP Spectre, l’ordinateur le plus fin du monde : 12 mm d’épaisseur, 1 kg. © HP

Premièrement, les boîtiers qui contiennent les téléphones, tablettes, et ordinateurs portables de type Netbook font aujourd’hui environ un centimètre d’épaisseur, dans lequel on fait tenir l’écran, la batterie et toute l’électronique. Aucune chance de loger un refroidissement actif (comprendre : un ventilateur et une circulation d’air) dans une enceinte si petite, le seul refroidissement est passif (l’électronique conduit sa chaleur au boîtier). Un tel refroidissement est peu efficace et avec la puissance de calcul dont disposent ces appareils aujourd’hui, il en résulte des températures internes qui peuvent atteindre 75 à 90 °C. De telles températures sont destructives à moyen terme pour l’électronique.

flir_20160725T165002
Image thermique du téléphone français Wiko U. La coque à 50 °C suggère un processeur bien plus chaud. © notebookcheck.com

De plus, pour satisfaire ces contraintes d’encombrement minimal, il faut intégrer toute l’électronique sur des micro-cartes soudées. Concrètement, ça veut dire que ces appareils sont indémontables et donc non réparables de façon simple. Pour les rendre réparables, il faudrait séparer l’électronique en modules non soudés et démontables, comme dans un ordinateur de bureau classique, et les assembler avec des connecteurs mécaniques (des prises). Chacune de ces connecteurs rajoute une épaisseur car ils doivent tenir la carte en sandwich et les spécifications d’épaisseur totale deviennent intenables.

Ceci étant posé, les constructeurs ne s’embêtent même plus à utiliser des vis pour assembler leur électronique : soudures, tétons à expansion en plastique, colle, si vous voulez démonter tout cela, vous aller tout éclater sans possibilité de remonter.

Y a-t-il une volonté délibérée de rendre cela irréparable ? À part Apple qui fait exprès en utilisant des vis pentalobes propriétaires, en général, c’est plutôt un effet secondaire et il y a bien assez de travail à rendre possible la réalisation d’appareils avec de telles contraintes d’encombrement pour ne pas s’embêter à les optimiser pour être en plus irréparables et auto-destructeurs.

Électro-ménager

L’électro-ménager aussi est engagé dans la même course contre l’encombrement que l’électronique, la différence sont les contraintes de prix et de consommation électrique supplémentaires. Un lave-linge neuf se trouve aujourd’hui pour moins de 280 €. À ce prix là, on s’attend à de nombreux compromis, mais tous les ménages ne peuvent pas s’offrir des modèles à 1000 € et plus. Et il n’est absolument pas garanti qu’un modèle deux fois plus cher dure deux fois plus longtemps.

Les contraintes énergétiques conduisent par exemple à utiliser de plus petits moteurs. Pour faire durer un moteur, la méthode la plus simple est de le surdimensionner et de l’utiliser à 50-80 % de sa charge nominale, ce qui va réduire l’usure et l’échauffement. Le problème est que tout moteur électrique utilisé très en dessous de sa charge nominale a un rendement faible, c’est à dire qu’il va gaspiller plus d’énergie. En utilisant un moteur plus petit à pleine charge, on réduit la consommation électrique mais on sait qu’on va le détruire à un moment donné.

Ensuite, on remplace les parties métalliques par des parties plastiques. Le plastique a mauvaise presse, et ce n’est pas toujours injustifié, mais mouler à chaud un plastique qui fond à 200 °C demande considérablement moins d’énergie que mouler de l’inox qui fond à 1400 °C. Quoi qu’on entende, le plastique est bon pour la planète quand il n’est pas à usage unique.

Comme dans le cas de l’ampoule, l’ingénierie revient à trouver l’optimum de prix et à optimiser le produit en conséquence. Il n’y a pas systématiquement un avantage pour le consommateur d’avoir un produit avec une meilleure longévité. C’est beaucoup plus compliqué.

Conclusion

La conception générale de l’obsolescence programmée repose sur plusieurs perceptions biaisées :

1 – les appareils étaient meilleurs avant

Ils duraient plus longtemps, peut-être. Mais ils étaient d’une conception beaucoup plus basique. L’absence des techniques de calcul et de simulation modernes conduisaient les ingénieurs à faire des approximations par le haut, menant toujours à du sur-dimensionnement. C’était plus solide, mais trop gros et trop lourd. De plus, leur efficacité énergétique était catastrophique et leur consommation électrique assez délirante.

2 – les appareils étaient plus faciles à réparer avant

Conséquence de leur taille et de leur technologie primaire, effectivement, ouvrir, désouder, resouder des appareils était facile. Aujourd’hui, pour réparer de l’électronique, il faut un microscope, un robot, et un électricien-informaticien. Sauf que les contraintes ne sont plus les mêmes et que les gens veulent des appareils toujours plus petits et évolués. On ne peut pas avoir des fonctions avancées dans un appareil simple, un appareil microscopique plein de processeurs et de circuits intégrés et réparable soi-même.

3 – un appareil qui dure plus longtemps coûte proportionnellement moins cher

Même si des exceptions ponctuelles peuvent se trouver, dans le cas général, le prix n’est pas proportionnel à la durée de vie. On l’a illustré plus haut, le fait d’avoir des appareils moins durables peut permettre de dimunuer les coûts matériels et énergétiques. Mais c’est contre-intuitif. Il n’y a pas de réponse universelle, il faut étudier chaque appareil au cas par cas et faire les calculs pour décider des choix à faire. Ce que font généralement les concepteurs des appareils que vous utilisez.

On peut éventuellement parler d’obsolescence programmée lorsqu’un fabricant d’appareils électronique cesse de fournir des mises à jours logicielles pour ses appareils, ce qui les rend beaucoup moins désirables pour le consommateur (même s’ils fonctionnent encore). Mais il n’y a à ma connaissance aucune opération de réduction volontaire de la vie des appareils. Il y a en a qui jouent à empêcher l’accès aux composants internes et la réparation (Apple et ses vis non standard), mais si le consommateur choisit de les encourager en achetant quand même, c’est lui qui ça regarde. S’assurer que les produits fonctionnent correctement pendant leur durée de vie légale (durée de la garantie conformité) est déjà bien assez de boulot pour les ingénieurs, personne n’a le temps de concevoir un mode de destruction automatique qui serait assez fiable pour se déclencher à distance et après la fin de la garantie.

La conception d’un produit est une activité complexe, faisant intervenir la technique, le marketing, les contraintes légales et aussi l’ego des concepteurs (aucun ingénieur n’a de plaisir à concevoir un produit pourri). De nombreuses variables rentrent en compte, et des compromis doivent être faits à tous les étages pour parvenir à un optimum qualité/coût qui soit au niveau du marché. La durée de vie est un concept dont les répercussions sur les coûts s’appliquent à différents niveaux, pendant la conception, la fabrication, et l’utilisation. L’augmentation de la durée de vie s’accompagne toujours d’une hausse de coût qui n’est pas toujours rentable quand on la rapporte à l’ensemble du cycle de vie d’un produit.

Au final, cette optimisation bénéficie en premier lieu au consommateur puisque la technologie n’a jamais été aussi accessible économiquement et efficace énergétiquement. Même si la fin de vie, le recyclage, et la gestion des ressources sont des sujets qui méritent d’être intégrés dans le calcul des coûts généraux, faire des produits plus « durables » ne va pas systématiquement dans le sens de la réduction des besoins énergétiques. Du reste, la durée de vie est une variable statistique qui n’est applicable qu’à l’échelle de toute une production et subit des variations individuelles statistiques.

2017-09-19T13:14:11+00:00 19 septembre 2017|Catégories : Sciences|

À propos de l'auteur :

Collaborateur Recherche & Développement, spécialiste calcul et modélisation thermodynamique chez Cellier Domesticus. Photographe. Pianiste. Développeur libriste, spécialisé en Python pour le calcul et la modélisation. Expériences précédentes dans la fonction publique territoriale (Conseil Régional Rhônes-Alpes), les moteurs électriques industriels (General Electric) et les voitures solaires en fibre de carbone (Esteban). Technicien sup. en mesures physiques, étudiant ingénieur en mécanique/mécatronique. Une journée passée sans créer est une journée perdue.