Aurélien PIERRE https://aurelienpierre.com/ Mon, 18 Jul 2022 15:15:53 +0000 fr-FR hourly 1 https://wordpress.org/?v=6.1.1 Choisir une batterie externe et un chargeur solaire pour activités d’extérieur https://aurelienpierre.com/choisir-une-batterie-externe-et-un-chargeur-solaire-pour-activites-dexterieur/ https://aurelienpierre.com/choisir-une-batterie-externe-et-un-chargeur-solaire-pour-activites-dexterieur/#respond Fri, 29 Apr 2022 18:29:19 +0000 https://aurelienpierre.com/?p=5418 ## Le podcast Il y a différentes raisons qui peuvent pousser à s'équiper d'une batterie externe de secours pour charger ses équipements/gadgets électroniques, les principales étant le vieillissement des batteries internes (rarement remplaçables) et la perte d'autonomie subséquente, et l'absence d'accès immédiat à des prises électriques. Pour ceux qui partent dans la nature [...]

Cet article Choisir une batterie externe et un chargeur solaire pour activités d’extérieur a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
## Le podcast
Il y a différentes raisons qui peuvent pousser à s’équiper d’une batterie externe de secours pour charger ses équipements/gadgets électroniques, les principales étant le vieillissement des batteries internes (rarement remplaçables) et la perte d’autonomie subséquente, et l’absence d’accès immédiat à des prises électriques. Pour ceux qui partent dans la nature plusieurs jours en autonomie (randonnée, voyage à vélo/bikepacking, etc.), l’usage des gadgets électroniques pour le repérage GPS, l’accès aux prévisions météo et le contact des secours le cas échéant n’a rien de superflu. En cas d’opération de secours, pouvoir communiquer une position GPS précise permet aussi d’éviter à des hélicoptères de tourner pour rien et à des secouristes de prendre des risques inutiles en montagne. Disposer d’une réserve d’énergie **et** d’un chargeur solaire pour renouveler cette réserve est donc une excellente idée sur le papier, et la technologie actuelle a différentes options à proposer. Malheureusement, la lecture des ressources disponibles sur internet concernant les critères de choix et les produits conseillés pour ces applications est un peu effrayante : entre les mauvais conseils et la recommandation aveugle de produits non-testés (mais disposant de liens d’affiliation Amazon), on n’est pas beaucoup plus avancé. Sur les fiches techniques des produits, on aura des chiffres gonflés et non-pertinents, qui impressionnent quand on n’y connaît rien, mais qui n’ont vraiment rien d’impressionnant quand on les décortique, sous réserve qu’ils soient exacts, ce qui n’est même pas garanti… Je vous donne ici les principes de fonctionnement et les limites des batteries, ainsi que les critères de choix qui permettent de sélectionner la batterie adaptée à votre usage, avec des anecdotes tirée de mon expérience. Il va y avoir des calculs à faire (désolé), mais dimensionner votre réserve d’énergie est un sujet trop sérieux pour le faire à la louche. ## Résumé rapide du podcast ### Batterie 1. Les batteries lithium sont par nature spontanément inflammables lorsqu’elles sont surchargées ou chargées/déchargées à trop haute température (habituellement au dessus de 60 °C) 1. Les batteries lithium ont donc un contrôleur électronique chargé de prévenir l’incendie, sous réserve qu’il soit conçu par des ingénieurs compétents – le sujet est trop sensible pour acheter des cochonneries chinoises pas chères sans marque identifiée ni service client accessible dans votre pays, 1. La valeur de capacité en mAh ne veut rien dire en soi et constitue une tromperie du consommateur qui devrait être interdite et sanctionnée. Une énergie se mesure en joule (J), voire en watt × heure (Wh), avec l’équivalence suivante : 1 Wh = 3600 J. Le passage de Wh à mAh se fait en divisant les Wh par la tension de fonctionnement en volt (V). Le problème est que cette tension est rarement connue et jamais donnée sur les fiches produit, et par exemple sur les batteries externes USB, on pourrait penser que la tension de référence est 5 V (tension de la norme USB), mais elles sont en fait données en général pour 3,7 V (ne me demandez pas pourquoi). Évidemment, diviser par 3,7 V donne une valeur en mAh plus impressionnante que diviser par 5 V. Dans tous les cas, ces valeurs sont écrites en petit sur le boîtier de la batterie (obligatoire pour pouvoir prendre l’avion avec, le lithium est une [matière dangereuse dont le transport est réglementé](https://www.youtube.com/watch ?v=z73PIR8JYvE), avec une limite par passager), et jamais données sur les pages produits des boutiques en ligne. 1. Comme la valeur en mAh dépend de la tension, pour les batteries « intelligentes » qui ont plusieurs tensions de sortie et l’ajustent leur tension en fonction de l’appareil à charger, il faut donc obligatoirement repasser en Wh (indépendants de la tension) sur la batterie chargeante et sur la batterie chargée pour pouvoir estimer la capacité de charge réelle. 1 mAh sous 3,7 V n’est pas égal à 1 mAh sous 9 V… 1. Les batteries lithium perdent une partie de leur capacité apparente par temps froid. La capacité théorique des batteries est toujours données à 23-25 °C. À -40 °C, il ne leur reste que 10 à 20 % de leur capacité nominale à 25 °C.[^1] Pensez donc à surdimensionner la capacité choisie par rapport à vos besoins théoriques si vous utilisez les batteries en conditions hivernales (voir le facteur de sécurité par temps froid ci-dessous). 1. Les batteries lithium perdent de leur capacité au fur et à mesure des cycles de charge/décharge et lorsqu’elles sont stockées et utilisées en conditions chaudes. La chaleur altère en effet la chimie des électrolytes de façon non réversible[^1]. La capacité théorique des batteries est toujours donnée pour le produit neuf. Là encore, surdimensionnez la capacité choisie par rapport à vos besoins théoriques (voir le facteur de sécurité par temps chaud ci-dessous).[^2] 1. Notez qu’une batterie chauffe naturellement en utilisation, donc en l’absence de refroidissement adéquat, elle génère elle-même la chaleur qui va la détruire, et il est donc possible que sa température de fonctionnement soit très supérieure à la température de l’air ambiant. Cet effet va en revanche être bénéfique par temps froid. Les facteurs de sécurité, utilisés pour majorer la capacité utile de la batterie en fonction des conditions d’utilisation, sont donnés ci-dessous :
| Température | - 30 °C | -20 °C | -10 °C | 0 °C | 5 °C | |–––––––|––—|––—|––-|–—|––| | Facteur de sécurité | 1,6 | 1,5 | 1,2 | 1,1 | 1,05 |
Facteur de sécurité par temps froid
| Température | 25 °C | 35 °C | 45 °C | 55 °C | |–––––––|––|––-|––|––| | Facteur de sécurité | 1,14 | 1,17 | 1,20 | 1,26 |
Facteur de sécurité par temps chaud
[^1] : MA, Shuai, JIANG, Modi, TAO, Peng, et al. Temperature effect and thermal impact in lithium-ion batteries : A review. *Progress in Natural Science : Materials International*, 2018, vol. 28, no 6, p. 653-666. <https://www.sciencedirect.com/science/article/pii/S1002007118307536> [^2] : XIONG Shihui. A study of the factors that affect lithium ion battery degradation. Master’s thesis, University of Missouri-Columbia. 2019. <https://core.ac.uk/download/pdf/323272674.pdf> ### Panneaux solaires 1. La puissance indiquée des panneaux solaire est toujours sujette à caution, car il s’agit de la puissance en conditions standards. Elle suppose une irradiation solaire de 1000 W/m² (ce qui arrive en France seulement certains jours en été) et sous une température de 25 °C (mettez un panneau sous 1000 W/m² de soleil, il va rapidement monter à 50 °C un jour sans vent). En conditions réelles, on peut retirer au moins 3 % à cette valeur.[^6] 1. L’efficacité (ou rendement) des panneaux solaires est toujours donnée pour un panneau neuf. Un panneau solaire en silicium perd en moyenne 0,5 à 1 % d'efficacité par an, suivant la technologie utilisée,[^3] 1. Un panneau solaire perd 0,35 % à 0,5 % d’efficacité pour chaque °C au dessus de 25 °C, 1. Un panneau solaire ne délivre son rendement théorique que sous un éclairement d’au moins 200 W/m²,[^6] ce qui, là encore, n’arrive pas tous les jours et jamais l’hiver, 1. Même à l’ombre, un panneau solaire est sujet à certains types de vieillissements (évidemment moins qu’en plein soleil). Donc même inutilisé, il se dégrade. [^3] : JORDAN, Dirk C., KURTZ, Sarah R., VANSANT, Kaitlyn, et al. Compendium of photovoltaic degradation rates. Progress in Photovoltaics : Research and Applications, 2016, vol. 24, no 7, p. 978-989. [^6] : Thomas Mambrini. Caractérisation de panneaux solaires photovoltaïques en conditions réelles d’implantation et en fonction des différentes technologies. Météorologie. Université Paris Sud - Paris XI, 2014. ## Compléments au podcast ### Augmenter la durée de vie utile de vos batteries (lithium) 1. Éviter de charger sous 15 °C,[^2] 1. Éviter de charger/décharger au-dessus de 35 °C, la température optimale d’utilisation se trouve entre 23 et 27 °C,[^2] 1. Pour le stockage moyenne-longue durée, stocker les batteries chargées à environ 50 % de leur capacité nominale, 1. Charger et décharger les batteries entre 25 et 85 % de leur capacité nominale[^4], et idéalement entre 45 % et 75 %. Évitez de les utiliser au-delà, 1. Limiter le nombre de cycles de charge/décharge par jour, donc éviter les charges partielles interrompues de décharges. Idéalement, chargez en continu jusqu’à 85 % et déchargez en continu jusqu’à 25 %, puis recommencez, 1. Éviter de charger à très bas courant et de laisser les batteries constamment en charge, car cela crée un placage isolant sur les électrodes qui détruit les batteries.[^2] Si vous avez bien compris tout ce qui précède, vous avez donc aussi compris que les panneaux solaires sont la pire façon de charger une batterie lithium, par rapport à une charge classique sur le réseau électrique à courant stabilisé : on charge à faible courant par temps nuageux, et on charge/décharge par intermittence en fonction des alternances de passages nuageux et d’éclaircies. La durée de vie d’une batterie à charge solaire sera donc beaucoup plus courte qu’une batterie chargée sur le réseau. [^4] : Un *Battery Management System* bien conçu est censé faire ça pour vous, malheureusement certains constructeurs n’hésitent pas à laisser charger d’avantage pour maximiser l’autonomie des appareils neufs… au détriment du vieillissement. ### Augmenter la durée de vie utile de vos panneaux solaires 1. Ne pas laisser le panneau au soleil plus longtemps que nécessaire, s’il n’est pas en charge ou si la batterie est complètement chargée, 1. Éviter tout contact de la surface du panneau avec des abrasifs et des poussières, 1. Garder la surface propre : dépoussiérer au maximum à l’air comprimé (sans frotter) avant de procéder au lavage avec un détergent doux et un chiffon non abrasif. Rincer idéalement à l’eau déminéralisée pour éviter les dépôts de minéraux au séchage, 1. Toute flexion ou torsion endommage le substrat du panneau solaire, même s’il est flexible et qu’il ne cassera pas. Éviter au maximum la flexion. ### Exemple de calcul de dimensionnement de batterie J’ai un téléphone doté d’une batterie interne de 4700 mAh et un GPS doté d’une batterie interne de 1000 mAh. Tous deux sont chargés par port USB à 5 V, donc leur capacité totale en Wh est $(4,7 \text{Ah} + 1 \text{Ah}) × 5 \text{V} = 29 \text{Wh}$. Notez que je n’ai aucune idée de la tension réelle pour laquelle la valeur mAh a été calculée (qui peut être 3,7 V ou 5 V ou autre chose, voir plus haut), et cette information n’est disponible nulle part, donc je pars du cas le plus pessimiste. Si vous aviez la capacité en Wh quelque part sur une fiche technique, utilisez la directement. Je dois les charger une fois par jour (29 Wh/j) et je souhaite 3 jours d’autonomie. J’ai donc besoin de $23×3 = 69 \text{Wh}$ de réserve d’énergie théorique (valeur de design). Ma batterie externe doit fonctionner entre 0 °C et 45 °C (rappel : 45 °C est la température de la batterie en fonctionnement, pas celle de l’air ambiant), j’ai donc un coefficient de sécurité sur la capacité théorique de 1,1 pour l’utilisation en conditions froides et de 1,20 pour le vieillissement cyclique (lire les valeurs dans les tableaux ci-dessus). On cumule les facteurs de sécurité en les multipliant entre eux, puis à la valeur de design. J’ai donc besoin d’une capacité utile de $69 \text{Wh} × 1,10 × 1,20 = 91 \text{Wh}$. Pour maximiser la longévité de la batterie, je ne veux pas décharger sous 25 %, ni charger plus que 85 % de sa capacité nominale. Je me prive donc au total de 40 % de sa capacité nominale, ce qui, pour une capacité utile de 91 Wh, revient à une capacité nominale de $91 \text{Wh} / (100 \% - 40 \%) = 151 \text{Wh}$. Ceci est optionnel, je peux aussi choisir de privilégier la masse au détriment de la longévité, et donc une batterie plus petite que je vais tuer plus vite. Ces appareils sont en USB 5 V, la capacité de ma batterie sera donc $151 \text{Wh} / 3,7 \text{V} = 41 \text{Ah}$ soit 40 800 mAh. Une batterie de ce type n’existe pas, le plus proche est 30 000 mAh et pèse environ 500 g. Si cette masse est trop élevée, je peux choisir de partir sur le minimum de capacité de 91 Wh, soit $91 \text{Wh} / 5 \text{V} = 26 \text{Ah}$ ou 24 600 mAh. Une batterie de 20 000 mAh pèse environ 350 g. ### Exemple de calcul de dimensionnement du chargeur solaire À partir de la base de données européenne [PGVIS](https://re.jrc.ec.europa.eu/pvg_tools/en/#api_5.2), mise à disposition par l’Union Européenne pour évaluer le gisement solaire, on peut obtenir l’énergie solaire quotidienne moyenne par m² au sol, pour chaque ville à chaque mois, entre 2005 et 2020. À partir de ces données, j’ai extrait l’ensoleillement moyen pour chaque mois, ainsi que l’écart-type. Ces valeurs fournissent la base de calcul de l’énergie produite par un panneau solaire, c’est en quelque sorte la matière première disponible. L’énergie solaire moyenne qui arrive au sol dépend de la météo moyenne (nuages ou ciel dégagé), de l’épaisseur de la couche atmosphérique traversée par les rayons solaires et de la durée du jour ; à météo égale, on attend des niveaux d’énergie plus importants en altitude et à mesure qu’on se rapproche de l’équateur. Je vais partir ici sur un cas d’utilisation avec les produits [Sun Slice](https://fr.sunslice-solar.com/products/). La raison est que l’entreprise est belge, fondée par deux ingénieurs, et utilise des panneaux solaires [Sun Power](https://sunpower.maxeon.com/fr/), une marque américaine réputée avec laquelle j’ai une bonne expérience et qui, entre autres, fournit la NASA depuis 25 ans. Leur produit Fusion Flex est un panneau solaire flexible annonçant 16,5 % d’efficacité nominale pour 6 W nominaux (sous 1000 W/m² d’irradiation solaire et pour une température de cellule de 25 °C), sur une surface estimée de 0,0364 m². On vérifie que le rapport des puissances sortante et entrante nous donne bien l’efficacité spécifiée : $\frac{6 \text{W}}{1000 \text{W/m}^2 × 0,0364 \text{m}^2} = 16,5 \%$. L’intérêt des panneaux souples est leur faible masse par watt, au détriment de l’efficacité. Sun Slice propose un panneau rigide de la même taille à 7 W nominaux (19 % d’efficacité), mais deux fois plus lourd. Il se décline en 4 versions, de 6 à 24 W nominaux, qui additionnent 1 à 4 panneaux de base. À partir des valeurs d’ensoleillement quotidien moyen dans plusieurs villes, on peut se faire une idée de la ressource solaire disponible. Je suppose une perte thermique de rendement de 0,45 %/°C par degré au dessus de 25 °C, un angle moyen avec le soleil de 45 ° et un vieillissement de 2 ans à 0,75 % de perte de rendement par an : En abscisse, on donne le mois calendaire encodé numériquement entre 1 et 12. La formule permettant ce calcul est : $$ \text{Énergie moyenne (Wh/jour)} = \text{surface de panneau (m²)} × \text{efficacité} × \text{ensoleillement moyen (Wh/jour/m²)} $$ On peut alors prévoir le nombre de panneaux solaires nécessaires pour charger différentes tailles de batteries en une journée, par ville et par mois (les valeurs en mAh sont données pour 5 V à titre purement indicatif, la référence est la valeur en Wh) : Dans l’exemple ci-dessus, on charge un téléphone et un GPS pour un total de 29 Wh/jour. Il va nous falloir au moins 3 panneaux entre mars et septembre. Si l’on décharge l’ensemble, en utilisation, de moins de 50 %/jour, on peut encore s’en sortir avec 2 panneaux. Pendant l’hiver, il faudra au moins 6 panneaux au sud de l’axe Nantes-Dijon pour charger de 25 Wh/jour. Tout ceci est à prendre avec un grain de sel, car l’ensoleillement moyen n’est rien d’autre qu’une moyenne… Le problème d’une moyenne est qu’elle ne modélise pas la variabilité. En fait, une moyenne de production de 12,5 Wh/jour implique (sous une [loi de probabilité normale](https://fr.wikipedia.org/wiki/Loi_normale)) qu’on a seulement 50 % de probabilité de produire **au moins** 12,5 Wh dans la journée, et donc 50 % de produire moins que ça. C’est comme tirer à pile ou face, chaque matin, pour savoir si on aura notre demi-batterie dans la journée. Ce qui ne veut **pas** dire qu’on charge un jour sur deux, car il est parfaitement possible de ne pas avoir de chance pendant toute une semaine – de la même manière que si vous jouez à pile ou face 10 fois, vous n’aurez presque jamais exactement 5 piles et 5 faces, et en tout cas vous n’alternerez jamais exactement un pile et un face. Les gens qui disent qu’« on fait dire ce qu’on veut aux chiffres » se contentent généralement de donner des moyennes, sans considérer la variabilité (l’écart-type) et sans effectuer les majorations/minorations nécessaires sur la moyenne pour atteindre des niveaux de confiance acceptables (pile ou face n’est pas un niveau de confiance acceptable). La prise en compte de la variabilité de l’ensoleillement suppose d’analyser la variance du climat, d’en déduire l’écart-type, et de faire notre design sur la moyenne d’ensoleillement quotidien minorée de 2 écarts-types. De cette façon, la probabilité de produire au minimum la quantité d’énergie requise passe de 50 % (une chance sur deux) à 97,7 %, la minoration de 2 écarts-types servant en quelque sorte de marge de sécurité. Sauf que… si je refais le calcul à 97,7 % de confiance, les résultats ont une toute autre allure : Marseille sort grande gagnante, non seulement parce que sa moyenne est élevée, mais aussi parce que sa variabilité climatique est faible. Mais Grenoble prend une grosse pénalité en été en raison de son climat très variable, et on observe que ça devient franchement dur, partout, entre novembre et février. Ci-dessous, je recalcule le nombre de panneaux requis pour produire au moins les valeurs spécifiées à 97 % de confiance. Les valeurs supérieures à 8 panneaux ont été éliminées par souci de lisibilité et parce que les produits n’existent pas. En clair, avec 2 panneaux : * on est presque sûr de charger un demi-téléphone par jour au sud de l’axe Nantes-Dijon de juin à septembre, * on est presque sûr de charger un téléphone par jour à Marseille de juin à août, * on a une chance sur deux de charger un demi-téléphone par jour partout de mars à septembre. Avec 3 panneaux : * on est presque sûr de charger un demi-téléphone par jour de mai à septembre, * on est presque sûr de charger un téléphone par jour au sud de Lyon de juin à août, * on a une chance sur deux de charger un téléphone par jour partout d’avril à septembre, * on a une chance sur deux de charger aussi un téléphone par jour en mars au sud de l’axe Nantes-Dijon. Avec 6 panneaux : * on est presque sûr de charger un téléphone par jour de mai à septembre, * on a une chance sur deux de charger un téléphone par jour toute l’année au sud de l’axe Nantes-Dijon. ## Mesures J’ai acheté le Sunslice 12 W (2 panneaux flexibles de 6 W) et réalisé quelques mesures en conditions réelles. Je charge mon téléphone (batterie de capacité 4700 mAh à l’état neuf, testée après 8 mois d’utilisation), allumé, utilisé ou pas, et directement branché sur le panneau. ### Ensoleillement direct, fin de journée Conditions : * fin avril, entre 16h30 et 17h, en plein soleil (ciel bleu), au nord de Nancy, * température ambiante de 21 °C, * un des panneaux orienté perpendiculairement au soleil (en incidence optimale), le second parallèle (donc exposé seulement à la luminosité ambiante), et donc un angle moyen de 45 ° avec le soleil, * le téléphone était en cours d’utilisation avec partage de connexion 4G et l’écran allumé par intermittence. Entre 16h35 et 16h55 (20 minutes), j’ai ainsi chargé de 47 % à 50 % (+3 %). Dans ces conditions, le système Android indique un temps de charge estimé (pour passer de 50 % à 100 % de capacité de la batterie interne) de 4h10, soit un taux de charge de 9 mAh/minute, après déduction de l’énergie consommée par le fonctionnement du téléphone, soit une puissance électrique de 2,7 W sous 5 V. Notez qu’au bout de 25 minutes exposé au soleil direct, par une température ambiante de 21 °C, la température de surface du panneau atteignait 30 à 35 °C au toucher. N’ayant pas thermomètre infrarouge, j’ai évalué la température en posant ma main dessus… Si ce n’est pas une mesure quantitative, passer de 21 °C à « température idéale de jacuzzi » en 25 min de fonctionnement, au nord de Dijon, au mois d’avril et vers 17h est une variation suffisamment notable pour être mentionnée. Il est donc pertinent de tenir compte de la perte de rendement due aux effets thermique dans mes calculs prédictifs. ### À l’ombre, fin de journée À l’ombre d’un bâtiment, avec les deux panneaux exposés au ciel bleu, vers 17 h dans les mêmes conditions, le système Android ne détecte plus aucune charge et recommence à se décharger, bien que le témoin lumineux du panneau s’allume, signifiant production de courant. Le fait qu’il existe un courant électrique n’implique pas automatiquement que sa puissance soit suffisante pour charger la batterie. ### Temps nuageux, zénith Conditions : * fin avril, entre 13h et 14h, autour du zénith solaire (55,8 ° d’angle à 13h30), au nord de Nancy, * nébulosité de 100 % avec une petite éclaircie de 5 minutes, * température ambiante de 18 °C, * les deux parties du panneau étaient exposées, dans une orientation perpendiculaire à la lumière, proche de l’angle optimal (± 15 °) avec le soleil à 13h, * le téléphone était allumé mais non utilisé, écran éteint. Concrètement, cette météo correspond à un temps couvert (lumière diffuse et nuages de moyenne et haute altitude) mais clair, où l’on distingue le disque solaire à travers les nuages. La température de surface du panneau était d’environ 25 °C au toucher après 1h. Entre 13h02 et 14h02 (60 minutes), j’ai ainsi chargé la batterie de 50 à 56 % (+6 %). Le système Android indiquait un temps de charge estimé (de 56 à 100 %) de 5h36, soit un taux de charge de 6 mAh/minute. Cette mesure étant réalisée spécialement au moment où le soleil est le plus proche de la Terre ce jour là, on ne conservera évidemment pas cette intensité d’éclairement pendant près de 6h. De plus, pour un panneau destiné à la mobilité, on ne conservera pas non plus cet angle optimal en continu. ### Temps nuageux, fin de journée La mesure précédente, au zénith solaire, prévoit 5h40 de temps de charge pour charger la batterie de 50 %. Il faudrait donc se placer dans une fenêtre de ± 2h50 autour du zénith. Pour vérifier les conditions d’ensoleillement à 13h30 + 2h50, je réalise une 3ème mesure entre 15h45 et 16h15, dans les mêmes conditions que précédemment, et le même jour. Malheureusement, la couverture nuageuse était plus épaisse 3h plus tard. Dans ces conditions, le téléphone a détecté une charge, mais n’a pas fourni de temps estimé de chargement, et après 30 minutes de charge, le niveau de la batterie n’avait pas bougé. ### Jour de canicule, juillet Conditions : * mi-juillet, 37 °C à l’ombre, entre 15h15 et 16h45, * téléphone allumé, écran éteint, utilisé en partage de connexion 4G, * batterie chargée initialement à 60 %, * panneau solaire posé initialement à plat au sol (angle non-optimal), puis installé à environ 60 ° de l’horizontale vers 16h, en plein soleil (pas de nuages). Au bout de quelques minutes, le téléphone indique un temps estimé de rechargement jusqu’à 100 % d’environ 1h50. Après 15 minutes, le temps estimé s’allonge à 2h30 et la surface du panneau est brûlante au toucher (au moins 60 °C), ce qui tend à indiquer que l’élévation de température cause une perte substancielle de rendement. Après 1h30, le téléphone est chargé à 78 % et le contrôleur de la batterie indique toujours un temps estimé de chargement jusqu’à 100 % de 1h50. À 16h45, le panneau est vraiment brûlant y compris sur la face arrière, et la manipulation à main nue équivaut à sortir une assiette du micro-ondes. ### Interprétation des mesures Par temps couvert, il est impossible de charger ne serait-ce qu’une demi-batterie à la mi-saison, même en orientant le panneau au mieux et de façon statique. Dans ces conditions, il faudrait au moins 3 panneaux 6 W. Ce qu’on illustre ici, c’est que même si le panneau « fonctionne » (au sens de « délivre un courant électrique »), et même si le téléphone détecte une charge, il y a un seuil de puissance électrique en dessous duquel ça ne fait ni chaud ni froid à la batterie. La puissance, c’est de l’énergie disponible en quantité suffisante tout de suite (« énergie instantanée »). Or, si la physique dit que $\text{Énergie} = \text{Puissance} × \text{temps}$ (en supposant une puissance constante), et que si l’on divise la puissance par 2, il suffit de multiplier le temps par 2 pour obtenir la même quantité d’énergie à la fin, les appareils électriques ont presque tous une puissance minimale d’activation et les apôtres de l’énergie solaire ont tendance à l’oublier. En clair, pas assez de puissance est la même chose que pas de puissance du tout, et le niveau « pas assez » dépend des appareils. La même chose ? Pas sûr… Une charge de batterie lithium à faible courant créée un placage sur ses électrodes, qui réduit de façon irréversible sa capacité. Donc une charge par temps couvert n’est pas seulement inefficace, elle est destructrice pour la batterie. Pour cette raison (je suppose), Sun Slice recommande toujours de charger une batterie externe intermédiaire avec les panneaux solaire, ce qui revient à mettre l’usure prématurée sur la batterie facile à remplacer (sachant que la plupart des téléphones n’ont plus de batterie remplaçable), et de charger la batterie du téléphone depuis la batterie externe, qui délivre une puissance stabilisée. Par contre, on perd un peu d’énergie à chaque étage de conversion d’énergie, donc cet étage supplémentaire induit des pertes additionnelles. De plus, la charge d’une batterie n’est pas linéaire : il est (beaucoup) plus rapide de passer de 0 % à 80 % que de 80 % à 100 % (la charge d’une batterie suit une loi exponentielle négative). La vérification des valeurs données par Android montre qu’il suppose un taux de charge constant, ce qui est inexact (sans être totalement faux, car c’est raisonnable sous 80 %). La prévision du temps avant rechargement complet donnée par le système est donc un peu pessimiste sous 50 % de charge, un peu optimiste entre 50 % et 80 % et très optimiste au dessus de 80 %. La charge initiale du téléphone, autour de 50 % en début d’expériences, a été choisie spécialement pour fonctionner dans les conditions moyennes de la batterie. On aurait trouvé d’autres résultats en partant d’un téléphone chargé à 20 % ou à 80 %. Une charge de 50 % de batterie de 4700 mAh correspond donc à 11,25 Wh. Nancy se trouve sur la même latitude que Brest et Strasbourg, avec toutefois moins d’heures d’ensoleillement annuelles que ces deux villes. Les simulations par le calcul, ci-dessus, pour les mois d’avril et de mai, prévoient qu’il faut au moins 2 panneaux pour charger en moyenne 12,5 Wh. Par temps ensoleillé et au meilleur de l’été, on doit compter 3h pour charger environ 40 % de batterie autour du zénith et en maintenant le panneau statique et correctement exposé au soleil. C’est décevant et la chute de rendement dûe à l’échauffement du panneau est clairement apparente dans ces conditions. À 17h en avril, on avait chargé à 0,15 %/minute (en % de la capacité de batterie), autour de 16h en juillet, on charge à 0,20 %/minute dans les mêmes conditions d’utilisation. On a donc une perte de rendement dû à l’échauffement qui compense presque totalement la différence de ressource solaire disponible, et l’on charge donc environ à 3,6 W sous 5 V, soit 12 mAh/minute, soit un tiers des 12 W de puissance nominale du panneau. On fait toujours le design sur le cas d’utilisation le plus critique, pas sur le cas le plus sympa. Et ici, le cas critique demande 5 panneaux (donc 6, puisque Sun Slice ne fournit les variantes à 4 ou 6) à 97,7 % de confiance (voir simulations à la section précédente), ce qui ne présente pas tellement d’intérêt par rapport à trouver une prise électrique quelque part, quitte à détourner sa route pour ça. Dans tous les cas, il est illusoire d’espérer charger nos 20 Wh/jour initiaux tous les jours via cette technique, et le recours au solaire comme énergie d’appoint ne peut se faire sans une politique de sobriété concernant l’usage de vos appareils. ## Conclusion Le panneau Fusion Flex simple pèse 140 g, le double 270 g, et le triple 390 g, et ce poids s’ajoute à celui de la batterie externe : 190 g pour 10 000 mAh, 350 g pour 20 000 mAh, 500 g pour 30 000 mAh. Plus gros qu’un panneau triple (60 cm de long), la fixation sur un sac à dos devient compliquée, donc l’usage mobile n’est plus possible. Partir avec des batteries donne la meilleure densité d’énergie par unité de masse. Pour des trajets de moins de 3 à 5 jours, suivant votre consommation d’énergie, une brique de 30 000 mAh vous donnera tout ce dont vous avez besoin sans vous soumettre aux aléas climatiques et pour moins lourd qu’un panneau avec petite batterie. En chargeant la batterie sur prise secteur, vous l’utilisez aussi dans les meilleurs conditions possibles, avec une source d’énergie stable, alors que la charge solaire (surtout en mode mobile) est une énergie instable qui enchaîne rapidement des cycles de charge et de décharge partiels, de même que la charge à faible courant, connus pour réduire la durée de vie des batteries. Pour des trajets plus longs, un panneau double est un minimum l’été, et un panneau triple est plus réaliste en France. Un panneau double peut également être utilisé comme source d’appoint, non pas pour recharger complètement, mais pour décharger moins vite. Ainsi, avec des besoins de 5 Ah/j (25 Wh/j), en partant avec une batterie chargée de 20 000 mAh, en chargeant de seulement 2,5 Ah/j via 2 panneaux, vous arrivez à décharge complète de toutes les batteries (internes et externe) en moyenne en 9 jours pour une masse totale de 665 g. Reste à voir si cela vous laisse le temps de revenir à la civilisation pour un ravitaillement en énergie. Je déconseille fortement de ne partir qu’avec un panneau solaire sans batterie additionnelle. Non seulement la charge directe panneau sur téléphone va dégrader sa batterie plus vite (et elle n’est généralement pas remplaçable), mais en plus vous êtes entièrement dépendant des aléas climatiques. C’est trop risqué. Ensuite, il y a les stratégies. Ce calcul suppose un angle moyen avec le soleil de 45 °, qui correspond à un panneau mobile fixé sur un sac à dos. Si vous profitez de la pause déjeuner, aux heures les plus énergétiques de la journée, pour assoir votre panneau solaire bien dans l’axe du soleil, vous allez améliorer votre production. Par temps ensoleillé, entre mars et septembre, vous pouvez de cette façon espérer au moins 18 mAh/minute en fin d’après-midi, donc au minimum 1000 mAh sur une pause d’une heure. Ici, il faut donc décider comment répartir le poids et piloter les compromis. Plus de batterie ou un panneau solaire et une batterie plus petite ? Ça va dépendre des opportunités de rechargement sur la route, de la longueur du voyage, de la saison et de la région. Dans tous les cas, prévoyez un plan B et essayez d’avoir des redondances. Finalement, si vous pensez utiliser un GPS, un GPS dédié à la randonnée ou au vélo consomme significativement moins d’énergie qu’un téléphone utilisé en mode GPS. Ça augmente la quantité d’électronique à maintenir, et donc à jeter et à recycler un jour, mais le bilan est sans appel. Une sortie vélo de 4 h tire 40 à 60 % de ma batterie téléphone (4700 mAh) si j’utilise un GPS logiciel, contre 25 à 40 % de batterie sur le Garmin (1000 mAh) suivant les options d’économie d’énergie activées. Dans tous les cas, quand vous voyez des batteries externes avec un mini panneau solaire dessus, le tout pour moins de 40 €, ne rêvez pas. Des panneaux solaires de qualité vous coûteront au moins le double (achetés seuls), et il va falloir des surfaces conséquentes pour charger quoi que ce soit de façon un peu fiable.

Cet article Choisir une batterie externe et un chargeur solaire pour activités d’extérieur a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
https://aurelienpierre.com/choisir-une-batterie-externe-et-un-chargeur-solaire-pour-activites-dexterieur/feed/ 0
Chronique de con finé https://aurelienpierre.com/chronique-de-con-fine/ https://aurelienpierre.com/chronique-de-con-fine/#comments Tue, 31 Mar 2020 02:08:17 +0000 https://aurelienpierre.com/?p=5026 « La France est en guerre ». Le ci-devant Macron, souverain du bas peuple et seul maître après le CAC40, n'a pas peur des hyperboles, surtout quand elles sont ridicules. Après avoir systématisé les funérailles nationales pour le moindre milicien tombé en embuscade ici ou là (les vétérans d'Algérie apprécient), il s'est inventé sa guéguerre [...]

Cet article Chronique de con finé a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
« La France est en guerre ». Le ci-devant Macron, souverain du bas peuple et seul maître après le CAC40, n’a pas peur des hyperboles, surtout quand elles sont ridicules. Après avoir systématisé les funérailles nationales pour le moindre milicien tombé en embuscade ici ou là (les vétérans d’Algérie apprécient), il s’est inventé sa guéguerre et son occasion de jouer les matamores sanitaires. On n’est plus à une pose martiale près.

Pendant ce temps, mon copain Wikipédia me dit que, entre 1982 et 2013, la France a perdu 30 % de ses lits d’hôpitaux, quand dans le même temps, sa population a augmenté de 18,5 %. Une recherche croisée sur le site de l'INSEE me dit que, entre 1982 et 2013, l’âge médian est passé de 36 ans à 41 ans, soit un vieillissement de la population de 14 %.

À moins que les gouvernements successifs depuis 1983 ne reçoivent pas les mémos de l’INSEE, c’est un acte de sabotage délibéré. Je propose donc de poursuivre pour complicité de crime contre l’humanité les présidents de la république (sans majuscule, parce qu’elle est indigne), premiers ministres et ministres de la santé qui ont œuvré à ce saccage :

  • François Mitterrand, Pierre Mauroy, Laurent Fabius, Jacques Chirac, Michel Rocard, Edith Cresson, Jack Ralite, Édouard Balladur, Claude Évin, Bernard Kouchner*, Simone Veil,
  • Jacque Chirac, Alain Juppé, Lionel Jospin, Jean-Pierre Raffarin, Dominique de Villepin, Élisabeth Hubert*, Jean-François Mattei*, Philippe Douste-Blazy*, Xavier Bertrand, Philippe Bas,
  • Nicolas Sarkozy, François Fillon, Roselyne Bachelot-Narquin**,
  • François Hollande, Jean-Marc Ayrault, Marisol Touraine.

*médecin, **pharmacien

Ils sont responsables de la situation sanitaire dans laquelle nous nous trouvons et n’ont manifestement pas pris les mesures adéquates pour l’éviter. Ils doivent en répondre devant la justice, vu qu’on n’a plus le droit de les accrocher à une lanterne.

Pendant ce temps, le confinement, censé être un moyen de limiter les rapprochements entre personnes, est en train de devenir une fin en soi, avec une sur-pénalisation croissante et un encadrement restrictif à la lettre pour empêcher les gens de sortir de chez eux. Les cow-boys en Bleu-Marine (coïncidence ?) s'en donnent à cœur-joie pour exercer la justice expéditive de rue, verbalisant à la tête du client et en fonction du calendrier de leurs menstruations les cas qu’ils jugent, d’eux-mêmes, rentrer ou pas dans les rubriques du petit formulaire macroniste de sortie dérogatoire écrit avec le cul (apparemment, ils se font plaisir sur les vices de forme). Les recours judiciaires à l’arbitraire du keufinement sont maigres, puisqu’on est en « état d’urgence », ce qui veut dire que la flicaille se substitue à la justice, pour le plus grand bonheur du Trésor Public. Apparemment, l’urgence est de retrouver le cerveau des porte-flingues du gouvernement. Et si même les psychiatres n'y arrivent pas, on n’est pas sorti du bois…

Je voudrais aussi savoir combien de personnes ont été contaminées en faisant du sport seul au-delà du kilomètre horaire autorisé hors du domicile, pour qu’on justifie d’emprisonner les gens à domicile.

Au 30 mars, 44 550 cas de COVID-19 ont été confirmés en France (étant entendu que l’essentiel est probablement passé sous le radar), donnant lieu à 21 000 hospitalisations et 3024 décès. Ramené à 67 millions d’habitants, ça fait 0,07 % de la population infectée. Je ne sais pas pourquoi, mais on oublie toujours de ramener ces chiffres en ratio de la population globale. Depuis le début de la pandémie COVID-19, au niveau mondial, on est à environ 20 % de mortalité sur les cas « fermés » (patients guéris ou morts). Les statistiques cliniques de mortalité sont plutôt de l’ordre de 2 % en France à 3,5 % pour l'Iran.

J’ai d’autres statistiques en tête, qui m’inquiètent d’avantage. En 2017, 9,8 % de la population a souffert d’un épisode de dépression d’au moins 2 semaines, avec une fragilité particulière des gens ayant un faible revenu (+3 %) et des chômeurs (+5 %). La particularité des gens à faible revenu, en ce moment, c’est qu’ils sont très probablement confinés dans 12 à 30 m². Le moral doit être bon après deux semaines, sans parler des rythmes circadiens… Plus de la moitié des suicides sont imputables à une dépression, et on estime à la louche que 5 à 20 % des dépressions débouchent sur un suicide (ça reste difficile à estimer). Donc la dépression est une maladie mortelle qui tue 2 à 3 fois plus que COVID-19, et tue surtout chez les moins de 40 ans. En 2017, environ 8780 personnes se sont suicidées (sans compter les tentatives) en France, presque 3 fois plus que le nombre de morts du COVID-19 à ce jour, et on peut donc supposer qu’au moins 4400 des cas concernent des dépressions (et les plus touchés sont… les professions médicales, devant la police et les agriculteurs).

On est en train d’assigner à résidence 67 millions de personnes dans des conditions sordides, pour les protéger d’une épidémie qui ne touche même pas 0,1 % de la population (pour l’instant), concentrée sur 4 secteurs géographiques à haute densité de population, et tue 2 à 3 % maximum, essentiellement chez les plus de 60 ans, sans voir que le remède (confinement pénalisé) risque de faire bondir une maladie 2 à 3 fois plus mortelle qui touche déjà presque 10 % de la population en temps normal.

Quand les pompiers iront décrocher les dépressifs du lustre, je pense qu’ils seront ravis qu’ils ne soient pas mort de COVID-19. Enfin, pas directement. Dans la lutte contre COVID-19, je pense qu’on devrait aussi interdire les points d’ancrage au plafond et la vente de corde.

Au-delà du problème de santé mentale, en l’absence d’activité physique suffisante, la santé cardio-vasculaire se dégrade plus ou moins vite (mais je n’arrive pas à trouver d’étude sur la vitesse de dégradation après l’arrêt complet de l’activité physique). Il est envisageable que la contagion reprenne de plus belle dès la levée du confinement (prévoyez un retour massif dans les bars), et que le virus trouve alors des gens affaiblis par 1 mois de sédentarité (ou plus, si on continue d’être con), surtout qu’on sait que les maladies cardio-vasculaires et respiratoires sont des facteurs aggravants.

C’est un problème d’actuariat où il faut mettre en balance le risque lié à la contagion, et le risque lié au confinement. Mais on a complètement laissé tomber les risques du confinement, l’objectif de 7500 à 12 000 pas par jour, tous les « manger, bouger » dont on nous rebat les oreilles, et personne ne s’est dit que le remède était potentiellement pire que le mal.

J’attends toujours l’étude qui prouve qu’aller se promener seul, voire en forêt, ou que rouler ses 60 km de vélo augmente les risques de transmission du virus. Mais c’est sûr que brandir « restez chez vous pour sauver des vies », ça donne l’impression d’agir quand on est totalement impuissant, et quand on a plus de 4 m entre son lit et sa cuisine, j’imagine qu’on ne doit pas bien voir le problème.

En attendant, la santé mentale, c’est toujours un luxe pour ceux qui peuvent se le permettre. Pour un médecin, le corps humain est un enchevêtrement de mécanismes à protéger des agressions extérieures, et tout ce qui ne relève pas de la mécanique est hors sujet.

Mes chers cons finés, vive la raie pudique et vive la Gaule romaine.

Cet article Chronique de con finé a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
https://aurelienpierre.com/chronique-de-con-fine/feed/ 2
Le recyclage ne sauve pas la planète https://aurelienpierre.com/le-recyclage-ne-sauve-pas-la-planete/ https://aurelienpierre.com/le-recyclage-ne-sauve-pas-la-planete/#comments Thu, 22 Aug 2019 22:43:51 +0000 https://aurelienpierre.com/?p=4966 S'il est une erreur massive que tout le monde fait, quand on parle d'écologie et d'environnement, c'est bien celle d'associer automatiquement recyclage des déchets et écologie. Or le recyclage a un coût majeur pour l'environnement, et ne protège absolument pas la planète de notre pollution. Pourquoi recycler ? Tout l'intérêt du recyclage réside dans une [...]

Cet article Le recyclage ne sauve pas la planète a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
S’il est une erreur massive que tout le monde fait, quand on parle d’écologie et d’environnement, c’est bien celle d’associer automatiquement recyclage des déchets et écologie. Or le recyclage a un coût majeur pour l’environnement, et ne protège absolument pas la planète de notre pollution.

Pourquoi recycler ?

Tout l’intérêt du recyclage réside dans une seule chose : la préservation des réserves naturelles de matières premières. Certaines matières premières, comme les métaux, le pétrole, ou les terres rares (destinées à l’électronique), sont présentes en quantité limitées sur la surface terrestre. Ceci impose donc de les sortir de terre dans des mines ou des stations de pompage, jusqu’au moment où la réserve se trouve épuisée et où on se retrouve coincé. Non seulement ces mines peuvent avoir un impact très négatif sur leur environnement immédiat (pollution, destruction d’écosystème), mais les mines en activité à l’heure actuelle ont souvent un minerai moins concentré en matériau utile que celles qu’on exploitait dans le passé (car on a commencé par exploiter les plus productives), ce qui fait augmenter la facture par tonne de matière première raffinée, car on doit extraire plus de minerai pour obtenir la même quantité de matière première.

Rappelons que le minerai, c’est quelques pourcents de matériau utile, noyés dans une gangue minérale de 90 à 99 % de silice, de calcaire ou de n’importe quoi d’autre, dont on ne fait pas grand chose. Il faut donc dépenser de l’énergie et de l’eau pour extraire ce minerai, puis le broyer et le chauffer pour le purifier et en extraire les matériaux qui nous intéressent. La consommation d’eau est un vrai problème, puisque les mines ont la fâcheuse tendance de se trouver en milieu désertique ou presque. Au Chili, les mines de cuivre doivent être alimentée par pipelines en eau de mer dessalinisée (un procédé qui consomme une quantité d’énergie folle, puisqu’il consiste à chauffer l’eau de mer pour séparer la vapeur d’eau de la saumure, et qui rejette une saumure riche en polluants) au rythme de 12 m³/seconde.

Concernant certaines matières premières comme l’antimoine (utilisé dans les batteries électriques, les munitions de chasse et de guerre, et la fabrication de capteurs électroniques), l’étain (utilisé dans les monnaies, la robinetterie, les instruments de musique et les matériaux supra-conducteurs), le zinc (utilisé en couverture de toit, en traitement anti-corrosion pour les aciers, dans les piles électriques et les engrais destinés au maïs, pomme de terre, vignes, etc.), l’or, l’argent, on disposerait de moins de 30 ans de réserves, au vu notre consommation actuelle.

Attention, les articles qui prônent l'optimisme en se basant sur les ressources minières disponibles (très supérieures à ce que le « discours écologiste ambiant » laisse penser) ne tiennent pas compte des réserves. Les ressources sont des gisements qui existent mais dont on ne sait rien faire à l’heure actuelle, soit parce qu’ils sont enfouis trop profondément pour être accessibles, soit parce qu’ils seraient trop coûteux ou dangereux à exploiter (notamment pour les nappes phréatiques), soit tout simplement parce qu’on ne dispose pas de technologie pour en faire quoi que ce soit pour l’instant. Les réserves sont des gisements exploitables immédiatement. Parier sur des ressources pour établir des stratégies à long terme, c’est parier sur de l’espoir, et c’est commettre une erreur scientiste digne du XIXe siècle, en supposant que la science (ce grand corps sans tête, apparemment magique et bienveillant) réglera tous nos maux à plus ou moins courte échéance. C’est possible, mais c’est peu probable, alors n’y comptez pas trop.

Dans certains cas (verre, papier, plastiques), recycler consomme aussi un peu moins d’énergie et d’eau que d’extraire des matières premières, mais induit systématiquement une perte de qualité et de masse dans le matériau, qui fait qu’on ne pourra pas le réutiliser pour la même application (voir plus bas).

En un mot, recycler, c’est réutiliser ce qu’on a déjà miné pour en tirer le maximum.

Recyclage, la face cachée

Prenez un truc aussi simple qu’une bouteille de bière 25 cl. Ça représente 350 à 450 grammes de verre, disons une moyenne à 400 g. Vous la jetez : elle est récupérée, transportée, fondue, remoulée, retransportée. Le verre fond autour de 1300–1400 °C, donc pour refaire une bouteille, il faut lui apporter au moins 480 kJ d’énergie thermique (enthalpie), soit 0,133 kWh (en supposant que le corps de chauffe soit parfaitement isolé, sans aucune perte thermique nulle part). En réalité, le chauffage du verre est généralement réalisé aux combustibles fossiles (50 % gaz, 50 % fioul lourd), et comme le verre est fondu deux fois (à la récupération/agglomération des bouteilles cassées, et avant le moulage des nouvelles bouteilles), on tourne à 4,75 kWh d'énergie thermique effective juste pour refondre une bouteille (transport exclus). On estime qu’une maison de 100 m² occupée par 4 personnes consomme environ 42 kWh/jour en moyenne. Le recyclage d’une bouteille de bière représente donc 10–11 % de la consommation électrique d’un foyer. En gros, avec 9 bouteilles, vous venez de doubler votre consommation énergétique domestique quotidienne. Aïe.

Imaginons que, subitement, on arrête d’être con, et qu’au lieu de casser et de refondre les bouteilles pour refaire exactement les mêmes bouteilles, on les consigne, récupère, lave et remette en circulation. Comme ça se passe au Québec, en Allemagne ou en Alsace sur certains cycles courts, en fait. Pendant sa durée de vie utile (6,7 ans en moyenne), la bouteille consignée va être utilisée une vingtaine de fois (toujours en moyenne), et va donc consommer en tout 4,15 fois moins d’énergie qu’autant de bouteilles jetables, mais à peine 1,5 fois moins d’eau. C’est bien mieux, mais encore loin d’être parfait car, encore une fois, le lavage et l’étuvage des bouteilles (à 85 °C) est encore fait au gaz, et la quantité d’eau utilisée pour laver une bouteille est de l’ordre de sa contenance.

Imaginons maintenant des choses beaucoup moins simples qu’une bouteille de verre : par exemple, des emballages multicouches (TetraPak®) ou de l’électronique. Avant toute chose, il faut séparer les composants, ce qui nécessite de la main d’œuvre et/ou des équipements spécialisés. L’électronique est ainsi envoyée dans des pays où la main d’œuvre est moins chère, comme l'Inde où, accessoirement, la sécurité des travailleurs est un concept exotique (#MétauxLourds). Ensuite, et bien, encore une fois, il faut rechauffer pour fondre, utiliser des bains chimiques pour séparer les composants, donc on consomme de l’eau (potable), de l’énergie, et on produit des tas d’effluents chimiques qu’il faudra encore récupérer et traiter. De plus, les semi-conducteurs utilisés en électronique contiennent des concentrations infimes de terres rares, pourtant essentiels à leur fonctionnement, qui rendent leur recyclage complexe et difficilement rentable, compte tenu des quantités récupérables.

Pour finir, prenons les ampoules fluocompactes dites « à économie d’énergie ». Elles contiennent du mercure sous forme gazeuse, un poison pour l'homme. Une ampoule seule contient une dose négligeable de mercure, censée être inoffensive pour l’homme. Mais, pendant leur transport et leur collecte, un nombre important de ces ampoules sont cassées. Pour autant, aucune précaution spéciale n’est prise pour confiner les conteneurs et protéger le personnel qui les manipule. Les écolos rigolos n’avaient certainement pas pensé à ça avant de faire interdire les ampoules à incandescence. À leur décharge, c’est sûr qu’après la silicose des mineurs, et les maladies de l'amiante, on n’a aucun recul sur l’exposition des travailleurs à des poisons aérosols.

Donc on ne s’en sort pas. Vous voulez faire de l’écologie ? Supprimez au maximum les emballages, réparez vos objets pour les jeter le plus tard possible, et limitez votre consommation. Mais le recyclage, c’est un pansement sur une jambe de bois.

Quid de l’usage des matières recyclées ?

Contexte

Les matériaux hautes performances (métaux, céramiques et composites) sont caractérisés par une résistance mécanique supérieure, qui permet de construire des pièces plus petites et plus légères, à résistance mécanique équivalente, comparé à des matériaux classiques. Ce gain de masse est crucial pour les industries produisant des véhicules (avions, voitures, mais aussi vélos et bateaux), qui diminuent par là la consommation énergétique de leurs produits. On peut notamment citer :

  • les alliages d’aluminum-magnésium-silicium de la série 6000, surtout la nuance 6061, très utilisée pour des tôles et membrures d’avions, les châssis et jantes de voiture, les cadres de vélo,
  • les aciers chrome-molybdène et/ou nickel, remarquables pour leur capacité d’absorption des vibrations et offrant une très bonne soudabilité/usinabilité, utilisés pour les outils de coupe, les vannes de systèmes hydrauliques, les châssis soudés, et encore les cadres de vélos tout-terrain

Ces matériaux, souvent coûteux, nécessitent un contrôle fin de leur composition chimique, car leur propriétés mécaniques finales en dépendent directement.

Dans de nombreuses applications, on a besoin de matériaux très purs (notamment en électronique) ou d’alliages dont la composition chimique est précise (voir encadré ci-contre). Le problème, c’est que le métal recyclé mélange un peu tout et n’importe quoi, et que séparer/isoler les constituants suppose – encore une fois – de chauffer ou de faire des séparations chimiques coûteuses en énergie, polluantes, et elles-mêmes génératrices de déchets chimiques à retraiter derrière. En clair, ça veut dire que personne ne prend la peine de raffiner des matériaux recyclés.

Les matériaux recyclés sont donc toujours plus ou moins des cochonneries, de composition incertaine. On aura donc toujours besoin de matières premières « fraîches » pour les applications critiques, où la composition chimique des matériaux doit être connue et maîtrisée précisément, et les métaux recyclés ne peuvent être utilisés que pour des applications pas trop exigeantes. Quand on vous dit qu’on fait des pièces de voiture avec des métaux recyclés, ça se peut, mais ça restera des babioles anecdotiques, et certainement pas un châssis ou un bloc-moteur. Donc, quand Nespresso est tout fier de vous annoncer un nouveau vélo fait en aluminum de dosettes à café recyclées, qui pèse 15 kg pour 1300 € (sans fourche suspendue), il ne faudra pas vous étonner de trouver des vélos en aluminium 6061 (standard aéronautique) pesant 1 kg de moins (malgré une fourche suspendue, forcément plus lourde) pour un tiers du prix… Les hipsters apprécieront peut-être de rouler en déchet de cafetière, mais c’est pas demain qu’ils me fumeront dans les côtes (et comme je bois du moka de cafetière italienne, je n’ai pas besoin de me donner bonne conscience…).

Conclusion

Recycler n’est pas une fin en soi. Recycler n’est pas cool. Recycler n’est pas magique. Recycler ne résoud pratiquement rien. Recycler est la moins mauvaise des solutions temporaires et partielles au problème de la gestion des ressources, mais créée plein d’autres problèmes connexes de consommation d’énergie, de production d’effluents chimiques et de santé/sécurité des travailleurs qui effectuent le recyclage (parce qu’assurer la sécurité des travailleurs qui recyclent va augmenter les coûts d’exploitation et gréver la rentabilité de l’opération). Recycler, c’est déplacer le problème, tout en faisant du marketing plein de mots-clés sympas pour arnaquer les gogos. Il faut se calmer avec le recyclage. Vraiment. Il y a une solution beaucoup plus viable que le recyclage, elle s’appelle : arrêter de consommer comme des écervelés. Le problème est que la consommation entraîne l’économie, qui entraîne (plus ou moins) le marché de l’emploi, dont les gens dépendent pour avoir un travail, dont ils dépendent pour percevoir des revenus, dont ils dépendent pour remplir (et, à l’occasion, changer) leur frigo. Donc pour faire de l’écologie intelligente, il va d’abord falloir adresser deux ou trois problèmes sociaux (au hasard : le revenu universel), et arrêter d’encourager les gens à consommer d’un côté, pour maintenir l’emploi, tout en faisant semblant de leur dire de faire attention à la planète de l’autre. Oui, c’est complexe, mais en même temps, on est en 2019.

Ressources connexes

Pour des raisons de confidentialité YouTube a besoin de votre autorisation pour charger.
J'accepte

Cet article Le recyclage ne sauve pas la planète a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
https://aurelienpierre.com/le-recyclage-ne-sauve-pas-la-planete/feed/ 1
Résister à la canicule sans climatisation https://aurelienpierre.com/resister-a-la-canicule-sans-climatisation/ https://aurelienpierre.com/resister-a-la-canicule-sans-climatisation/#comments Fri, 05 Jul 2019 18:09:59 +0000 https://aurelienpierre.com/?p=4937 La canicule est un événement climatique dont la définition varie en fonction des pays, mais qu'on peut synthétiser en une anomalie thermique durant plusieurs jours, au cours desquels la température diurne dépasse 30°C et la température nocturne ne descend pas sous 15 à 20°C. En effet, si humains et végétaux sont capables de supporter des [...]

Cet article Résister à la canicule sans climatisation a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
La canicule est un événement climatique dont la définition varie en fonction des pays, mais qu’on peut synthétiser en une anomalie thermique durant plusieurs jours, au cours desquels la température diurne dépasse 30 °C et la température nocturne ne descend pas sous 15 à 20 °C. En effet, si humains et végétaux sont capables de supporter des hautes températures en journée, les hautes températures de nuit sont bien plus éprouvantes, empêchant les végétaux de reconstituer leur réserves d’eau et les humains de trouver un repos de qualité. Prolongé sur plusieurs jours, l’épuisement s’accumule, et les soucis de santé avec lui. La solution classique est alors d’installer des climatisations, afin d’abaisser la température des logements, mais ces solutions sont coûteuses, très gourmandes en énergie, et l’on prévoit pour les années à venir des augmentations substantielles de la consommation électrique l’été, liées au réchauffement climatique, qui ne feraient donc que l’entretenir. Nous proposons ici une solution d’appoint plus simple, moins coûteuse, et moins consommatrice d’électricité, pour mieux supporter les fortes chaleurs en intérieur.

Comprendre le problème

Le corps humain a une température moyenne d’environ 37 °C, la surface de la peau ayant des températures comprises entre 28 et 40 °C suivant les régions. Naïvement, on pourrait croire qu’une température extérieure de 37 °C serait confortable pour l’humain, le corps se trouvant ainsi en équilibre thermique avec son milieu. Pourtant, l’inconfort thermique peut apparaître dès 25 °C, ce qui indique que le corps humain est un radiateur qui émet de la chaleur en permanence, et qui doit donc constamment l’évacuer vers l’extérieur.

Les transferts de chaleur se font toujours du corps le plus chaud vers le corps le plus froid (la chaleur, comme l’électricité ou la matière « descend » les potentiels). Le corps humain dissipe donc sa chaleur dans l’atmosphère, tant que celle-ci est plus froide que lui. Cependant, l’air est un isolant thermique qui possède également une faible capacité à stocker de la chaleur («  masse thermique »). Il y a donc peu d’échanges thermiques entre l’air au repos (sans vent) et le corps humain, et une simple brise à 4,5 km/h suffit à doubler leur intensité. Dès que la température de l’air grimpe au dessus de 37 °C, le sens des échanges thermiques s’inverse, et c’est l’air qui réchauffe le corps, alors que celui-ci a toujours un excédent de chaleur à évacuer.

La solution biologique la plus efficace à ce problème thermique passe par l’humidité. En effet, l’eau liquide, lorsqu’elle s’évapore, consomme de la chaleur (et inversement, la vapeur, lorsqu’elle condense, relargue de la chaleur). Ce phénomène est quantifié par l’enthalpie de changement d'état. Le corps humain va donc produire de la vapeur, dans les bronches et à la surface de la peau (par évaporation de la sueur), afin de consommer cette chaleur interne. La vapeur est ensuite évacuée dans l’air ambiant.

Le problème qui survient alors concerne l’humidité : plus l’air ambiant est concentré en vapeur d’eau, plus l’évacuation de la vapeur du corps devient difficile et peu efficace, car un volume d’air donné ne peut contenir qu’une certaine masse de vapeur, qui dépend de sa température. Par exemple, la quantité maximale d’eau vaporisée que peut absorber 1 m³ d’air (à pression atmosphérique standard) est 10 g à 10 °C, 18 g à 20 °C, 32 g à 30 °C, etc.. Ces valeurs correspondent au 100 % d’humidité relative (relative à la température, donc). Des recherches[ref]Upper limits of air humidity for preventing warm respiratory discomfort, Jorn Toftum, Anette S. Jgrgensen, P.O. Fanger, 1997. Lien.[/ref] sur l’influence croisée de l’humidité relative et de la température sur le confort montrent que l’humidité jugée confortable par 90 % des gens à 20 °C est 60 %, alors qu’à 26 °C, on descend à 25 %. Ces valeurs d’humidité relatives apparemment très étalées correspondent en fait à des masses de vapeur comprises entre 6 à 9 g/m³ d’air (à pression atmosphérique standard), beaucoup plus constantes.

Les échanges de température et d’humidité sont des phénomènes temporaux : le corps humain au repos produit une certaine quantité d’énergie thermique chaque seconde, soit environ 80 à 120 watts au repos, et une certaine quantité de vapeur, soit environ 2 à 4 litres par heure au maximum. Ce flux continu d’énergie et de vapeur doit être éliminé en temps réel, à mesure qu’il est produit, pour garder une température moyenne à peu près constante. Or la rapidité des échanges corps/air augmente avec la différence de température et de concentration de vapeur entre le milieu d’origine et le milieu d’arrivée (loi de Fourier) : plus l’air est sec et froid, plus l’excédent de chaleur et d’humidité du corps est évacué rapidement, et plus la transpiration est efficace. À l’inverse, plus l’air est humide et chaud, plus les échanges sont ralentis et la transpiration devient inefficace. On doit alors transpirer plus, ce qui épuise le corps (en draînant son eau et ses minéraux), et la peau reste moite en permanence, ce qui est désagréable.

Dissipation thermique du corps humain dans l’air sec

Ci-dessus, j’ai simulé par le calcul la dissipation thermique pour des individus de 1,60 m à 1,90 m (surfaces de peau de 1,5 à 2 m²), dans de l’air sec, pour différentes vitesses de vent de 0 à 2 m/s (0 à 7 km/h). La modélisation néglige l’influence de l’humidité ambiante, de la sudation, et suppose des échanges thermiques avec l’air par convection et conduction, en utilisant les modèles simplifiés de la plaque verticale en convection naturelle (à v = 0) et du cylindre en écoulement extérieur perpendiculaire (à v > 0).[ref]Détail des calculs : Analyse the heat losses of a Sprinter van[/ref].

On postule que la zone de confort est située aux intersections entre la production thermique (région en rouge) et la dissipation thermique (régions en bleu, orange et vert), en clair quand on dissipe aussi vite qu’on produit. Pour une vitesse de vent nulle, on retombe sur un résultat connu de façon intuitive : la zone de confort tourne autour de 20 à 22 °C. En dessous de la zone en rouge, le corps produit plus de chaleur qu’il n’en évacue par conduction/convection et doit donc suer. Au dessus de cette zone, le corps évacue plus de chaleur qu’il n’en produit et frissonne. À 37 °C, peu importe la vitesse de vent, le corps et l’air sont à l’équilibre thermique et plus aucun échange n’intervient.

On remarque aussi qu’un vent de 2 m/s multiplie la dissipation thermique par 2,5 en comparaison avec l’air au repos, et repousse la température de confort d’environ 9 °C.

Solutions possibles

La solution la plus évidente, la climatisation, revient à abaisser directement la température ambiante. Le problème principal de cette méthode est sa consommation énergétique : pour abaisser la température d’une maison de 40 m² (d’une hauteur de 2,5 m sous plafond) de 30 °C à 25 °C, il faut extraire 742 MJ de chaleur. Même avec une pompe à chaleur ayant un coefficient de performance de 4 (en climatisation), il faut au moins fournir 41 à 42,5 kWh d’électricité à chaque fois que l’air intérieur est totalement renouvelé depuis l’extérieur (en supposant une isolation parfaite). Là où le bât blesse, c’est qu’avec les puissances généralement recommandées chez les vendeurs pour 40 m² (5 à 6 kW), la descente en température de 30 °C à 25 °C prend alors 7 à 8h, ce qui est pratiquement inutile, d’où là nécessité de démarrer le climatiseur à l’avance (la nuit, par température fraîche), et de le laisser fonctionner en continu. Ainsi, le climatiseur travaille à maintenir la température initiale, en combattant seulement les entrées de chaleur. Mais on en reste à une consommation quotidienne théorique de 45 à 60 kWh, en supposant une climatisation de classe énergétique A++.

À la place, on propose d’agir sur l’humidité. En effet, à 26 °C, l’humidité relative jugée acceptable par 90 % de l’échantillon testé est de l’ordre de 25 %. À 30 °C, on arrive, par extrapolation, juste sous 20 % d’humidité. Ceci correspond au climat du littoral méditerrannéen (Turquie, Grèce, etc.). En France métropolitaine, à de telles chaleurs, l’humidité est souvent comprise entre 40 et 50 %, soit 15 g d’eau par m³ d’air, et un inconfort certain. Pour l’abaisser à 20 % à 30 °C (6 g/m³), il faut alors assécher l’air de 9 g/m³, soit absorber 0,9 kg d’eau (environ 1 l) pour l’ensemble de notre maison de 40 m². Un déshumidificateur conçu pour absorber 32 l sur 40 m² ne consomme que 640 W, soit 5,7 kWh d’énergie sur une journée d’utilisation continue… c’est minimum 9 fois moins qu’une climatisation (en supposant qu’on ait besoin d’utiliser la déshumidification toute la journée), et l’appareil coûte entre un tiers et un cinquième du prix d’une climatisation (entre 200 et 400 €). Combiné avec une ventilation générale (au plafond, par exemple), on peut alors élever la température supportable à plus de 30 °C pour une fraction de l’énergie nécessaire à climatiser.

Il est aussi possible de combiner l’action simultanée d’une climatisation et d’un déshumidificateur, pour imposer à la climatisation une température de consigne plus haute et compenser cette température par une humidité plus faible. Ainsi, abaisser la température de notre maison de référence de 40 m² de 30 °C à 28 °C ne demande que 16,5 kWh, auquel on aujouterait les 5,7 kWh du déshumidificateur, et éventuellement une ventilation générale par plafonnier de 60 W, soit environ 300 Wh par jour, on arrive à une consommation globale de 22,5 kWh par jour, soit à peine plus de la moitié de la consommation initiale, pour un confort probablement supérieur (car, sous 1.25 m/s de vent, la température de confort monte à environ 28 °C).

Autre avantage, à la différence de la climatisation, qui doit s’installer près des murs extérieurs ou des fenêtres pour le raccordement à l’unité de refroidissement, et qui provoque donc un refroidissement excentré et non homogène avec un gradient thermique désagréable, le déshumidificateur n’a pas besoin de sortie d’air et peut se placer en position centrale dans la pièce, pour une action plus homogène.

À méditer…

Notes

Les résultats donnés ici sont des ordres de grandeur basés sur des calculs théoriques qui utilisent des modèles physiques qui ne sont pas parfaits et se basent sur des hypothèses que je ne peux pas toujours vérifier (faute d’avoir une climatisation sous la main). Si vous avez vous-même une climatisation et ses données de consommation électrique, merci de bien vouloir confirmer ou infirmer les ordres de grandeurs donnés ici.

Cet article Résister à la canicule sans climatisation a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
https://aurelienpierre.com/resister-a-la-canicule-sans-climatisation/feed/ 4
Arrêtez de voir de l’intelligence artificielle partout ! https://aurelienpierre.com/arretez-de-voir-de-lintelligence-artificielle-partout/ https://aurelienpierre.com/arretez-de-voir-de-lintelligence-artificielle-partout/#respond Sat, 16 Mar 2019 23:01:31 +0000 https://aurelienpierre.com/?p=4909 Je suis tombé par hasard sur un « reportage » poubelle, plutôt scandaleux, sur l'intelligence artificielle : https://www.youtube.com/watch?v=BSgcKBintiY Il fut une époque où Arte était une chaîne sérieuse, mais là, entre les raccourcis foireux, les approximations grossières, et le catastrophisme gras, ils prennent vraiment les gens pour des cons. De la bonne grosse désinformation digne [...]

Cet article Arrêtez de voir de l’intelligence artificielle partout ! a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
Je suis tombé par hasard sur un « reportage » poubelle, plutôt scandaleux, sur l’intelligence artificielle :

https://www.youtube.com/watch ?v=BSgcKBintiY

Il fut une époque où Arte était une chaîne sérieuse, mais là, entre les raccourcis foireux, les approximations grossières, et le catastrophisme gras, ils prennent vraiment les gens pour des cons. De la bonne grosse désinformation digne d’un quotidien national de gauche caviar et de ses journaleux nuls en sciences.

Je constate actuellement que le terme « intelligence artificielle » est utilisé à tort et à travers pour désigner tout algorithme informatique qui a l’air compliqué, et ça me démoralise.

Tout algorithme n’est pas une intelligence artificielle. À l’origine, l’informatique est un moyen automatique de traiter l’information, grâce à des systèmes électroniques qui représentent l’information (texte, son, image, mesures, etc.) de façon codée, en nombres binaires. En informatique, on créée traditionnellement des programmes, qui sont des séquences d’instructions que le programmeur inflige à la machine, d’où l’adage « un programme n’est jamais plus intelligent que son programmeur ». La beauté de l’informatique, c’est que, grâce à la représentation numérique de l’information, on peut appliquer des tas de méthodes mathématiques pour traiter rapidement et automatiquement de grands ensembles de données. Pensez au temps qu’il vous faut pour trouver une information sur Internet, comparé au temps qu’il vous faut pour trouver un livre dans une bibliothèque… En connectant toutes sortes de périphériques à l’ordinateur, et en numérisant les informations qui en proviennent, on peut alors automatiser un grand nombre de tâches répétitives, dupliquer, diffuser, contrôler à distance etc.

Pour autant, un automate (mécanique, électronique, informatique, ou tout ça à la fois) n’est jamais qu’un petit soldat qui effectue la séquence d’opérations imposées par le programmeur. Un automate est procédural (en général), ce qui veut dire qu’on connaît sa séquence à l’avance et que, sauf bug, on est capable de prévoir son comportement à chaque instant. Et beaucoup de robots sont encore de bêtes automates, qui suivent leur procédure et la répètent en boucle. La machine de Turing, mentionnée dans le reportage, n’était qu’une grosse idiote rapide qui testait toutes les clés de cryptage possible d’Enigma une par une jusqu’à trouver la bonne. On appelle ça du brute-force.

L’intelligence artificielle, c’est un autre niveau. L’intelligence, dans ce contexte, c’est l’aptitude à transformer des connaissances en action/décision rationelle. Une action rationelle est la meilleure action possible dans un contexte donné. Premièrement, la rationalité n’est pas ici à prendre dans son sens cartésien (raison détachée des sentiments ou de l’intuition), on peut parfaitement imaginer que la meilleure décision soit la plus amusante ou la plus agréable. Il s’agit seulement de faire au mieux avec ce qu’on sait, donc de trouver un optimum local (maximiser le gain, minimiser les pertes, dans les conditions actuelles). Deuxièmement, l’idée de « meilleure » action possible pose la nécessité de se donner une métrique pour évaluer la performance de l’action.

Imaginons qu’on vous propose une sortie vraiment sympa avec des amis que vous aimez beaucoup, mais à plusieurs heures de route de chez vous, après une journée de travail éprouvante. Intuitivement, vous aller entamer un processus cognitif rationnel pour décider si vous feriez mieux de vous reposer ou de sortir vous changer les idées, si votre état de fatigue risque de vous mettre en danger sur la route ou de vous rendre peu sociable, etc. Vous avez donc ici une succession de variables liées (prix du transport, danger de la conduite, bénéfice pour le moral, plaisir individuel, plaisir des autres, conséquences sur le travail le lendemain, etc.), un objectif d’avoir un maximum de plaisir à court et à moyen terme, et un dilemme brûlant : j’y vais ou j’y vais pas ?

Pour résoudre ce dilemme, vous allez puiser dans vos connaissances : vous savez que vous avez besoin de vos 8 h de sommeil, que la conduite en état de fatigue est dangereuse, que la route est longue, mais la vie sociale est importante pour maintenir un bon moral… bref vous pesez le pour et le contre en essayant de trouver la meilleure option pour vous ce jour là. À quel point êtes-vous fatigué ? Est-ce que la météo est clémente ? Peut-être que vous pourrez juste arriver à 10 h au bureau demain ?

C’est exactement ça que fait une intelligence artificielle. Ses connaissances sont des bases de données qu’on utilise pour l’entraîner, qui relient des ensembles de causes et des ensembles de conséquences. Puis elle prend les conditions particulières à ce jour là et, à l’aide de statistiques et de probabilités, va littéralement peser le pour et le contre (en probabilité) en comparant les conditions actuelles avec celles qui se rapprochent le plus dans sa base de données, pour inférer la performance de chacune des options possibles, et vous donner celle qui a le meilleur score.

Une intelligence artificielle est donc un système informatique qui est capable de prendre une décision en fonction de connaissances, en créant un modèle probabiliste local, qui dépend fortement des données que vous lui fournissez pour apprendre. Le modèle est une description mathématique des liens entre les ensembles de causes et les ensembles de conséquences de la base de données initiale. Suivant les données utilisées pour l’entraînement, le modèle peut changer drastiquement, quand bien même les équations qui servent à identifier la meilleure option seraient identiques. Puis l’intelligence artificielle trouve la solution qui maximise le critère de performance choisi. Rien de plus, rien de moins. On fait de l’optimisation sous contrainte à grands coups de probabilités.

La particularité de l’intelligence artificielle, comparée au simple algorithme procédural, c’est que même si l’on connaît la méthode de résolution pour arriver au critère optimal, on est incapable de prévoir à quelle solution l’intelligence artificielle va arriver ni vers quel modèle elle va converger. Dans ce sens, elle dépasse le programmeur. Ce n’est plus le gentil petit algorithme qui fait ce qu’on lui dit. Mais tout robot n’est pas une intelligence artificielle, et toute intelligence artificielle n’est pas un robot android qui parle. Les filtres anti-spam des messageries électroniques sont déjà des IA primitives, qui fonctionnent par apprentissage machine avec des inférences bayésiennes. Les modèles de prévisions météorologiques sont quasiment des intelligences artificielles (on peut discuter le fait qu’ils prennent des décisions, mais les mathématiques sont très similaires). Les utilitaires qui répartissent le temps de calcul de votre processeur d’ordinateur entre les différentes applications actives sont aussi des intelligences artificielles. La plupart des algorithmes de reconnaissance vocale ou de reconnaissance de texte sont des IA. Pratiquement tous les services Google sont des IA qui s’adaptent individuellement à chaque utilisateur.

Il y a deux dangers principaux dans l’intelligence artificielle :

1. le choix du critère de performance. Le choix d’une métrique n’est jamais neutre, souvent discutable et toujours arbitraire. Par exemple, dans un système de navigation GPS, vous pouvez généralement choisir entre un trajet plus court (en distance) ou plus rapide (en temps). Beaucoup de problèmes ne sont pas aussi faciles à mettre en équation, par exemple pour les algorithmes de suggestion de contenu pertinent (YouTube, Netflix). En fonction de la définition qu’on donne à « intéressant » (suscite de temps de visionnage, ou une interaction, ou des revenus publicitaires), le résultat peut changer drastiquement et le choix est toujours politique, donc les résultats le sont tout autant. C’est un peu la même chose qu’avec les indicateurs de santé des entreprises : suivant celui que vous regardez (CA, bénéfice brut ou net, etc.), la même entreprise n’aura pas le même bilan de santé.

2. la qualité de la base de données d’apprentissage. Aux États-Unis, certains juges utilisent des intelligences artificielles pour déterminer le risque de récidive des criminels au moment de rendre les verdicts de libération conditionnelle. Les États-Unis ont une disproportion flagrante des populations noires et latinos dans leur système carcéral, les raisons en sont complexes et relèvent du cercle vicieux (en gros : les prisons sont des universités du crime, et les gens qui en sortent sont marqués du sceau de l’infâmie sans pardon possible, donc ils deviennent criminels de métier). Les résultats donnés par les systèmes « intelligents » reproduisent alors les mêmes biais ethniques que les humains, à contre-sens de la réalité criminelle factuelle/statistique. Évidemment, si on leur donne les données de population carcérale actuelle…

La sagesse populaire veut qu’on fasse dire ce qu’on veut aux statistiques. Ça n’est pas exactement vrai. On choisit le paramètre qu’on mesure en fonction de ce qu’on a envie de montrer, et on choisit quel échantillon on sonde pour le montrer. Ce qui revient grosso-modo au même, mais c’est plus subtil. Ces deux biais statistiques ont des conséquences néfastes quand il s’agit de statistiques descriptives, mais deviennent clairement catastrophiques quand il s’agit de statistiques inférentielles dans le cadre d’une prise de décision « rationelle ».

Les risques liés aux biais que les humains introduisent dans les intelligences artificielles sont clairement minorés devant les perspectives plus spectaculaires et télégéniques de futurs robots tueurs ou de chômage généralisé. Et c’est une grave erreur, car leurs conséquences sont déjà observables, mais beaucoup plus subtiles et bien plus perverses. S’il faut se méfier des intelligences artificielles, il faut s’en méfier pour les bonnes raisons, et plus encore, se méfier de ceux qui leur font une confiance aveugle. Car, sous les apparences d’objectivité scientifique que véhicule la nature fondamentalement mathématique de l’IA, la façon dont on formule les problèmes qu’on lui donne à résoudre (notamment, le choix du critère de performance ci-dessus, mais aussi le choix des variables incluses dans le processus décisionnel) et les données qu’on lui fournit pour apprendre sont parfaitement arbitraires, politiques, et manipulables. Et les gens qui se cachent derrière la prétendue objectivité du chiffre sont des crétins dangereux qui doivent être stoppés et réduits au silence maintenant. L’erreur est humaine, mais cette erreur là est une faute grave. On sait désormais que tout ce qu’un auteur de science-fiction est capable d’imaginer, un Mark Zuckerberg est tout à fait capable de le réaliser. Les risques et les conséquences sont parfaitement clairs, et les ignorer ou les minorer en contemplant béatement les bénéfices relève d’un aveuglement volontaire.

Au lieu de ça, on nous rebat les oreilles de l’espionnage massif de notre vie privée et de l’utilisation commerciale indécente qu’en font les GAFAM. Ok, c’est mal, mais ouvrir (ou conserver) un compte Google, Facebook, Amazon, etc. est un choix volontaire qui se fait (désormais) en connaissance de cause. Les IA commencent à arriver sur la scène politique et sécuritaro-militaire, alimentées par des données gouvernementales, qui peuvent être détournées de façon bien plus sordide que votre historique de recherches Google.

Il y a plein d’applications géniales de l’IA. Je travaille par exemple sur de l’apprentissage machine en traitement d’image, pour déflouter et débruiter des photos de façon conjointe. J’ai des amis qui travaillent sur des algorithmes pour équilibrer en temps réel l’offre et la demande de puissance sur des réseaux électriques incluant des énergies renouvelables (qui produisent de façon intermittente, et difficile à prévoir). Les applications sont sans fin pour tout ce qui est automatisable. Mais il faut aussi savoir refuser d’automatiser tout ce qui touche à la dignité humaine. Et aussi, cesser d’appeler tout et n’importe quoi intelligence artificielle, sans quoi ça va vider le terme de son sens, désensibiliser le peuple, et détourner l’attention de ce qui peut faire franchement mal.

Pour aller plus loin, je recommande le livre de référence de Stuart Russell et Peter Norvig, traduit en français. C’est un livre à destination des étudiants d’université, écrit par des sommités mondiales, mais les deux premiers chapitres ne contiennent pas de maths et sont lisibles par n’importe qui avec une culture scientifique (ils traitent surtout des bases philosophiques et psycho-cognitives de l’IA). Et c’est une introduction bien plus rigoureuse que les débilités des journaleux à la gomme qui vous bourrent de crâne d’infographies sexy où ils peuvent raconter ce qu’ils veulent parce que personne n’ira vérifier leurs chiffres, vu qu’ils ne donnent de toute façon pas leurs sources.

Cet article Arrêtez de voir de l’intelligence artificielle partout ! a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
https://aurelienpierre.com/arretez-de-voir-de-lintelligence-artificielle-partout/feed/ 0
Lampes en cristal de sel : les bienfaits cachés des ions négatifs https://aurelienpierre.com/lampes-cristal-de-sel-bienfaits-caches-ions-negatifs/ https://aurelienpierre.com/lampes-cristal-de-sel-bienfaits-caches-ions-negatifs/#comments Thu, 26 Oct 2017 07:55:09 +0000 https://aurelienpierre.com/?p=4835 Vous en avez vu dans tous les magasins bio, les librairies ésotériques, dans votre salle de yoga préférée : les lampes en sel gemme rose de l'Himalaya nous inondent de leurs bienfaits pour la santé. https://www.youtube.com/watch?v=SIlW52VUiU0 On leur prête la vertu de produire des ions négatifs qui, nous disent des magazines à grand tirage, sont [...]

Cet article Lampes en cristal de sel : les bienfaits cachés des ions négatifs a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
Vous en avez vu dans tous les magasins bio, les librairies ésotériques, dans votre salle de yoga préférée : les lampes en sel gemme rose de l’Himalaya nous inondent de leurs bienfaits pour la santé.

Pour des raisons de confidentialité YouTube a besoin de votre autorisation pour charger.
J'accepte

On leur prête la vertu de produire des ions négatifs qui, nous disent des magazines à grand tirage, sont essentiels à notre métabolisme, réduisant le stress, les maladies respiratoires, la pollution électromagnétique, et se trouvant en plus grande quantité dans les milieux naturels, proche des cascades par exemple, ou la friction des molécules d’eau en produit de grandes quantités.

Le seul petit problème, c’est que la matière est électriquement neutre, pour une raison bien simple : toute particule chargée est très réactive et ne survit que le temps de réagir avec une autre particule de charge opposée pour redonner une structure neutre.

Un ion, c’est un atome ou un groupe d’atomes qui a/ont perdu un ou plusieurs électrons (ions positifs, appelés cations) ou gagné un ou plusieurs électrons (ions négatifs, appelés anions). Ce déséquilibre dans son nombre d’électrons lui donne une charge électrique positive ou négative qui romprait le principe de neutralité électrique de la matière, mais qui est en fait compensé par le fait qu’un ion négatif existe toujours  À l’état naturel, on les trouve dans 3 milieux :

  1. les cristaux ioniques
  2. les solutions ioniques
  3. les plasmas

Les cristaux ioniques sont des structures géométriques régulières et tridimensionnelles qui associent des ions négatifs et des ions positifs dans un maillage électriquement neutre. C’est le cas de tous les sels minéraux et de la plupart des oxydes : par exemple, le sel de table est un cristal de chlorure de sodium, l’ion chlorure étant un atome de chlore qui a gagné un électron, et l’ion sodium étant un atome qui a perdu un électron. Ces cristaux ont une cohésion plus ou moins forte qui vient de la force d’attraction existant entre éléments de charges opposées.

Cristal de sel - Par Didier DescouensTravail personnel, CC BY-SA 4.0, Lien

Les cristaux ioniques plongés dans l’eau se dissolvent et voient leur structure se désagréger pour former une solution où les ions sont libres et mobiles. La solution est alors électriquement neutre en moyenne, mais les ions mobiles qu’elle contient permettent le passage d’un courant électrique quand il y en a un. C’est le principe de l’électrolyse et de la pile électrique.

Les plamas sont des sortes de soupes d’ions et d’électrons de très haute énergie, un 4 e état de la matière, qu’on trouve notamment dans les étoiles, dans le vide galactique, à proximité des arcs électriques et des éclairs d’orage. On pense qu’ils représentent 99 % de la matière de l’univers, et la Terre est une exception puisque le seuls plasmas qu’on y trouve sont responsables des éclairs d’orages et des aurores boréales. En effet, les plasmas sont des milieux généralement très chauds (supérieurs à 2000 °C), électrisés, et donc incompatibles avec la vie telle que nous la connaissons.

Les lampes en cristal de sel « fonctionnant » dans l’air, elles ne peuvent créer ni solution ni cristal ionique. En réalité, le sel qui les compose est déjà un cristal ionique, mais il contient des ions négatifs et positifs, prisonniers d’une structure cubique, donc non mobiles. La seule façon de créer des ions négatifs dans ces conditions est donc de créer un plasma. Mais là encore, ce plasma contiendrait autant de charges positives que négatives, donc on n’est pas plus avancé côté « rééquilibrage ».

Et comment créée-t-on un plasma ? Des lampes à plasma existent depuis les années 1980, et peuvent se trouver en version scientifique pour la recherche (simulation de lumière solaire) ou en version grand-public pour la décoration. Il « suffit » de disposer d’une source électrique de 4000 V, d’un générateur et d’un guide d’onde radio, tout ça dans une cavité résonnante remplie de gaz rares choisis soigneusement, le tout pour une puissance électrique de 1000 W. Le principe consiste à exciter les gaz par des ondes électromagnétiques de haute énergie dans une enceinte fermée dont la géométrie amplifie les vibrations. En cas de bris, cette lampe à plasma cause un danger d’électrocution pour toute personne se trouvant à proximité (le plasma est très conducteur et la source est de tension élevée), mais un plasma non excité, dans les conditions terrestres, redevient rapidement un gaz tout à fait normal.

Vous reconnaissez là plus ou moins le schéma de fonctionnement d’une lampe en cristal de sel dans laquelle on a mis une ampoule de frigo de 25 W. [Ironie]

Il existe d’autres types d’ionisations, qui se basent toujours sur l’arrachement d’électrons par des bombardement d’ondes électromagnétiques et/ou de particules à des énergies très élevées. Il y aurait aussi une ionisation naturelle créée dans les nuages entre les gouttes d’eau, par l’effet Lenard, qui implique le frottement des molécules pendant la chute des gouttes (la même chose qu’en se brossant les cheveux, en somme). Mais la théorie à ce sujet date de 1927, et les quelques résultats expérimentaux de 1953 ne sont pas suffisants pour conclure car de nombreux points d’ombre subsistent. Le point commun de toutes les ionisations connues à ce jour impliquent des conditions assez extrêmes et incompatibles avec un milieu sain pour l’homme. D’un point de vue pratique, l’ionisation de l’air fait du bruit et de la lumière, ce qui est facile à voir.

Vous l’aurez compris, la lampe en cristal de sel est une arnaque. Et c’est tant mieux, car si elle produisait effectivement des ions négatifs, elle rendrait l’air conducteur et créerait un risque de se faire électrocuter juste en passant à côté d’une prise électrique. Mais il est amusant que les vendeurs de lampes en cristal de sel ventent leur prétendus mérites de dépollution électromagnétique car, si elles fonctionnaient, elles feraient exactement l’inverse.

Certains sites de vendeurs (qui réussissent l’exploit de se baser sur beaucoup de recherches scientifiques sans mentionner un seul nom de chercheur ou de laboratoire ou d’étude publiée) n’hésitent pas à parler d’ondes électromagnétiques générées par le sel. Dans un sens, c’est vrai, tout corps porté à une température supérieure au zéro absolu (- 273 °C) émet des ondes, les infrarouges, dont l’intérêt pour l’homme est purement thermique. Mais ces ondes ne sont pas créées, juste captées puis ré-émises (on se souvient que l'énergie est conservative). De plus, pour annuler des ondes électromagnétiques, il faut un système actif (dit « actif », au sens où il consomme de l’énergie, par opposition à un matériau inerte comme le sel gemme) qui vise à créer une onde inversée, principe utilisé depuis la fin des années 1980 dans les casques anti-bruit à annulation active.

N’oubliez jamais que dans les années 1910-20, de vrais médecins et pharmaciens vendait entre autres des crèmes rajeunissantes radioactives, préservatifs, compresses, torchons et traitements contre les maladies cardiaques et la dépression au radium, parce qu’on si disait que cette drôle de matière qui émet de l’énergie devait probablement être un élixir de jouvence. Du danger de faire une interprétation métaphysique d’un fait scientifique approximatif et mal compris…

Quant aux bienfaits des ions négatifs sur la santé, cherchez des études cliniques présentant des résultats expérimentaux, et dites-moi si vous en trouvez. Moi pas. Je serais ravi d’en lire, mais en l’absence de preuves et en présence d’une contradiction flagrante entre les affirmations des vendeurs de lampes en cristal de sel et l’état des connaissances physiques actuelles, je suis obligé de crier à l’arnaque. Car il y a une loi en science qui dit qu’on n’a le droit de balayer les théories vérifiées qu’un apportant des arguments – donc des preuves – solides.

Cet article Lampes en cristal de sel : les bienfaits cachés des ions négatifs a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
https://aurelienpierre.com/lampes-cristal-de-sel-bienfaits-caches-ions-negatifs/feed/ 2
Obsolescence programmée, le point de vue du concepteur https://aurelienpierre.com/obsolescence-programmee-point-de-vue-concepteur/ https://aurelienpierre.com/obsolescence-programmee-point-de-vue-concepteur/#comments Tue, 19 Sep 2017 19:00:38 +0000 https://aurelienpierre.com/?p=4581 L'obsolescence programmée est une théorie apparentée au conspirationnisme dont beaucoup parlent mais que personne n'a vraiment prouvé. En l'état, elle se base surtout sur une mauvaise compréhension de la notion de durée de vie d'un appareil et de ses composants, et l'attribution d'intentions démoniaques à des entreprises qui ne font guère qu'appliquer les lois du [...]

Cet article Obsolescence programmée, le point de vue du concepteur a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
L’obsolescence programmée est une théorie apparentée au conspirationnisme dont beaucoup parlent mais que personne n’a vraiment prouvé. En l’état, elle se base surtout sur une mauvaise compréhension de la notion de durée de vie d’un appareil et de ses composants, et l’attribution d’intentions démoniaques à des entreprises qui ne font guère qu’appliquer les lois du marché et de la physique. En effet, la plupart des pannes et des défaillances sont liées à des choix de conception qui visent le moindre coût, et bénéficient en fait largement au client. Si personne ne remet en doute le fait qu’un produit qui dure trop longtemps met les ventes en péril (on pense aux ordinateurs Thinkpad d’IBM, indestructibles, qui ont mené la compagnie au bord de la faillite), la presse consommateur oublie d’étudier les choix de conception, inévitables compromis qui font le quotidien de l’ingénieur, dont les conséquences impactent directement la durée de vie des produits industriels.

Cas d’école : le cartel Phœbus

Le cartel Phœbus est une entente entre les fabricants d’ampoules Osram, Philips, General Electric etc. remontant à 1924. Leur objectif n’est par clair, mais le cartel a notamment servi à normaliser à la fois les standards d’ampoules (puissance, diamètres et types de culots) mais également leur durée de vie (1000 heures). L’augmentation de cette durée de vie, bien que technologiquement possible en augmentant le diamètre du filament, aurait été empêchée, disent les complotistes, pour éviter de diminuer les ventes et toute compagnie mettant sur le marché une ampoule à durée de vie supérieure aurait dû payer une amende au cartel.

On dispose de trop peu d’études historiques sérieuses et sourcées pour trancher les motifs réels de ce cartel. Comme souvent, les sites complotistes et écologistes sont plus prolixes que les revues scientifiques à ce sujet, et les sources sur Internet se limitent à un documentaire Arte intitulé Prêt à jeter, montré ci-dessous. Ce reportage, rempli de formules choc d’experts dans un montage dramatique, ne fait rien de plus que conclure son hypothèse de départ (l’obsolescence programmée est partout), en versant dans le biais de confirmation épais. Qui n’entend qu’une cloche… La condamnation du cartel Phœbus en 1950 par la commission de la concurrence anglaise pour distorsion de concurrence mentionne seulement une entente sur les prix, pas celle sur la durée de vie.

Pour des raisons de confidentialité YouTube a besoin de votre autorisation pour charger.
J'accepte

Le problème de ce reportage est qu’il s’intéresse un peu trop aux motifs commerciaux et fait un procès d’intention, mais néglige les motifs techniques. Personne n’y explique pourquoi la durée de vie est si réduite (à part, on l’a compris, pour augmenter les ventes).

Il y a des raisons techniques tout à fait valides et absolument pas démoniaques au fait que la durée de vie des ampoules à filament ait été réduite à 1000 h : l’augmentation de la durée de vie du filament de l’ampoule passe par l’utilisation d’un filament plus froid et plus épais, et va de pair avec la diminution de son efficacité énergétique, donc une consommation électrique (très) supérieure. En effet, le principe de l’ampoule à incandescence est d’amener un filament métallique au bord de la fusion en le traversant avec un courant de haute tension. Un filament de la taille de la paille de fer, peut être porté au rouge avec une pile de 4.5 V. Pour le chauffer au jaune, il va falloir plus que cela. Démonstration :

Pour des raisons de confidentialité YouTube a besoin de votre autorisation pour charger.
J'accepte

On se trouve alors face à un conflit courant en ingéniérie, expliqué en termes physiques par le Dr Goulu, et que je vais résumer ici : plus on veut de lumière pour une consommation électrique donnée, plus on doit porter le filament à une haute température. Pour reconstituer le spectre lumineux du soleil, il faudrait une température de 5200 °C pour aller de l’infrarouge à l’ultraviolet. Or la plupart des métaux à filaments fondent entre de 2900 à 3100 °C. Les filaments au tungstène sont donc portés à environ 2750 °C, mais à une telle température on produit plus de rayonnement infrarouge (autrement dit, de la chaleur, donc une forme d’énergie qui ne nous intéresse pas pour cette application) et moins de lumière visible. Si vous voulez doubler la durée de vie de l’ampoule, il faut diminuer sa température d’environ 6 %, mais ce faisant vous diminuez sa luminosité de 20 %. Et pour compenser cette perte de 20 % de luminosité, il faut multiplier la puissance électrique par 2,13. C’est donc un bête problème d’optimisation de coût d’électricité par rapport au coût de l’ampoule, qui trouve un optimum mathématique autour de 1000 h. Récapitulons :

Option 1000 h Option 2000 h
Puissance électrique 60 W (référence) 120 W (intensité lumineuse équivalente)
Prix ampoule au 19/09/2017  1 € 1,50 €
Coût énergie premiers 1000 h 60 kWh = 9 € 120 kWh = 18 €
Seconde ampoule 1 €
Coût énergie seconds 1000 h 60 kWh = 9 € 120 kWh = 18 €
TOTAL 20 € 37,50 €

 

En d’autres termes, pour économiser une ampoule de 60 W (1 €) qui durerait 1000 h, en doublant sa durée de vie à luminosité égale, vous allez devoir utiliser une ampoule de 120 W et consommer deux fois plus d’électricité (120 kWh de plus), soit 17,50 € supplémentaires en France en 2017. Économiser UNE ampoule coûte le prix de DIX-SEPT ampoules, soit 1,85 fois plus cher au total !!! L’obsolescence programmée joue-t-elle vraiment contre le consommateur ?

Dans tous les cas, la technologie utilisée par les ampoules à incandescence — le fait de porter un filament métallique à la limite de la fusion par le passage d’un courant électrique — est destructive : le filament est endommagé progressivement de façon irréversible pendant le fonctionnement (par oxydation et/ou sublimation du métal). La technologie est limitée par elle-même, et c’est pour ça qu’on a interdit ce type d’ampoule.

La plus veille ampoule encore en activité date de 1901, mais sa construction est particulière : au lieu d’un filament en tungstène, comme toute ampoule moderne, le sien est en carbone et présente la particularité de voir sa résistance interne augmenter avec le temps. Aujourd’hui, sa puissance électrique consommée est de 4 W, alors qu’elle était de 60 W à sa construction. Le rendement en est catastrophique, et la longévité de l’ampoule n’est dûe qu’au fait que celui-ci se dégrade avec le temps. Les ampoules à filament carbone, appelées ampoules Edison, sont néanmoins toujours utilisées en décoration puisque leur faible puissance lumineuse permet de jouer avec la forme du filament.

Crédit Ampoule -Retro.com

Les ampoules de types Edison construites aujourd’hui affichent une luminosité de 240 lumens pour 40 W (0,9 % de rendement), contre 505 lumens pour des ampoules de 40 W à filament tungstène moderne (1,9 % de rendement). De plus, les filaments en carbone sont connus pour se sublimer avec le temps, et forment alors un dépôt métallique gris-brun à l’intérieur du verre de l’ampoule, qui l’obscurcit. Donc, la longévité s’obtient clairement au détriment de la performance.

En mécanique

Partout où vous voulez améliorer la durée de vie d’une pièce, vous êtes obligé de la concevoir plus grosse, plus lourde, plus chère. Partout où des éléments bougent, l’énergie nécessaire pour les mettre en mouvement est proportionnelle à leur masse.

En aviation, où chaque kg coûte du kérosène, on préfère des tôles plus minces qui fissureront au bout de 35 000 heures de vol (environ 30 ans de service) à des tôles surdimensionnées qui coûteraient plus cher en carburant pour une durée de vie pas forcément plus intéressante. Idem en automobile. Tout un pan du génie mécanique s’intéresse aux analyses de l'usure et de la fatigue des matériaux, de façon à prévoir le plus précisément possible le temps de service des pièces avant rupture.

640px-BrittleAluminium320MPA_S-N_Curve
Diagramme de Wöhler d’un alliage d’aluminium

Le graphe de Wöhler ci-dessus est un exemple classique de données expérimentales permettant de prévoir la durée de vie d’une pièce mécanique en connaissant la force qu’elle supporte pendant une utilisation en présence de chocs ou vibrations. Si l’on imagine une pièce cubique conçue pour résister à 10 000 cycles (cycle = rotation, choc, etc.), pour doubler sa durée de vie, il faudrait multiplier sa masse par 1,11. Pour avoir une vie quasi-infinie, on multiplierait sa masse par 2,6. Si cette pièce est entraînée par un moteur électrique, on doit alors multiplier sa puissance réelle d’autant et sa consommation d’énergie par 2,5 environ (pour tenir compte du rendement).  Si le supplément d’énergie demandé est plus cher que la pièce, il vaut mieux remplacer plus souvent une pièce plus fragile. Pensez à votre voiture, vous préférez la changer dans 10 ans ou consommer 2,5 fois plus et la garder 50 ans ? Réponse : en moyenne, dans 8 ans, vous la changerez de toute façon.

Électronique

L’électronique moderne n’a jamais été si compacte, et c’est peu dire : les ordiphones qui tiennent dans notre poche sont plusieurs fois plus puissants que les ordinateurs utilisés pour piloter la mission Apollo. Cette compacité se paie néanmoins au prix fort.

hp-spectre-13.3
HP Spectre, l’ordinateur le plus fin du monde : 12 mm d’épaisseur, 1 kg. © HP

Premièrement, les boîtiers qui contiennent les téléphones, tablettes, et ordinateurs portables de type Netbook font aujourd’hui environ un centimètre d’épaisseur, dans lequel on fait tenir l’écran, la batterie et toute l’électronique. Aucune chance de loger un refroidissement actif (comprendre : un ventilateur et une circulation d’air) dans une enceinte si petite, le seul refroidissement est passif (l’électronique conduit sa chaleur au boîtier). Un tel refroidissement est peu efficace et avec la puissance de calcul dont disposent ces appareils aujourd’hui, il en résulte des températures internes qui peuvent atteindre 75 à 90 °C. De telles températures sont destructives à moyen terme pour l’électronique.

flir_20160725T165002
Image thermique du téléphone français Wiko U. La coque à 50 °C suggère un processeur bien plus chaud. © notebookcheck.com

De plus, pour satisfaire ces contraintes d’encombrement minimal, il faut intégrer toute l’électronique sur des micro-cartes soudées. Concrètement, ça veut dire que ces appareils sont indémontables et donc non réparables de façon simple. Pour les rendre réparables, il faudrait séparer l’électronique en modules non soudés et démontables, comme dans un ordinateur de bureau classique, et les assembler avec des connecteurs mécaniques (des prises). Chacune de ces connecteurs rajoute une épaisseur car ils doivent tenir la carte en sandwich et les spécifications d’épaisseur totale deviennent intenables.

Ceci étant posé, les constructeurs ne s’embêtent même plus à utiliser des vis pour assembler leur électronique : soudures, tétons à expansion en plastique, colle, si vous voulez démonter tout cela, vous aller tout éclater sans possibilité de remonter.

Y a-t-il une volonté délibérée de rendre cela irréparable ? À part Apple qui fait exprès en utilisant des vis pentalobes propriétaires, en général, c’est plutôt un effet secondaire et il y a bien assez de travail à rendre possible la réalisation d’appareils avec de telles contraintes d’encombrement pour ne pas s’embêter à les optimiser pour être en plus irréparables et auto-destructeurs.

Électro-ménager

L’électro-ménager aussi est engagé dans la même course contre l’encombrement que l’électronique, la différence sont les contraintes de prix et de consommation électrique supplémentaires. Un lave-linge neuf se trouve aujourd’hui pour moins de 280 €. À ce prix là, on s’attend à de nombreux compromis, mais tous les ménages ne peuvent pas s’offrir des modèles à 1000 € et plus. Et il n’est absolument pas garanti qu’un modèle deux fois plus cher dure deux fois plus longtemps.

Les contraintes énergétiques conduisent par exemple à utiliser de plus petits moteurs. Pour faire durer un moteur, la méthode la plus simple est de le surdimensionner et de l’utiliser à 50-80 % de sa charge nominale, ce qui va réduire l’usure et l’échauffement. Le problème est que tout moteur électrique utilisé très en dessous de sa charge nominale a un rendement faible, c’est à dire qu’il va gaspiller plus d’énergie. En utilisant un moteur plus petit à pleine charge, on réduit la consommation électrique mais on sait qu’on va le détruire à un moment donné.

Ensuite, on remplace les parties métalliques par des parties plastiques. Le plastique a mauvaise presse, et ce n’est pas toujours injustifié, mais mouler à chaud un plastique qui fond à 200 °C demande considérablement moins d’énergie que mouler de l’inox qui fond à 1400 °C. Quoi qu’on entende, le plastique est bon pour la planète quand il n’est pas à usage unique.

Comme dans le cas de l’ampoule, l’ingénierie revient à trouver l’optimum de prix et à optimiser le produit en conséquence. Il n’y a pas systématiquement un avantage pour le consommateur d’avoir un produit avec une meilleure longévité. C’est beaucoup plus compliqué.

Conclusion

La conception générale de l’obsolescence programmée repose sur plusieurs perceptions biaisées :

1 - les appareils étaient meilleurs avant

Ils duraient plus longtemps, peut-être. Mais ils étaient d’une conception beaucoup plus basique. L’absence des techniques de calcul et de simulation modernes conduisaient les ingénieurs à faire des approximations par le haut, menant toujours à du sur-dimensionnement. C’était plus solide, mais trop gros et trop lourd. De plus, leur efficacité énergétique était catastrophique et leur consommation électrique assez délirante.

2 - les appareils étaient plus faciles à réparer avant

Conséquence de leur taille et de leur technologie primaire, effectivement, ouvrir, désouder, resouder des appareils était facile. Aujourd’hui, pour réparer de l’électronique, il faut un microscope, un robot, et un électricien-informaticien. Sauf que les contraintes ne sont plus les mêmes et que les gens veulent des appareils toujours plus petits et évolués. On ne peut pas avoir des fonctions avancées dans un appareil simple, un appareil microscopique plein de processeurs et de circuits intégrés et réparable soi-même.

3 - un appareil qui dure plus longtemps coûte proportionnellement moins cher

Même si des exceptions ponctuelles peuvent se trouver, dans le cas général, le prix n’est pas proportionnel à la durée de vie. On l’a illustré plus haut, le fait d’avoir des appareils moins durables peut permettre de dimunuer les coûts matériels et énergétiques. Mais c’est contre-intuitif. Il n’y a pas de réponse universelle, il faut étudier chaque appareil au cas par cas et faire les calculs pour décider des choix à faire. Ce que font généralement les concepteurs des appareils que vous utilisez.

On peut éventuellement parler d’obsolescence programmée lorsqu’un fabricant d’appareils électronique cesse de fournir des mises à jours logicielles pour ses appareils, ce qui les rend beaucoup moins désirables pour le consommateur (même s’ils fonctionnent encore). Mais il n’y a à ma connaissance aucune opération de réduction volontaire de la vie des appareils. Il y a en a qui jouent à empêcher l’accès aux composants internes et la réparation (Apple et ses vis non standard), mais si le consommateur choisit de les encourager en achetant quand même, c’est lui qui ça regarde. S’assurer que les produits fonctionnent correctement pendant leur durée de vie légale (durée de la garantie conformité) est déjà bien assez de boulot pour les ingénieurs, personne n’a le temps de concevoir un mode de destruction automatique qui serait assez fiable pour se déclencher à distance et après la fin de la garantie.

La conception d’un produit est une activité complexe, faisant intervenir la technique, le marketing, les contraintes légales et aussi l’ego des concepteurs (aucun ingénieur n’a de plaisir à concevoir un produit pourri). De nombreuses variables rentrent en compte, et des compromis doivent être faits à tous les étages pour parvenir à un optimum qualité/coût qui soit au niveau du marché. La durée de vie est un concept dont les répercussions sur les coûts s’appliquent à différents niveaux, pendant la conception, la fabrication, et l’utilisation. L’augmentation de la durée de vie s’accompagne toujours d’une hausse de coût qui n’est pas toujours rentable quand on la rapporte à l’ensemble du cycle de vie d’un produit.

Au final, cette optimisation bénéficie en premier lieu au consommateur puisque la technologie n’a jamais été aussi accessible économiquement et efficace énergétiquement. Même si la fin de vie, le recyclage, et la gestion des ressources sont des sujets qui méritent d’être intégrés dans le calcul des coûts généraux, faire des produits plus « durables » ne va pas systématiquement dans le sens de la réduction des besoins énergétiques. Du reste, la durée de vie est une variable statistique qui n’est applicable qu’à l’échelle de toute une production et subit des variations individuelles statistiques.

Cet article Obsolescence programmée, le point de vue du concepteur a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
https://aurelienpierre.com/obsolescence-programmee-point-de-vue-concepteur/feed/ 1
Végétariens et mangeurs de viandes : les risques de cancers sont-ils vraiment réduits ? https://aurelienpierre.com/vegetariens-mangeurs-de-viandes-risques-de-cancers-vraiment-reduits/ https://aurelienpierre.com/vegetariens-mangeurs-de-viandes-risques-de-cancers-vraiment-reduits/#respond Fri, 30 Jun 2017 00:35:47 +0000 https://aurelienpierre.com/?p=4571 Tout le monde s'y met pour sortir des études « scientifiques » qui essaient de prouver que les risques de cancer sont réduits chez les végétariens, et que donc éviter la viande est une pratique bénéfique : Études citées par le Huffington Post Études citées par le Physician Committe for responsible medecine Études citées par [...]

Cet article Végétariens et mangeurs de viandes : les risques de cancers sont-ils vraiment réduits ? a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
Tout le monde s’y met pour sortir des études « scientifiques » qui essaient de prouver que les risques de cancer sont réduits chez les végétariens, et que donc éviter la viande est une pratique bénéfique :

J’ai un problème de taille avec cette affirmation, et avec les études qui la soutiennent.

Végétariens et non végétariens, des groupes non homogènes

Avez-vous déjà vu de la junk-food végétarienne ? Pas moi. On me dit que ça existe, reste à savoir la popularité que ça a chez les végétariens. En effet, la plupart du temps, être végétarien est plus qu’un régime alimentaire, c’est tout un style de vie, a priori sain, exercé par des gens éduqués et conscients de leur alimentation. Parfois, ça confine même à l’orthorexie. Les végétariens sont un groupe a priori homogène qui accorde une importance majeure à son mode de vie, en plus d’avoir une alimentation particulière.

Les mangeurs de viande, en revanche, sont un groupe hétéroclite qui comprend aussi bien des gens attentifs à leur alimentation que des accrocs au fast-food et à la malbouffe, ainsi que tous les états intermédiaires entre ces deux extrêmes. Malgré des différences de taille dans leur style de vie, dans toutes les études que j’ai lues, ils sont rangés dans le même groupe des « mangeurs de viande ». Peu importe qu’ils en consomment en quantité faible ou pas, associée à des fruits et légumes ou pas, avec un mode de vie proche de celui des végétariens, ou pas.

Un autre problème est de savoir où l’on classe les végétariens auto-proclamés mais qui consomment de la viande occasionnellement (dans des repas de famille par exemple). Certaines études les considèrent comme des végétariens stricts, d’autres les classent dans les mangeurs de viande ou les éliminent des résultats. Difficile alors de comparer différentes études entre elles puisque les groupes ne sont pas divisés de la même manière.

De plus, bien rares sont les végétariens depuis toujours, puisqu’il s’agit d’un choix volontaire fait plus ou moins tardivement dans la vie. Or les végétariens sont traités de la même manière par les études, que ce choix soit ancien ou récent par rapport à la date de l’étude, et que la personne ait été végétarienne quelques années seulement ou la majorité de sa vie.

Ensuite vient le biais dit du “healthy volunteer” qui fait que les participants les plus conscients et éduqués à la santé ont tendance à exagérer leurs comportements jugés « sains » et à essayer de défendre leur mode de vie en minorant ses inconvénients et ses effets secondaires. En fonction du groupe où ils se trouvent, ils vont distordre les résultats des études puisque celles-ci reposent souvent sur des questionnaires directs aux participants, où l’honnêteté est primordiale mais invérifiable.

Enfin, il est pratiquement impossible d’étudier à long terme les effets de telle ou telle alimentation sur l’espérance de vie car les habitudes alimentaires des 65 ans et plus tendent à changer, en limitant voire supprimant progressivement certains aliments « qu’ils ne digèrent plus ». Si le régime alimentaire change au cours de la vie, il est impossible de savoir de quel régime on étudie les effets.

En science, la causalité est une des choses les plus difficiles à prouver : le seul moyen logique d’y parvenir est de démontrer qu’en supprimant la cause supposée, on supprime aussi l’effet supposé. Il faut cependant que tous les autres paramètres de l’expérience soient identiques : on dit « toutes choses égales par ailleurs ».

En pratique, sur des humains, c’est impossible et il faut se contenter de corrélations, c’est à dire d’un lien statistique entre deux phénomènes, sans préjuger de leur relation logique (ils peuvent être liés entre eux, ou pas, ou tous deux liés à un troisième phénomène, ou plus). Et on n’arrête pas de répéter que corrélation n’est pas causalité (mais personne n’écoute, on préfère chercher des causes partout parce que l’homme ne peut pas accepter que quelque chose arrive sans raison).

Pour établir une corrélation rigoureuse, il ne suffit pas d’avoir des données fiables, il faut découper son échantillon en groupes cohérents. Suivant les éléments qu’on choisit d’inclure ou d’exclure de l’étude, et comment l’on découpe ses groupes, on peut changer subtilement ses résultats, donc ses conclusions.

Ici, de toute évidence, il est impossible d’ignorer le style de vie dans les causes de cancer : végétarien ou pas, une alimentation variée, équilibrée, du sommeil en quantité suffisante, une activité physique régulière, l’absence de tabac, drogues et alcool sont des facteurs reconnus pour diminuer les risques de cancers et d’accidents vasculaires. Sauf que les études vegan vs. carnivores les traitent de façon aveugle et se bornent à la consommation de viande, sans regarder le « terrain » (pollution, mode de vie, environnement). Et là, surprise !, le groupe qui obtient le plus haut taux de cancer est celui qui contient le plus de junk-food lovers potentiels : les carnivores. Car, encore une fois, on ne fait pas de distinction quantitative entre celui qui mange de la viande 3 fois par semaine et celui qui en mange 3 fois par jours. De plus, comme la plupart de ces études s’intéressent à des populations au mode de vie anglo-saxon, le standard d’éducation à la nutrition est, de base, vraiment bas et n’importe quel groupe témoin qui ferait un peu attention à ce qu’il mange aurait de meilleurs statistiques de cancers et d’AVC.

La nutrition est une science délicate, si toutefois on considère que c’est une science. Par exemple, le vin rouge est réputé bon pour la santé (à raison de 12 cL/jour) en raison notamment des polyphénols (antioxydants) qu’il contient, réduisant le cholestérol et les risques d’accident vasculaire-cérébral. Le problème, c’est que la consommation quotidienne d’alcool est aussi liée à des risques accrus de cancers de la bouche, de la gorge et de l'œsophage, du foie, du pancréas, du colon, etc. Qui croire ?  Ce qui est bien, c’est qu’en fonction des études qu’on garde et de celles qu’on ignore, on peut se faire son régime alimentaire sur mesure et « prouvé par la science ». On appelle ça un biais de confirmation.

Autre exemple, le paradoxe français et le régime crétois : malgré une consommation de calories similaire voire supérieure aux anglo-saxons, et notamment une quantité importante de graisses (huile d’olive, graisses de volailles et de poissons), de produits animaux (volailles, fromages, poissons) et d’alcools, les français du Sud de la France ainsi que les populations méditerranéennes montrent des risques de cancers et de maladies cardio-vasculaires plus faibles que les français du Nord et que les Américains, avec une espérance de vie jusqu’à 10 ans supérieure. Ce qui contredit à peu près tout ce qu’on sait depuis les années 70.

Mais revenons à la viande… Une méta-étude basée sur 6 études distinctes montre qu’une consommation « modérée » de protéines animales est correlée à une augmentation de l'espérance de vie par rapport à une alimentation exclusivement végétale, et que les restrictions alimentaires de la seconde Guerre mondiale (pénurie de viande) sont systématiquement correlées à une baisse de l’espérance de vie. Une autre étude pointe le paradoxe selon lequel, bien qu’une consommation accrue de viande entraîne un apport de graisses supérieur, connu pour accélérer les maladies dégénératives (chez les souris), l’accroissement de la consommation de viande pendant la préhistoire peut avoir engendré des mutations génétiques entraînant une meilleure tolérance à la graisse et finalement l’accroissement de l’espérance de vie, en raison de la plus grande concentration en nutriments dans la viande.

La nutrition est pleine de paradoxes, et pour les déméler, bon courage… Les études épidémiologiques se bornent à effectuer des études statistiques qui ne font rien de plus que relier mathématiquement des variables entre elles, sans réelle possibilité d’étudier l’interaction entre ces variables, et avec toutes sortes de biais qui peuvent intervenir au moment de trier la population étudiée en groupes « homogènes ». De plus, à cause de l’éthique et de la loi, la plupart des expériences sur des humains sont impossibles, or le seul moyen de prouver le lien entre un aliment et un type de cancer est d’induire sciemment le cancer sur une population par l’excès de l’aliment en question. La possibilité de vérifier la causalité des corrélations observées se limite donc aux rongeurs de laboratoire qui, comme chacun sait, ne sont pas exactement des humains et ont un régime alimentaire différent (au minimum parce que nous sommes les seuls à cuire nos aliments).

Faut-il jeter la nutrition aux orties ? Après tout, on y trouve tout et son contraire, le tout estampillé du même sceau « scientifique ». Le vrai problème est que la nutrition s’attaque à la contribution séparée d’un aliment ou d’une classe d’aliments sur la santé, alors que la santé est un ensemble vaste de variables allant de la psychologie à la chimie moléculaire, qui dépend d’un autre ensemple vaste de paramètres (alimentation, mais aussi stress, pollution, activité physique, environnement), avec un nombre quasi-illimité de combinaisons de ces paramètres. Le principe fondamental de toute logique est qu’une chose ne peut être vraie que si, et seulement si son contraire est faux. Ici, on trouve des études qui tour à tour condamnent et glorifient le même aliment, se prévalant a priori de la même crédibilité scientifique. En creusant leur méthode, on trouve des biais évidents à observer mais moins évidents à corriger. Et en pratique, il convient de mesurer si c’est la consommation pure et simple ou seulement une consommation excessive qui est à l’origine des troubles étudiés, ainsi que de quantifier « l’excès ».

Seules quelques variables semblent être systématiquement associés à des effets néfastes : l’abus de viande rouge (riche en graisses saturées), la consommation de viandes fumées ou grillées (qui contiennent des benzo[a]pyrènes et autres hydrocarbures cycliques cancérogènes), la consommation de viandes contaminées par des antibiotiques et autres hormones, ainsi que de nombreux additifs issus de la chimie moderne (colorants, arômes artificiels, conservateurs) et les composés organiques libérés par le plastique des emballages alimentaires ou le revêtement intérieur des boîtes de conserve (phtalates, bisphénol A).

Ma conclusion est donc que la nutrition est encore trop immature pour qu’on puisse, en toute rigueur, utiliser ses conclusions pour conseiller ou déconseiller fermement certains types d’aliments. D’ailleurs, nombre des recommendations de l’OMS en matière d’alimentation relèvent seulement du principe de précaution, basé sur des suspicions. Tout au plus peut-on conseiller de privilégier certains aliments. L’homme a montré de formidables qualités d’adaptation, tout au long de son existence, et il est probable qu’il soit simplement adapté à un régime alimentaire varié, équilibré, et constitué d’aliments de base non transformés. L’ennemi semble plutôt être le mode de vie américain : une nourriture industrielle pleine d’additifs, trop riche, des viandes contaminées aux médicaments, un excès de produits sucrés, frits, une nourriture « morte » pauvre en nutriments essentiels, et un manque d’activité physique propre à la civilisation de la voiture individuelle et de la TV.

Cet article Végétariens et mangeurs de viandes : les risques de cancers sont-ils vraiment réduits ? a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
https://aurelienpierre.com/vegetariens-mangeurs-de-viandes-risques-de-cancers-vraiment-reduits/feed/ 0
Enseigner des connaissances scientifiques est-il enseigner la science ? https://aurelienpierre.com/enseigner-connaissances-scientifiques-enseigner-science/ https://aurelienpierre.com/enseigner-connaissances-scientifiques-enseigner-science/#respond Sat, 20 May 2017 23:24:06 +0000 https://aurelienpierre.com/?p=4557 J'étais l'autre jour dans le métro, assis derrière un gamin de 16 à 18 ans, qui lisait son cours de sciences physiques, plus précisément un chapitre sur l'atomistique et le photon. Il y était écrit plus ou moins la chose suivante : « Le photon est le support de la lumière. C'est à la fois [...]

Cet article Enseigner des connaissances scientifiques est-il enseigner la science ? a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
J’étais l’autre jour dans le métro, assis derrière un gamin de 16 à 18 ans, qui lisait son cours de sciences physiques, plus précisément un chapitre sur l’atomistique et le photon. Il y était écrit plus ou moins la chose suivante :

« Le photon est le support de la lumière. C’est à la fois une onde et une particule : particule qui se déplace en ligne droite lors de phénomènes optiques (lois de Snell-Descartes), onde lors de phénomènes d’interférences, comme la diffraction (tâche d'Airy, fentes de Young). »

Ceci est non seulement faux, mais surtout terriblement trompeur et effrayant quant à la manière d’enseigner et de penser la science.

Une particule est un objet matériel de taille suffisamment petite, dont une propriété essentielle est sa masse, non nulle. Une onde est une perturbation périodique de certaines propriétés physiques d’un milieu, qui transporte une énergie sans transporter de matière. La nature d’un objet physique ne peut donc être à la fois ondulatoire et corpusculaire, c’est à dire à la fois purement matérielle et purement énergétique, puisque ces deux propriétés sont antinomiques. La tentative d’expliquer les transferts de chaleur, au XVIIIe siècle, en faisant intervenir un fluide nommé calorique censé véhiculer la chaleur s’est soldée par une fin de non-recevoir lorsqu’on a défini l’énergie et mis en évidence qu’elle est un mouvement microscopique ou macroscopique de particules et non une particule elle-même :

  • électricité : mouvement d’électrons dans une direction donnée,
  • chaleur : mouvement de molécules, atomes, et ions dans des directions aléatoires,
  • travail mécanique : mouvement de corps dans des directions données,
  • lumière (et autres ondes électromagnétiques) : on va y revenir…

En physique newtonienne, toute énergie macroscopique (l’énergie perceptible d’un corps visible à l’œil nu) se résume donc à l’énergie cinétique (liée à la vitesse de déplacement) moyenne des particules microscopiques qui composent ce corps. Le gros problème de la lumière est qu’elle n’a pas besoin de corps pour se déplacer, puisqu’elle nous arrive du Soleil en traversant 150 millions de km de vide. Donc, si le photon est une particule, alors sa masse est nulle. Donc ça n’est plus une particule ?!?

Pourtant, lorsqu’on projette un faisceau lumineux sur un miroir, la lumière se propage de façon rectiligne, uniforme, et est renvoyée de la même façon qu’une grappe de balles rebondissent sur un mur (l’angle d’incidence est égal à l’angle résultant). Dans certains cas, la lumière se comporte donc comme un faisceau de particules matérielles. Le concept capital ici est « se comporte comme ».

Imaginons un cylindre, éclairé dans deux axes différents, et que la seule perception que nous ayons de ce cylindre soient ses deux projections :

CC Jean-Christophe BENOIST - Wikipédia

Ce que nous voyons de ce cylindre est donc d’une part un carré et d’autre part un cercle. Le cylindre se comporte comme un cube et comme une sphère. Imaginez qu’on retire le cylindre et qu’on ne vous montre que les projections de l’objet. Sans cette information, pensez-vous que l’objet volumique source soit un cube ou une sphère ? Est-il les deux en même temps ? Mais peut-il être les deux à fois sans violer la définition du cube et/ou celle de la sphère ? En l’absence d’information sur la nature de l’objet, on est tenté de superposer deux modèles, deux descriptions partielles et complémentaires de cet objet : une description cubique et une description sphérique.

Les physiciens sont dans la même posture : remplacez le cylindre par la lumière, et ses projections par les propriétés observables du photon. Il doivent tenter de reconstruire la nature de l’objet en utilisant seulement ses propriétés et son comportement observés. En fonction de ce comportement observé, les physiciens établissent des modèles qui ne sont rien d’autre que des tentatives de description des phénomènes observés, dans des termes intelligibles pour la pensée humaine (c’est à dire des mots et des équations).

Le photon possède donc deux modèles à fois, celui de particule et celui d’onde, qui permettent de le décrire dans des situations différentes. Les deux sont incomplets et antinomiques, et sont donc des interprétations approximatives (néanmoins suffisamment précises pour être utilisables). Mais ce qu’il faut retenir ici, c’est que à :

  • la dualité onde-corpuscule de la lumière s’applique non pas à sa nature (le cylindre), mais à son comportement (les projections du cylindre). La nature de la lumière ne peut être double, ses propriétés le peuvent,
  • les deux modèles reposent sur des hypothèses qui doivent être mentionnées et clarifiées,
  • le modèle qui s’applique dépend des conditions dans lesquelles on travaille et du phénomène analysé,
  • le photon n’est ni une onde, ni une particule, mais quelque chose d’autre qui présente les caractéristiques d’une onde et d’une particule : un quantum d’énergie résultant de la transition d’un électron entre deux états d’énergie (les détails de cette affirmation sont les fondements de la physique quantique).

La science s’intéresse à la description de phénomènes. Elle n’a pas vocation à les expliquer, elle n’a pas vocation à chercher la vérité, elle n’a d’ailleurs pas de vocation du tout et vouloir lui en trouver une est une dérive idéologique aux conséquences généralement dangereuses. Pour effectuer cette description, les scientifiques crééent des objets conceptuels (particules, flux, mouvement) qu’ils relient ensemble dans des modèles comportementaux. Mais les objets comme les modèles ne sont que des vues de l’esprit. La nature des choses reste inconnue et déduite de leurs manifestations, seules ces manifestations en sont tangibles et observables (en général). Au cours des XVIIIe et XIXe siècles, les scientifiques ont inventé toutes sortes de particules (électron, photon, neutron) que la technologie n’a permis d’observer ou d’invalider qu’à partir du XXe siècle. Encore aujourd’hui, les physiciens crééent toutes sortent de particules dont l’existence réelle n’est que pure spéculation à ce stade (phonons, bosons, gravitons, etc.) mais permettent de produire des modèles comportementaux, dont la validité est assujettie à l’existence de ces particules.

La science n’est pas un catalogue de connaissances. La science n’est pas une encyclopédie. L’encyclopédie est un cliché instantané des modèles scientifiques acceptés à un instant donné. La science est un procédé logique, une méthode, une démarche, une discipline, une façon de raisonner à partir d’observations. Or ça n’est pas de cette façon qu’elle est enseignée à l’école, même pas au niveau ingénieur. Elle est assénée comme des vérités bibliques, réifiée, dénaturée : des constantes, des équations prêtes à l’emploi, des explications simplifiées, voire des métaphores anthropomorphiques, et des lois dont la causalité n’est pas toujours évidente. On fait des « leçons de choses » qui produisent des savants d’occasion, à la tête remplie de connaissances périssables prêtes à consommer, rapidement formés et rapidement évalués. On transforme la science en produit fini.

On trouve dans les livres de physique-chimie beaucoup trop de métaphores antropomorphiques qui visent notamment à personnifier les molécules, atomes et leurs particules pour « expliquer » leur interactions. Ces tentatives des simplification pédagogiques sont inacceptables à plusieurs égards, premièrement parce que cela suppose que « la nature » a un but ou une vocation, deuxièmement parce que cela revient à inférer des liens de causalité qui n’ont aucun fondement scientifique.

Exemples classiques :

  • l’électron est attiré par son copain le proton : les particules n’ont pas d’attirances affectives,
  • les atomes d’un cristal se donnent la main pour diminuer leur énergie interne : un système chimique tend à se stabiliser à son niveau d’énergie minimal. Ça n’est pas une stratégie pour diminuer son énergie, c’est que le système perd de l’énergie pendant la réaction et qu’une fois l’énergie suffisamment faible, la réaction s’arrête. Le lien de causalité est ici fallacieux, ce n’est pas un agent de la matière qui décide de la stratégie thermodynamique à suivre mais les conditions favorables à la réaction qui disparaissent à un moment donné.
  • la nature a horreur du vide : la nature n’a horreur de rien, le vide agit simplement comme une pompe qui aspire les éléments environnants jusqu’à équilibre des pressions locales.

Le story-telling n’a pas sa place en science, il faut rester descriptif et factuel pour éviter de confondre corrélation et causalité. Si l’on peut tolérer le story-telling dans des émissions de vulgarisation pour jeunes enfants (Il était une fois la vie, etc.), de tels procédés n’ont pas leur place dans des manuels scolaires. De plus, il faut s’abstenir d’expliquer l’inexplicable. On ne sait pas pourquoi la gravité gravite, pourquoi les planètes tournent autour du Soleil, pourquoi on tient sur un vélo avec de la vitesse et qu’on en tombe à l’arrêt. On sait seulement, par exemple, que la gravité agit entre des corps pesants, dépend de leur masse, courbe l’espace-temps de façon peu intuitive et que les forces d’attraction qu’elle induit se modélisent par la loi de Newton.

La science ne répond pas à la question « pourquoi ? » (dans quel but), elle répond à « comment ? » (par quel moyen). Elle n’explique rien, elle décrit. Commencer à chercher un but à la nature, c’est quitter la science pour la religion.

En ces temps de faits alternatifs (qu’on appellera donc « mensonges »), on veut se réfugier derrière le fait scientifique comme vérité crédible. Mais le fait scientifique (la preuve) est inintelligible pour le commun des mortels, qui doit se contenter de l’interprétation qui en est faite par des scientifiques, humains donc très imparfaits. Une interprétation qui n’est valide sous certaines conditions seulement, et qui repose sur des hypothèses simplificatrices. Il y a le même danger à refuser l’interprétation scientifique qu’à essayer de lui donner valeur de fait : on change d’église mais on reste dans le dogme et dans la foi. On cite l’expert scientifique avec plus d’assurance et de certitude qu’il n’en a lui-même, pourvu que ses diplômes et ses fonctions soient crédibles.

À l’époque d’Internet, des hoaxs, de Trump, de l’open-access, il faut se demander ce qu’est la connaissance. L’histoire des sciences est pleine de modèles invalidés, d’autres raffinés, certains validés sur des coups de chance. La connaissance n’est pas une liste de modèles séparés de leurs hypothèses, de leurs conditions et limites de validité. Le photon n’est pas à la fois une particule et une onde. La connaissance est un ensemble logique de données, interprétées par des modèles validés par l’expérience, basés sur des hypothèses simplificatrices, valides dans des conditions précises, et utilisées par un cerveau prudent. Et c’est cela qu’il faut enseigner en cours de sciences.  Cela suppose d’introduire la philosophie plus tôt dans le cursus, mais aussi d’abandonner le bachotage et la reproduction d’exercices-types pour initier les élèves à la démarche scientifique, à la conduite d’expériences, et à la rédaction de protocoles expérimentaux le plus tôt possible. L’enjeu du XXIe siècle n’est pas l’accès à la connaissance, disponible massivement et gratuitement depuis le fond de notre poche, il est dans le tri, l’analyse et la critique de la connaissance.

Cet article Enseigner des connaissances scientifiques est-il enseigner la science ? a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
https://aurelienpierre.com/enseigner-connaissances-scientifiques-enseigner-science/feed/ 0
La fin de la vérité, le refus de l’objectivité, le début de l’honnêteté https://aurelienpierre.com/fin-de-verite-refus-de-lobjectivite-debut-de-lhonnetete/ https://aurelienpierre.com/fin-de-verite-refus-de-lobjectivite-debut-de-lhonnetete/#respond Fri, 16 Dec 2016 01:06:58 +0000 https://aurelienpierre.com/?p=4253 Ne me parlez plus jamais de vérité. Jamais. Vous ne savez pas ce que vous dites. Ces derniers jours, la communauté des fact-checkers, journalistes spécialisés dans la vérification des faits (journalistes tout court, en fait), notamment chez Arrêt sur Image ou chez les Décodeurs du Monde, a été remuée par des attaques complètement abusives de [...]

Cet article La fin de la vérité, le refus de l’objectivité, le début de l’honnêteté a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
Ne me parlez plus jamais de vérité. Jamais. Vous ne savez pas ce que vous dites.

Ces derniers jours, la communauté des fact-checkers, journalistes spécialisés dans la vérification des faits (journalistes tout court, en fait), notamment chez Arrêt sur Image ou chez les Décodeurs du Monde, a été remuée par des attaques complètement abusives de la part des gens convaincus que le pic de pollution parisien était causé par les centrales à charbon allemandes. On les a notamment traité « d’anti-démocratiques », un comble. Ce à quoi les intéressés répondent par le constat de la « mort de la vérité  », voulant dire par là le refus des faits quand ils vont manifestement à l’encontre de nos convictions, biais cognitif relevant soit de l'ancrage soit du biais de confirmation.

La mort. De la vérité. Rien que ça.

Parallèlement à cela, je suis confronté quotidiennement à des gens, formés aux sciences ou pas, qui basent leurs certitudes et leurs opinions sur des « vérités scientifiques ». Il y aurait donc une vérité en science ? On m’aurait menti ? Il est facile d’avoir une foi aveugle dans la « science » (ou plutôt dans les approximations étiquetées « scientifiques » sans vérification de sources) quand on ne l’a jamais exercée. Le problème est que cette foi va précisément à l’encontre du principe de rationalité qui sous-tend l’exercice intellectuel qu’est la science. La science ne repose pas sur la foi mais sur la preuve, et ceux qui convoquent des « vérités scientifiques » dans leurs argumentaires n’ont en général jamais fait l’effort de vérifier la validité de la moindre de ces vérités qu’ils proclament.

Comment fait-on des sciences expérimentales  ?

Tout part le plus souvent de l’observation d’un phénomène : chute d’un corps, apparition d’une maladie, réponse d’un groupe d’individus à un stimulus etc. Le scientifique tente alors d’expliquer la cause de ce phénomène par une hypothèse, qui sort de son cerveau. Cette hypothèse est une pure invention de l’esprit, produite par l’imagination du sujet. Pour valider son hypothèse, ou pour l’invalider, il met en place un test qu’il doit aussi imaginer.  Au cours de ce test, il va réunir des preuves, à charge, à décharge, ainsi que des mesures. À partir de l’analyse de ces preuves, il va donc valider, invalider, corriger ou raffiner son hypothèse. En science, une réponse amène toujours au moins 2 nouvelles questions, donc de nouvelles hypothèses et de nouveaux tests. Lorsqu’il aura validé un nombre suffisant d’hypothèses, le scientifique va les synthétiser dans un modèle comportemental, censé décrire la réalité observée de façon qualitative (la pomme tombe soumise à la gravité → défininir au préalable gravité, poids, etc.) ou quantitative (sur Terre, son accélération gravitationnelle est environ 9,81 m/s² à l’équateur). Ce modèle se base sur un certain nombre d’hypothèses et de conditions pour pouvoir être appliqué et ne sera jamais universel.

Autant pour ceux qui pensent que le scientifique est objectif : l’humain et ses imperfections interviennent à chaque étape du processus de recherche : formulation de l’hypothèse, mise en place des tests, interprétations des résultats, modélisation du problème. La science est fortement subjective. Par exemple, dans le traitement de données de mesures, lorsqu’on fait une régression, on a souvent le choix du le type de formule mathématique qu’on souhaite appliquer sur les résultats (linéaire, quadratique, polynômiale, exponentielle, hyperbolique, etc.) car les points de mesure suivent rarement une tendance pure. Le choix du modèle mathématique dépend donc du chercheur, du degré de précision attendu versus la complexité de l’équation qu’on souhaite.

Ce modèle est donc juste une interprétation de la réalité. Une interprétation valide dans un certain contexte, sous certaines conditions. Ce modèle étant sujet aux erreurs d’interprétation de son auteur autant qu’aux erreurs de mesure pendant l’expérimentation, il est donc imprécis. On l’accepte tant que sa précision est suffisante dans une utilisation donnée, on le refuse si sa précision est insuffisante. Est-il la vérité ? Sûrement pas ! La vérité suppose qu’on ait accès à la réalité des faits sans intermédiaire (perception, capteur, etc.), qu’on ait un accès direct à l’essence même des choses. Or à chaque étape, nous vivons en sciences avec la perception de l’humain qui fait la recherche et avec l’imperfection des appareils ou des méthodes de mesures (sans compter que la mesure perturbe toujours l’expérience dans des proportions plus ou moins quantifiables). Ceci fut illustré par Descartes dans la seconde de ses Méditations métaphysiques par le célèbre exemple de la cire.

Seul Dieu a cet accès à la réalité, si toutefois l’on accepte son existence. Donc la seule vérité possible est celle que Dieu/Yahvé/Allah a révélée aux hommes. Mais cette vérité est à jamais inaccessible aux hommes autrement que par cet acte de foi. La vérité n’appartient pas au vocabulaire scientifique, c’est la raison pour laquelle il est inutile et non pertinent de comparer ou d’opposer science et religion. Le scientifique ne cherche pas la vérité, il cherche un modèle le plus précis possible, c’est à dire une interprétation exacte de la réalité. Ce modèle reste valide tant que personne ne trouve de cas qui vienne le contredire. Si une telle situation se produisait, on pourrait soit restreindre le champ d’application du modèle soit en changer. Par exemple les frottements d’un avion dans l’air sont proportionnels à sa vitesse si celle-ci est en dessous la vitesse du son. Au dessus de la vitesse du son (mach 1), ils deviennent proportionnels au carré de sa vitesse. On a donc deux mécaniques des fluides : une pour les vitesses subsoniques, une pour les vitesses supersoniques. Les problèmes surviennent au voisinage immédiat de mach 1 car on est à la limite des deux modèles. De même, le photon a deux modèles : un modèle corpusculaire (il est la particule qui transporte la lumière) et un modèle ondulatoire (il possède un champ électrique et un champ magnétique). L’utilisation de l’un ou l’autre des modèles dépend des applications envisagées.

Il y a un facteur sur lequel j’aimerais attirer l’attention du lecteur ici. Vous avez probablement appris les mathématiques, la physique et la biologie à l’école, avec quelqu’un qui savait, qui pouvait vous guider et vous corriger. Le chercheur n’est pas dans une telle situation : il créée de la connaissance, il avance dans l’inconnu, donc personne n’est à même de lui donner la bonne réponse à la fin de l’exercice puisque personne ne la connaît. Dans cet inconnu, la seule façon de valider la réponse est d’évaluer la démarche : si quelqu’un qui reprend les mêmes expériences retrouve les mêmes résultats, si elle est en règle du point de vue de la logique et de la méthode, alors on considère la réponse juste et le modèle valide. La méthode, donc la rigueur formelle, est le seul moyen de valider la connaissance créée par des pionniers dans leur discipline, ce qui est assez unique à une époque où la culture du résultat est le mode d’évaluation majoritaire. Tout en sciences repose sur la façon d’élaborer son raisonnement. Comme en philosophie.

Mais apparemment, les journalistes sont plus intelligents que les scientifiques, surtout quand ils les citent. Le fait d’avoir en main des faits, et donc des preuves, en fait des détenteurs de la vérité. Le refus des faits, c’est le refus de la vérité. Et quand ils citent des experts, c’est sans prudence aucune parce que la science, c’est vrai.

Premièrement, en supposant qu’on ait en main tous les faits, ils restent seulement un support à l’interprétation. Il n’y a aucun test qui va, de façon directe, montrer si oui on non la pollution parisienne est causée par le charbon allemand. Ce qui existe, ce sont des analyses qui montrent que la composition chimique de la pollution parisienne ne porte pas le marqueur soufré caractéristique des centrales au charbon et que la taille des particules polluantes (trop fines) ne colle pas non plus avec l’hypothèse de la combustion de charbon. En d’autres termes, ce qu’on teste ici, c’est la présence d’indicateurs qui vont, indirectement, permettre de répondre à la question posée. Mais est-on sûr que ces indicateurs soient pertinents pour confirmer ou infirmer notre hypothèse de départ ? Et s’ils sont pertinents, est-on sûr qu’ils soient suffisants ? Les indicateurs sont bien des faits, mais pas la conclusion. La conclusion découle d’un raisonnement, qui peut introduire biais et erreurs. La prosternation devant un expert, choisi pour sa crédibilité a priori, est ridicule et permet seulement de s’éviter un processus fastidieux de vérification du raisonnement.

Par exemple, peut-on imaginer que la pollution parisienne soit bien de la pollution allemande mais dont les particules lourdes et soufrées seraient retombées au cours de leur voyage, ne laissant dans l’air que les particules fines qui sont aussi celles émises par les diesels parisiens ? Si tel était le cas, alors la pollution allemande se déguiserait en pollution parisienne. Après tout, ce sont les mêmes experts cités par les fact-checkers qui disent que la pollution moyenne aux particules fines est à 2/3 de la pollution importée. Même si les pics sont attribués à des conditions météorologiques stationnaires et aggravantes. Pour l’expérience, voici les relevés à 13h, station Opéra pour les PM10 et à aux coordonnées 48.87 ° N, 2.34°E (environ l’emplacement du Jardin du Luxembourg) pour les vitesses et direction du vent :

Jour Direction du vent Vitesse du vent Quantité de particules PM10 moyenne
22⁄11  S - 175 ° 6 km/h 24 µg/m³
23⁄11  E - 80 ° 12 km/h 33.1 µg/m³
24⁄11  NE - 35 ° 14 km/h 37.7 µg/m³
25⁄11  NE - 60 ° 12 km/h 37.4 µg/m³
26⁄11  NE - 60 ° 9 km/h 39 µg/m³
27⁄11  NE - 35 ° 15 km/h 37.3 µg/m³
28⁄11  NE - 45 ° 18 km/h 22.6 µg/m³
29⁄11  NE - 55 ° 10 km/h 26.4 µg/m³
30⁄11  SO - 240 ° 2 km/h 64.9 µg/m³
1⁄12  NO - 345 ° 5 km/h 95.6 µg/m³
2⁄12  NE - 35 ° 10 km/h 73.5 µg/m³
3⁄12  NE - 65 ° 14 km/h 34.8 µg/m³
4⁄12  E - 90 ° 8 km/h 34.6 µg/m³
5⁄12  SE - 120 ° 7 km/h 60.7 µg/m³
6⁄12  S - 175 ° 9 km/h 76.5 µg/m³
7⁄12  S - 170 ° 11 km/h 78 µg/m³
8⁄12  SO - 195 ° 10 km/h 60.4 µg/m³
9⁄12  S - 190 ° 10 km/h 55.7 µg/m³
10⁄12  SO - 200 ° 8 km/h 43 µg/m³

Qu’en déduire ? Les pics de pollution sont liés à la vitesse du vent plus qu’à sa direction : on observe des pics de PM10 pour des directions SO, S, SE, NO et pour des vitesses inférieures à 11 km/h. Aucun pic pour des directions Est/Nord-Est. L’Allemagne n’a donc rien à voir avec ces anomalies, même si elle contribue à la pollution habituelle dès que le vent vient de l’Est. De plus, on voit que les pics apparaissent après plusieurs jours de vent très faible, ce qui suggère un effet d’accumulation de la pollution qui met ensuite plusieurs jours à se résorber dès que le vent revient.

La thèse de l’Allemagne ne tient donc pas, mais pourrait-on avoir des justifications ? Les argumentaires, du côté des journalistes, se limitent aux propos rapportés et sabrés d’experts — voulant dire que celui qui a le plus gros diplôme et le plus de légitimité gagne la joute ad-hominem. Les raisonnements, comme souvent, ont été oublié par les fact-checkers, qui ont sauté directement à la conclusion (réduite à une phrase ou deux) de leurs experts, en n’oubliant pas de mentionner que leur source est plus crédible que celle d’en face. « Les experts ont dit ça, les experts ont dit ci ». Mais sur la base de quoi, on ne le saura jamais. On est tenu de leur faire confiance.

Quand Adrien Sénécat affirme que « la composition des particules permet de connaître leur origine » il prend de larges libertés par rapport à ce que dit son experte. Ce que dit la porte-parole d’Air-Parif, c’est que la présence de certains marqueurs typiques permet de tracer une origine. C’est beaucoup moins catégorique et général. Sauf que les particules fines émises notamment par les diesels n’ont rien de typique à Paris. La composition des particules ne permet d’affirmer qu’une seule chose ici : ce ne sont pas les centrales à charbon qui sont impliquées. À cet égard, l’article de Nicolas Meilhan est bien plus propre puisqu’il déroule son raisonnement (critiquable) et cite ses sources (vérifiables). Cependant, son analyse est uniquement qualitative (direction du vent) et l’analyse quantitative ci-dessus montre que les jours de vent d’Est sont généralement les moins pollués et que les jours les plus pollués sont des jours de vents de Sud et Ouest. Donc sa théorie tombe en morceaux, mais ce n’est pas de cette façon que le présente les fact-checkers. On reste dans de l’opposition d’experts et de contre-experts qui relève plus du combat de coq. Pas étonnant que les complotistes s’en emparent. Et puis cette fascination malsaine pour le mot « expert », franchement… Messieurs les journalistes, donnez moi le fil du raisonnement et laissez moi juger de la validité de la conclusion. Je n’ai pas besoin que vous pensiez à ma place.

Deuxièmement, est-on sûr d’avoir en main tous les faits ? Est-on sûr de n’avoir rien manqué  ? Et si non, est-on sûr que les faits passés à la trappe ne sont pas de nature à changer radicalement notre interprétation de la réalité, que ces journalistes appellent donc à tort la « vérité » ?

En 1911, Rutherford reçoit le Prix Nobel de chimie pour son modèle de l’atome. Celui-ci était une analogie avec le système solaire (et les analogies sont rarement la méthode de raisonnement la plus propre) et énonçait que l’atome se composait d’un noyau (similaire au Soleil) qui concentrait l’essentiel de sa masse et autour duquel les électrons gravitaient, à la manière des planètes, dans des orbitales définies. Rutherford travaillait sur la radioactivité alpha et béta, donc avec des atomes d’hydrogène et d’hélium, les deux premiers éléments de la classification périodique (1 et 2 électons respectivement). Le modèle de Rutherford marche très bien sur ces deux éléments. En 1919, Bohr, qui étudiait les terres rares, découvre qu’il est cependant inadapté à ces éléments, qui possèdent plusieurs dizaines d’électrons (39 à 70). Il démontre que les électons n’ont pas d’orbitales fixes mais sont capables de sauter d’une orbitale à une autre en émettant un quantum d’énergie (dépendant du saut effectué), sous forme d’un photon. La question du saut d’orbitale ne se posait évidemment pas avec un ou deux électons. Il reçoit en 1922 le Prix Nobel de physique pour ce qui allait être le fondement de la physique quantique. Ce modèle sera encore raffiné en 1926 par Schrödinger qui décrira la probabilité de présence d’un électron sur une certaine orbitale au moyen d’équations particulièrement sales et complexes.

Morale de l’histoire : l’ajout de nouveaux éléments a changé l’interprétation qu’on avait de la réalité. On ne peut pas dire que le modèle de Rutherford soit faux, puisqu’il fonctionne pour les éléments qu’il étudiait, et que celui de Bohr ne fait que le raffiner. Mais il est certainement imprécis. La pratique des sciences enseigne qu’il faut rester prudent. On ne peut certes pas raisonner sur des éléments inconnus : ce ressort est le fondement des théories complotistes, qui basent leur réflexion sur des éléments « qu’on nous cache » et donc aisément manipulables pour aboutir à des conclusions loufoques. Mais il faut garder à l’esprit que le raisonnement s’inscrit dans le temps et dans l’espace , en se basant sur les éléments connus et sur l’état de l’art à un instant donné. La science est un exercice intellectuel qui n’est valide que tant qu’il est propre du point de vue de la logique, pas un moyen de décider qui des experts de Twitter a raison ou tort. Et force est de constater que les fact-checkers ont conclu avec un peu trop d’assurance, probablement beaucoup plus que les experts qu’ils ont choisi de consulter.

Il faut démystifier la méthode scientifique pour faire apparaître aux yeux du public qu’elle n’est ni parfaite ni absolue, et qu’il n’existe pas de vérité scientifique. Les exemples d’erreurs scientifiques sont nombreux : après tout, on a bien justifié l’infériorité de la race noire de façon scientifique (par la phrénologie, notamment, qui a longtemps été considérée comme une science), la neurologie et la psychiatrie ont pratiqué dans leur début des traitements assimilés aujourd’hui à de la torture. Les scientifiques ne sont pas à l’abri des erreurs ni de leur ego. La science, comme le journalisme, ne sont pas objectifs : ils sont le fait d’être humains qui choisissent les faits sur lesquels ils travaillent et qui les interprètent. Finir par l’admettre et par laisser des mots comme « vérité » aux religieux serait faire preuve d’un peu plus d’honnêteté intellectuelle et ferait du bien à tout le monde. Et donner un peu plus de matière dans la vérification des faits que le simple discours rapporté et tronqué d’un spécialiste donnerait un peu plus de crédibilité à ces journalistes dont les intentions louables sont desservies par une méthodologie qui relève du dogmatisme.

« la vérité est une de ces illusions, dont on a oublié qu’elles le sont » — Nietzsche (Vérité et mensonge au sens extra-­moral. Actes Sud, Arles, 1997, p17.)

Cet article La fin de la vérité, le refus de l’objectivité, le début de l’honnêteté a été initialement posté sur Aurélien PIERRE - par Aurélien.

]]>
https://aurelienpierre.com/fin-de-verite-refus-de-lobjectivite-debut-de-lhonnetete/feed/ 0