L' ÉTHIQUE ISENTROPIQUE

Un découpage quelconque de l'espace réel (autour d'un procédé industriel par exemple) peut être considéré d'un point de vue thermodynamique. On appelle ça un système thermodynamique, sur lequel on peut définir et mesurer plusieurs grandeurs physiques:

  • extensives (globales et additives): masse (kg), impulsion (=quantité de mouvement, kg.m/s), énergies (J ou KWh), entropie (J/K) ...
  • intensives (valables en un point): température (K), pression (Pa), vitesse (m/s), hauteur (m), masse volumique (kg/m3) ...
    La masse, l'impulsion et l'énergie sont conservatives (constantes dans le temps sur un système isolé), l'entropie elle peut s'accroître, jusqu'à l'équilibre thermodynamique, où il ne se passe plus rien.

    L'exergie, c'est la fraction de l'énergie d'un système récupérable sous forme de travail, l'autre partie s'appelle l'anergie. L'énergie potentielle, l'énergie cinétique, l'énergie électrique (du réseau) sont 3 formes d'exergie pure. Le prix de l'exergie, c'est le prix local du KWh électrique. L'anergie elle (de la chaleur à température ambiante) ne coûte rien et ne sert à rien, on l'oublie.

    Un procédé, ou un composant de procédé, gèrent des flux de matière et d'énergie, d'impulsion (réacteur,aile), d'entropie. Le bilan d'entropie (sorties - entrées, en W/K) correspond à la création d'entropie interne au procédé. Celle-ci est liée aux pertes exergétiques du procédé de la façon suivante:
    pertes exergétiques (W) = création d'entropie (W/K) * température ambiante (300K)
    Un procédé idéal, "isentropique", ne créerait pas d'entropie, aurait des pertes exergétiques nulles et réaliserait l'opération à coût énergétique minimal. Strictement parlant, ce n'est pas possible, car sans créer d'entropie on ne peut rien faire. Par contre on peut créer de l'entropie sans rien faire d'utile ( frottement, effet Joule, fuite ).

    L'éthique isentropique consiste à minimiser la création entropique, sous certaines contraintes ( compacité, légèreté...), pour un résultat requis (un échange de chaleur à effectuer, une poussée à fournir, 2 produits à séparer...). On y gagne sur plusieurs plans:

  • diminution de la consommation énergétique (ou augmentation de la production) dans des proportions parfois surprenantes
  • augmentation similaire de la compacité, de la légèreté, des débits pour un niveau de pertes tolérées
  • les problèmes d'évacuation de la chaleur sont diminués
  • de façon plus subtile, des procédés que nous n'osons même pas imaginer aujourd'hui ( compression thermoacoustique, extraction en vol de l'oxygène de l'air, réacteurs de sustentation individuelle, modification artificielle des climats... ) pourraient voir le jour

    La méthode:
    1. évaluation du coût isentropique (idéal) du procédé, par analyse des flux d'entropie aux entrées-sorties
    2. évaluation de la création d'entropie interne dS d'un procédé adapté avec les formules suivantes:

  • transfert de chaleur Q (en W) d'un corps chaud à température Tc (en K) à un corps froid à temp. Tf: dS=Q*(1/Tf - 1/Tc) ~Q*dT/T² quand les temp. sont proches.
  • frottement f (en W) à la température T: dS=f/T. L'effet Joule et les pertes de charge sont assimilés au frottement.
  • mélange : 2 effets se combinent, le mélange des températures (assimilable à un transfert de chaleur), et la diffusion mutuelle de matière, qu'on néglige car généralement l'optimisation du procédé n'intervient pas dessus (réactifs de combustion ou gaz brûlés à l'atmosphère).
  • fuite : assimilable à un frottement qui détend le fluide à la pression finale, suivi d'un mélange.
  • combustion : apport de chaleur Q (en W) à la température de combustion Tc (en K): dS=Q/Tc à intégrer éventuellement. On voit qu'on a intérêt à élever le plus possible la température de combustion.
    3. Au moment de la conception, on effectue l'optimisation composant par composant (c'est plus simple, et un système composé d'éléments isentropiques est isentropique), de la façon suivante:
  • on identifie le maximum de paramètres qu'on peut faire varier lors de la conception ( par exemple pour un échangeur thermique: diamètre d'alvéole phi, vitesse fluide u, gradient de température longitudinal dxt, longueur d'alvéole L, flux de chaleur linéique QT, écart de température fluide-paroi dt, soit 3 variables indépendantes (oui! car ces 6 variables sont liées: L dépend de dxt, QT de dt, et dxt de phi, u et QT) ). Plus grand est le nombre de variables de conception, meilleur sera le résultat du processus d'optimisation.
  • on établit la formule de la création entropique totale (pour l'échangeur, 3 sources: flux de chaleur longitudinal et transversal, pertes de charge) en fonction des variables de conception résiduelles (échangeur: phi, u et dt), qu'on divise par la quantité d'opération effectuée (échangeur: QT en W/m). C'est la création entropique relative (CER), qu'il va falloir minimiser. Elle est directement en relation avec le rendement isentropique, dit aussi exergétique.
  • on dérive la CER par rapport à chacune des N variables de conception. Au point du minimum, toutes ces dérivées partielles sont nulles, ce qui donne N équations, permettant de déterminer les N variables. Parfois on aboutit à une solution irréalisable: certaines variables sont nulles ou infinies. C'est le cas de l'échangeur, infini et parfaitement isentropique. Dans ce cas on fixe une compacité 'a' requise (échangeur: a=phi²*QT en W/m³), qui nous enlève une variable, et on recommence l'optimisation.
    4. Voilà défini notre composant isentropique. Pour l'ajustement au débit requis, on effectue un branchement en parallèle (dimensionnement). Dans le cas de l'échangeur: détermination du nombre d'alvéoles. On peut s'occuper d'un autre composant. Le procédé obtenu au final est le plus efficient exergétiquement, pour un schéma de principe donné. Comparer entre eux différents procédés ne prend de sens qu'après une telle optimisation.

    Cette méthode demande beaucoup de travail: plusieurs mois*homme de modélisation-optimisation par composant. Aussi doit elle de préférence s'exercer sur des produits de série. Heureusement le travail ne doit être effectué qu'une seule fois, car les lois de la physique sont éternelles ou presque. Si l'on est pressé, mieux vaut faire une telle analyse, même bâclée, que pas du tout (qu'on songe que, une fois la réalisation effectuée, en fonctionnement, on n'a plus que quelques paramètres à régler, des débits). Souvent, on sera limité par des contraintes de fabrication, provisoires. Mais il est facile de modifier le modèle pour les y inclure.
    Au niveau de l'assemblage et du choix des composants (travail des ensembliers, installateurs, exploitants, maîtres d'ouvrage), les performances exergétiques doivent être exigées, contractualisées, et régulièrement mesurées en fonctionnement : il est si facile de mentir.

    Pour terminer, jetons un bref regard sur le monde:

  • tout le secteur économique de la commande, des capteurs, de la régulation, du calcul, de la micro-informatique subit depuis 50 ans une évolution vers l'isentropicité, avec la diminution continue des coûts et des consommations des FLOPs et des octets stockés ou transmis. Les besoins ont crû dans des proportions inverses, l'informatique s'est répandue.
  • Il existe en Italie et en Allemagne des vagues artificielles, qui permettent de surfer sur la terre ferme. Ces vagues ont subi une optimisation isentropique, sans quoi ça n'aurait pas été possible à un coût raisonnable.