Pourquoi les disques magnétiques ne sont pas adaptés à l’immersion cooling
L’immersion cooling est souvent présenté comme une réponse élégante à la montée en densité des infrastructures modernes. Sur le principe, l’idée séduit facilement : plonger les composants dans un fluide diélectrique pour mieux extraire la chaleur, réduire la dépendance à l’air froid et améliorer l’efficacité énergétique du système. Mais une erreur revient encore régulièrement dans les discussions d’architecture : croire que tous les composants bénéficient de la même manière d’un bain d’immersion.
C’est faux.
Les disques durs mécaniques, ou HDD, sont de très mauvais candidats pour une architecture d’immersion cooling sérieuse. Non pas parce qu’ils seraient technologiquement dépassés dans l’absolu, mais parce que leur mode de fonctionnement électromécanique est en contradiction avec les contraintes physiques d’un environnement immergé.
1. Un HDD n’est pas un simple composant électronique
C’est souvent le premier malentendu. Un HDD n’est pas comparable à une carte électronique passive ou à un SSD. C’est un système électromécanique de très haute précision qui repose sur plusieurs équilibres internes simultanés :
- des plateaux tournant à vitesse élevée,
- des têtes de lecture/écriture positionnées avec une tolérance extrêmement faible,
- un moteur de rotation,
- un actionneur chargé des déplacements microscopiques,
- une mécanique calibrée pour un environnement physique très spécifique.
Même lorsque le fluide utilisé est parfaitement diélectrique, le problème n’est pas seulement électrique. Il est mécanique.
Un disque dur est conçu pour fonctionner dans un régime maîtrisé, avec des comportements aérodynamiques, des charges, des frottements et des réponses thermiques attendues. Dès lors qu’on le place dans un fluide, même non conducteur, on modifie cette équation.
2. Le rôle de la dynamique des fluides est souvent sous-estimé
Dans une architecture d’immersion cooling, le composant ne fonctionne plus dans l’air. Il évolue dans un milieu dont la densité, la viscosité et le comportement thermique sont différents. Cela change immédiatement la nature des efforts appliqués aux pièces mobiles.
Pour un HDD, cela soulève plusieurs problèmes :
Efforts de traînée accrus
Les plateaux et les éléments en mouvement subissent un environnement plus contraignant que dans l’air. Cela peut modifier la charge sur le moteur, la stabilité du régime et les marges prévues par le design constructeur.
Comportement dynamique différent
Le déplacement des têtes, les vibrations et les micro-ajustements mécaniques ne sont plus soumis au même contexte physique. Or sur un HDD, la marge d’erreur est extrêmement faible.
Effets indirects sur l’usure
Même si le disque semble “fonctionner”, la question n’est pas de savoir s’il tourne. La vraie question est de savoir s’il continue à fonctionner dans des conditions prédictibles, répétables et industrialisables sur la durée.
En clair, l’immersion peut transformer un composant conçu pour un environnement maîtrisé en composant fonctionnant hors de sa zone nominale.
3. La problématique thermique n’est pas plus simple pour autant
On pourrait penser qu’un meilleur échange thermique suffit à justifier l’immersion. En réalité, un HDD ne tire pas le même bénéfice d’un bain que des composants de calcul à forte densité comme des GPU, CPU ou modules de puissance.
Les charges thermiques d’un HDD ne justifient pas, à elles seules, l’exposition à des contraintes mécaniques supplémentaires. Contrairement à des composants purement électroniques qui gagnent directement à être mieux refroidis, le disque dur paie un coût fonctionnel bien plus important pour un bénéfice thermique relativement limité.
Autrement dit, le ratio bénéfice / risque n’est pas bon.
4. Le vrai sujet est la fiabilité, pas la démonstration
On peut parfois faire tourner un composant dans des conditions non prévues et conclure un peu vite que “ça marche”. Ce raisonnement n’a aucune valeur d’architecture.
Une infrastructure sérieuse ne repose pas sur une preuve ponctuelle de fonctionnement. Elle repose sur :
- la stabilité dans le temps,
- la prédictibilité du comportement,
- la maintenabilité,
- la capacité à garantir un niveau de disponibilité,
- et la cohérence avec les exigences de production.
Sur les HDD immergés, plusieurs risques apparaissent immédiatement du point de vue industriel :
- dérive du comportement mécanique,
- augmentation du risque de panne,
- vieillissement accéléré,
- complexification des opérations de maintenance,
- difficulté à garantir un MTBF crédible,
- incertitude sur le comportement réel selon les fluides utilisés.
Dans une architecture critique, cette accumulation d’incertitudes est déjà une raison suffisante pour écarter la solution.
5. La maintenance devient beaucoup plus défavorable
Même si l’on ignorait les risques mécaniques, la maintenance reste un argument décisif contre les HDD en immersion.
Un disque mécanique est un composant remplaçable, manipulable, diagnostiquable et échangeable relativement simplement dans une baie de stockage classique. Dès lors qu’il est intégré dans un environnement immergé, plusieurs problèmes apparaissent :
- extraction plus contraignante,
- manipulation plus délicate,
- nettoyage ou gestion des résidus de fluide,
- opérations d’intervention plus longues,
- hausse du risque d’erreur humaine pendant la maintenance,
- coût opérationnel supérieur.
Cela va à l’encontre de l’objectif industriel d’une plateforme maintenable et reproductible.
6. L’immersion cooling pousse naturellement vers le full flash
Si l’on raisonne en architecture plutôt qu’en bricolage technique, la conclusion est logique : l’immersion cooling favorise les composants sans pièces mobiles.
Les bonnes briques pour ce type d’environnement sont donc :
- SSD SATA / SAS,
- NVMe,
- cartes accélératrices,
- CPU / GPU,
- électronique de puissance et réseau selon les cas,
- architectures désagrégées où le stockage mécanique reste hors du bain.
Cette orientation a plusieurs avantages :
- moins de fragilité mécanique,
- meilleure cohérence thermique,
- meilleure densité,
- maintenance plus prévisible,
- compatibilité naturelle avec les workloads intensifs.
Le bon design n’est pas “tout immerger”. Le bon design consiste à immerger ce qui bénéficie réellement du bain et à laisser hors bain ce qui introduit un risque disproportionné.
7. Une architecture robuste sépare les fonctions au lieu de tout fusionner
Dans la pratique, une architecture cohérente autour de l’immersion cooling suit généralement un principe simple :
- le calcul haute densité est immergé,
- le stockage flash proche du compute peut rester dans une logique compatible,
- le stockage mécanique, s’il existe encore, est déporté hors du bain dans un environnement adapté.
Cette séparation n’est pas une faiblesse. C’est un signe de maturité d’ingénierie.
Elle permet de préserver les gains thermiques là où ils sont utiles, tout en évitant d’introduire dans le bain un composant dont la logique physique, mécanique et opérationnelle n’est pas alignée avec ce modèle.
8. Le vrai niveau d’exigence est architectural
Au fond, la question n’est pas “est-ce qu’un HDD peut tourner dans un fluide ?”. La vraie question est :
est-ce qu’un HDD a sa place dans une architecture d’immersion cooling pensée pour être fiable, maintenable et industrialisable ?
Et là, la réponse est très claire : non.
Chez ITNET Technologies, c’est précisément cette lecture que nous défendons : l’immersion cooling n’est pas un geste spectaculaire consistant à plonger du matériel dans un fluide. C’est un sujet d’architecture complet, où chaque composant doit être évalué selon :
- sa compatibilité physique,
- sa valeur thermique réelle,
- son comportement en maintenance,
- son impact sur la résilience globale,
- et sa cohérence avec les objectifs de production.
Conclusion
Les disques magnétiques n’ont pas leur place dans une architecture d’immersion cooling moderne, non pas parce qu’ils seraient inutiles en soi, mais parce que leur fonctionnement électromécanique les rend inadaptés à ce modèle thermique.
L’immersion cooling est une excellente réponse pour certaines classes de composants, notamment les environnements de calcul intensif à forte densité. Mais elle ne doit jamais être traitée comme une approche universelle.
Une architecture robuste sait distinguer les composants qui bénéficient réellement du bain de ceux qui doivent rester dans une chaîne de stockage classique. C’est cette discipline qui fait la différence entre une expérimentation impressionnante… et une vraie infrastructure industrialisable.



