- Dans la bande 5 GHz, utiliser une largeur de canal étroite de 20/40 MHz offre la meilleure expérience, mais les produits grand public utilisent par défaut des largeurs de canal plus larges, de 80 MHz ou plus, ce qui entraîne davantage d’interférences et de latence
- Comme les consommateurs privilégient la vitesse, les fabricants et les FAI conservent des canaux larges par défaut, de peur qu’un réglage plus étroit ne fasse baisser leurs scores dans les benchmarks
- Le simple fait d’effectuer un test de vitesse Wi‑Fi consomme la bande passante partagée du réseau, ce qui dégrade la réactivité et expose les autres appareils à de la latence et à des pertes de paquets
- La prochaine génération, Wi‑Fi 8 (802.11bn), vise à améliorer la fiabilité et la réactivité plutôt que la vitesse, mais la normalisation ne devrait pas être finalisée avant 2028
- De nettes améliorations sont déjà possibles en modifiant simplement la configuration du matériel actuellement déployé
L’importance d’une largeur de canal étroite
- Les réseaux d’entreprise utilisent des largeurs de canal de 20 à 40 MHz pour couvrir de grandes zones et connecter de nombreux appareils
- Cela permet de disposer de davantage de canaux et d’éviter les interférences co-canal (co-channel interference)
- Pour le Wi‑Fi résidentiel et des petites entreprises, la situation n’est pas très différente : un foyer américain moyen possède 21 appareils Wi‑Fi
- Beaucoup de foyers ont besoin de plusieurs nœuds mesh ou points d’accès pour une couverture efficace
- Pourtant, les routeurs domestiques et les équipements fournis par les FAI utilisent souvent par défaut 80 MHz ou plus, occupant les deux tiers de la bande
- Certains équipements 2,4 GHz n’autorisent même que 40 MHz, empêchant l’utilisateur de réduire davantage ce réglage
Le problème de l’« obsession de la vitesse »
- Ces réglages existent parce que les consommateurs assimilent souvent qualité du Wi‑Fi = vitesse, sans prendre en compte d’autres facteurs
- Ils se concentrent sur la vitesse au détriment d’indicateurs d’expérience bien plus importants comme la réactivité et la fiabilité
- Les fabricants et les FAI sont très sensibles aux scores des tests de vitesse, et maintiennent donc des canaux larges par défaut
- Avec des canaux plus étroits, la qualité réellement perçue s’améliore, mais les chiffres de vitesse baissent, ce qui fait craindre une hausse des retours produits
- Résultat : le marché continue de privilégier le débit maximal au détriment de la réactivité et de la stabilité
Les effets pervers des tests de vitesse
- Le Wi‑Fi repose sur un partage du temps d’antenne (airtime contention), ce qui signifie qu’un seul appareil peut transmettre à la fois
- Ainsi, lorsqu’un appareil lance un test de vitesse, la latence et les pertes de paquets augmentent pour les autres
- Les expériences montrent que, si un autre appareil du même réseau effectue un test de vitesse, la latence, la gigue (jitter) et les pertes de paquets augmentent toutes
- En effectuant le même test en connexion filaire (ethernet), cet effet n’apparaît pas
- Sur la plupart des équipements grand public, les mécanismes d’atténuation du buffer bloat sont désactivés, ce qui aggrave encore la situation
- Les outils de mesure de vitesse et les systèmes automatisés de test de débit sont eux-mêmes une cause majeure de dégradation de la qualité perçue
IEEE 802.11bn (Wi‑Fi 8) : une nouvelle approche centrée sur la réactivité et la fiabilité
- 68 % des foyers américains ont rencontré des problèmes de Wi‑Fi au cours de l’année passée
- La norme Wi‑Fi 8 (802.11bn) de l’IEEE s’éloigne de la logique centrée sur la vitesse et vise désormais :
- la fiabilité, une faible latence (au 95e percentile), la réduction des pertes de paquets et la robustesse en environnement perturbé
- toutefois, la norme ne devrait être finalisée qu’en 2028
- La bande 6 GHz utilisée par le Wi‑Fi 6E et le Wi‑Fi 7 offre des canaux plus larges, mais
- le taux d’adoption des appareils reste faible et cela ne résout pas le problème fondamental du partage du canal
Solutions et pistes proposées
- Il n’est pas nécessaire d’attendre une adoption massive du Wi‑Fi 6E et 7, ni les promesses encore non tenues du Wi‑Fi 8
- de simples changements de configuration sur le matériel déjà déployé permettent d’obtenir de bien meilleures performances
- il faut simplement cesser de viser le débit maximal et se concentrer sur la réactivité et la fiabilité du Wi‑Fi
- Les tests de vitesse restent utiles, mais une dépendance excessive à ces mesures finit par dégrader la qualité
- Les consommateurs veulent en réalité une bonne réactivité et une connexion stable, mais il manque encore des outils et des données pour les mesurer
- Les fabricants et les FAI devraient adopter de nouveaux indicateurs pour mettre en avant une expérience réseau continue (Responsiveness & Reliability)
- Même avec le matériel existant, de simples ajustements permettent de mettre en place un environnement Wi‑Fi plus stable
2 commentaires
Avis sur Hacker News
Des expériences menées avec un hub UniFi montrent que l’idéal serait d’attribuer un canal Wi‑Fi indépendant à chaque appareil. Les interférences sont si importantes que, même dans un environnement où les performances chutent dès que les canaux se chevauchent, on obtient de bien meilleurs résultats en évitant les collisions de canaux. Et la meilleure façon d’accélérer l’environnement sans fil reste, si possible, d’utiliser moins le Wi‑Fi tout court : relier directement en Ethernet les appareils fixes comme les TV permet de réduire efficacement la congestion et la baisse de débit du Wi‑Fi.
L’idéal est de brancher en Ethernet tous les appareils, à l’exception des smartphones et des ordinateurs portables qui ne restent pas sur un bureau. Avec la multiplication des visioconférences en 2020, installer de l’Ethernet directement dans la maison a nettement amélioré l’usage.
Les appareils IoT utilisent souvent des chipsets Wi‑Fi lents et d’anciennes normes ; les regrouper sur un SSID dédié en 2,4 GHz est une méthode efficace. Ainsi, les appareils anciens et lents ne dégradent pas le confort du 5 GHz. De plus, ajouter davantage de routeurs/AP et utiliser un backhaul filaire permet aux appareils de se connecter efficacement à l’AP le plus proche, ce qui rend le Wi‑Fi bien plus stable. Une fois tous les appareils fixes de la maison passés au filaire et l’ensemble correctement ajusté, la qualité du sans‑fil s’est fortement améliorée.
Les iPhone/iPad peuvent aussi être connectés via un adaptateur Ethernet, ce qui permet d’aller beaucoup plus vite pour les téléchargements volumineux. Dommage cependant que beaucoup d’appareils électroniques grand public ne prennent pas en charge la connexion filaire. Dans les appartements urbains denses, le sans‑fil est vraiment un choix défavorable, et il y a aussi le problème de plusieurs appareils qui affichent inutilement les équipements des réseaux voisins ou n’arrivent pas à désactiver correctement le Wi‑Fi.
Un client Wi‑Fi inactif, sans trafic sur le réseau, n’a presque aucun impact sur la qualité. Les vrais problèmes viennent des appareils effectivement utilisés ou de ceux qui génèrent beaucoup de trafic en arrière‑plan, comme certaines smart TV. Sur le réseau IoT, la plupart des appareils sont privés d’accès à Internet pour réduire ce trafic de fond. Plus généralement, étendre la couverture des AP, utiliser un backhaul filaire et remplacer le matériel par de bons équipements (par ex. Ubiquiti/UniFi) suffit souvent à améliorer considérablement la plupart des problèmes Wi‑Fi. Si l’on utilise un Wi‑Fi mesh, un backhaul en 6 GHz est recommandé, en gardant à l’esprit qu’on y perd un peu en portée.
Le déploiement du filaire est la solution la plus offensive et la plus efficace. Mais si l’on doit exploiter intensivement le Wi‑Fi, on peut l’optimiser en utilisant plusieurs AP avec backhaul dédié ; quelqu’un dit avoir ainsi construit une installation où plus de 60 appareils peuvent faire du roaming confortablement tout en conservant de bons débits. C’était basé sur UniFi, mais le matériel Eero PoE donnerait des performances similaires.
L’une des causes de la dégradation du Wi‑Fi est la fonction WiFi Direct de certaines imprimantes comme celles de HP. En scannant les signaux à proximité, on voit plus de cinq imprimantes voisines émettre fortement. Dans les grands bâtiments, seuls les canaux 6 GHz pris en charge par le Wi‑Fi 6e sont réellement exploitables.
Il est difficile de voir concrètement quoi appliquer à partir de l’article : faut‑il réduire la largeur des canaux à la maison ? Pour que cela ait un vrai effet, il semble qu’il faille utiliser un nombre assez important de WAP. Dans les appartements, réduire la puissance d’émission (TX power) paraît plus réaliste que de jouer sur la largeur de canal. Mais tout le monde ne le fera pas, et le mieux reste de respecter les limites légales. Les équipements qui ont besoin de hautes performances devraient de toute façon être connectés en filaire. Et si l’on veut investir du temps dans l’optimisation du Wi‑Fi, wiisfi.com est une ressource réellement excellente.
L’idée principale est que réduire la largeur des canaux 5 GHz à 40Mhz et maintenir le 2,4 GHz à 20MHz améliore la fiabilité. Si les fabricants définissaient simplement mieux les valeurs par défaut, cela profiterait à l’ensemble des utilisateurs ; aujourd’hui, les routeurs domestiques ont généralement des largeurs de canal par défaut trop importantes. Bien sûr, s’il n’y a pas de problème particulier dans son environnement, il n’est pas nécessaire de modifier cela.
Ce genre de réglage ne mérite de l’attention qu’en cas de problème. Dans la plupart des cas, les ressources du Wi‑Fi moderne sont tellement abondantes qu’on ne ressent pas vraiment de différence, sauf peut‑être lors de transferts massifs de fichiers très exceptionnels ; cela ne donne pas forcément envie d’ajouter du câblage juste pour ça.
Utiliser 40MHz en 2,4 GHz revient à occuper la moitié de tous les canaux disponibles ; l’effet d’augmentation de débit risque donc d’être inférieur à la pollution radio engendrée. Si d’autres appareils autour utilisent sans discernement les canaux 8 ou 9, le reste de la bande est vite contaminé à son tour et même les appareils IoT peinent à accrocher un signal. Un réseau qui montait à plus de 70Mbps avec une bonne implantation en 20MHz peut tomber à 30Mbps. À plusieurs, on en arrive à devoir forcer FaceTime en 5GHz, voire couper le Wi‑Fi.
J’avais moi aussi des coupures fréquentes du Wi‑Fi dans la chambre avec une configuration 5 GHz en 80MHz ; aujourd’hui, je l’ai immédiatement réduite à 20MHz, et le rapport signal/bruit a gagné environ 5dB, ce qui a permis de rétablir la connexion dans la chambre. La latence a un peu augmenté, mais l’effet est perceptible.
La ressource recommandée est vraiment utile, j’aurais aimé la connaître plus tôt.
Cela rappelle à quel point l’optimisation récente du Wi‑Fi s’est focalisée non pas sur l’expérience réelle des utilisateurs, mais sur la seule vitesse maximale affichée dans les chiffres, dans une sorte de « course aux spécifications de débit ». Cela rappelle l’ancienne « guerre des mégapixels » des appareils photo numériques. En pratique, ce qui compte au quotidien, c’est la réactivité et la fiabilité ; or ces indicateurs sont difficiles à quantifier et ne figurent même pas sur les emballages. Il y a même une ironie à voir les speed tests eux‑mêmes dégrader les performances du réseau. Reste à savoir si les routeurs et les FAI proposeront à l’avenir des scores fondés sur le ressenti réel, comme la réactivité, plutôt que sur le seul débit. Le problème est au fond culturel : l’industrie s’est trop longtemps attachée à des chiffres impressionnants plutôt qu’à une meilleure expérience.
Apple propose une méthode pour évaluer plus précisément la qualité d’un réseau, au‑delà de la simple mesure de vitesse. Il s’agit de la spécification network-quality/goresponsiveness, et les Mac récents intègrent un outil CLI appelé
networkQuality. Cet outil mesure les « round trips par minute » au repos et en charge. Comme il prédit mieux le confort Internet réellement perçu (bonne réactivité, réponse immédiate), il est plus utile concrètement qu’un speed test classique.Comme la « vitesse », facile à mesurer, concentre toute l’attention, toutes les parties prenantes finissent par n’être obsédées que par elle. Après avoir travaillé longtemps dans le réseau, quelqu’un remarque que les utilisateurs attribuent tous les problèmes à un manque de débit, alors qu’au‑delà d’un certain seuil, il s’agit souvent surtout d’une satisfaction psychologique.
Le groupe de travail IEEE 802.11bn (Wi‑Fi 8) redéfinit lui aussi les objectifs des spécifications : il ne s’agit plus seulement d’augmenter la vitesse, mais aussi d’améliorer la fiabilité, de réduire la latence — notamment au 95e percentile —, de diminuer les pertes de paquets et de mieux résister aux interférences et à la mobilité. Mais, d’expérience dans l’industrie, les nouvelles fonctions ne sont jamais vraiment bien appliquées dès leur première génération : les fonctionnalités clés du Wi‑Fi 6 commencent seulement à bien fonctionner avec le Wi‑Fi 7, et celles du Wi‑Fi 7 ne seront réellement exploitées qu’avec le Wi‑Fi 8. En d’autres termes, il faut souvent attendre une génération supplémentaire pour que les fonctions introduites deviennent réellement stables. Malgré cela, le Wi‑Fi actuel dépasse désormais en pratique 1Gbps, voire 2.5Gbps, et progresse nettement chaque année en fiabilité comme en efficacité.
Beaucoup de FAI, de fabricants d’appareils et de consommateurs feraient tourner régulièrement des speed tests automatisés ; il est surprenant d’entendre que cela pourrait en réalité dégrader l’expérience Internet globale des utilisateurs. On se demande vraiment pourquoi créer intentionnellement une charge supérieure au nécessaire.
Il existe par exemple une société appelée SamKnows, qui collecte des données de performance dans plusieurs millions de foyers et a récemment été rachetée par Cisco. Article lié : Cisco annonce son intention d’acquérir SamKnows
La plupart des FAI exécutent ces tests de vitesse uniquement sur leur réseau interne, ce qui a peu d’impact sur la charge réelle du trafic. Cela leur permet d’obtenir des chiffres gonflés en n’utilisant que le trafic interne, sans solliciter les liaisons externes, ce qui n’est pas non plus problématique du point de vue de l’entreprise. Quelqu’un dit avoir compris ce principe grâce à un opérateur réseau de son propre FAI.
Très peu de gens savent même ce qu’est un speed test, et il paraît peu probable que la majorité des consommateurs aient les compétences nécessaires pour l’automatiser.
La partie la plus décevante du Wi‑Fi reste le roaming. Dans une maison construite avec des murs très épais (jusqu’à 120 cm), il faut quasiment un AP dans chaque pièce. Malgré beaucoup d’efforts d’optimisation, quelqu’un dit n’avoir encore jamais connu un roaming parfaitement seamless. Depuis le passage à du matériel TP‑Link Omada, la situation s’est améliorée, mais on reste loin d’un basculement sans coupure au niveau d’un téléphone sans fil DECT. Par exemple, en regardant Twitch dans une chambre puis en se déplaçant vers la cuisine, la lecture se fige dans environ 30 % des cas ; dans les pires cas, il faut désactiver puis réactiver le Wi‑Fi pour que la transition se fasse. Tous les conseils sur les canaux, le chevauchement, etc. ont été essayés, mais cela reste imparfait.
Les téléphones sans fil DECT utilisent la bande 1,9 GHz, qui perd moins de signal dans l’eau que le Wi‑Fi 2,4 GHz et traverse mieux de nombreux matériaux. Le problème vient souvent du fait que beaucoup de gens placent mal leurs répéteurs/extenseurs Wi‑Fi ou utilisent du matériel bon marché sans multi‑radio. Si un répéteur ou un équipement mesh n’a qu’une seule radio, le débit est divisé par deux à chaque saut. Du point de vue d’un opérateur FAI, il n’est jamais simple de faire comprendre aux clients qu’ils économisent toujours sur leur réseau sans fil domestique, puis subissent les conséquences sans en saisir la cause.
Je vis moi aussi dans un bâtiment de structure similaire, donc je comprends bien la difficulté. Mais en reliant les AP avec un backhaul filaire, en évitant le chevauchement des canaux, en limitant le 2,4 GHz à 20MHz et le 5 GHz à 40MHz, en respectant strictement les canaux 1, 6 et 11 en 2,4 GHz, en évitant les canaux DFS sur le 5 GHz et, si nécessaire, en réduisant la puissance d’émission de chaque AP pour éviter le chevauchement à distance, il a été possible de quasiment régler le problème. Selon les besoins, couper le 2,4 GHz sur certains AP peut aussi être une solution.
J’utilise principalement des téléphones DECT VoIP pour la plupart des appels, et j’en suis satisfait.
La prochaine norme Wi‑Fi, 802.11bn (WiFi 8), porte le surnom d’Ultra High Reliability (UHR). Lien de référence : Wikipédia 802.11bn. La tendance est désormais de prendre beaucoup plus activement en compte d’autres variables que la vitesse.
J’utilise le Wi-Fi gigabit de KT, et comme la bande du canal était réglée sur 80 MHz, j’ai comparé les résultats de
networkQualityde macOS en la passant à 40 MHz. Dans mon cas, quand je la mets à 40, la réactivité comme les performances chutent nettement.