Un modèle basé sur l’analyse des perturbations du signal Wifi quand il rencontre des corps humains permet de reconstituer l’attitude. La méthode s’avère une alternative bon marché aux systèmes de surveillance par radar ou caméra.
On sait, depuis un projet du Massachusetts Institute of Technology, qu’une borne Wifi peut aider à savoir combien de personnes se trouvent derrière un mur et à suivre leurs déplacements. A l’université Carnegie Mellon de Pittsburgh (Etats-Unis), une équipe a réussi, elle, à savoir quelles postures corporelles ces gens adoptent. Pas de caméra, ni de radar ou autre LiDAR : la technique présentée par trois chercheurs en informatique et vision par ordinateur dans un article en preprint repose sur une paire de routeurs Wifi du marché. Les deux boîtiers sont dotés chacun de trois antennes, celles de l’un étant émettrices et celles de l’autre réceptrices.
« Chacun de ces routeurs coûte environ 30 dollars, indiquent les chercheurs dans leur article, ce qui veut dire que l’ensemble du dispositif reste bien meilleur marché que des systèmes LiDAR et radar. » C’est justement l’objectif de la démonstration : faire aussi bien que ces systèmes mais pour beaucoup moins cher. Le tout est associé à de l’apprentissage automatique.
Une cartographie 2D des objets dans le champ des ondes
L’équipe a utilisé ce que l’on appelle les informations d’état du canal (CSI), c’est-à-dire des informations sur la manière dont le signal d’une communication sans fil va de sa source émettrice à son récepteur : affaiblissement du signal, baisse de puissance en fonction de la distance parcourue… Ces données permettent de reconstituer une cartographie 2D d’un objet (en l’occurrence des corps humains) se trouvant sur le parcours des ondes Wifi.
Les chercheurs ont ensuite eu recours à une architecture de réseaux de neurones présentée par Facebook en 2018, DensePose. A la base, celle-ci permet, après une phase d’apprentissage automatique, de plaquer des pixels à des images RGB (en rouge-vert-bleu) de corps humains pour leur ajouter de la texture en 3D et obtenir ainsi un rendu photoréaliste.
Cartographie 3D de corps humains
Dans le projet de Carnegie Mellon, la méthode a été adaptée pour obtenir les coordonnées 3D de 24 zones du corps humain à partir de la cartographie 2D. Le résultat est une modélisation 3D du corps et de posture de personnes se trouvant dans le champ du signal Wifi. Ce serait, par exemple, un moyen de veiller à distance sur des personnes âgées.
Les performances obtenues sont prometteuses mais ne sont évidemment pas parfaites. Les cartographies 3D étant basées sur une prédiction statistique issue de l’apprentissage du réseau de neurones, dès qu’une attitude corporelle est peu présente dans le corpus d’entraînement, le résultat laisse à désirer. Autre limite notée par les chercheurs : « Dès que trois sujets ou plus figurent dans la même captation, le modèle basé sur du Wifi a plus de mal à fournir des informations détaillées pour chaque individu. » Dans ces cas-là, les modélisations s’avèrent en effet parfois incomplètes. Mais selon l’équipe, la solution à ces défauts se trouve en partie dans une amélioration des bases de données d’entraînement.
sciencesetavenir