Etude et conception d’algorithmes temps réel pour l’analyse d’un signal d’onde de Pouls pour la caractérisation de la Rigidité Artérielle

When:
30/05/2020 – 31/05/2020 all-day
2020-05-30T02:00:00+02:00
2020-05-31T02:00:00+02:00

Annonce en lien avec l’Action/le Réseau : Doctorants

Laboratoire/Entreprise : Laboratoire LIASD (Univ. Paris 8) / Société AXELIFE
Durée : 3 ans
Contact : mehdi.ammi@univ-paris8.fr
Date limite de publication : 2020-05-30

Contexte :
Contexte administratif :
Thèse CIFRE entre la société AXELIFE et l’Université de Paris 8

Contact : mehdi.ammi@univ-paris8.fr

Contexte technique :

Insuffisamment diagnostiquée, traitée ou contrôlée, l’hypertension artérielle (HTA) est un facteur majeur de risque cardiovasculaire (RCV). Elle provoque aussi une rigidité artérielle (RA), un puissant indicateur de risque cardiovasculaire (RCV), indépendant des autres facteurs de risque.
Par ailleurs, la pression exercée sur les artères par l’HTA altère leur structure. Les artères deviennent ainsi rigides, plus épaisses et perdent leur capacité à se dilater. Ces transformations sont similaires à celles observées au cours du vieillissement. L’HTA conduit donc à un vieillissement prématuré des artères et à un manque d’oxygénation des organes, avec des complications comme l’infarctus du myocarde, l’accident vasculaire cérébral ou l’insuffisance rénale.
Ce vieillissement prématuré s’accentue lorsque d’autres facteurs de risque comme le tabagisme, le cholestérol élevé ou le diabète se combinent à l’HTA. Cependant, les personnes ont une sensibilité différente aux facteurs de risque, et seule l’étude de l’ensemble de ces facteurs, corrélés à l’âge, permet d’évaluer plus objectivement l’état de santé artérielle d’un individu. D’où l’importance de mesurer la rigidité artérielle, un paramètre évaluant directement l’état de santé artérielle et qui reflète en même temps l’état des organes et la présence de lésions comme des plaques d’athérome au niveau carotidien.
De nombreuses études montrent que la mesure de la RA a une valeur prédictive puissante de risque cardiovasculaire et de mortalité, et que cette valeur est indépendante des autres facteurs de risque classiques comme l’âge, le taux de cholestérol, le diabète, le tabagisme ou la pression artérielle moyenne. Autrement dit, la rigidité artérielle est peu influencée par les facteurs de risque classiques tandis que ces derniers peuvent affecter différemment les individus. Ainsi, la RA permet d’évaluer de façon fiable le RCV, notamment chez les patients considérés comme à risque faible ou moyen par les examens habituels.
La mesure de la rigidité artérielle se fait par le calcul de la vitesse de propagation de l’onde de pouls (VOP) qui évalue le temps de propagation de cette onde entre l’artère carotide et l’artère fémorale à l’aide de capteurs mécanographiques.
Cependant, jusqu’ici, la mesure de la RA nécessitait un matériel coûteux et du personnel formé. De plus, pour réaliser l’examen, le patient doit se déshabiller pour l’application de deux sondes sur les artères fémorales et carotides. Bien qu’il s’agisse de méthodes de référence, leur coût et mode d’emploi limite leur utilisation aux centres de recherche dans la majorité des cas.
Fruit de plusieurs années de recherches au sein de la société Axlife, iHeartWatch est un dispositif portable de type bracelet qui vise à proposer une mesure fiable, rapide et facile de la RA. La méthode est non invasive et peut se faire au cabinet des médecins de ville sans nécessité de déshabiller le patient. Le diagnostic peut ainsi être fait en quelques secondes d’une manière complètement automatique.

Sujet :
1. Objectif

Ce projet a pour objectif d’étudier et de développer des outils de traitement automatique exploitant une mesure d’onde de Pouls générée avec le bracelet connecté iHeartWatch développé par la société Axelife. L’enjeu est de pouvoir générer un diagnostic clinique fiable sur la rigidité artérielle du patient à partir de capteurs externes et non invasifs positionnés sur le bras du patient. Le projet implique à la fois l’étude et l’élaboration d’approches de traitement automatique innovantes et spécifiques au contexte du bracelet iHeartWatch (onde de Pouls, dispositif porté, etc.), mais également des expérimentations terrains afin d’étudier la qualité du diagnostic avec des patients dans la vie quotidienne.

2. Problématiques

Avoir accès, de manière non-invasive avec un bracelet connecté iHeartWatch, à l’onde de Pouls présente de nombreuses problématiques. L’enjeu est de pouvoir extraire de manière fiable, à partir de capteurs externes et non invasifs positionnés sur le bras du patient, un signal de qualité suffisant pour permettre un diagnostic clinique fiable. Comme les signaux cardiaques sont de nature non stationnaire, ils sont parfois transitoires et très sensibles aux bruits à cause des conditions d’auscultation, d’acquisition, de numérisation et de transmission.
L’analyse automatique de ce signal n’est pas simple du fait de la variabilité des enregistrements d’un patient à un autre et de leur variabilité interne, en fonction de l’état moteur du patient (au repos, en mouvement, etc.), de son état physiologique (pression artérielle, etc.), voire de son état psychologique (stress, dépression, etc.). Qui plus est, l’expertise médicale est souvent complétée par l’analyse de l’histoire clinique du patient.
Le canal de transmission peut également introduire des évanouissements de données (ou fading en Anglais). Ainsi, il est possible que quelques paquets de données soient perdus. Dans ce cas, il faut une méthode pour récupérer ces données perdues.
La complexité de calcul est une problématique importante dans ce projet. En effet, les limites des systèmes embarqués (calcul, mémoire) et le modèle économique de la société (ex. coût du calcul dans le cloud) nous poussera à étudier de nouvelles architectures et à élaborer des approches hybrides cloud-système embarqué.
Enfin, la qualité du diagnostic généré par le bracelet iHeartWatch doit être abordée sur terrain dans le cadre de la vie quotidienne des patients. L’objectif est d’évaluer la qualité du diagnostic (robustesse, précision, etc.) dans un environnement non contrôlé et en fonctions des nombreuses situations rencontrées par les patients.

3. Méthode

Le projet débutera par une étude détaillée de l’état de l’art des principales approches de traitement des signaux et d’apprentissage automatique utilisées pour analyser les signaux cardiaques. Nous nous intéresserons particulièrement à l’ECG dont les caractéristiques sont proches à l’onde de Pouls. Cette étape vise à exploser l’intérêt et les limites des méthodes classiques pour l’analyse des signaux cardiaques à travers une série d’expérimentations et d’études comparatives.
Nous nous intéresserons par la suite à l’étude, l’expérimentation et la mise en place de l’architecture de traitement pour la génération du diagnostic médical.
La première étape concernera l’étude des prétraitements à appliquer sur le signal d’onde de Pouls afin de le rendre exploitable pour la suite des opérations. Cette étape abordera aussi bien la réduction des bruits que la mise en forme du signal. Nous nous intéresserons aux outils de filtrage conventionnels [Yaghouby et al. 2010], mais également aux méthodes plus complexes comme des filtres qui s’adaptent au signal, la transformée en ondelettes ou encore les méthodes se fondant sur l’analyse de l’intervalle [Kohler et al. 2002] [Kara & Okandan 2007] [Blanco-Velasco et al. 2008] [Kim et al. 2009].
La deuxième étape du projet concernera l’exploitation des approches d’apprentissage automatique afin 1) d’identifier les signaux exploitables ; 2) d’extraire les paramètres relatifs à la rigidité artérielle (vitesse de Pouls, etc.) ; et 3) d’établir un diagnostic relatif à la santé cardiovasculaire du patient. Cette étape devra prendre en considération de nombreuses problématiques telles que la variabilité intra et inter-individuelle, l’activité motrice (marche, sommeil, etc.) et son contexte, l’influence d’autres paramètres physiologiques, les pertes de données, ou encore l’optimisation et la distribution des calculs (cloud-système embarqué). Nous aborderons différentes approches allant des méthodes de classification classiques nécessitant l’analyse des descripteurs [Rabee & Barhumi 2012], à des approches d’apprentissage profond exploitant les signaux bruts [Jambukia et al. 2015] permettant un apprentissage automatique de réprésentation adéquate à ce problème. Nous nous intéresserons également aux techniques d’apprentissage par renforcement afin d’élaborer des modèles qui s’adaptent au profil du patient voire à son état physiologique ou moteur à un moment donné [De Bois et al. 2018]. La prise en compte de l’activité motrice du patient nécessitera la mise en place d’un outil de reconnaissance d’activité contextualisée [Amroun & Ammi, 2018]. L’imperfection des données, notamment des signaux capteurs, sera étudiée en abordant différentes théories qui permettent la modélisation des imperfections (probabilité, croyance, etc.) [Bouguelid, 2017]. Nous nous intéresserons par ex. à la théorie de Dempster Shäfer que nous avons étudiée et expérimentée avec succès dans des domaines proches [Napoli & Barnes, 2016]. Enfin, l’optimisation de l’architecture de traitement sera un problème particulièrement étudié tout au long de cette étape. Nous aborderons à la fois des approches d’optimisation classiques, mais également les approches génétiques qui ont montré leurs intérêts dans la réduction des coûts de calcul tout en maintenant la qualité des modèles [Karpagachelvi, 2014].
La dernière étape du projet concernera l’étude et la validation terrain des outils développés. L’objectif de cette étape est double. Premièrement, confronter le modèle de traitement développé à un usage réel des patients et des médecins. En effet, les variabilités des comportements dans les différents contextes de la vie quotidienne permettra de tester la robustesse et la flexibilité des traitements. Ces études permettront de faire évoluer les outils pour tenir compte de nouvelles variables. Nous nous intéresserons également à la présentation de l’information aux médecins afin de proposer un outil de visualisation adapté et utile. Le deuxième objectif de cette étape sera d’étudier la qualité du diagnostic de l’outil final afin de présenter des résultats en vue d’un projet de certification du dispositif. Cette étude s’appuiera sur un benchmark visant à comparer notre outil aux méthodes conventionnelles.

Profil du candidat :
• Compétences théoriques et pratiques avancées en Machine Learning (développement d’architectures, optimisation, déploiement de solutions, TensorFlow, etc.)
• Maîtrise des environnements de développement en ML : tensorflow / scikit learn / keras
• Bonnes bases en traitement du signal (filtrages, analyses fréquentielles et temporelles, etc.)
• Maîtrise de la programmation (Python/C/C++/JAVA)

Formation et compétences requises :
Master en IA ou sciences des données
Master en Informatique avec modules en IA

Adresse d’emploi :
Univ. Paris 8
2 rue de la Liberté, Saint Denis

Document attaché : These_CIFRE.pdf