EL MORABIT S.
Soutenance : 11 Avril 2023 à 14h00
Thèse de doctorat en Electronique, Microélectronique, nanoélectronique et micro-ondes, Université Polytechnique Hauts-de-France, ED PHF, 11 avril 2023
Résumé :
La capacité à ressentir la douleur est cruciale pour la vie, car elle sert de système d’alerte précoce en cas de dommages potentiels pour le corps. La majorité des évaluations de la douleur reposent sur les rapports des patients. En revanche, les patients incapables d’exprimer leur douleur doivent plutôt se fier aux rapports de tierces personnes sur leur souffrance. En raison des biais potentiel de l’observateur, les rapports sur la douleur peuvent contenir des inexactitudes. En outre, il serait impossible de surveiller les patients 24 heures sur 24. Afin de mieux gérer la douleur, notamment chez les patients avec des difficultés de communication, des techniques de détection automatique de la douleur pourraient être mises en oeuvre pour aider les soignants et compléter leur service. Les expressions faciales sont utilisées par la plupart des systèmes d’évaluation de la douleur basés sur l’observation, car elles constituent un indicateur fiable de la douleur et peuvent être interprétées à distance. En considérant que la douleur génère généralement un comportement facial spontané, les expressions faciales pourraient être utilisées pour détecter la présence de la douleur. Dans cette thèse, nous analysons les expressions faciales de la douleur afin d’aborder l’estimation de la douleur. Tout d’abord, nous présentons une analyse approfondie du problème en comparant de nombreuses architectures CNN (réseau de neurones convolutifs) courantes, telles que MobileNet, GoogleNet, ResNeXt-50, ResNet18 et DenseNet-161. Nous utilisons ces réseaux dans deux modes uniques : autonome et extraction de caractéristiques. En mode autonome, les modèles (c’est-à-dire les réseaux) sont utilisés pour estimer directement la douleur.
Abstract :
The ability to feel pain is crucial to life, as it serves as an early warning system for potential damage to the body. The majority of pain assessments rely on patient reports. In contrast, patients who are unable to express their pain must rely instead on third-party reports of their suffering. Because of potential observer bias, pain reports may contain inaccuracies. In addition, it would be impossible to monitor patients 24 hours a day. To better manage pain, especially in patients with communication difficulties, automatic pain detection techniques could be implemented to assist caregivers and complement their service. Facial expressions are used by most observation-based pain assessment systems because they are a reliable indicator of pain and can be interpreted remotely. Considering that pain usually generates spontaneous facial behavior, facial expressions could be used to detect the presence of pain. In this thesis, we analyze facial expressions of pain to address pain estimation. First, we present a thorough analysis of the problem by comparing many common CNN (convolutional neural network) architectures, such as MobileNet, GoogleNet, ResNeXt-50, ResNet18, and DenseNet-161. We use these networks in two unique modes: autonomous and feature extraction. In autonomous mode, the models (i.e., networks) are used to directly estimate pain.