Veuillez utiliser cette adresse pour citer ce document :
http://dspace1.univ-tlemcen.dz/handle/112/21059
Titre: | Détection et Classification de fumée dans les vidéos laparoscopiques |
Auteur(s): | Salhi, Rawan |
Mots-clés: | Laparoscopie, fumée, deep learning, CNN, classification, VGG16, VGG19 |
Date de publication: | 20-jui-2023 |
Editeur: | University of Tlemcen |
Résumé: | La chirurgie laparoscopique présente des avantages évidents pour les patients, tels qu'une hospitalisation courte. Cependant, cette technique est complexe et peut entraîner facilement des complications. L'une des sources de ces complications est une vision altérée due à la contamination de l'optique de la caméra par la fumée, ce qui va introduire un laps de temps sans une vision claire. Il est donc crucial de rétablir rapidement une vision optimale pour améliorer le pronostic chirurgical. Une solution évidente serait de détecter automatiquement les images contaminées. Nous avons donc exploré la détection et la classification de la fumée dans les images laparoscopiques en utilisant l’approche deep learning avec les réseaux de neurones convolutionnels (CNN). Nous avons implémenté trois modèles, dont deux sont pré-entraînés (VGG16 et VGG19), tandis que le troisième a été développé spécifiquement pour cette étude. Nous avons comparé les trois modèles et noté l'influence des différents composants et paramètres dans le processus de classification, notamment la couche de convolution, la couche de pooling et la couche fully connected. Les résultats obtenus démontrent que le modèle VGG16 est le plus performant, avec une précision de 99,9 % et une erreur de seulement 0,1 %. |
URI/URL: | http://dspace1.univ-tlemcen.dz/handle/112/21059 |
Collection(s) : | Master en Génie Biomedical |
Fichier(s) constituant ce document :
Fichier | Description | Taille | Format | |
---|---|---|---|---|
Detection_et_Classification_de_fumee_dans_les_videos_laparoscopiques.pdf | 3,15 MB | Adobe PDF | Voir/Ouvrir |
Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.