Veuillez utiliser cette adresse pour citer ce document :
http://dspace1.univ-tlemcen.dz/handle/112/15839
Titre: | Outils de vision par ordinateur et d’apprentissage profond pour la détection de prise en robotique. |
Auteur(s): | Bouharaoua, Mouadh Kebiri, Mohammed |
Date de publication: | 30-sep-2020 |
Editeur: | University of Tlemcen |
Résumé: | La robotique et la vision appliquent les techniques de l'intelligence arti cielle au probl eme de la fabrication d'appareils capables d'interagir avec le monde physique. Cela inclut se d eplacer dans le monde (robotique mobile), d eplacer des objets dans le monde (robotique de manipulation), acqu erir des informations par d etection directe du monde (par exemple, vision industrielle) et, surtout, fermer la boucle en utilisant la d etection pour contr^oler le mouvement. A travers notre projet, nous avons privil egi e une nouvelle m ethode de d etection de prise en robotique bas ee sur le deep learning, l'id ee est d'entra^ ner un mod ele de d etection d'objets sur l'une des bases de donn ees disponibles, ce mod ele est le yolov3 avec les param etres par d efaut. A n que nous puissions le convertir pour la d etection de prises, contrairement aux methodes de d etection d'objet classique, notre mod ele d evelopp e sera capable de d etecter toute la r egion de d'int er^et d'un objet, et c'est une chose tr es importante dans le domaine de la robotique. En n, pour fermer la boucle, une m ethode de contr^ole du robot est n ecessaire pour prendre l'objet en toute pr ecision et s ecurit e, la m ethode a et e r ealis ee en simulation pour certaines raisons mais elle est valable pour un robot manipulateur r eel. |
URI/URL: | http://dspace.univ-tlemcen.dz/handle/112/15839 |
Collection(s) : | Master en Automatique |
Fichier(s) constituant ce document :
Fichier | Description | Taille | Format | |
---|---|---|---|---|
Outils_de_vision_par_ordinateur_et_d’apprentissage_profond_pour_la_detection_de_prise_en_robotique.pdf | 14,54 MB | Adobe PDF | Voir/Ouvrir |
Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.