Veuillez utiliser cette adresse pour citer ce document : http://dspace1.univ-tlemcen.dz/handle/112/24261
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.authorBenabadji, Nazim-
dc.date.accessioned2025-01-20T11:05:26Z-
dc.date.available2025-01-20T11:05:26Z-
dc.date.issued2024-06-13-
dc.identifier.urihttp://dspace1.univ-tlemcen.dz/handle/112/24261-
dc.description.abstractCe travail se concentre sur l’application de deux approches différentes pour la classification de texte ; à savoir les Réseaux de Neurones Récurrents (RNN), en particulier les architectures LSTM, ainsi que les modèles à attention tels que BERT. L’objectif est d’évaluer la performance de ces approches dans divers scénarios de classification de texte, en tenant compte de plusieurs facteurs tels que la taille du jeu de données, la complexité de la tâche, etc. Pour cela, nous avons commencé par une revue des algorithmes d’apprentissage traditionnels, en explorant en détail, les RNN et les modèles Transformer. Par la suite, nous avons effectué une analyse approfondie des performances et des résultats obtenus, ainsi qu’une comparaison des performances des deux approches. A la fin, nous avons souligné l’importance de ces méthodes dans le domaine du traitement automatique du langage naturel où nous avons proposé des orientations et recommandations pour des travaux futurs visant à améliorer les performances des systèmes de classification de texte.en_US
dc.language.isofren_US
dc.publisherUniversity of tlemcenen_US
dc.relation.ispartofseries39 Master Info;-
dc.subjectles Réseaux de Neurones Récurrents (RNN),les architectures LSTM,les modèles tels que BERT,des algorithmes d’apprentissage traditionnels,en_US
dc.titleAnalyse comparative des performances pour la classification de textes « RNN vs Transformers »en_US
dc.typeThesisen_US
Collection(s) :Master chimie

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
Analyse_comparative_des_performances_pour_la_classification_de_textes_RNN_vs_Transformers.pdf2,42 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.