EBookClubs

Read Books & Download eBooks Full Online

EBookClubs

Read Books & Download eBooks Full Online

Book Artificial Neural Networks Icann  97

Download or read book Artificial Neural Networks Icann 97 written by Wulfram Gerstner and published by Springer Science & Business Media. This book was released on 1997-09-29 with total page 1300 pages. Available in PDF, EPUB and Kindle. Book excerpt: Content Description #Includes bibliographical references and index.

Book Artificial Neural Networks

Download or read book Artificial Neural Networks written by and published by . This book was released on 1997 with total page 1308 pages. Available in PDF, EPUB and Kindle. Book excerpt:

Book Mod  les statistiques et r  seaux de neurones

Download or read book Mod les statistiques et r seaux de neurones written by Wenhua Zhu and published by . This book was released on 2019 with total page 0 pages. Available in PDF, EPUB and Kindle. Book excerpt: Cette thèse a abordé deux grands thèmes : analyse des données et réseau de neurones. Elle présente les principales méthodes de l'analyse discriminante et traite des aspects importants de ce domaine : procédure d'apprentissage, construction et validation de règle de décision, sélection du meilleur modèle, liaisons avec des réseaux de neurones multicouches. La thèse a développé certaines techniques pour améliorer la qualité de l'apprentissage et pour réduire la complexité du réseau de neurones.

Book APPRENTISSAGE ET GENERALISATION PAR DES RESEAUX DE NEURONES

Download or read book APPRENTISSAGE ET GENERALISATION PAR DES RESEAUX DE NEURONES written by Juan-Manuel Torres Moreno and published by . This book was released on 1997 with total page 147 pages. Available in PDF, EPUB and Kindle. Book excerpt: LA CLASSIFICATION EST L'ATTRIBUTION D'UNE CLASSE SPECIFIQUE A UN OBJET DONNE. CETTE ATTRIBUTION A BESOIN D'UN CERTAIN DEGRE D'ABSTRACTION POUR POUVOIR EXTRAIRE DES GENERALITES A PARTIR DES EXEMPLES DONT ON DISPOSE. POUR UNE MACHINE, LA CLASSIFICATION DE VISAGES, DE DONNEES MEDICALES, DE FORMES, SONT TOUTES DES TACHES ASSEZ DIFFICILES. PAR EXEMPLE, DANS LE CAS DE LA RECONNAISSANCE DE CARACTERES MANUSCRITS, IL EST DIFFICILE D'ENONCER UNE DESCRIPTION GENERALE QUI TIENNE COMPTE DE TOUTES LES VARIATIONS PARTICULIERES DE CHAQUE CARACTERE. UNE AUTRE APPROCHE QUI PEUT ETRE UTILISEE POUR CETTE TACHE EST CELLE DE L'APPRENTISSAGE. AINSI, LE CRITERE POUR DECIDER SI UNE IMAGE CORRESPOND OU NON A UNE LETTRE SINGLE HIGH-REVERSED-9 QUOTATION MARKARIGHT SINGLE QUOTATION MARK CONSISTE A COMPARER SI CETTE IMAGE EST (SUFFISAMMENT SIMILAIRE) A DES SINGLE HIGH-REVERSED-9 QUOTATION MARKARIGHT SINGLE QUOTATION MARK VUS AUPARAVANT. DE CE POINT DE VUE, ON NE CALCULE PAS LA CLASSIFICATION DE CARACTERES : ELLE DOIT ETRE APPRISE A PARTIR D'EXEMPLES. LE BUT DE CETTE THESE EST DE PRESENTER DE NOUVELLES HEURISTIQUES POUR GENERER, D'UNE MANIERE CONSTRUCTIVE, DES RESEAUX DE NEURONES POUR LA CLASSIFICATION. ELLES PERMETTENT DE GENERER DES RESEAUX A UNE SEULE COUCHE CACHEE COMPLETEMENT CONNECTEE AUX UNITES D'ENTREE, ET UN NEURONE DE SORTIE CONNECTE AUX UNITES CACHEES. LES NEURONES CACHES ET DE SORTIE SONT DES UNITES BINAIRES, POUVANT FAIRE SOIT DES SEPARATIONS LINEAIRES, SOIT DES SEPARATIONS SPHERIQUES. CES HEURISTIQUES SONT COUPLEES AVEC DES ALGORITHMES D'APPRENTISSAGE POUR LA PERCEPTRON, MINIMERROR-L POUR LES SEPARATIONS LINEAIRES ET MINIMERROR-S POUR LES SEPARATIONS SPHERIQUES. TROIS NOUVEAUX ALGORITHMES CONSTRUCTIFS, QUI DIFFERENT SUIVANT LE TYPE DE NEURONES CACHES ET AUSSI SUIVANT LA DEFINITION DES CIBLES QUE CEUX-CI DOIVENT APPRENDRE ON ETE DEVELOPPES. PENDANT LE PROCESSUS D'APPRENTISSAGE, DES NEURONES CACHES ENTRAINES POUR APPRENDRE CES CIBLES VONT DIMINUER LE NOMBRE D'ERREURS DE CLASSIFICATION DU NEURONE DE SORTIE. LES RESEAUX AINSI BATIS ONT GENERALEMENT MOINS DE PARAMETRES (POIDS) ET GENERALISENT MIEUX QUE LES RESEAUX ENTRAINES AVEC D'AUTRES ALGORITHMES.

Book Apprentissage et g  n  ralisation par des r  seaux de neurones

Download or read book Apprentissage et g n ralisation par des r seaux de neurones written by Juan-Manuel Torres-Moreno and published by . This book was released on 2009 with total page 0 pages. Available in PDF, EPUB and Kindle. Book excerpt: La classification est l'attribution d'une classe spécifique à un objet donné. Cette attribution a besoin d'un certain degré d'abstraction pour pouvoir extraire des généralités à partir des exemples dont on dispose. Pour une machine, la classification de visages, de données médicales, de formes, sont toutes des tâches assez difficiles. Par exemple, dans le cas de la reconnaissance de caractères manuscrits, il est difficile d'énoncer une description générale qui tienne compte de toutes les variations particulières de chaque caractère. Une autre approche qui peut être utilisée pour cette tâche est celle de l'apprentissage. Ainsi, le critère pour décider si une image correspond ou non à une lettre 'A' consiste à comparer si cette image est (suffisamment similaire} à des 'a' vus auparavant. De ce point de vue, on ne calcule pas la classification de caractères : elle doit être apprise à partir d'exemples. Ces dernières années, de nouvelles techniques neuronales d'apprentissage ont été développées. Cet apprentissage avec des réseaux de neurones se fait actuellement en suivant deux approches : certains algorithmes comme la Rétropropagation du Gradient ont besoin d'introduire a priori le nombre et la connectivité des unités cachées et déterminer les poids des connexions par minimisation d'un coût. Le réseau ainsi obtenu est éventuellement élagué. Avec une approche constructive on apprend en même temps le nombre d'unités et les poids, dans le cadre d'une architecture fixée, commençant généralement avec une seule unité. Le but de cette thèse est de présenter de nouvelles heuristiques pour générer, d'une manière constructive, des réseaux de neurones pour la classification. Elles permettent de générer des réseaux à une seule couche cachée complètement connectée aux unités d'entrée, et un neurone de sortie connecté aux unités cachées. Les neurones cachés et de sortie sont des unités binaires, pouvant faire soit des séparations linéaires, soit des séparations sphériques. Ces heuristiques sont couplées avec des algorithmes d'apprentissage pour le perceptron, Minimerror-L pour les séparations linéaires et Minimerror-S pour les séparations sphériques. Trois nouveaux algorithmes constructifs, qui différent suivant le type de neurones cachés et aussi suivant la définition des cibles que ceux-ci doivent apprendre on été développés. Pendant le processus d'apprentissage, des neurones cachés entraînés pour apprendre ces cibles vont diminuer le nombre d'erreurs de classification du neurone de sortie. Les réseaux ainsi bâtis ont généralement moins de paramètres (poids) et généralisent mieux que les réseaux entraînés avec d'autres algorithmes.

Book R  seaux de neurones convolutifs pour la segmentation s  mantique et l apprentissage d invariants de couleur

Download or read book R seaux de neurones convolutifs pour la segmentation s mantique et l apprentissage d invariants de couleur written by Damien Fourure and published by . This book was released on 2017 with total page 0 pages. Available in PDF, EPUB and Kindle. Book excerpt: La vision par ordinateur est un domaine interdisciplinaire étudiant la manière dont les ordinateurs peuvent acquérir une compréhension de haut niveau à partir d'images ou de vidéos numériques. En intelligence artificielle, et plus précisément en apprentissage automatique, domaine dans lequel se positionne cette thèse, la vision par ordinateur passe par l'extraction de caractéristiques présentes dans les images puis par la généralisation de concepts liés à ces caractéristiques. Ce domaine de recherche est devenu très populaire ces dernières années, notamment grâce aux résultats des réseaux de neurones convolutifs à la base des méthodes dites d'apprentissage profond. Aujourd'hui les réseaux de neurones permettent, entre autres, de reconnaître les différents objets présents dans une image, de générer des images très réalistes ou même de battre les champions au jeu de Go. Leurs performances ne s'arrêtent d'ailleurs pas au domaine de l'image puisqu'ils sont aussi utilisés dans d'autres domaines tels que le traitement du langage naturel (par exemple en traduction automatique) ou la reconnaissance de son. Dans cette thèse, nous étudions les réseaux de neurones convolutifs afin de développer des architectures et des fonctions de coûts spécialisées à des tâches aussi bien de bas niveau (la constance chromatique) que de haut niveau (la segmentation sémantique d'image). Une première contribution s'intéresse à la tâche de constance chromatique. En vision par ordinateur, l'approche principale consiste à estimer la couleur de l'illuminant puis à supprimer son impact sur la couleur perçue des objets. Les expériences que nous avons menées montrent que notre méthode permet d'obtenir des performances compétitives avec l'état de l'art. Néanmoins, notre architecture requiert une grande quantité de données d'entraînement. Afin de corriger en parti ce problème et d'améliorer l'entraînement des réseaux de neurones, nous présentons plusieurs techniques d'augmentation artificielle de données. Nous apportons également deux contributions sur une problématique de haut niveau : la segmentation sémantique d'image. Cette tâche, qui consiste à attribuer une classe sémantique à chacun des pixels d'une image, constitue un défi en vision par ordinateur de par sa complexité. D'une part, elle requiert de nombreux exemples d'entraînement dont les vérités terrains sont coûteuses à obtenir. D'autre part, elle nécessite l'adaptation des réseaux de neurones convolutifs traditionnels afin d'obtenir une prédiction dite dense, c'est-à-dire, une prédiction pour chacun pixel présent dans l'image d'entrée. Pour résoudre la difficulté liée à l'acquisition de données d'entrainements, nous proposons une approche qui exploite simultanément plusieurs bases de données annotées avec différentes étiquettes. Pour cela, nous définissons une fonction de coût sélective. Nous développons aussi une approche dites d'auto-contexte capturant d'avantage les corrélations existantes entre les étiquettes des différentes bases de données. Finalement, nous présentons notre troisième contribution : une nouvelle architecture de réseau de neurones convolutifs appelée GridNet spécialisée pour la segmentation sémantique d'image. Contrairement aux réseaux traditionnels, notre architecture est implémentée sous forme de grille 2D permettant à plusieurs flux interconnectés de fonctionner à différentes résolutions. Afin d'exploiter la totalité des chemins de la grille, nous proposons une technique d'entraînement inspirée du dropout. En outre, nous montrons empiriquement que notre architecture généralise de nombreux réseaux bien connus de l'état de l'art. Nous terminons par une analyse des résultats empiriques obtenus avec notre architecture qui, bien qu'entraînée avec une initialisation aléatoire des poids, révèle de très bonnes performances, dépassant les approches populaires souvent pré-entraînés.

Book ETUDE DE LA COMPLEXITE ET CONTROLE DE LA CAPACITE DES SYSTEMES D APPRENTISSAGE

Download or read book ETUDE DE LA COMPLEXITE ET CONTROLE DE LA CAPACITE DES SYSTEMES D APPRENTISSAGE written by ANDRE.. ELISSEEFF and published by . This book was released on 2000 with total page 120 pages. Available in PDF, EPUB and Kindle. Book excerpt: CETTE THESE PORTE SUR LA THEORIE DE L'APPRENTISSAGE ET EXPOSE DIFFERENTS MODELES CONNEXIONNISTES AINSI QUE LEUR JUSTIFICATION THEORIQUE ET LES MOYENS DE LES METTRE EN UVRE. LE PREMIER MODELE EST UNE EXTENSION DES MACHINES A VECTEURS DE SUPPORT, QUI ONT ETE INTRODUITES AU DEBUT DES ANNEES 90 ET QUI SONT AUJOURD'HUI RECONNUES COMME ETANT TRES PERFORMANTES. LEUR DEFINITION REPOSE SUR UNE NOTION DE MARGE QUI AVAIT ETE ETUDIEE ET DEFINIE UNIQUEMENT DANS LE CAS BI-CLASSE. APRES AVOIR DEMONTRE UN RESULTAT GENERAL SUR LA DISCRIMINATION ET LA MARGE MULTI-CLASSES, DE NOUVELLES MACHINES A VECTEURS DE SUPPORT MULTI-CLASSES SONT PRESENTEES. UNE ETUDE DE PROGRAMMATION MATHEMATIQUE PERMET DE DEFINIR UN ALGORITHME EFFICACE POUR LEUR MISE EN UVRE. LE DEUXIEME MODELE EST EXPOSE DANS LE CADRE DE LA THEORIE DE LA REGULARISATION. APRES UNE INTRODUCTION AUX BASES DE CETTE THEORIE ET A SON LIEN AVEC UNE NOTION DE STABILITE ALGORITHMIQUE, UN NOUVEL OPERATEUR REGULARISANT EST DEFINI. DE CET OPERATEUR, EST DEDUIT UN RESEAU DE NEURONES MULTI-COUCHE QUI APPARAIT AINSI COMME UNE PARTIE D'UN RESEAU DE REGULARISATION. CES DERNIERS ONT L'AVANTAGE D'ETRE JUSTIFIES THEORIQUEMENT ET DE POUVOIR ETRE ASSOCIES A DES A PRIORI. AINSI, IL DEVIENT POSSIBLE D'ETUDIER QUELLES SONT LES CONNAISSANCES A PRIORI SOUS-JACENTES A L'UTILISATION DES RESEAUX DE NEURONES AVEC DES FONCTIONS D'ACTIVATION SIGMOIDES. ENFIN, UNE ANALYSE DE LA COMPLEXITE ET DE LA CAPACITE DES PERCEPTRONS MULTI-COUCHES CONCLUT LA THESE, EN DEMONTRANT DES RESULTATS GENERAUX SUR LES CARACTERISTIQUES FONCTIONNELLES DE CES MODELES.

Book Contribution    l identification de syst  mes non lin  aires par r  seaux de neurones

Download or read book Contribution l identification de syst mes non lin aires par r seaux de neurones written by Philippe Thomas (médecin) and published by . This book was released on 1997 with total page 148 pages. Available in PDF, EPUB and Kindle. Book excerpt: Cette thèse est consacrée à l'identification de systèmes dynamiques non-linéaires SISO et MISO à l'aide de réseaux de neurones multicouches non-récurrents. Dans un premier temps, une présentation succincte de l'ensemble des méthodes d'identification non-linéaire est effectuée. Nous poursuivons notre étude par un bref historique des réseaux de neurones ainsi que par une présentation des divers modèles neuronaux existants. Une fois posé le cadre de ce travail, nous définissons plus particulièrement l'architecture générale du réseau de neurone retenu, puis nous présentons les algorithmes permettant d'adapter cette architecture générale à un cas précis. Ces choix concernent notamment le vecteur de régression et le nombre de neurones utilisés dans la couche cachée. Notre étude des réseaux de neurones s'effectuant dans le domaine précis de l'identification de systèmes, les liens importants existant entre la modélisation neuronale et les modèles non-linéaires classiques sont démontrés. Les divers critères de validation de modèles non-linéaires utilisables pour les réseaux neuronaux sont alors présentés. Le reste de ce travail est consacré aux diverses difficultés rencontrées lors de l'identification par réseau de neurones. La première difficulté se présente des l'initialisation des poids du réseau. En effet, un mauvais choix des poids initiaux peut conduire à l'obtention d'un minimum local très éloigné du minimum global, à la saturation des neurones de la couche cachée, à une convergence lente. Afin de résoudre ce problème, divers algorithmes ont été proposés et comparés sur divers exemples. Les problèmes de lenteur de convergence, ou même de divergence, peuvent également être dus a l'algorithme d'apprentissage utilisé. Nous proposerons alors un nouvel algorithme permettant de s'affranchir de cette seconde difficulté. Ce nouvel algorithme sera alors comparé à l'algorithme plus classique rpe sur un exemple de simulation. Nous finirons notre étude en nous intéressant au troisième problème qui est posé par la présence de valeurs aberrantes dans les données d'identification. En effet, cette présence de valeurs aberrantes risque de conduire à des biais sur les paramètres. Nous proposons alors divers critères d'apprentissage qui sont robustes aux valeurs aberrantes. Ces critères sont comparés sur des exemples de simulation et des données industrielles réelles.

Book APPRENTISSAGE DE RESEAUX DE NEURONES EN COUCHES PAR LA REGLE DE RETROPROPAGATION DU GRADIENT

Download or read book APPRENTISSAGE DE RESEAUX DE NEURONES EN COUCHES PAR LA REGLE DE RETROPROPAGATION DU GRADIENT written by JEAN-RENAUD.. VIALA and published by . This book was released on 1990 with total page pages. Available in PDF, EPUB and Kindle. Book excerpt: CETTE THESE ABORDE LES DIFFERENTS ASPECTS DES RESEAUX DE NEURONES EN COUCHES APPELES PERCEPTRONS MULTICOUCHES, DEPUIS L'ALGORITHME D'APPRENTISSAGE, JUSQU'A L'APPLICATION A DES PROBLEMES REELS. LA PREMIERE PARTIE EST UNE ETUDE PARAMETRIQUE DE LA REGLE D'APPRENTISSAGE PAR RETROPROPAGATION DU GRADIENT DE L'ERREUR. LE GAIN ET LE TEMPS DE RELAXATION SONT ETUDIES LORS DE L'ELABORATION D'UNE LOI D'ECHELLE D'UNE FONCTION BOOLEENNE: LA PARITE. LES ARCHITECTURES DE RESEAU ET LES ENSEMBLES D'APPRENTISSAGE SONT ANALYSES SUR LE PROBLEME CONTINU DE LA COMPRESSION D'UNE IMAGE DIGITALISEE. LA DEUXIEME PARTIE DE LA THESE EST UNE APPLICATION DES RESEAUX DE NEURONES EN COUCHES AU PROBLEME DE LA COMPRESSION DE SIGNAL VIDEO. POUR OBTENIR UNE QUALITE D'IMAGE SATISFAISANTE, UN NOUVEL ALGORITHME A ETE DEVELOPPE. SON ORIGINALITE EST DE METTRE EN COMPETITION, DURANT LE CODAGE, PLUSIEURS RESEAUX EN COUCHES. GRACE A L'APPRENTISSAGE, QUI ASSOCIE CHAQUE PERCEPTRON A UNE TEXTURE SPECIFIQUE, L'ALGORITHME COMPETITIF ADAPTE LE CODAGE D'UN BLOC DE L'IMAGE EN FONCTION DE SES CARACTERISTIQUES. LES SIMULATIONS SUR UNE SEQUENCE ANIMEE DONNENT DES PERFORMANCES PROCHES DE CELLES OBTENUES PAR UN ALGORITHME NON NEURONAL DE COMPRESSION PAR TRANSFORMEE EN COSINUS DISCRETS. LES SEGMENTATIONS DELIVREES SONT PROCHES DES OBJETS FIGURANT SUR L'IMAGE. CET ALGORITHME PEUT ETRE IMPLANTE EN TEMPS REEL SUR DES CIRCUITS NEUROMIMETIQUES ELABORES AU LABORATOIRE D'ELECTRONIQUE PHILIPS

Book R  seaux de neurones et auto r  f  rence

Download or read book R seaux de neurones et auto r f rence written by Thomas Voegtlin and published by . This book was released on 2002 with total page pages. Available in PDF, EPUB and Kindle. Book excerpt: The purpose of this thesis is to present a class of unsupervised learning algorithms for recurrent networks. In the first part (chapters 1 to 4), I propose a new approach to this question, based on a simple principle: self-reference. A self-referent algorithm is not based on the minimization of an objective criterion, such as an error function, but on a subjective function, that depends on what the network has previously learned. An example of a supervised recurrent network where learning is self-referent is the Simple Recurrent Network (SRN) by Elman (1990). In the SRN, self-reference is applied to the supervised error back-propagation algorithm. In this aspect, the SRN differs from other generalizations of back-propagation to recurrent networks, that use an objective criterion, such as Back-Propagation Through Time, or Real-Time Recurrent Learning. In this thesis, I show that self-reference can be combined with several well-known unsupervised learning methods: the Self-Organizing Map (SOM), Principal Components Analysis (PCA), and Independent Components Analysis (ICA). These techniques are classically used to represent static data. Self-reference allows one to generalize these techniques to time series, and to define unsupervised learning algorithms for recurrent networks.

Book Etude des r  seaux de neurones en mode non supervis

Download or read book Etude des r seaux de neurones en mode non supervis written by Hao Yin and published by . This book was released on 1992 with total page 153 pages. Available in PDF, EPUB and Kindle. Book excerpt: Après avoir étudié différents modèles de RNA et les règles d'apprentissage en mode non supervisé, il est proposé une nouvelle règle, l'apprentissage compétitif avec un pas inverse, pour résoudre les problèmes provoqués par les données aberrantes. Il est proposé également une modification du réseau ART1 pour résoudre le problème du mauvais codage d'un prototype sur-ensemble. Après avoir constaté qu'un réseau en deux couches comme ART2 ne peut classifier correctement que les données de structure simple, nous avons développé un réseau NéoART, qui est basé sur une variante du réseau ART2 et combine l'apprentissage non-supervisé et supervisé pour améliorer les performances dans le cas où un ensemble d'apprentissage exhaustif n'est pas disponible, et une méthode de classification non supervisée, l'arbre de relation maximale, pour dépasser la limite intrinsèque des réseaux en deux couches

Book Les r  seaux de neurones

Download or read book Les r seaux de neurones written by Pierre Borne and published by Editions OPHRYS. This book was released on 2007 with total page 166 pages. Available in PDF, EPUB and Kindle. Book excerpt:

Book APPLICATIONS DES RESEAUX DE NEURONES ARTIFICIELS EN CHIMIE

Download or read book APPLICATIONS DES RESEAUX DE NEURONES ARTIFICIELS EN CHIMIE written by ERIC.. FEUILLEAUBOIS and published by . This book was released on 1994 with total page 195 pages. Available in PDF, EPUB and Kindle. Book excerpt: NOUS PRESENTONS UNE IMPLEMENTATION ORIGINALE DE LA RECHERCHE DES MOTIFS STRUCTURAUX 3D SUR LES RESEAUX DE TYPES. POUR DETERMINER SI UN MOTIF 3D EST PRESENT DANS UNE STRUCTURE MOLECULAIRE IL FAUT TROUVER LA CORRESPONDANCE ENTRE LES ATOMES DU MOTIF ET LES ATOMES DE LA STRUCTURE QUI MINIMISE LE CRITERE DE DISSIMILARITE. C'EST UN PROBLEME D'OPTIMISATION COMBINATOIRE COMPLEXE APPARTENANT A LA CLASSE DES PROBLEMES NP-COMPLETS. NOUS PROPOSONS D'UTILISER DES HEURISTIQUES NEURONALES. POUR IMPLEMENTER CE PROBLEME SUR LES RESEAUX DE NEURONES DE TYPE HOPFIELD, NOUS CONSTRUISONS UNE FONCTION OBJECTIF QUI PENALISE LES ETATS DU RESEAU QUI NE SONT PAS ASSOCIES AVEC UNE MATRICE DE CORRESPONDANCE OU CONDUISANT A UNE FORTE VALEUR DU CRITERE DE DISSIMILARITE. LES POIDS DU RESEAU SONT ALORS CALCULES PAR L'IDENTIFICATION DE CETTE FONCTION OBJECTIF AVEC LA FONCTION D'ENERGIE DU RESEAU. AINSI QUAND LE RESEAU MINIMISE SON ENERGIE INTERNE, IL MINIMISE LA FONCTION OBJECTIF DU PROBLEME ET ABOUTIT A DES ETATS ASSOCIES A UNE SOLUTION DU PROBLEME DE RECONNAISSANCE. L'UTILISATION DES RESEAUX DE NEURONES DE TYPE HOPFIELD PRESENTE DEUX INTERETS MAJEURS: LA POSSIBILITE DE RECONNAITRE PARTIELLEMENT UN MOTIF, FONCTIONNALITE QUE L'ON NE TROUVE PAS DANS LES AUTRES ALGORITHMES DE RECHERCHE, LA PERSPECTIVE D'UNE IMPLEMENTATION MASSIVEMENT PARALLELE DU A LA NATURE INTRINSEQUEMENT PARALLELE DU FONCTIONNEMENT DES RESEAUX DE NEURONES ARTIFICIELS. LES BANQUES DE DONNEES STRUCTURALES NE STOCKENT GENERALEMENT QU'UNE CONFORMATION DE CHAQUE STRUCTURE, QUI N'EST PAS FORCEMENT CELLE CONTENANT LE MOTIF 3D RECHERCHE. SI L'ON RECONNAIT PARTIELLEMENT LE MOTIF DANS CETTE CONFORMATION DE LA STRUCTURE, ON PEUT PAR LA SUITE FAIRE UNE RECHERCHE CONFORMATIONNELLE POUR VERIFIER SI DANS UNE AUTRE CONFORMATION, LE MOTIF SERAIT PRESENT. IL EST A NOTER QUE LA PARALLELISATION D'ALGORITHME SEQUENTIEL EST GENERALEMENT TRES PROBLEMATIQUE. DISPOSER D'UN ALGORITHME PARALLELE PERMETTANT D'EFFECTUER LA MEME TACHE EST UN ATOUT CERTAIN QUAND ON VEUT UTILISER UN ORDINATEUR

Book M  thodes neuronales dans l analyse de survie

Download or read book M thodes neuronales dans l analyse de survie written by Quoc Anh Trinh and published by . This book was released on 2007 with total page 177 pages. Available in PDF, EPUB and Kindle. Book excerpt: Les réseaux de neurones artificiels sont un outil statistique utile à la prédiction de la survie en médecine clinique qui connaît un certain succès comme en témoigne le numéro spécial de la revue Cancer du 15 avril 2001.Ce travail propose une généralisation des modèles classiques de survie où les variables prédictives linéaires sont remplacées par des variables prédictives non linéaires modélisées par des perceptrons multicouches non récurrents. Cette modélisation dont l'objectif est de prédire un temps de survie prend en compte les effets dépendant du temps et les interactions entre variables. Le modèle des réseaux de neurones permet de s'affranchir des restrictions du modèle de Cox car il peut estimer les effets dépendant du temps ainsi que des interactions éventuelles. En outre, la présence de données censurées, la particularité de l'analyse de survie, donne envie de prendre en compte toutes les connaissances disponibles sur les données pour l'apprentissage des modèles neuronaux afin d'avoir un meilleur modèle prédictif. L'approche bayésienne est donc une approche appropriée car elle permet une meilleure généralisation des réseaux pendant la phase d' apprentissage en évitant le sur-ajustement qui peut se produire au cours de l'apprentissage avec l'algorithme de rétro-propagation. De plus, un apprentissage bayésien hiérarchise des réseaux de neurones convient parfaitement à une sélection de variables pertinentes qui permet une meilleure explication des effets dépendant du temps et des interactions entre variables. La performance des approches à base d'apprentissage de réseaux de neurones dans l'analyse de survie dépend notamment de la taille de l'ensemble des données d'apprentissage et du taux de censure de données. En particulier, pour les données de génomes pour lesquelles les variables sont beaucoup plus nombreuses que les observations, une sélection des variables importantes peut être effectuée par des réseaux de neurones après une sélection automatique des variables pertinentes pour diminuer la dimension de l'espace des données. Une estimation plus précise du temps de survie permet une meilleure connaissance physiopathologique de la maladie et une meilleure stratégie thérapeutique. Celle-ci est obtenue grâce à la méthode de ré-échantillonnage de données et à l'adaptativité du modèle neuronal. La construction d'un arbre de décision sur des estimations du réseau permet une meilleure définition des groupes pronostiques de survie

Book   tude sur la r  alisation des r  seaux de neurones artificiels

Download or read book tude sur la r alisation des r seaux de neurones artificiels written by Jean-François Crespo and published by . This book was released on 1994 with total page 330 pages. Available in PDF, EPUB and Kindle. Book excerpt:

Book Apprentissage des r  seaux de neurones profonds et applications en traitement automatique de la langue naturelle

Download or read book Apprentissage des r seaux de neurones profonds et applications en traitement automatique de la langue naturelle written by Xavier Glorot and published by . This book was released on 2014 with total page pages. Available in PDF, EPUB and Kindle. Book excerpt: En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.