Essentials Of Artificial Neural Networks Training Ppt
Ces diapositives traitent du concept de réseaux de neurones artificiels. Il y a trois couches dans le réseau neuronal la couche d'entrée, la couche cachée et la couche de sortie. La fonction d'activation est utilisée pour calculer un total pondéré, puis y ajouter un biais pour déterminer si un neurone doit être activé ou non. Il décrit également le fonctionnement d'un réseau de neurones. Cela explique également la descente de gradient et la rétropropagation.
You must be logged in to download this presentation.
audience
Editable
of Time
Caractéristiques de ces diapositives de présentation PowerPoint :
People who downloaded this PowerPoint presentation also viewed the following :
Contenu de cette présentation Powerpoint
Diapositive 1
Cette diapositive représente une diapositive de séparation pour la session d'introduction aux fondamentaux de la vente.
Diapositive 2
Cette diapositive illustre les couches d'un réseau de neurones. Il existe trois couches appelées couche d'entrée, couche cachée et couche de sortie.
Notes de l'instructeur :
- Couche d'entrée : la couche d'entrée vient en premier. Cette couche acceptera les données, qui les enverront ensuite au reste du réseau
- Couche cachée : La couche cachée est la deuxième des trois couches. Les couches cachées d'un réseau neuronal peuvent être au nombre d'une ou plusieurs. Les couches cachées sont celles qui sont responsables de la haute performance et de la complexité des réseaux de neurones. Ils peuvent effectuer plusieurs tâches à la fois, telles que la transformation de données, le développement automatique de fonctionnalités, etc.
- Couche de sortie : la couche de sortie est la couche finale. Le résultat ou la sortie du problème est stocké dans la couche de sortie. La couche d'entrée reçoit les photos brutes et la couche de sortie fournit la version finale du résultat
Diapositive 3
Cette diapositive illustre les neurones artificiels présents dans les couches d'un réseau de neurones artificiels (ANN). Il établit une comparaison entre les neurones biologiques présents dans le cerveau humain avec un neurone artificiel dans un ANN.
Notes de l'instructeur : Une couche est composée d'unités microscopiques appelées neurones. Un neurone dans un réseau de neurones peut être mieux compris à l'aide de neurones biologiques. Un neurone artificiel est analogue à un neurone biologique. Il prend des informations d'autres neurones, les traite, puis produit une sortie. Ici, X1 et X2 sont les entrées des neurones artificiels, f(X) est le traitement effectué sur les entrées et y est la sortie du neurone.
Diapositive 4
Cette diapositive donne une introduction à la fonction d'activation dans un réseau de neurones et discute de son importance. La fonction d'activation est utilisée pour calculer un total pondéré, puis y ajouter un biais pour déterminer si un neurone doit être activé ou non.
Diapositive 5
Cette diapositive illustre la fonction de seuil qui est un type de fonction d'activation dans un réseau de neurones. Cette fonction n'a que deux sorties possibles : 0 ou 1. Elles sont généralement utilisées lorsque seuls deux types de données doivent être classés.
Diapositive 6
Cette diapositive illustre la fonction sigmoïde qui est un type de fonction d'activation. La plage de valeurs de la fonction sigmoïde est de 0 à 1. Cette fonction est principalement employée dans la couche de sortie car c'est à partir de ce nœud que nous obtenons la valeur anticipée
Diapositive 7
Cette diapositive illustre la fonction Rectifier ou ReLU qui est un type de fonction d'activation. Relu (unités linéaires rectifiées) est principalement utilisé dans les couches cachées d'un réseau de neurones en raison de sa nature rectifiée. Relu est une fonction semi-rectifiée commençant par le bas. Il se déplace continuellement jusqu'à un certain point, puis augmente jusqu'à son maximum après une certaine période
Diapositive 8
Cette diapositive illustre la fonction de tangente hyperbolique qui est un type de fonction d'activation. La fonction Tanh est une version améliorée de la fonction sigmoïde qui comprend une plage de valeurs de -1 à 1. Tanh a une forme de courbe sigmoïde, bien qu'avec une plage de valeurs distincte. L'avantage est que, selon leurs projections, les résultats négatifs et positifs sont tracés séparément
Diapositive 9
Cette diapositive décrit le fonctionnement d'un réseau de neurones artificiels. Les réseaux de neurones artificiels peuvent être considérés comme des graphes orientés pondérés dans lesquels les neurones sont comparés à des nœuds et les connexions entre les neurones sont comparées à des arêtes pondérées.
Notes de l'instructeur : L'élément de traitement d'un neurone reçoit de nombreux signaux, qui sont parfois modifiés au niveau de la synapse réceptrice avant d'être additionnés au niveau de l'élément de traitement. S'il atteint le seuil, il devient une entrée pour d'autres neurones et le cycle recommence
Diapositive 10
Cette diapositive présente le concept de descente de gradient. Gradient Descent est un processus d'optimisation utilisé dans les algorithmes d'apprentissage automatique pour minimiser la fonction de coût (l'erreur entre la sortie réelle et prévue). Il est principalement utilisé pour mettre à jour les paramètres du modèle d'apprentissage.
Diapositive 11
Cette diapositive répertorie les types de descente de gradient. Ceux-ci incluent la descente de gradient par lots, la descente de gradient stochastique et la descente de gradient par mini-lots.
Notes de l'instructeur :
- Descente de gradient par lots : la descente de gradient par lots ajoute les erreurs pour chaque point d'un ensemble d'apprentissage avant de mettre à jour le modèle une fois que toutes les instances d'apprentissage ont été examinées. Ce processus est connu sous le nom d'Epoque d'Entraînement. La descente de gradient par lots donne généralement un gradient d'erreur et une convergence stables, bien que choisir le minimum local plutôt que le minimum global ne soit pas toujours la meilleure solution
- Descente de gradient stochastique : la descente de gradient stochastique crée une époque d'apprentissage pour chaque exemple de l'ensemble de données et modifie les paramètres de chaque exemple d'apprentissage, de manière séquentielle. Ces mises à jour fréquentes peuvent fournir plus de détails et de rapidité, mais elles peuvent également produire des gradients bruyants, ce qui peut aider à dépasser le minimum local et à localiser le global.
- Descente de gradient en mini-lot : La descente de gradient en mini-lot combine les principes de la descente de gradient par lots avec la descente de gradient stochastique. Il divise l'ensemble de données d'entraînement en groupes distincts et les met à jour séparément. Cette méthode équilibre l'efficacité de calcul de la descente de gradient par lots et la vitesse de descente de gradient stochastique
Diapositive 12
Cette diapositive décrit le concept de rétropropagation ainsi que ses deux types qui sont la rétropropagation statique et la rétropropagation récurrente. La rétropropagation est utile pour calculer le gradient d'une fonction de perte par rapport à tous les poids du réseau.
Notes de l'instructeur :
- Rétropropagation statique : le mappage de l'entrée statique génère une sortie statique dans ce type de rétropropagation. Il est utilisé pour relever des défis tels que la reconnaissance optique de caractères qui nécessite une classification statique
- Rétropropagation récurrente : la propagation récurrente est dirigée vers l'avant ou conduite jusqu'à ce qu'une valeur définie spécifique ou une valeur seuil soit atteinte. L'erreur est évaluée et propagée vers l'arrière après avoir atteint une valeur particulière
Diapositive 13
Cette diapositive répertorie les avantages de la rétropropagation. Ce sont qu'il est simple et direct, adaptable et efficace, et qu'il ne nécessite aucune caractéristique unique.
Diapositive 14
Cette diapositive répertorie les inconvénients de la rétropropagation. Celles-ci sont que l'entrée de données détermine la fonction de l'ensemble du réseau sur un problème particulier, les réseaux sont sensibles aux données bruyantes et une technique basée sur une matrice est utilisée.
Diapositive 15
Cette diapositive énumère les avantages des réseaux de neurones artificiels. Ces avantages incluent le fait qu'ANN stocke des informations sur l'ensemble du réseau, sa capacité à travailler avec des connaissances insuffisantes, sa tolérance aux pannes, une mémoire distribuée et une capacité de traitement parallèle.
Notes de l'instructeur :
- Stockage des informations sur l'ensemble du réseau : Les informations sont enregistrées sur l'ensemble du réseau, et non dans une base de données, comme le fait la programmation traditionnelle. Le réseau continue de fonctionner malgré la perte de quelques éléments d'information à un endroit
- Capacité à travailler avec des connaissances insuffisantes : après la formation du réseau de neurones artificiels, les données peuvent produire des résultats même avec des informations limitées ou insuffisantes
- Tolérance aux pannes : la sortie d'un ANN n'est pas affectée par la corruption d'une ou plusieurs de ses cellules. Les réseaux deviennent tolérants aux pannes grâce à cette caractéristique
- Mémoire distribuée : il est nécessaire de déterminer les exemples et de former le réseau en fonction de la sortie prévue. La progression du réseau est proportionnelle aux instances choisies. Si l'événement ne peut pas être affiché sur le réseau sous tous ses aspects, il peut générer des résultats inexacts
- Capacité de traitement parallèle : les réseaux de neurones artificiels ont la puissance de calcul nécessaire pour effectuer plusieurs tâches à la fois
- Corruption progressive : Le réseau n'est pas immédiatement corrodé car ses performances se dégradent et ralentissent avec le temps.
Diapositive 16
Cette diapositive répertorie les inconvénients des réseaux de neurones artificiels. Ces inconvénients incluent la dépendance matérielle des ANN, le fonctionnement inexpliqué du réseau, la difficulté de montrer le problème au réseau et l'absence de clarté sur la structure de réseau appropriée qui fonctionne.
Notes de l'instructeur :
- Dépendance matérielle : la structure des réseaux de neurones artificiels nécessite une puissance de traitement parallèle. En conséquence, la mise en œuvre dépend de l'équipement
- Fonctionnement inexpliqué du réseau : Lorsque ANN fournit une solution de sondage, il n'explique pas pourquoi ni comment elle a été choisie. Cela diminue la confiance dans le réseau
- Difficulté à montrer le problème au réseau : les RNA sont capables de travailler avec des données numériques. Avant d'introduire ANN dans un problème, il doit être transformé en valeurs numériques. Le mécanisme d'affichage choisi ici impactera directement les performances du réseau, en fonction du niveau de compétence de l'utilisateur
- Aucune clarté sur la structure de réseau appropriée qui fonctionne : aucune règle explicite ne détermine la structure des réseaux de neurones artificiels. L'expérience et les essais et erreurs sont utilisés pour créer la structure de réseau idéale
Essentials Of Artificial Neural Networks Training Ppt avec les 32 diapositives :
Utilisez notre Ppt de formation Essentials Of Artificial Neural Networks pour vous aider efficacement à économiser votre temps précieux. Ils sont prêts à l'emploi pour s'adapter à n'importe quelle structure de présentation.
-
I was able to find the right choice of PPT template for my thesis with SlideTeam. Thank you for existing.
-
The website is jam-packed with fantastic and creative templates for a variety of business concepts. They are easy to use and customize.