Newly Launched - AI Presentation Maker

close
category-banner

Essentials Of Artificial Neural Networks Training Ppt

Rating:
80%

You must be logged in to download this presentation.

Favourites Favourites
Impress your
audience
100%
Editable
Save Hours
of Time

Caractéristiques de ces diapositives de présentation PowerPoint :

Présentation de l'essentiel des réseaux de neurones artificiels. Ces diapositives sont réalisées à 100 % dans PowerPoint et sont compatibles avec tous les types d'écrans et de moniteurs. Ils prennent également en charge Google Slides. Support client Premium disponible. Convient pour une utilisation par les gestionnaires, les employés et les organisations. Ces diapositives sont facilement personnalisables. Vous pouvez modifier la couleur, le texte, l'icône et la taille de la police en fonction de vos besoins.

People who downloaded this PowerPoint presentation also viewed the following :

Contenu de cette présentation Powerpoint

Diapositive 1

Cette diapositive représente une diapositive de séparation pour la session d'introduction aux fondamentaux de la vente.

Diapositive 2

Cette diapositive illustre les couches d'un réseau de neurones. Il existe trois couches appelées couche d'entrée, couche cachée et couche de sortie.

Notes de l'instructeur :

  • Couche d'entrée : la couche d'entrée vient en premier. Cette couche acceptera les données, qui les enverront ensuite au reste du réseau
  • Couche cachée : La couche cachée est la deuxième des trois couches. Les couches cachées d'un réseau neuronal peuvent être au nombre d'une ou plusieurs. Les couches cachées sont celles qui sont responsables de la haute performance et de la complexité des réseaux de neurones. Ils peuvent effectuer plusieurs tâches à la fois, telles que la transformation de données, le développement automatique de fonctionnalités, etc.
  • Couche de sortie : la couche de sortie est la couche finale. Le résultat ou la sortie du problème est stocké dans la couche de sortie. La couche d'entrée reçoit les photos brutes et la couche de sortie fournit la version finale du résultat

Diapositive 3

Cette diapositive illustre les neurones artificiels présents dans les couches d'un réseau de neurones artificiels (ANN). Il établit une comparaison entre les neurones biologiques présents dans le cerveau humain avec un neurone artificiel dans un ANN.

Notes de l'instructeur : Une couche est composée d'unités microscopiques appelées neurones. Un neurone dans un réseau de neurones peut être mieux compris à l'aide de neurones biologiques. Un neurone artificiel est analogue à un neurone biologique. Il prend des informations d'autres neurones, les traite, puis produit une sortie. Ici, X1 et X2 sont les entrées des neurones artificiels, f(X) est le traitement effectué sur les entrées et y est la sortie du neurone.

Diapositive 4

Cette diapositive donne une introduction à la fonction d'activation dans un réseau de neurones et discute de son importance. La fonction d'activation est utilisée pour calculer un total pondéré, puis y ajouter un biais pour déterminer si un neurone doit être activé ou non.

Diapositive 5

Cette diapositive illustre la fonction de seuil qui est un type de fonction d'activation dans un réseau de neurones. Cette fonction n'a que deux sorties possibles : 0 ou 1. Elles sont généralement utilisées lorsque seuls deux types de données doivent être classés.

Diapositive 6

Cette diapositive illustre la fonction sigmoïde qui est un type de fonction d'activation. La plage de valeurs de la fonction sigmoïde est de 0 à 1. Cette fonction est principalement employée dans la couche de sortie car c'est à partir de ce nœud que nous obtenons la valeur anticipée

Diapositive 7

Cette diapositive illustre la fonction Rectifier ou ReLU qui est un type de fonction d'activation. Relu (unités linéaires rectifiées) est principalement utilisé dans les couches cachées d'un réseau de neurones en raison de sa nature rectifiée. Relu est une fonction semi-rectifiée commençant par le bas. Il se déplace continuellement jusqu'à un certain point, puis augmente jusqu'à son maximum après une certaine période

Diapositive 8

Cette diapositive illustre la fonction de tangente hyperbolique qui est un type de fonction d'activation. La fonction Tanh est une version améliorée de la fonction sigmoïde qui comprend une plage de valeurs de -1 à 1. Tanh a une forme de courbe sigmoïde, bien qu'avec une plage de valeurs distincte. L'avantage est que, selon leurs projections, les résultats négatifs et positifs sont tracés séparément

Diapositive 9

Cette diapositive décrit le fonctionnement d'un réseau de neurones artificiels. Les réseaux de neurones artificiels peuvent être considérés comme des graphes orientés pondérés dans lesquels les neurones sont comparés à des nœuds et les connexions entre les neurones sont comparées à des arêtes pondérées.

Notes de l'instructeur : L'élément de traitement d'un neurone reçoit de nombreux signaux, qui sont parfois modifiés au niveau de la synapse réceptrice avant d'être additionnés au niveau de l'élément de traitement. S'il atteint le seuil, il devient une entrée pour d'autres neurones et le cycle recommence

Diapositive 10

Cette diapositive présente le concept de descente de gradient. Gradient Descent est un processus d'optimisation utilisé dans les algorithmes d'apprentissage automatique pour minimiser la fonction de coût (l'erreur entre la sortie réelle et prévue). Il est principalement utilisé pour mettre à jour les paramètres du modèle d'apprentissage.

Diapositive 11

Cette diapositive répertorie les types de descente de gradient. Ceux-ci incluent la descente de gradient par lots, la descente de gradient stochastique et la descente de gradient par mini-lots.

Notes de l'instructeur :

  • Descente de gradient par lots : la descente de gradient par lots ajoute les erreurs pour chaque point d'un ensemble d'apprentissage avant de mettre à jour le modèle une fois que toutes les instances d'apprentissage ont été examinées. Ce processus est connu sous le nom d'Epoque d'Entraînement. La descente de gradient par lots donne généralement un gradient d'erreur et une convergence stables, bien que choisir le minimum local plutôt que le minimum global ne soit pas toujours la meilleure solution
  • Descente de gradient stochastique : la descente de gradient stochastique crée une époque d'apprentissage pour chaque exemple de l'ensemble de données et modifie les paramètres de chaque exemple d'apprentissage, de manière séquentielle. Ces mises à jour fréquentes peuvent fournir plus de détails et de rapidité, mais elles peuvent également produire des gradients bruyants, ce qui peut aider à dépasser le minimum local et à localiser le global.
  • Descente de gradient en mini-lot : La descente de gradient en mini-lot combine les principes de la descente de gradient par lots avec la descente de gradient stochastique. Il divise l'ensemble de données d'entraînement en groupes distincts et les met à jour séparément. Cette méthode équilibre l'efficacité de calcul de la descente de gradient par lots et la vitesse de descente de gradient stochastique

Diapositive 12

Cette diapositive décrit le concept de rétropropagation ainsi que ses deux types qui sont la rétropropagation statique et la rétropropagation récurrente. La rétropropagation est utile pour calculer le gradient d'une fonction de perte par rapport à tous les poids du réseau.

Notes de l'instructeur :

  • Rétropropagation statique : le mappage de l'entrée statique génère une sortie statique dans ce type de rétropropagation. Il est utilisé pour relever des défis tels que la reconnaissance optique de caractères qui nécessite une classification statique
  • Rétropropagation récurrente : la propagation récurrente est dirigée vers l'avant ou conduite jusqu'à ce qu'une valeur définie spécifique ou une valeur seuil soit atteinte. L'erreur est évaluée et propagée vers l'arrière après avoir atteint une valeur particulière

Diapositive 13

Cette diapositive répertorie les avantages de la rétropropagation. Ce sont qu'il est simple et direct, adaptable et efficace, et qu'il ne nécessite aucune caractéristique unique.

Diapositive 14

Cette diapositive répertorie les inconvénients de la rétropropagation. Celles-ci sont que l'entrée de données détermine la fonction de l'ensemble du réseau sur un problème particulier, les réseaux sont sensibles aux données bruyantes et une technique basée sur une matrice est utilisée.

Diapositive 15

Cette diapositive énumère les avantages des réseaux de neurones artificiels. Ces avantages incluent le fait qu'ANN stocke des informations sur l'ensemble du réseau, sa capacité à travailler avec des connaissances insuffisantes, sa tolérance aux pannes, une mémoire distribuée et une capacité de traitement parallèle.

Notes de l'instructeur :

  • Stockage des informations sur l'ensemble du réseau : Les informations sont enregistrées sur l'ensemble du réseau, et non dans une base de données, comme le fait la programmation traditionnelle. Le réseau continue de fonctionner malgré la perte de quelques éléments d'information à un endroit
  • Capacité à travailler avec des connaissances insuffisantes : après la formation du réseau de neurones artificiels, les données peuvent produire des résultats même avec des informations limitées ou insuffisantes
  • Tolérance aux pannes : la sortie d'un ANN n'est pas affectée par la corruption d'une ou plusieurs de ses cellules. Les réseaux deviennent tolérants aux pannes grâce à cette caractéristique
  • Mémoire distribuée : il est nécessaire de déterminer les exemples et de former le réseau en fonction de la sortie prévue. La progression du réseau est proportionnelle aux instances choisies. Si l'événement ne peut pas être affiché sur le réseau sous tous ses aspects, il peut générer des résultats inexacts
  • Capacité de traitement parallèle : les réseaux de neurones artificiels ont la puissance de calcul nécessaire pour effectuer plusieurs tâches à la fois
  • Corruption progressive : Le réseau n'est pas immédiatement corrodé car ses performances se dégradent et ralentissent avec le temps.

Diapositive 16

Cette diapositive répertorie les inconvénients des réseaux de neurones artificiels. Ces inconvénients incluent la dépendance matérielle des ANN, le fonctionnement inexpliqué du réseau, la difficulté de montrer le problème au réseau et l'absence de clarté sur la structure de réseau appropriée qui fonctionne.

Notes de l'instructeur :

  • Dépendance matérielle : la structure des réseaux de neurones artificiels nécessite une puissance de traitement parallèle. En conséquence, la mise en œuvre dépend de l'équipement
  • Fonctionnement inexpliqué du réseau : Lorsque ANN fournit une solution de sondage, il n'explique pas pourquoi ni comment elle a été choisie. Cela diminue la confiance dans le réseau
  • Difficulté à montrer le problème au réseau : les RNA sont capables de travailler avec des données numériques. Avant d'introduire ANN dans un problème, il doit être transformé en valeurs numériques. Le mécanisme d'affichage choisi ici impactera directement les performances du réseau, en fonction du niveau de compétence de l'utilisateur
  • Aucune clarté sur la structure de réseau appropriée qui fonctionne : aucune règle explicite ne détermine la structure des réseaux de neurones artificiels. L'expérience et les essais et erreurs sont utilisés pour créer la structure de réseau idéale

Ratings and Reviews

80% of 100
Write a review
Most Relevant Reviews

2 Item(s)

per page:
  1. 80%

    by Dennis Stone

    I was able to find the right choice of PPT template for my thesis with SlideTeam. Thank you for existing.
  2. 80%

    by Jacob Wilson

    The website is jam-packed with fantastic and creative templates for a variety of business concepts. They are easy to use and customize.

2 Item(s)

per page: