Newly Launched - AI Presentation Maker

close
category-banner

Optimierungsfunktion im Deep Learning Training Ppt

Rating:
90%

You must be logged in to download this presentation.

Favourites Favourites
Impress your
audience
100%
Editable
Save Hours
of Time

Merkmale dieser PowerPoint-Präsentationsfolien :

Präsentation der Optimierungsfunktion im Deep Learning. Diese Folien werden zu 100 Prozent in PowerPoint erstellt und sind mit allen Bildschirmtypen und Monitoren kompatibel. Sie unterstützen auch Google Slides. Premium-Kundensupport verfügbar. Geeignet für den Einsatz durch Manager, Mitarbeiter und Organisationen. Diese Folien sind leicht anpassbar. Sie können Farbe, Text, Symbol und Schriftgröße entsprechend Ihren Anforderungen bearbeiten.

People who downloaded this PowerPoint presentation also viewed the following :

Inhalt dieser Powerpoint-Präsentation

Folie 1

Auf dieser Folie werden Optimierungsfunktionen als Teil von Deep Learning aufgeführt. Dazu gehören stochastischer Gradientenabstieg, Adagrad, Adadelta und Adam (adaptive Momentschätzung).

Folie 2

Auf dieser Folie heißt es, dass die Konvergenzstabilität des stochastischen Gradientenabstiegs Anlass zur Sorge gibt und dass hier das Problem des lokalen Minimums auftaucht. Da die Verlustfunktionen stark variieren, ist die Berechnung des globalen Minimums zeitaufwändig.

Folie 3

Auf dieser Folie heißt es, dass die Lernrate bei dieser Adagrad-Funktion nicht manuell angepasst werden muss. Der grundlegende Nachteil besteht jedoch darin, dass die Lernrate immer weiter sinkt. Wenn die Lernrate bei jeder Iteration zu stark abnimmt, erfasst das Modell daher keine weiteren Informationen.

Folie 4

Auf dieser Folie heißt es, dass in Adadelta die abnehmende Lernrate gelöst, für jeden Parameter unterschiedliche Lernraten berechnet und der Impuls bestimmt wird. Der Hauptunterschied besteht darin, dass dadurch nicht die einzelnen Impulsniveaus für jeden Parameter gespeichert werden; und Adams Optimierungsfunktion behebt dieses Problem.

Folie 5

Auf dieser Folie wird beschrieben, dass die Konvergenzraten im Adam-Modell im Vergleich zu anderen adaptiven Modellen höher sind. Es wird für adaptive Lernraten für jeden Parameter gesorgt. Da für jeden Parameter der Impuls berücksichtigt wird, wird dies üblicherweise in allen Deep-Learning-Modellen verwendet. Adams Modell ist hocheffizient und schnell.

 

Ratings and Reviews

90% of 100
Write a review
Most Relevant Reviews

2 Item(s)

per page:
  1. 100%

    by Murphy Green

    Very unique, user-friendly presentation interface.
  2. 80%

    by Dong Santos

    The design is very attractive, informative, and eye-catching, with bold colors that stand out against all the basic presentation templates. 

2 Item(s)

per page: