Deep Learning Mastering The Fundamentals Training Ppt
Dieses Schulungsmodul zum Mastering the Fundamentals of Deep Learning vermittelt fundiertes Wissen über die Bedeutung und Funktionsweise von Deep Learning. Es vergleicht auch Deep Learning und maschinelles Lernen und deckt umfassend Deep-Learning-Funktionen ab: Sigmoid-Aktivierungsfunktion, hyperbolische Tangensfunktion, ReLu, Verlustfunktionen und Optimierungsfunktionen. Es befasst sich mit dem Prozess des Deep Learning und beleuchtet seine Vorteile, Einschränkungen und Anwendungen. Es enthält auch wichtige Erkenntnisse und Diskussionsfragen zum Thema, um die Schulungssitzung interaktiver zu gestalten. Das Deck enthält PPT-Folien zu den Themen „Über uns“, „Vision“, „Mission“, „Ziel“, „30-60-90-Tage-Plan“, „Zeitleiste“, „Roadmap“, „Schulungsabschlusszertifikat“ und „Energizer-Aktivitäten“. Es enthält außerdem ein Kundenvorschlags- und Bewertungsformular zur Schulungsbewertung.
You must be logged in to download this presentation.
audience
Editable
of Time
Merkmale dieser PowerPoint-Präsentationsfolien:
Präsentation des Schulungsdecks zum Thema „Deep Learning – Beherrschung der Grundlagen“. Dieses Deck besteht aus 104 Folien. Jede Folie wurde von unseren PowerPoint-Experten gut ausgearbeitet und gestaltet. Diese PPT-Präsentation wurde von Experten gründlich recherchiert und jede Folie enthält entsprechende Inhalte. Alle Folien sind anpassbar. Sie können den Inhalt je nach Bedarf hinzufügen oder löschen. Darüber hinaus können Sie auch die erforderlichen Änderungen in den Diagrammen und Grafiken vornehmen. Laden Sie diese professionell gestaltete Geschäftspräsentation herunter, fügen Sie Ihre Inhalte hinzu und präsentieren Sie sie selbstbewusst.
People who downloaded this PowerPoint presentation also viewed the following :
Inhalt dieser Powerpoint-Präsentation
Folie 4
Auf dieser Folie heißt es, dass Deep Learning, eine Teilmenge des maschinellen Lernens, aus drei oder mehr neuronalen Netzwerkschichten besteht. Diese neuronalen Netze zielen darauf ab, die Aktivität des menschlichen Gehirns zu imitieren, indem sie ihm ermöglichen, aus enormen Datenmengen zu „lernen“, obwohl diese Netze bei weitem nicht in der Lage sind, diese zu reproduzieren. Während ein einschichtiges neuronales Netzwerk ungefähre Vorhersagen liefern kann, können zusätzliche verborgene Schichten dabei helfen, es zu verbessern und auf Genauigkeit abzustimmen.
Hinweise für Kursleiter:
Die meisten Anwendungen und Dienste der künstlichen Intelligenz (KI) basieren auf Deep Learning, um die Automatisierung zu verbessern, indem analytische und physische Aufgaben ohne Menschen ausgeführt werden. Deep Learning wird sowohl in gängigen Produkten und Diensten (wie digitalen Assistenten, sprachgesteuerten TV-Fernbedienungen und Erkennung von Kreditkartenbetrug) als auch in neuen Technologien (wie künstliche Intelligenz und selbstfahrende Autos) eingesetzt.
Folie 5
Diese Folie gibt einen Überblick über Deep Learning, das das Rückgrat selbstfahrender Autos, lebensechter Roboter und sogar überzeugender Chatbots ist. Es hilft Maschinen dabei, ihre Fähigkeit zu verbessern, Muster, Objekte und sogar Hindernisse auf ihrem Weg zu erkennen.
Folie 6
Auf dieser Folie heißt es, dass künstliche neuronale Netze oft als Deep-Learning-Neuronale Netze bezeichnet werden. Sie verwenden eine Kombination aus Dateneingaben, Gewichtungen und Vorurteilen, um das menschliche Gehirn zu emulieren. Diese Teile arbeiten zusammen, um Datenelemente genau zu erkennen, zu klassifizieren und zu charakterisieren.
Folie 7
Auf dieser Folie wird aufgeführt, dass sich maschinelles Lernen darauf konzentriert, Computern die Durchführung von Aktivitäten ohne explizite Programmierung zu ermöglichen. Deep Learning ist ein Zweig des maschinellen Lernens, der auf künstlichen neuronalen Netzen basiert.
Folie 8
Auf dieser Folie werden mehrere Arten von Deep-Learning-Funktionen aufgeführt: Sigmoid-Aktivierungsfunktion, tan-h (Hyperbolic Tangent Function), ReLU (Rectified Linear Units), Verlustfunktionen und Optimiererfunktionen.
Folie 9
Diese Folie gibt einen Überblick über die Sigmoid-Aktivierungsfunktion mit der Formel f(x) = 1/(1+exp (-x)). Die Ausgabe reicht von 0 bis 1. Sie ist nicht auf Null zentriert. Die Funktion hat ein Problem mit dem verschwindenden Gradienten. Bei der Rückausbreitung werden winzige Ableitungen miteinander multipliziert und der Gradient nimmt exponentiell ab, wenn wir uns zu den Startschichten ausbreiten.
Folie 10
Auf dieser Folie heißt es, dass die hyperbolische Tangensfunktion die folgende Formel hat: f(x) = (1-exp(-2x))/(1+exp(2x)). Das Ergebnis liegt zwischen -1 und +1. Es ist auf Null zentriert. Im Vergleich zur Sigmoid-Funktion ist die Optimierungskonvergenz einfach, aber die tan-h-Funktion leidet immer noch unter dem Problem des verschwindenden Gradienten.
Folie 11
Diese Folie gibt einen Überblick über ReLU (Rectified Linear Units). Die Funktion hat den Typ f(x) = max(0,x) i,e 0, wenn x<0, x, wenn x>0. Im Vergleich zur tan-h-Funktion ist die ReLU-Konvergenz größer. Das Problem des verschwindenden Gradienten hat keinen Einfluss auf die Funktion und kann nur innerhalb der verborgenen Schichten des Netzwerks verwendet werden
Folie 12
Auf dieser Folie werden die Arten von Verlustfunktionen als Bestandteil von Deep Learning aufgeführt. Dazu gehören der mittlere absolute Fehler, der mittlere quadratische Fehler, der Scharnierverlust und die Kreuzentropie.
Folie 13
Auf dieser Folie heißt es, dass der mittlere absolute Fehler eine Statistik zur Berechnung der absoluten Differenz zwischen erwarteten und tatsächlichen Werten ist. Teilen Sie die Summe aller absoluten Differenzen durch die Anzahl der Beobachtungen. Große Werte werden nicht so stark bestraft wie der mittlere quadratische Fehler (MSE).
Folie 14
Auf dieser Folie wird beschrieben, dass MSE ermittelt wird, indem die Quadrate der Differenz zwischen erwarteten und tatsächlichen Werten summiert und durch die Anzahl der Beobachtungen dividiert werden. Es muss darauf geachtet werden, ob der metrische Wert höher oder niedriger ist. Dies ist nur anwendbar, wenn wir unerwartete Werte für Prognosen haben. Wir können uns nicht auf MSE verlassen, da es bei guter Leistung des Modells zunehmen könnte.
Folie 15
Auf dieser Folie wird erläutert, dass die Scharnierverlustfunktion häufig bei Support-Vektor-Maschinen auftritt. Die Funktion hat die Form = max[0,1-yf(x)]. Wenn yf(x)>=0, ist die Verlustfunktion 0, aber wenn yf(x)<0, steigt der Fehler exponentiell an, wodurch falsch klassifizierte Punkte, die weit vom Rand entfernt sind, überproportional bestraft werden. Infolgedessen würde die Ungenauigkeit zu diesen Punkten exponentiell zunehmen.
Folie 16
Auf dieser Folie heißt es, dass es sich bei der Kreuzentropie um eine Protokollfunktion handelt, die Werte im Bereich von 0 bis 1 vorhersagt. Sie bewertet die Wirksamkeit eines Klassifizierungsmodells. Wenn der Wert 0,010 beträgt, ist der Kreuzentropieverlust daher größer und das Modell schneidet bei der Vorhersage schlecht ab.
Folie 17
Auf dieser Folie werden Optimierungsfunktionen als Teil von Deep Learning aufgeführt. Dazu gehören stochastischer Gradientenabstieg, Adagrad, Adadelta und Adam (adaptive Momentschätzung).
Folie 18
Auf dieser Folie heißt es, dass die Konvergenzstabilität des stochastischen Gradientenabstiegs Anlass zur Sorge gibt und dass hier das Problem des lokalen Minimums auftaucht. Da die Verlustfunktionen stark variieren, ist die Berechnung des globalen Minimums zeitaufwändig.
Folie 19
Auf dieser Folie heißt es, dass die Lernrate bei dieser Adagrad-Funktion nicht manuell angepasst werden muss. Der grundlegende Nachteil besteht jedoch darin, dass die Lernrate immer weiter sinkt. Wenn die Lernrate bei jeder Iteration zu stark abnimmt, erfasst das Modell daher keine weiteren Informationen.
Folie 20
Auf dieser Folie heißt es, dass in Adadelta die abnehmende Lernrate gelöst, für jeden Parameter unterschiedliche Lernraten berechnet und der Impuls bestimmt wird. Der Hauptunterschied besteht darin, dass dadurch nicht die einzelnen Impulsniveaus für jeden Parameter gespeichert werden; und Adams Optimierungsfunktion behebt dieses Problem.
Folie 21
Auf dieser Folie wird beschrieben, dass die Konvergenzraten im Adam-Modell im Vergleich zu anderen adaptiven Modellen höher sind. Es wird für adaptive Lernraten für jeden Parameter gesorgt. Da für jeden Parameter der Impuls berücksichtigt wird, wird dies üblicherweise in allen Deep-Learning-Modellen verwendet. Adams Modell ist hocheffizient und schnell.
Folie 23
Diese Folie erklärt die Funktionsweise von Deep Learning. Tiefe neuronale Netze bestehen aus mehreren verborgenen Schichten. Deep Learning trainiert die KI, um die Ausgabe mit bestimmten Eingaben oder versteckten Netzwerkschichten vorherzusagen. Große beschriftete Datensätze trainieren diese Netzwerke anhand der Daten selbst.
Folie 24
Auf dieser Folie wird die Struktur eines tiefen neuronalen Netzwerks erläutert, das aus drei Arten von Knotenschichten besteht. Dabei handelt es sich um eine Eingabeebene, gefolgt von einer oder mehreren verborgenen Ebenen und schließlich einer Ausgabeebene.
Folie 25
Auf dieser Folie geht es um die Deep-Learning-Technik, die mithilfe zahlreicher neuronaler Netze oder verborgener Schichten implementiert wird und dabei hilft, die Bilder gründlich zu verstehen, um korrekte Vorhersagen zu treffen.
Hinweise für den Kursleiter: Diese Methode eignet sich gut für große, komplexe Datensätze. Deep Learning kann nicht mehr mit neuen Daten arbeiten, wenn diese unzureichend oder unvollständig sind.
Folie 26
Diese Folie veranschaulicht den schrittweisen Prozess der Erstellung von Deep-Learning-Modellen. Zu den Schritten gehören das Verstehen des Problems, das Identifizieren von Daten, die Auswahl des Algorithmus, das Trainieren des Modells und das Testen des Modells.
Folie 27
Auf dieser Folie werden die beiden Phasen von Deep-Learning-Operationen dargestellt: die Erstellung eines statistischen Modells als Ausgabe durch Anwendung einer nichtlinearen Transformation auf die Eingabedaten und eine Ableitungsmethode zur Verbesserung des Modells.
Folie 28
Auf dieser Folie werden die Vorteile von Deep Learning aufgeführt, z. B. dass unstrukturierte Daten im größtmöglichen Umfang genutzt werden, dass Feature-Engineering nicht mehr erforderlich ist, dass qualitativ hochwertige Ergebnisse erzielt werden können, unnötige Ausgaben eliminiert werden und keine Datenkennzeichnung mehr erforderlich ist.
Hinweise für Kursleiter:
- Unstrukturierte Daten werden so weit wie möglich genutzt: Sie können Deep-Learning-Algorithmen mit unterschiedlichen Datentypen trainieren und erhalten dennoch Erkenntnisse, die für das Trainingsziel relevant sind. Sie können beispielsweise Deep-Learning-Algorithmen verwenden, um aktuelle Beziehungen zwischen Branchenanalysen, Social-Media-Aktivitäten und anderen Faktoren zu ermitteln und so den Aktienkurs einer bestimmten Organisation in der Zukunft vorherzusagen
- Feature-Engineering ist nicht mehr erforderlich: Einer der Hauptvorteile des Einsatzes einer Deep-Learning-Technik ist die Möglichkeit, Feature-Engineering unabhängig durchzuführen. Bei dieser Technik untersucht ein Algorithmus die Daten auf korrelierte Qualitäten und kombiniert sie dann, um ein schnelleres Lernen zu fördern, ohne dass eine ausdrückliche Aufforderung erforderlich ist. Diese Fähigkeit ermöglicht es Datenwissenschaftlern, viel Zeit zu sparen
- Fähigkeit, qualitativ hochwertige Ergebnisse zu liefern: Ein Deep-Learning-Modell kann, wenn es richtig trainiert wird, Tausende regelmäßiger, sich wiederholender Aufgaben in einem Bruchteil der Zeit ausführen, die ein Mensch dafür benötigen würde. Darüber hinaus sinkt die Qualität der Arbeit nie, es sei denn, es handelt sich bei den Trainingsdaten um Rohdaten, die nicht der Situation entsprechen
- Unnötige Ausgaben entfallen: Rückrufe sind sehr kostspielig, und in einigen Branchen kann ein Rückruf ein Unternehmen direkte Ausgaben in Millionenhöhe kosten. Subjektive Fehler, die schwer zu trainieren sind, wie z. B. winzige Probleme bei der Produktkennzeichnung, können mithilfe von Deep Learning erkannt werden
- Datenkennzeichnung ist nicht mehr erforderlich: Datenkennzeichnung kann eine kostspielige und zeitaufwändige Aufgabe sein. Der Bedarf an gut gekennzeichneten Daten wird mit einer Deep-Learning-Methode irrelevant, da die Algorithmen sich durch Lernen ohne Richtlinien auszeichnen
Folie 29
Diese Folie listet Anwendungen von Deep Learning in der realen Welt auf. Dazu gehören die Erkennung von Entwicklungsverzögerungen bei Kindern, die Kolorierung von Schwarz-Weiß-Bildern, das Hinzufügen von Ton zu Stummfilmen, die Wiederherstellung von Pixeln sowie die Erzeugung von Sequenzen oder Halluzinationen.
Folie 30
Auf dieser Folie heißt es, dass eine der besten Anwendungen von Deep Learning in der Früherkennung und Verlaufskorrektur von Entwicklungsstörungen bei Säuglingen und Kindern liegt. Das Computer Science and AI Laboratory des MIT und das Institute of Health Professions des Massachusetts General Hospital haben ein Computersystem entwickelt, das Sprach- und Sprachstörungen bereits vor dem Kindergarten erkennen kann, wenn die meisten Fälle normalerweise auftreten.
Folie 31
Auf dieser Folie wird die Bildkolorierung beschrieben, also die Technik, Graustufenfotos aufzunehmen und kolorierte Bilder zu erzeugen, die die semantischen Schattierungen und Töne der Eingabe darstellen. Traditionell wurde diese Technik von Hand ausgeführt und erforderte menschliche Arbeit. Heutzutage wird jedoch die Deep-Learning-Technologie verwendet, um das Bild einzufärben, indem sie auf Objekte und deren Kontext innerhalb des Fotos angewendet wird.
Folie 32
Auf dieser Folie heißt es, dass ein Deep-Learning-Modell zur Identifizierung akzeptabler Geräusche für eine Szene Videobilder vorzugsweise mit einer Datenbank zuvor aufgezeichneter Geräusche korreliert. Deep-Learning-Modelle ermitteln dann anhand dieser Videos den optimalen Ton für das Video.
Folie 33
Auf dieser Folie wird erläutert, dass Forscher von Google Brain im Jahr 2017 ein Deep-Learning-Netzwerk erstellt haben, um das Gesicht einer Person anhand von Fotos von Gesichtern in sehr geringer Qualität zu bestimmen. „Pixel Recursive Super Resolution“ hieß dieser Ansatz und verbessert die Auflösung von Fotos erheblich, indem er wesentliche Merkmale gerade so weit hervorhebt, dass sie identifiziert werden können.
Folie 34
Diese Folie zeigt, dass die Sequenzgenerierung oder Halluzination dadurch funktioniert, dass einzigartiges Filmmaterial erstellt wird, indem man andere Videospiele sieht, versteht, wie sie funktionieren, und sie mithilfe von Deep-Learning-Techniken wie wiederkehrenden neuronalen Netzen reproduziert. Deep-Learning-Halluzinationen können aus Fotos mit niedriger Auflösung hochauflösende Bilder erzeugen. Diese Technik wird auch verwendet, um historische Daten von Fotos mit niedriger Auflösung in hochauflösende Bilder wiederherzustellen.
Folie 35
Auf dieser Folie wird beschrieben, dass der Deep-Learning-Ansatz für Toxizitätstests für chemische Strukturen unglaublich effizient ist. Früher brauchten Spezialisten Jahrzehnte, um die Toxizität einer bestimmten Struktur festzustellen, aber mit einem Deep-Learning-Modell kann die Toxizität schnell bestimmt werden (kann je nach Komplexität Stunden oder Tage dauern).
Folie 36
Diese Folie zeigt, dass ein Deep-Learning-Modell zur Krebserkennung 6.000 Parameter enthält, die dabei helfen können, das Überleben eines Patienten abzuschätzen. Deep-Learning-Modelle sind effizient und effektiv für die Brustkrebserkennung. Das Deep Learning CNN-Modell kann nun Mitosen bei Patienten identifizieren und kategorisieren. Tiefe neuronale Netze helfen bei der Untersuchung des Zelllebenszyklus.
Folie 37
Auf dieser Folie heißt es, dass Deep-Learning-Algorithmen auf der Grundlage des zum Trainieren des Modells verwendeten Datensatzes Kauf- und Verkaufsaufrufe für Händler vorhersagen können. Dies ist aufgrund der verfügbaren Attribute für kurzfristiges Trading und langfristige Investitionen von Vorteil.
Folie 38
Auf dieser Folie wird beschrieben, dass Deep-Learning-Algorithmen Verbraucher anhand früherer Käufe und ihres Surfverhaltens klassifizieren und in Echtzeit relevante und maßgeschneiderte Werbung anbieten. Wir können dies in der Praxis beobachten: Wenn Sie in einer Suchmaschine nach einem bestimmten Produkt suchen, werden Ihnen auch in Ihrem Newsfeed relevante Inhalte verwandter Kategorien angezeigt.
Folie 39
Diese Folie zeigt, dass Deep Learning eine vielversprechende Antwort auf das Problem der Betrugserkennung bietet, indem es Institutionen ermöglicht, sowohl historische Kundendaten als auch Echtzeit-Transaktionsdetails, die zum Zeitpunkt der Transaktion erfasst werden, optimal zu nutzen. Deep-Learning-Modelle können auch verwendet werden, um zu ermitteln, welche Produkte und Marktplätze anfälliger für Betrug sind, und um in solchen Fällen besonders vorsichtig zu sein.
Folie 40
Auf dieser Folie heißt es, dass Seismologen versuchen, das Erdbeben vorherzusagen, aber das sei viel zu kompliziert. Eine falsche Vorhersage kostet sowohl die Bevölkerung als auch die Regierung viel Geld. Bei einem Erdbeben gibt es zwei Wellen: die P-Welle (die sich schnell ausbreitet, aber weniger Schaden anrichtet) und die S-Welle (die sich langsam ausbreitet, aber den Schaden groß macht). Es ist nicht einfach, Tage im Voraus Urteile zu fällen, aber mithilfe von Deep-Learning-Techniken können wir das Ergebnis jeder Welle auf der Grundlage früherer Datenverarbeitung und Erfahrungen vorhersagen. Dies kann Stunden dauern, ist aber schnell genug, um als nützliche Warnung zu dienen, die Leben retten und Schäden verhindern kann.
Folie 41
Diese Folie gibt einen Überblick über Deep Fakes, womit man sich auf verändertes digitales Material wie Fotos oder Videos bezieht, bei dem das Bild oder Video einer Person durch die Ähnlichkeit einer anderen Person ersetzt wird. Deep Fake ist eines der schwerwiegendsten Probleme, mit denen die moderne Zivilisation konfrontiert ist.
Hinweise für Kursleiter:
Im Jahr 2018 wurde ein Parodie-Clip über Barack Obama erstellt, in dem Sätze verwendet wurden, die er nie ausgesprochen hatte. Darüber hinaus wurden Deep Fakes bereits verwendet, um Joe Bidens Aufnahmen zu verfälschen, in denen er zeigt, wie er bei der US-Wahl 2020 die Zunge herausstreckt. Diese schädlichen Anwendungen von Deepfakes können die Gesellschaft erheblich beeinflussen und zur Verbreitung falscher Informationen, insbesondere in sozialen Medien, führen.
Folie 42
Auf dieser Folie werden einige der Nachteile von Deep Learning aufgeführt, wie zum Beispiel: Es sind große Datenmengen erforderlich, um andere Entscheidungsstrategien zu übertreffen. Es gibt keine konventionelle Theorie, die Ihnen bei der Auswahl der richtigen Deep-Learning-Tools hilft, da sie ein Verständnis der Topologie, Trainingstechnik und anderer Merkmale erfordert. Daher ist es für weniger kompetente Personen schwieriger, es zu übernehmen.
Schieben Sie 58 bis 73
Diese Folien enthalten anregende Aktivitäten, um das Publikum der Schulungssitzung einzubeziehen.
Folie 74 bis 101
Diese Folien enthalten einen Schulungsvorschlag, der beschreibt, was das Unternehmen, das Unternehmensschulungen anbietet, für den Kunden erreichen kann.
Schieben Sie 102 bis 104
Diese Folien enthalten ein Schulungsbewertungsformular für den Kursleiter sowie eine Inhalts- und Kursbewertung.
Deep Learning Mastering The Fundamentals Training Ppt mit allen 109 Folien:
Nutzen Sie unser Deep Learning Mastering The Fundamentals Training Ppt, um effektiv wertvolle Zeit zu sparen. Sie sind gebrauchsfertig und passen in jede Präsentationsstruktur.
-
I never had to worry about creating a business presentation from scratch. SlideTeam offered me professional, ready-made, and editable presentations that would have taken ages to design.
-
Awesome presentation, really professional and easy to edit.