Vorträge der Technosphäre. Neuronale Netze beim maschinellen Lernen


    Wir präsentieren Ihnen einen weiteren Teil der Vorträge der Technosphäre. Der Kurs untersucht die Verwendung neuronaler Netzwerkalgorithmen in verschiedenen Branchen und untersucht alle Methoden, die zu praktischen Problemen untersucht wurden. Sie werden sowohl klassische als auch kürzlich vorgeschlagene, aber bereits bewährte neuronale Netzwerkalgorithmen kennenlernen. Da der Kurs praxisorientiert ist, sammeln Sie Erfahrung in der Implementierung von Bildklassifizierern, einem Stilübertragungssystem und der Bilderzeugung mit GAN. Sie lernen, wie Sie neuronale Netze sowohl von Grund auf als auch basierend auf der PyTorch-Bibliothek implementieren. Sie lernen, wie Sie Ihren Chatbot erstellen, wie Sie ein neuronales Netzwerk trainieren, um ein Computerspiel zu spielen und menschliche Gesichter zu erzeugen. Sie sammeln auch die Erfahrung, wissenschaftliche Artikel zu lesen und selbst zu forschen.


    Vorlesungsliste:


    1. Die Grundlagen neuronaler Netze.
    2. Details zum Training neuronaler Netze.
    3. Bibliotheken für tiefes Lernen.
    4. Faltungs-Neuronale Netze.
    5. Verbesserung der Konvergenz neuronaler Netze.
    6. Tiefe Netzwerkarchitektur.
    7. Optimierungsmethoden.
    8. Neuronale Netze zur Reduzierung von Dimensionen.
    9. Wiederkehrende Netzwerke.
    10. Verarbeitung natürlicher Sprache.
    11. Konkurrierende Netzwerke (GANs).
    12. Variationscodierer und künstlerischer Stil.
    13. Verstärkungstraining 1.
    14. Verstärkungstraining 2.

    Vorlesung 1. Grundlagen neuronaler Netze



    Neuronale Netze. Basisblöcke vollständig verbundener neuronaler Netze. Fehler-Back-Propagation-Algorithmus.


    Vorlesung 2. Details zum Training neuronaler Netze



    Fehler-Back-Propagation-Algorithmus für Verzweigungsstrukturen. Probleme beim Training neuronaler Netze. Datenvorverarbeitung, Erweiterung, Regularisierung. Stochastischer Gradientenabstieg. Daten mit PyTorch vorbereiten.


    Vorlesung 3. Bibliotheken für tiefes Lernen



    Berechnen von Diagrammen in PyTorch. Operationen mit Tensoren. Automatische Differenzierung. Vollständig verbundene Netzwerke. Verzweigungsarchitektur. Netzwerkverhalten lernen und vorhersagen: Flags volatileund requires_grad. Speichern und Laden des Modells.


    Vorlesung 4. Faltungs-Neuronale Netze



    Faltung. Pooling. Helle neuronale Netze. Beispiele für die Verwendung von Faltungsnetzwerken. Interpretation trainierter Modelle.


    Vorlesung 5. Verbesserung der Konvergenz neuronaler Netze



    Initialisierung der Skalen: He, Xavier. Regularisierung: Dropout, DropConnect. Normalisierung: Chargennormalisierung.


    Vorlesung 6. Deep Network Architecture



    Moderne Faltungsnetzwerkarchitekturen. Inception- und ResNet-Netzwerke. Lernen übertragen. Verwendung neuronaler Netze zur Segmentierung und Lokalisierung.


    Vorlesung 7. Optimierungsmethoden



    Optimierungsaufgabe. SGD, Momentum, NAG, Adagrad, Adadelta, Adam.


    Vorlesung 8. Neuronale Netze zur Reduzierung von Dimensionen



    Die Aufgabe, die Dimension zu reduzieren. MDS, Isomap. Hauptkomponentenmethode (PCA). Die Ableitung der Hauptkomponenten und der Nachweis der Methode der Lagrange-Multiplikatoren. Auto-Encoder. Entrauschen und spärliche Auto-Encoder.


    Vorlesung 9. Rekursive Netzwerke



    Wiederkehrende Netzwerke. Rückwärtsausbreitung von Fehlern durch die Zeit. LSTM-Netzwerke. GRU-Netzwerke. Mehrschichtige wiederkehrende Architekturen. Änderung von Dropout und Batch-Normalisierung für wiederkehrende Netzwerke.


    Vorlesung 10. Verarbeitung natürlicher Sprache



    Beispiele für Aufgaben. Präsentationstraining: Word2Vec. Lineare + Softmax-Beschleunigung: hierarchischer Softmax, differenzierter Softmax. Angebotserstellung. Modell Seq2Seq. Strahlensuche, um die beste Antwort zu finden. Techniken zur Erhöhung der Antwortvielfalt.


    Vorlesung 11. Contending Networks (GAN)



    Generative und diskriminierende Modelle. Nash-Gleichgewicht. Generative Competitive Networks (GANs). Generative Auto Encoder (AAE). Domänenanpassungstechnik. Domänenanpassung zum Übersetzen von Bildern zwischen Domänen. Wasserstein GAN.


    Vorlesung 12. Variationscodierer und künstlerischer Stil



    Modell des Variationsautokodierers (VAE). Interpretation trainierter Modelle: Deep Dream. Stilübertragung: Künstlerischer Stil. Beschleunigung des Stylings.


    Vorlesung 13. Training mit Verstärkung 1



    Grundlegende Konzepte des verstärkenden Lernens: Agent, Umgebung, Strategie, Belohnung. Wertfunktion und Q-Funktion. Bellman-Gleichungen. Richtlinieniterationsalgorithmus.


    Vorlesung 14. Training mit Verstärkung 2



    Q-Learning-Algorithmus. Modellansätze. DQN-Algorithmus. Alpha Go


    Die Wiedergabeliste aller Vorträge befindet sich hier . Denken Sie daran, dass aktuelle Vorlesungen und Meisterkurse zum Programmieren von unseren IT-Spezialisten in den Projekten Technopark, Technosphere und Technotrack weiterhin auf dem Technostream- Kanal veröffentlicht werden .


    Andere Kurse der Technosphäre auf Habré:



    Informationen zu allen unseren Bildungsprojekten finden Sie in einem kürzlich erschienenen Artikel .


    Jetzt auch beliebt: