„Maschinelles Lernen“ – Kurs 30.000 Rubel. von der MSU, Ausbildung 3 Wochen. (1 Monat), Datum: 30. November 2023.
Verschiedenes / / December 02, 2023
Zweck des Programms – Führen Sie die Studierenden in die Grundlagen des maschinellen Lernens ein.
Dauer der Ausbildung – 72 Stunden (30 Stunden Unterricht mit einem Lehrer, 42 Stunden unabhängiges Studium der Materialien).
Studienform – Vollzeit, Teilzeit, Abend.
Klassenformat - Vollzeit, für Teilnehmer aus anderen Städten besteht die Möglichkeit, sich per Videokonferenz in den Unterricht einzuzuschalten, wenn eine persönliche Teilnahme nicht möglich ist.
Kosten für Bildung - 30.000 Rubel.
Beginn des Unterrichts - Herbst 2023.
Ausbildungsverträge werden mit natürlichen und juristischen Personen abgeschlossen.
Die Anmeldung zu den Kursen erfolgt per E-Mail [email protected] über das Anmeldeformular auf der Website.
Sie können den Kursadministrator, Anton Martyanov, zur Anmeldung oder bei Fragen per WhatsApp oder Telegram kontaktieren: +79264827721.
Doktor der technischen Wissenschaften Position: Professor der Hochschule für Management und Innovation der Moskauer Staatlichen M.V.-Lomonossow-Universität
Abschnitt 1. Einführung. Beispiele für Aufgaben. Logische Methoden: Entscheidungsbäume und Entscheidungswälder.
Logische Methoden: Klassifizierung von Objekten anhand einfacher Regeln. Interpretation und Umsetzung. Kombination zu einer Komposition. Entscheidende Bäume. Zufälliger Wald.
Sektion 2. Metrische Klassifizierungsmethoden. Lineare Methoden, stochastischer Gradient.
Metrische Methoden. Klassifizierung basierend auf Ähnlichkeit. Abstand zwischen Objekten. Metriken. Die Methode der k-nächsten Nachbarn. Verallgemeinerung auf Regressionsprobleme mittels Kernelglättung. Lineare Modelle. Skalierbarkeit. Anwendbarkeit auf Big Data Stochastische Gradientenmethode. Anwendbarkeit zur Optimierung linearer Klassifikatoren. Das Konzept der Regularisierung. Merkmale der Arbeit mit linearen Methoden. Kennzahlen zur Klassifizierungsqualität.
Sektion 3. Support Vector Machine (SVM). Logistische Regression. Kennzahlen zur Klassifizierungsqualität.
Lineare Modelle. Skalierbarkeit. Anwendbarkeit auf Big Data Stochastische Gradientenmethode. Anwendbarkeit zur Optimierung linearer Klassifikatoren. Das Konzept der Regularisierung. Merkmale der Arbeit mit linearen Methoden.
Sektion 4. Lineare Regression. Dimensionsreduktion, Hauptkomponentenmethode.
Lineare Modelle zur Regression. Ihr Zusammenhang mit der singulären Zerlegung der „Objekte-Merkmals“-Matrix. Reduzierung der Anzahl der Zeichen. Ansätze zur Funktionsauswahl. Hauptkomponentenmethode. Methoden zur Dimensionsreduktion.
Abschnitt 5. Zusammensetzungen von Algorithmen, Gradient Boosting. Neuronale Netze.
Kombinieren von Modellen zu einer Komposition. Gegenseitige Korrektur von Modellfehlern. Grundlegende Konzepte und Problemstellungen im Zusammenhang mit Kompositionen. Gradientenverstärkung.
Neuronale Netze. Suche nach nichtlinearen Teilungsflächen. Mehrschichtige neuronale Netze und deren Abstimmung mithilfe der Backpropagation-Methode. Tiefe neuronale Netze: ihre Architekturen und Funktionen.
Abschnitt 6. Clustering und Visualisierung.
Probleme des unbeaufsichtigten Lernens. Struktur in Daten finden. Beim Clustering-Problem geht es darum, Gruppen ähnlicher Objekte zu finden. Bei der Visualisierungsaufgabe handelt es sich um die Aufgabe, Objekte im zwei- oder dreidimensionalen Raum abzubilden.
Abschnitt 7. Probleme der angewandten Datenanalyse: Formulierungen und Lösungsmethoden.
Partielles Lernen als Problem zwischen überwachtem Lernen und Clustering. Ein Stichprobenproblem, bei dem der Wert der Zielvariablen nur für einige Objekte bekannt ist. Der Unterschied zwischen dem partiellen Lernproblem und den zuvor diskutierten Formulierungen. Lösungsansätze.
Analyse von Problemen aus Anwendungsbereichen: Scoring in Banken, Versicherungen, Underwriting-Probleme, Mustererkennungsprobleme.
Adresse
119991, Moskau, st. Leninskie Gory, 1, Geb. 51, 5. OG, Raum 544 (Dekanat)
Universität