Systemy uczące się
Informacje ogólne
Kod przedmiotu: | 1000-2N09SUS |
Kod Erasmus / ISCED: |
11.303
|
Nazwa przedmiotu: | Systemy uczące się |
Jednostka: | Wydział Matematyki, Informatyki i Mechaniki |
Grupy: |
Przedmioty 4EU+ (z oferty jednostek dydaktycznych) Przedmioty obieralne dla informatyki Przedmioty obieralne na studiach drugiego stopnia na kierunku bioinformatyka |
Punkty ECTS i inne: |
6.00
|
Język prowadzenia: | angielski |
Rodzaj przedmiotu: | monograficzne |
Skrócony opis: |
Systemy uczące się muszą być zdolne do wyciągnięcia wniosków z doświadczeń, obserwacji i danych historycznych. Ta zdolność powinna doprowadzić do możliwości automatycznego poprawiania się systemu i tym samym zwiększa efektywności i skuteczności. Wykład będzie wstępem do podstaw systemów uczących się. Będziemy się zajmować wiele modeli uczenia opartego o przykłądy, w tym metod drzew decyzyjnych, sieci neuronowych, klasyfikatory Bayesowskie, i itp. To pozwoli nam zrozumieć niektóre problemy i wyzwania dla systemów uczących się, takie jak problem uogólnienia i obciążenia (bias) klasyfikatorów, overfitting, problem wyboru modelu, selekcja cech, wyuczalność, itp. |
Pełny opis: |
1. Wprowadzenie (1 wykład): Podstawowe pojęcia w teorii uczenia się 2. Uczenie dopasowania modelu do danych (3-4 wykłady): Problem klasyfikacji, metody oceniania klasyfikatorów, Naive Bayes, kNN, reguły decyzyjne. Drzewo decyzyjne, lasy decyzyjne. Sztuczne sieci neuronowe: perceptron i podstawowe struktury sieci. 3. Aproksymacja funkcji i pojęć (3 wykłady): Algorytmy "Gradient descent" oraz "propagacji wstecznej" Regresja logistyczna, SVM: działanie, funkcje błędu i metody regulacji, nieliniowe SVM ... 4. Teoria uczenia się (3 wykłady): Model PAC w teorii uczenia się, Wymiar VC, Wzmocnienie słabych klasyfikatorów (Bagging & boosting). Redukcja problemu klasyfikacji: od wielu klas do 2 klas, cost-sensitive, ranking; 5. Uczenie beznadzoru (3 wykłady): Clustering. K-means. Metody EM (Expectation-Maximization). Analiza składowych głównych: PCA. MDS. pPCA. Analiza składowych niezależnych: ICA. 6. Uczenie ze wzmocnieniem (2 wykłady): MDP (Markov decision processes), Bellman equations. Algorytmy TD(?) learning (Temporal-difference learning) oraz Q-learning |
Literatura: |
1. Bishop, "Pattern Recognition and Machine Learning", 2007 2. Hastie, Tibshirani and Friedman, "Elements of Statistical Learning: Data Mining, Inference and Prediction", 2001 3. MacKay, "Information Theory, Inference, and Learning Algorithms", 2003. 4. Mitchell, "Machine Learning", 1997 |
Zajęcia w cyklu "Semestr letni 2023/24" (zakończony)
Okres: | 2024-02-19 - 2024-06-16 |
Przejdź do planu
PN WT ŚR LAB
WYK
LAB
CZ PT LAB
|
Typ zajęć: |
Laboratorium, 30 godzin
Wykład, 30 godzin
|
|
Koordynatorzy: | Hung Son Nguyen | |
Prowadzący grup: | Eyad Kannout, Hung Son Nguyen | |
Lista studentów: | (nie masz dostępu) | |
Zaliczenie: | Egzamin |
Zajęcia w cyklu "Semestr letni 2024/25" (jeszcze nie rozpoczęty)
Okres: | 2025-02-17 - 2025-06-08 |
Przejdź do planu
PN WT ŚR CZ PT |
Typ zajęć: |
Laboratorium, 30 godzin
Wykład, 30 godzin
|
|
Koordynatorzy: | Hung Son Nguyen | |
Prowadzący grup: | Eyad Kannout, Hung Son Nguyen | |
Lista studentów: | (nie masz dostępu) | |
Zaliczenie: | Egzamin |
Właścicielem praw autorskich jest Uniwersytet Warszawski, Wydział Nauk Ekonomicznych.