Czy prosta regresja liniowa może pobić na głowę SVM i Random Forest?

Znajomy brał udział w projekcie, w którym na podstawie historii należało wykonać predykcję w przód cechy Y. Problem polegał na tym, że cecha Y wykazywała tendencje do wzrostu. Na potrzeby tego wpisu Y to może być mleczność krów lub zapotrzebowanie na energię czy cokolwiek innego co z czasem średnio rośnie.

Rozmawialiśmy trochę o tym co może się sprawdzić w tego typu analizach. Jako benchmark wykorzystaliśmy współczesne techniki pozwalające na podgrzanie procesora typu lasy losowe czy SVM. Okazuje się jednak (po fakcie, jest to nawet zgodne z intuicją ;-), że jeżeli występuje w miarę stabilny trend to zakres wartości obserwowanych w przyszłości może być inny niż zakres wartości obserwowanych w przeszłości. W tym przypadku techniki takie jak zwykła regresja liniowa mogą dać lepsze wyniki niż wspomniane SVM i RF.

Rozważmy taki przykład. Mamy do dyspozycji N predyktorów, chcemy przewidzieć rozwój cechy Y. W rzeczywistości ta cecha zależy tylko od pierwszego z N predyktorów. W szranki postawimy SVM, RandomForest, regresję liniową i regresję z regularyzacją typu lasso.

Przykład będzie czysto symulacyjny.

Zacznijmy od wylosowania danych, po 100 obserwacji i N=25 predyktorów. Zbiór testowy będzie poza domeną zbioru uczącego, wszystkie zmienne przesuwamy o +1.

W wylosowanych danych zależność pomiędzy pierwszym predyktorem a Y jest liniowa, dodaliśmy małe zakłócenie losowe by nie być zbyt tendencyjnym.

linear

Wykonajmy dopasowanie modelu i policzmy MSE dla każdego z modeli.
Następnie powtórzmy losowanie i dopasowanie modeli 100 krotnie.

Na wykresie im niższy MSE tym lepiej.

MSE25var

Wykresy pudełkowe podsumowują wyniki całych symulacji. Ponieważ nie wykonaliśmy żadnej selekcji cech, więc regresja liniowa cierpi na zastrzyk szumu. Regularyzacja lasso bardzo tutaj pomaga.

Oczywiście metody takie jak SVM czy RandomForest musiały polec, ponieważ w ,,przyszłości’’ Y przyjmuje wartości X1*5, ale X1 jest już z przedziału 1-2 a nie 0-1.

Podobna sytuacja jest dla N=5 zmiennych i N=50 zmiennych. Z tym wyjątkiem, że dla N=5 regresja liniowa jest lepsza niż lasso, nie ma tutaj problemu z dużą liczbą zmiennych nie ma co płacić obciążeniem za regularyzację.

MSE50var

MSE5var

Co z tego wynika?
– SVM i RandomForest pracują ,,w dziedzinie’’. Jeżeli występuje trend liniowy to lepiej go wcześniej usunąć chociażby zwykłą regresją (z pewnością też można lepiej niż tylko regresją).
– Jeżeli zmiennych jest dużo to lepiej wykonać jakiś wybór zmiennych, ewentualnie wybrać metodę, która zrobi to za nas (np. Lasso).
– Prognozowanie przyszłości jest znacznie trudniejsze niż przeszłości ;-)




Wpisy z kategorii Duże i złożone powstają przy współpracy z firmą CodiLime.

15 myśli na temat “Czy prosta regresja liniowa może pobić na głowę SVM i Random Forest?”

  1. Ciekawy post i dość praktyczny. Sam miałem bardzo konkretne analizy, w których ostatecznie użyłem regresji liniowej zamiast Random Forest, z podobnych powodów. Powinienem był użyć LASSO, ale wtedy jeszcze nie wiedziałem jaką ma przewagę.

    Przy czym o ile warto pamiętać, że RF gubi zależność liniową (a raczej – przybliża ją “źle”, bo za pomocą schodków), to w tym (i podobnych) problemach kluczowy jest overfitting (rozumiany jako różnica błędów na danych testowych i treningowych). Rzeczy typu RF świetnie dopasowują się do danych treningowych, ale niekoniecznie przekłada się to na dane testowe. Regresja liniowa ma znacznie mniejszą taką różnicę.

    Można też na to patrzeć jak na same parametry – ogólnie regresja ma ich znacznie mniej niż przyzwoity Random Forest – stąd dla małej ilości danych (jak na liczbę kolumn) nic dziwnego, że łatwo dostać dopasowanie do _konkretnych_ danych raczej niż do rozkładu z którego pochodzi.

  2. Pisaliśmy już o tym maile, ale powtórzyć nie zaszkodzi bo i temat ciekawy (nawet bez ‘dość’).

    RF używa OOB i jakoś sobie radzi z przeuczeniem (zazwyczaj).
    Regresja liniowa, szczególnie bez regularyzacji i selekcji na zmienne przeucza się tragicznie (może nie tak tragicznie jak NN czy gołe drzewa).

    Ale nawet tragicznie przeuczona regresja liniowa radzi sobie lepiej niż RF dlatego, że obserwowane zjawisko ma w sobie trend w czasie a my tego trendu nie uwzględniliśmy.

    Jaka jest pointa moim zdaniem?
    Budując warsztat nie wystarczy algorytmy tagować ‘przeuczające się’, ‘wielowymiarowe’, ‘odporne’. Ważne jest by uwzględnić naturę zjawiska i cel jaki ma zrealizować nasz model (opis rzeczywistości / predykcja / aproksymacja).

  3. Niektóre rzeczy z maila są powtórzone na zasadzie “by było publicznie”.

    Różne algorytmy mają swoje silne i słabe punkty, które też uwydatniają się przy danych (które też mają swoją specyfikę). Choćby przykład z życia – jakaś tam zależność, gdzie o ile wiadomo, że niektórych efektów nie da się odtworzyć liniowo, to jednak regresja liniowa działała najlepiej (z w/w przyczyn).

    W kwestii owego przeuczania – podesłałem wykresy z przeuczaniem. (Szkoda, że tu nie mogę tu wrzucić.) Chodzi o to, że ogólnie “tragicznie przeuczona regresja liniowa” jest względnie mało przeuczona (pewnie i w porównaniu z tragicznie niedouczonym RF).

  4. Możesz linkować wykresy lub używać tagu , powinno działać.

    Co do ,,tragicznie przeuczonej”, odnosi się to do estymacji wszystkich współczynników w sytuacji gdy zdecydowana większość nie ma nic do rzeczy. Bez żadnej walidacji. Można by oczywiście jeszcze bardziej przeuczyć regresję dodając kolejne wielomiany predyktorów.

    Kluczowe w problemie jest jednak na jakim zbiorze testowym testować. Jak widać testowanie na podpróbkach tego samego zbioru (vide OOB) nie sprawdza się w tego typu problemach (nawet gdyby je ważyć). Oczywiście mając model symulacyjny łatwiej odpowiedzieć na pytanie gdzie testować, w rzeczywistości jest trudniej.

    1. @Piotr, ciekawie byłoby zobaczyć jak wyglądają trajektorie tych błędów ale na innym wykresie.
      Na osi OX przesunięcie [od 0 teraz training set do 1 teraz test set] a na osi OY MSE.

  5. Dokładnie, wygląda fajnie, a czy możesz na osi OX zrobić symulacje z gęstym krokiem, co 0.1 lu 0.01
    ciekaw jestem jak wygladaja te profile błędu i gdzie zaczynaja sie problemy

  6. Jednak pomyliłem train/test w wykresie, teraz lepiej:
    http://i.imgur.com/gBKzFA2.png

    Może na maila (BTW: przypominam się z wątkiem o USOSie – zależy mi by złożyć owo podanie na dnaich), bo _nie rozumiem_ co tu ma znaczyć interpolacja pomiędzy treningiem a testem. Co najwyżej może być różnego podzbioru na dane treningowe i wtedy ocenianie na testowych lub całości.

  7. różnica o której pisałem we wpisie dotyczy sytuacji w której przesuwa się dziedzinę dla zbioru testowego.
    przedstawione były przykłady dla 0-ego przesunięcia i przesunięcia o 1, ciekawie byłoby zobaczyć wyniki dla innych przesunięć
    stąd pomysł by sprawdzać przesunięcia o 0.1, 0.2 itp

    co do USOSa, to nie wiem jak mogę tutaj pomóc. Napisz mi jeżeli masz jakąś sugestię, będę jutro rano w DELab, możemy się nawet spotkać na miejscu

  8. Dalej nie rozumiem o co chodzi z z przesunięciem. Bo jeśli chodzi o wzięcie p części zbioru treningowego i (1-p) części zbioru testowego, to przy liczeniu wariancji przejście będzie liniowe i tyle.

    Teraz nie jestem w Wawie, będę od pt. USOS – tylko tyle, czy ktoś nie robił dokładnie tego samego, ew. polecasz mi rzucić okiem na konkretne prace magisterskie czy co.

    DELab – powodzenia. Z ludzi technicznych w części naukowej to polecam zagadać do Łukasza Jonaka.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Możesz użyć następujących tagów oraz atrybutów HTML-a: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code class="" title="" data-url=""> <del datetime=""> <em> <i> <q cite=""> <strike> <strong> <pre class="" title="" data-url=""> <span class="" title="" data-url="">