2016-01-30 22 views
5

Próba utworzenia drzewa decyzyjnego z walidacją krzyżową za pomocą sklearn i panad.sprawdzanie poprawności + drzewa decyzyjne w sklearn

Moje pytanie znajduje się w poniższym kodzie, sprawdzanie poprawności dzieli dane, które następnie wykorzystuję zarówno do szkolenia, jak i do testowania. Będę próbował znaleźć najlepszą głębokość drzewa, odtwarzając go n razy z różnymi ustawionymi maksymalnymi głębokościami. Czy przy używaniu sprawdzania krzyżowego powinienem używać K fałdowego CV, a jeśli tak, to w jaki sposób użyć tego kodu?

import numpy as np 
import pandas as pd 
from sklearn import tree 
from sklearn import cross_validation 

features = ["fLength", "fWidth", "fSize", "fConc", "fConc1", "fAsym", "fM3Long", "fM3Trans", "fAlpha", "fDist", "class"] 

df = pd.read_csv('magic04.data',header=None,names=features) 

df['class'] = df['class'].map({'g':0,'h':1}) 

x = df[features[:-1]] 
y = df['class'] 

x_train,x_test,y_train,y_test = cross_validation.train_test_split(x,y,test_size=0.4,random_state=0) 

depth = [] 
for i in range(3,20): 
    clf = tree.DecisionTreeClassifier(max_depth=i) 
    clf = clf.fit(x_train,y_train) 
    depth.append((i,clf.score(x_test,y_test))) 
print depth 

Oto link do danych, których używam w przypadku, który pomaga każdemu. https://archive.ics.uci.edu/ml/datasets/MAGIC+Gamma+Telescope

Odpowiedz

14

W kodzie tworzony jest statyczny podział testu treningowego. Jeśli chcesz wybrać najlepszą głębokość przez sprawdzanie poprawności krzyżowej, możesz użyć sklearn.cross_validation.cross_val_score wewnątrz pętli for.

Aby uzyskać więcej informacji, przeczytaj artykuł sklearn's documentation.

Oto aktualizację kodu z CV:

import numpy as np 
import pandas as pd 
from sklearn import tree 
from sklearn.cross_validation import cross_val_score 
from pprint import pprint 

features = ["fLength", "fWidth", "fSize", "fConc", "fConc1", "fAsym", "fM3Long", "fM3Trans", "fAlpha", "fDist", "class"] 

df = pd.read_csv('magic04.data',header=None,names=features) 
df['class'] = df['class'].map({'g':0,'h':1}) 

x = df[features[:-1]] 
y = df['class'] 

# x_train,x_test,y_train,y_test = cross_validation.train_test_split(x,y,test_size=0.4,random_state=0) 
depth = [] 
for i in range(3,20): 
    clf = tree.DecisionTreeClassifier(max_depth=i) 
    # Perform 7-fold cross validation 
    scores = cross_val_score(estimator=clf, X=x, y=y, cv=7, n_jobs=4) 
    depth.append((i,scores.mean())) 
print(depth) 

Alternatywnie, można użyć sklearn.grid_search.GridSearchCV i nie pisać do pętli siebie, zwłaszcza jeśli chcesz zoptymalizować dla więcej niż jednego hiper-parametru.

import numpy as np 
import pandas as pd 
from sklearn import tree 
from sklearn import grid_search 

features = ["fLength", "fWidth", "fSize", "fConc", "fConc1", "fAsym", "fM3Long", "fM3Trans", "fAlpha", "fDist", "class"] 

df = pd.read_csv('magic04.data',header=None,names=features) 
df['class'] = df['class'].map({'g':0,'h':1}) 

x = df[features[:-1]] 
y = df['class'] 


parameters = {'max_depth':range(3,20)} 
clf = grid_search.GridSearchCV(tree.DecisionTreeClassifier(), parameters, n_jobs=4) 
clf.fit(X=x, y=y) 
tree_model = clf.best_estimator_ 
print (clf.best_score_, clf.best_params_) 
+0

To było dokładnie to, czego szukałem; dziękuję – razeal113

+1

Dobrze to słyszeć. Czy możesz zaakceptować odpowiedź? – Dimosthenis

+2

+1 za udzielenie odpowiedzi na zadane pytanie, a także sugerowanie wyszukiwania w sieci, co jest zdecydowanie lepszą praktyką w tego typu problemach. – dsal1951