English | 简体中文 | 繁體中文 | Русский язык | Français | Español | Português | Deutsch | 日本語 | 한국어 | Italiano | بالعربية

python에서 랜덤 포레스트(random forest)의 원리 및 방법

서론

랜덤 포레스트를 통해 데이터의 주요 특성을 얻고자 하는 것입니다

1이론

랜덤 포레스트는 매우 유연한 기계 학습 방법으로, 광범위한 응용 전망을 가지고 있습니다. 마케팅에서 보건 보험에 이르기까지 다양하게 사용될 수 있습니다. 마케팅 시뮬레이션 모델링, 고객 원천 통계, 유지 및 이탈을 예측할 수 있습니다. 또한, 질병의 위험과 환자의 감염성을 예측할 수 있습니다;

개별 학습 기계의 생성 방식에 따라, 현재의 집합 학습 방법은 크게 두 가지로 나눌 수 있습니다. 즉, 개별 학습 기계 간에 강한 의존 관계가 있어 순차적으로 생성해야 하는 시리얼화 방법과, 개별 학습 기계 간에 강한 의존 관계가 없어 동시에 생성할 수 있는 병행화 방법입니다;

전자의 대표는 Boosting이고, 후자의 대표는 Bagging과 '랜덤 포레스트'(Random}
Forest)

랜덤 포레스트는 결정 나무를 기반으로 한 Bagging 통합을 구축한 후, 결정 나무의 훈련 과정에서 무작위 특성 선택(즉, 무작위 특성 선택을 도입했습니다).

간단히 말해서, 랜덤 포레스트는 결정 나무의 통합입니다. 하지만 두 가지 차이점이 있습니다:

(2) 특징 선택의 차이: 각 결정 나무의 n개 분류 특징은 모든 특징 중 무작위로 선택됩니다(n은 우리가 조정해야 하는 매개변수입니다).
랜덤 포레스트는 간단히 이해하면, 예를 들어 salary를 예측하면, decision tree를 여러 개 생성하여 job, age, house를 예측하고, 예측할 값을 각 특징(teacher,39,suburb) 각각은 해당 결정 나무의 목표 값 확률(salary<5000,salary>=5000),그래서 예측량의 발생 확률을 결정합니다(예, P(salary<5000)=0.3)

랜덤 포레스트는 회귀와 분류를 할 수 있는 도구입니다.大数据를 처리할 수 있는 특성을 가지고 있으며, 추정이나 변수가 매우 중요한 기본 데이터 모델링에 유용합니다.

매개변수 설명:

가장 중요한 두 가지 매개변수는 n_estimators와 max_features입니다.

n_estimators: 포레스트에서 나무의 개수를 나타냅니다. 이론적으로는 더 많을수록 좋습니다. 하지만 그에 따라 계산 시간이 늘어납니다. 하지만 더 많이 하면 좋지 않습니다. 예측 성능이 가장 좋은 것은 적절한 나무 개수에서 나타납니다.

max_features: 특징 집합의 부분 집합을 무작위로 선택하여 노드를 분할합니다. 부분 집합의 개수가 적을수록, 변동성이 빠르게 줄어들지만, 동시에 편차가 빠르게 증가합니다. 좋은 경험에 따르면. 귀환 문제이면:

max_features=n_features, 분류 문제이면 max_features=sqrt(n_features).

좋은 결과를 얻기 위해, max_depth=None, 그리고 min_sample_split을 기억해야 합니다.1.
그리고 cross_validated(교차 검증)을 기억하면서, 랜덤 포레스트에서 bootstrap=True. 하지만 extra-trees에서 bootstrap=False.

2、랜덤 포레스트 파이썬 구현

2.1Demo1

랜덤 포레스트 기본 기능 구현

#정수나무
from sklearn.tree import DecisionTreeRegressor 
from sklearn.ensemble import RandomForestRegressor 
import numpy as np 
from sklearn.datasets import load_iris 
iris=load_iris() 
#print iris#iris의 4개 속성은: 꽃잎 너비 꽃잎 길이 꽃잎 너비 꽃잎 길이 레이블은 꽃의 종류: setosa versicolour virginica 
print(iris['target'].shape)
rf=RandomForestRegressor()# 여기서는 기본 파라미터 설정을 사용 
rf.fit(iris.data[:150],iris.target[:150])# 모델 훈련을 위해 사용 
# 랜덤으로 두 개의 예측이 다른 샘플을 선택 
instance=iris.data[[100,109] 
print(instance)
rf.predict(instance[[0]])
print('인스턴스 0 예측;',rf.predict(instance[[0]]))
print( '인스턴스 1 예측;',rf.predict(instance[[1]))
print(iris.target[100], iris.target[109)] 

실행 결과

(150,)
[[ 6.3  3.3  6.   2.5]
 [ 7.2  3.6  6.1  2.5]
인스턴스 0 예측; [ 2]
인스턴스 1 예측; [ 2]
2 2

2.2 Demo2

3이 방법의 비교

# random forest test
from sklearn.model_selection import cross_val_score
from sklearn.datasets import make_blobs
from sklearn.ensemble import RandomForestClassifier
from sklearn.ensemble import ExtraTreesClassifier
from sklearn.tree import DecisionTreeClassifier
X, y = make_blobs(n_samples=10000, n_features=10, centers=100, random_state=0)
clf = DecisionTreeClassifier(max_depth=None, min_samples_split=2, random_state=0)
scores = cross_val_score(clf, X, y)
print(scores.mean())    
clf = RandomForestClassifier(n_estimators=10, 최대 깊이=None, min_samples_split=2, random_state=0)
scores = cross_val_score(clf, X, y)
print(scores.mean())    
clf = ExtraTreesClassifier(n_estimators=10, 최대 깊이=None, min_samples_split=2, random_state=0)
scores = cross_val_score(clf, X, y)
print(scores.mean())

실행 결과:

0.979408793821
0.999607843137
0.999898989899

2.3 Demo3-특성 선택 구현

#정수나무2
from sklearn.tree import DecisionTreeRegressor 
from sklearn.ensemble import RandomForestRegressor 
import numpy as np 
from sklearn.datasets import load_iris 
iris=load_iris() 
from sklearn.model_selection import cross_val_score, ShuffleSplit 
X = iris["data"] 
Y = iris["target"] 
names = iris["feature_names"] 
rf = RandomForestRegressor() 
scores = [] 
for i in range(X.shape[1]: 
 score = cross_val_score(rf, X[:, i:i+1], Y, scoring="r2", 
    cv=ShuffleSplit(len(X), 3, .3)) 
 scores.append((round(np.mean(score), 3), names[i])) 
print(sorted(scores, reverse=True))

실행 결과:

[(0.89300000000000002, 'petal 너비 (cm)'), (0.82099999999999995, 'petal 길이
(cm)'), (0.13, 'sepال 길이 (cm)'), (-0.79100000000000004, 'sepال عرض (cm)')]

2.4 demo4-정수나무

본래 이 코드를 사용하여 랜덤 포레스트 결정 트리를 구축하려 했지만, 문제는 프로그램이 계속 실행되고, 응답하지 않으며, 디버깅이 필요합니다.

#정수나무4
#coding:utf-8 
import csv 
from random import seed 
from random import randrange 
from math import sqrt 
def loadCSV(filename):#데이터를 로드하고, 행별로 목록에 저장 
 dataSet = [] 
 with open(filename, 'r') as file: 
 csvReader = csv.reader(file) 
 for line in csvReader: 
  dataSet.append(line) 
 return dataSet 
# 레이블 열을 제외한 다른 열을 float 타입으로 변환합니다. 
def column_to_float(dataSet): 
 featLen = len(dataSet[0]) - 1 
 for data in dataSet: 
 for column in range(featLen): 
  data[column] = float(data[column].strip()) 
# 데이터셋을 무작위로 N개의 블록으로 나누어, 교차��정을 용이하게 합니다. 하나는 테스트 셋이고, 나머지 네 개는 훈련 셋입니다. 
def spiltDataSet(dataSet, n_folds): 
 fold_size = int(len(dataSet) / n_folds) 
 dataSet_copy = list(dataSet) 
 dataSet_spilt = [] 
 for i in range(n_folds): 
 fold = [] 
 while len(fold) < fold_size: # 여기서 if는 첫 번째 조건을 확인하는 데만 사용됩니다. while은 조건이 성립하지 않을 때까지 반복합니다. 
  index = randrange(len(dataSet_copy)) 
  fold.append(dataSet_copy.pop(index)) # pop() 함수는 목록에서 하나의 요소를 제거하고 그 값을 반환합니다. 
 dataSet_spilt.append(fold) 
 return dataSet_spilt 
# 데이터셋 서브샘플 생성 
def get_subsample(dataSet, ratio): 
 subdataSet = [] 
 lenSubdata = round(len(dataSet) * ratio)# float 값을 반환 
 while len(subdataSet) < lenSubdata: 
 index = randrange(len(dataSet) - 1) 
 subdataSet.append(dataSet[index]) 
 # print len(subdataSet) 
 return subdataSet 
# 데이터셋 분할 
def data_spilt(dataSet, index, value): 
 left = [] 
 right = [] 
 for row in dataSet: 
 if row[index] < value: 
  left.append(row) 
 else: 
  right.append(row) 
 return left, right 
# 计算分割代价 
def spilt_loss(left, right, class_values): 
 loss = 0.0 
 for class_value in class_values: 
 left_size = len(left) 
 if left_size != 0: # 防止除数为零 
  prop = [row[-1] for row in left].count(class_value) / float(left_size) 
  loss += (prop * (1.0 - prop)) 
 right_size = len(right) 
 if right_size != 0: 
  prop = [row[-1] for row in right].count(class_value) / float(right_size) 
  loss += (prop * (1.0 - prop)) 
 return loss 
# 选取任意的n个特征,在这n个特征中,选取分割时的最优特征 
def get_best_spilt(dataSet, n_features): 
 features = [] 
 class_values = list(set(row[-1] for row in dataSet)) 
 b_index, b_value, b_loss, b_left, b_right = 999, 999, 999, None, None 
 while len(features) < n_features: 
 index = randrange(len(dataSet[0])) - 1) 
 if index not in features: 
  features.append(index) 
 # print 'features:', features 
 for index in features: # 找到列的最适合做节点的索引,(损失最小) 
 for row in dataSet: 
  left, right = data_spilt(dataSet, index, row[index]) # 以它为节点的,左右分支 
  loss = spilt_loss(left, right, class_values) 
  if loss < b_loss: # 寻找最小分割代价 
  b_index, b_value, b_loss, b_left, b_right = index, row[index], loss, left, right 
 # print b_loss 
 # print type(b_index) 
 return {'index': b_index, 'value': b_value, 'left': b_left, 'right': b_right} 
# 출력 레이블 결정 
def decide_label(data): 
 output = [row[-1] for row in data] 
 return max(set(output), key=output.count) 
# 자식 분할, 지속적으로 단말 노드를 구축하는 과정 
def sub_spilt(root, n_features, max_depth, min_size, depth): 
 left = root['left'] 
 # print left 
 right = root['right'] 
 del (root['left']) 
 del (root['right']) 
 # print depth 
 if not left or not right: 
 root['left'] = root['right'] = decide_label(left + right) 
 # print 'testing' 
 return 
 if depth > max_depth: 
 root['left'] = decide_label(left) 
 root['right'] = decide_label(right) 
 return 
 if len(left) < min_size: 
 root['left'] = decide_label(left) 
 else: 
 root['left'] = get_best_spilt(left, n_features) 
 # print 'testing_left' 
 sub_spilt(root['left'], n_features, max_depth, min_size, depth + 1) 
 if len(right) < min_size: 
 root['right'] = decide_label(right) 
 else: 
 root['right'] = get_best_spilt(right, n_features) 
 # print 'testing_right' 
 sub_spilt(root['right'], n_features, max_depth, min_size, depth + 1) 
 # 구조화 결정 트리 
def build_tree(dataSet, n_features, max_depth, min_size): 
 root = get_best_spilt(dataSet, n_features) 
 sub_spilt(root, n_features, max_depth, min_size, 1) 
 return root 
# 预测测试集结果 
def predict(tree, row): 
 predictions = [] 
 if row[tree['index']] < tree['value']: 
 if isinstance(tree['left'], dict): 
  return predict(tree['left'], row) 
 else: 
  return tree['left'] 
 else: 
 if isinstance(tree['right'], dict): 
  return predict(tree['right'], row) 
 else: 
  return tree['right'] 
  # predictions=set(predictions) 
def bagging_predict(trees, row): 
 predictions = [predict(tree, row) for tree in trees] 
 return max(set(predictions), key=predictions.count) 
# 创建随机森林 
def random_forest(train, test, ratio, n_feature, max_depth, min_size, n_trees): 
 trees = [] 
 for i in range(n_trees): 
 train = get_subsample(train, ratio)#从切割的数据集中选取子集 
 tree = build_tree(train, n_features, max_depth, min_size) 
 # print 'tree %d: '%i,tree 
 trees.append(tree) 
 # predict_values = [predict(trees,row) for row in test] 
 predict_values = [bagging_predict(trees, row) for row in test] 
 return predict_values 
# 정확도 계산 
def accuracy(predict_values, actual): 
 correct = 0 
 for i in range(len(actual)): 
 if actual[i] == predict_values[i]: 
  correct += 1 
 return correct / float(len(actual)) 
if __name__ == '__main__': 
 seed(1) 
 dataSet = loadCSV(r'G:\0석학생\tianchiCompetition\훈련 소样本2.csv') 
 column_to_float(dataSet) 
 n_folds = 5 
 max_depth = 15 
 min_size = 1 
 ratio = 1.0 
 # n_features=sqrt(len(dataSet)-1) 
 n_features = 15 
 n_trees = 10 
 folds = spiltDataSet(dataSet, n_folds)# 데이터셋을 먼저 분할 
 scores = [] 
 for fold in folds: 
 train_set = folds[ 
   :] # 여기서 train_set=folds를 간단히 사용할 수 없습니다. 이렇게 사용하면 train_set의 값이 변경되면 folds의 값도 변경됩니다. 따라서 복사 형식을 사용해야 합니다. (L[:])는 시리즈를 복사하고, D.copy()는 딕셔너리를 복사하고, list는 복사를 생성합니다. 
 train_set.remove(fold)# 훈련 데이터 선택 
 # print len(folds) 
 train_set = sum(train_set, []) # 여러 fold 리스트를 하나의 train_set 리스트로 결합 
 # print len(train_set) 
 test_set = [] 
 for row in fold: 
  row_copy = list(row) 
  row_copy[-1] = None 
  test_set.append(row_copy) 
  # for row in test_set: 
  # print row[-1] 
 actual = [row[-1for row in fold] 
 predict_values = random_forest(train_set, test_set, ratio, n_features, max_depth, min_size, n_trees) 
 accur = accuracy(predict_values, actual) 
 scores.append(accur) 
 print('트리 수 %d' % n_trees) 
 print('점수:%s' % scores) 
 print('평균 점수:%s' % (sum(scores)) / float(len(scores))) 

2.5 랜덤 포레스트 분류 sonic 데이터

# CART on the Bank Note dataset
from random import seed
from random import randrange
from csv import reader
# CSV 파일 로드
def load_csv(filename):
 file = open(filename, "r")
 lines = reader(file)
 dataset = list(lines)
 return dataset
# 문자열 열을 부호 float로 변환
def str_column_to_float(dataset, column):
 for row in dataset:
 row[column] = float(row[column].strip())
# 데이터 세트를 k개의 부분으로 분할합니다
def cross_validation_split(dataset, n_folds):
 dataset_split = list()
 dataset_copy = list(dataset)
 fold_size = int(len(dataset) / n_folds)
 for i in range(n_folds):
 fold = list()
 while len(fold) < fold_size:
  index = randrange(len(dataset_copy))
  fold.append(dataset_copy.pop(index))
 dataset_split.append(fold)
 return dataset_split
# 정확도 퍼센트 계산
def accuracy_metric(actual, predicted):
 correct = 0
 for i in range(len(actual)):
 if actual[i] == predicted[i]:
  correct += 1
 return correct / float(len(actual)) * 100.0
# 결정 트리 알고리즘을 교차��분으로 평가합니다
def evaluate_algorithm(dataset, algorithm, n_folds, *args):
 folds = cross_validation_split(dataset, n_folds)
 scores = list()
 for fold in folds:
 train_set = list(folds)
 train_set.remove(fold)
 train_set = sum(train_set, [])
 test_set = list()
 for row in fold:
  row_copy = list(row)
  test_set.append(row_copy)
  row_copy[-1] = None
 predicted = algorithm(train_set, test_set, *args)
 actual = [row[-1for row in fold]
 accuracy = accuracy_metric(actual, predicted)
 scores.append(accuracy)
 return scores
# 데이터 세트를 특정 속성과 속성 값에 따라 분할합니다
def test_split(index, value, dataset):
 left, right = list(), list()
 for row in dataset:
 if row[index] < value:
  left.append(row)
 else:
  right.append(row)
 return left, right
# Calculate the Gini index for a split dataset
def gini_index(groups, class_values):
 gini = 0.0
 for class_value in class_values:
 for group in groups:
  size = len(group)
  if size == 0:
  continue
  proportion = [row[-1] for row in group].count(class_value) / float(size)
  gini += (proportion * (1.0 - proportion))
 return gini
# Select the best split point for a dataset
def get_split(dataset):
 class_values = list(set(row[-1] for row in dataset))
 b_index, b_value, b_score, b_groups = 999, 999, 999, None
 for index in range(len(dataset[0]))-1)
 for row in dataset:
  groups = test_split(index, row[index], dataset)
  gini = gini_index(groups, class_values)
  if gini < b_score:
  b_index, b_value, b_score, b_groups = index, row[index], gini, groups
 print ({'index':b_index, 'value':b_value})
 return {'index':b_index, 'value':b_value, 'groups':b_groups}
# Create a terminal node value
def to_terminal(group):
 outcomes = [row[-1] for row in group]
 return max(set(outcomes), key=outcomes.count)
# Create child splits for a node or make terminal
def split(node, max_depth, min_size, depth):
 left, right = node['groups']
 del(node['groups'])
 # check for a no split
 if not left or not right:
 node['left'] = node['right'] = to_terminal(left + right)
 return
 # check for max depth
 if depth >= max_depth:
 node['left'], node['right'] = to_terminal(left), to_terminal(right)
 return
 # process left child
 if len(left) <= min_size:
 node['left'] = to_terminal(left)
 else:
 node['left'] = get_split(left)
 split(node['left'], max_depth, min_size, depth)+1)
 # process right child
 if len(right) <= min_size:
 node['right'] = to_terminal(right)
 else:
 node['right'] = get_split(right)
 split(node['right'], max_depth, min_size, depth)+1)
# 결정 트리를 만듭니다
def build_tree(train, max_depth, min_size):
 root = get_split(train)
 split(root, max_depth, min_size, 1)
 return root
# 결정 트리로 예측을 합니다
def predict(node, row):
 if row[node['index']] < node['value']:
 if isinstance(node['left'], dict):
  return predict(node['left'], row)
 else:
  return node['left']
 else:
 if isinstance(node['right'], dict):
  return predict(node['right'], row)
 else:
  return node['right']
# Classification and Regression Tree Algorithm
def decision_tree(train, test, max_depth, min_size):
 tree = build_tree(train, max_depth, min_size)
 predictions = list()
 for row in test:
 prediction = predict(tree, row)
 predictions.append(prediction)
 return(predictions)
# Test CART on Bank Note dataset
seed(1)
# load and prepare data
filename = r'G:\0pythonstudy\결정트리\sonar.all-data.csv'
dataset = load_csv(filename)
# 문자열 특성을 정수로 변환
for i in range(len(dataset[0]))-1)
 str_column_to_float(dataset, i)
# evaluate algorithm
n_folds = 5
max_depth = 5
min_size = 10
scores = evaluate_algorithm(dataset, decision_tree, n_folds, max_depth, min_size)
print('점수: %s' % scores)
print('평균 정확도: %.3f%%' % (sum(scores)/float(len(scores)))

실행 결과:

{'index': 38, 'value': 0.0894}
{'index': 36, 'value': 0.8459}
{'index': 50, 'value': 0.0024}
{'index': 15, 'value': 0.0906}
{'index': 16, 'value': 0.9819}
{'index': 10, 'value': 0.0785}
{'index': 16, 'value': 0.0886}
{'index': 38, 'value': 0.0621}
{'index': 5, 'value': 0.0226}
{'index': 8, 'value': 0.0368}
{'index': 11, 'value': 0.0754}
{'index': 0, 'value': 0.0239}
{'index': 8, 'value': 0.0368}
{'index': 29, 'value': 0.1671}
{'index': 46, 'value': 0.0237}
{'index': 38, 'value': 0.0621}
{'index': 14, 'value': 0.0668}
{'index': 4, 'value': 0.0167}
{'index': 37, 'value': 0.0836}
{'index': 12, 'value': 0.0616}
{'index': 7, 'value': 0.0333}
{'index': 33, 'value': 0.8741}
{'index': 16, 'value': 0.0886}
{'index': 8, 'value': 0.0368}
{'index': 33, 'value': 0.0798}
{'index': 44, 'value': 0.0298}
점수: [48.78048780487805, 70.73170731707317, 58.536585365853654, 51.2195121951
2195, 39.02439024390244]
평균 정확도: 53.659%
어떤 키든 누르세요. . .

지식:

1.CSV 파일 로드

from csv import reader
# CSV 파일 로드
def load_csv(filename):
 file = open(filename, "r")
 lines = reader(file)
 dataset = list(lines)
 return dataset
filename = r'G:\0pythonstudy\결정트리\sonar.all-data.csv'
dataset=load_csv(filename)
print(dataset)

2.데이터를 float 형식으로 변환

# 문자열 열을 부호 float로 변환
def str_column_to_float(dataset, column):
 for row in dataset:
 row[column] = float(row[column].strip())
 # print(row[column])
# 문자열 특성을 정수로 변환
for i in range(len(dataset[0]))-1)
 str_column_to_float(dataset, i)

3.마지막 열의 분류 문자열을 0,1integer

def str_column_to_int(dataset, column):
 class_values = [row[column] for row in dataset]#class 레이블의 리스트 생성
 # print(class_values)
 unique = set(class_values)#set으로 다른 요소를 얻다
 print(unique)
 lookup = dict()#정의하다
 # print(enumerate(unique))
 for i, value in enumerate(unique):
 lookup[value] = i
 # print(lookup)
 for row in dataset:
 row[column] = lookup[row[column]]
 print(lookup['M'])

4、데이터 세트를 K개로 분할합니다

# 데이터 세트를 k개의 부분으로 분할합니다
def cross_validation_split(dataset, n_folds):
 dataset_split = list()# 빈 리스트 생성
 dataset_copy = list(dataset)
 print(len(dataset_copy))
 print(len(dataset))
 #print(dataset_copy)
 fold_size = int(len(dataset) / n_folds)
 for i in range(n_folds):
 fold = list()
 while len(fold) < fold_size:
  index = randrange(len(dataset_copy))
  # print(index)
  fold.append(dataset_copy.pop(index))# .pop()를 사용하여 요소를 모두 제거합니다(이동하는 것과 같습니다),이 k개의 요소가 모두 다릅니다
 dataset_split.append(fold)
 return dataset_split
n_folds=5 
folds = cross_validation_split(dataset, n_folds)# k개의 요소가 모두 다른 훈련 세트로 분할됩니다

5. 정확률 계산

# 정확도 퍼센트 계산
def accuracy_metric(actual, predicted):
 correct = 0
 for i in range(len(actual)):
 if actual[i] == predicted[i]:
  correct += 1
 return correct / float(len(actual)) * 100.0# 이는 이분 분류 정확성의 표현식입니다

6. 이는 이분 분류의 각 열입니다

# 데이터 세트를 특정 속성과 속성 값에 따라 분할합니다
def test_split(index, value, dataset):
 left, right = list(), list()#초기화 두개의 비어 있는 리스트
 for row in dataset:
 if row[index] < value:
  left.append(row)
 else:
  right.append(row)
 return left, right #두 개의 리스트를 반환하여 각 행(index)를 value로 구분하여 두분류로 나눔.

7.사용gini 계수를 최적 분할점을 얻기 위해

# Calculate the Gini index for a split dataset
def gini_index(groups, class_values):
 gini = 0.0
 for class_value in class_values:
 for group in groups:
  size = len(group)
  if size == 0:
  continue
  proportion = [row[-1] for row in group].count(class_value) / float(size)
  gini += (proportion * (1.0 - proportion))
 return gini
# Select the best split point for a dataset
def get_split(dataset):
 class_values = list(set(row[-1] for row in dataset))
 b_index, b_value, b_score, b_groups = 999, 999, 999, None
 for index in range(len(dataset[0]))-1)
 for row in dataset:
  groups = test_split(index, row[index], dataset)
  gini = gini_index(groups, class_values)
  if gini < b_score:
  b_index, b_value, b_score, b_groups = index, row[index], gini, groups
 # print(groups)
 print ({'index':b_index, 'value':b_value,'score':gini})
 return {'index':b_index, 'value':b_value, 'groups':b_groups}

이 코드는 gini 지수를 구하는 데 정의식을 직접 적용하여 이해하기 쉽습니다. 최적의 분할점을 이해하는 것은 어려울 수 있습니다. 여기서는 두 계층의 반복을 사용하며, 하나는 열에 대한 반복이고 다른 하나는 행에 대한 반복입니다. 그리고 각 반복마다 gini 계수를 갱신합니다.

8、결정树叶生成

# Create child splits for a node or make terminal
def split(node, max_depth, min_size, depth):
 left, right = node['groups']
 del(node['groups'])
 # check for a no split
 if not left or not right:
 node['left'] = node['right'] = to_terminal(left + right)
 return
 # check for max depth
 if depth >= max_depth:
 node['left'], node['right'] = to_terminal(left), to_terminal(right)
 return
 # process left child
 if len(left) <= min_size:
 node['left'] = to_terminal(left)
 else:
 node['left'] = get_split(left)
 split(node['left'], max_depth, min_size, depth)+1)
 # process right child
 if len(right) <= min_size:
 node['right'] = to_terminal(right)
 else:
 node['right'] = get_split(right)
 split(node['right'], max_depth, min_size, depth)+1)

여기서는 재귀 프로그래밍을 사용하여 지속적으로 좌 분할 트리와 우 분할 트리를 생성합니다

9.결정 트리 구축

# 결정 트리를 만듭니다
def build_tree(train, max_depth, min_size):
 root = get_split(train)
 split(root, max_depth, min_size, 1)
 return root 
tree=build_tree(train_set, max_depth, min_size)
print(tree)

10、테스트 셋 예측

# 결정 트리를 만듭니다
def build_tree(train, max_depth, min_size):
 root = get_split(train)#최良 분할점, 인덱스 값, 그룹을 얻습니다
 split(root, max_depth, min_size, 1)
 return root 
# tree=build_tree(train_set, max_depth, min_size)
# print(tree) 
# 결정 트리로 예측을 합니다
def predict(node, row):
 print(row[node['index']])
 print(node['value'])
 if row[node['index']] < node['value']:#테스트 셋을 사용하여 훈련된 최良 분할점을 대입, 분할점에 편차가 있을 때는 좌우 분할 트리를 통해 추가 비교
 if isinstance(node['left'], dict):#如果是字典类型,执行操作
  return predict(node['left'], row)
 else:
  return node['left']
 else:
 if isinstance(node['right'], dict):
  return predict(node['right'], row)
 else:
  return node['right']
tree = build_tree(train_set, max_depth, min_size)
predictions = list()
for row in test_set:
 prediction = predict(tree, row)
 predictions.append(prediction)

11.결정 트리 평가

# 결정 트리 알고리즘을 교차��분으로 평가합니다
def evaluate_algorithm(dataset, algorithm, n_folds, *args):
 folds = cross_validation_split(dataset, n_folds)
 scores = list()
 for fold in folds:
 train_set = list(folds)
 train_set.remove(fold)
 train_set = sum(train_set, [])
 test_set = list()
 for row in fold:
  row_copy = list(row)
  test_set.append(row_copy)
  row_copy[-1] = None
 predicted = algorithm(train_set, test_set, *args)
 actual = [row[-1for row in fold]
 accuracy = accuracy_metric(actual, predicted)
 scores.append(accuracy)
 return scores 

이것이 본 문서의 전체 내용입니다. 여러분의 학습에 도움이 되길 바라며, 많은 지원과 격려를 부탁드립니다.

선언: 본 내용은 인터넷에서 가져왔으며, 저작권자는 모두 소유합니다. 내용은 인터넷 사용자가 자발적으로 기여하고 업로드한 것이며, 이 사이트는 소유권을 가지지 않으며, 인공적인 편집을 하지 않았으며, 관련 법적 책임도 부담하지 않습니다. 저작권 침해가 의심되는 내용을 발견하면 notice#w로 이메일을 보내 주시기 바랍니다.3codebox.com(보고할 때는 #을 @으로 변경하십시오.)를 통해 신고하시고 관련 증거를 제공하시면, 실제로 확인되면 해당 사이트는 즉시 저작권 침해 내용을 삭제할 것입니다.

좋아하는 것