본문 바로가기

반응형

전체 글

(291)
5장 훈련 노하우 배우기 (2) 5-2 과대적합과 과소적합 - 학습 곡선을 통한 과대적합과 과소적합 알아보기 과대적합(overfitting): 모델이 훈련 세트에서는 좋은 성능을 내지만 검증 세트에서는 낮은 성능을 내는 경우 과소적합(underfitting): 훈련 세트와 검증 세트의 성능에는 차이가 크지 않지만 모두 낮은 성능을 내는 경우 훈련 세트의 크기와 과대적합, 과소적합 분석 첫번째 곡선: 과대적합 (분산이 크다: high variance) 두번째 곡선: 과소적합 (편향이 크다: high bias) 세번째 곡선: 과대적합과 과소적합 사이 절충점 찾은 것 에포크와 손실 함수 그래프로 과대적합과 과소적합 분석 왼쪽 그래프: 검증 세트의 손실과 훈련 세트의 손실 (최적점 이후에도 계속해서 훈련세트로 모델을 학습시키면 모델이 과대적합..
5장 훈련 노하우 배우기 (1) 5-1 검증 세트를 나누고 전처리 과정 배우기 - 테스트 세트로 모델 튜닝 로지스틱 회귀로 모델 훈련하고 평가 1) cancer 데이터 세트를 읽어 들여 훈련 세트와 테스트 세트로 나눔 from sklearn.datasets import load_breast_cancer from sklearn.model_selection import train_test_split cancer = load_breast_cancer() x = cancer.data y = cancer.target x_train_all, x_test, y_train_all, y_test = train_test_split(x, y, stratify = y, test_size=0.2, random_state=42) 2) SGDClassifier ..
4장 분류하는 뉴런 만들기-이진분류 (3) 4-6 로지스틱 회귀 뉴런으로 단일층 신경망 만들기 - 일반적인 신경망 입력층(input layer), 은닉층(hidder layer), 출력층(output layer) - 단일층 신경망 - 확률적 경사 하강법, 배치 경사 하강법 - 단일층 신경망 클래스 class SingleLayer: def __init__(self): self.w = None self.b = None self.losses = [] def forpass(self, x): z = np.sum(x * self.w) + self.b # 직선 방정식 계산 return z def backprop(self, x ,err): w_grad = x *err # 가중치에 대한 그레이디언트 계산 b_grad = 1 *err # 절편에 대한 그레이디언트 ..

반응형