본문 바로가기

반응형

사이킷런

(3)
토픽 모델링으로 주제 찾기 (2) 7.2 사이킷런을 이용한 토픽 모델링 7.2.1 데이터 준비 from sklearn.datasets import fetch_20newsgroups categories = ['alt.atheism', 'talk.religion.misc', 'comp.graphics', 'sci.space', 'comp.sys.ibm.pc.hardware', 'sci.crypt'] #학습 데이터셋을 가져옴 newsgroups_train = fetch_20newsgroups(subset='train', categories=categories) print('#Train set size:', len(newsgroups_train.data)) print('#Selected categories:', newsgroups_train.t..
6장 2개의 층을 연결 - 다층 신경망 (4) 6-3 미니 배치를 사용하여 모델 훈련 - 미니 배치 경사 하강법 에포크마다 전체 데이터를 사용하는 것이 아니라 조금씩 나누어 정방향 계산을 수행하고, 그레이디언트를 구하여 가중치 업데이트 작게 나눈 미니 배치만큼 가중치를 업데이트 보통 16,32,64 등 2의 배수 사용 - 미니 배치 경사 하강법 구현 1. MinibatchNetwork 클래스 구현 class MinibatchNetwork(RandomInitNetwork): def __init__(self, units=10, batch_size=32, learning_rate=0.1, l1=0, l2=0): super().__init__(units, learning_rate, l1, l2) self.batch_size = batch_size # 배치 ..
4장 분류하는 뉴런 만들기-이진분류 (3) 4-6 로지스틱 회귀 뉴런으로 단일층 신경망 만들기 - 일반적인 신경망 입력층(input layer), 은닉층(hidder layer), 출력층(output layer) - 단일층 신경망 - 확률적 경사 하강법, 배치 경사 하강법 - 단일층 신경망 클래스 class SingleLayer: def __init__(self): self.w = None self.b = None self.losses = [] def forpass(self, x): z = np.sum(x * self.w) + self.b # 직선 방정식 계산 return z def backprop(self, x ,err): w_grad = x *err # 가중치에 대한 그레이디언트 계산 b_grad = 1 *err # 절편에 대한 그레이디언트 ..

반응형