본문 바로가기

반응형

전체 글

(291)
9장 텍스트 분류 - 순환신경망 (5) 9-4 LSTM 순환 신경망으로 텍스트 분류 - LSTM 타임 스텝이 멀리 떨어진 영단어 사이의 관계를 파악하기 위함 1997년 호크라이터와 슈미트후버가 고안한 것으로, 그레이디언트 소실(vanishing gradient) 문제를 극복하여 긴 시퀀스를 성공적으로 모델링하게 됨 셀의 구조 - 텐서플로로 LSTM 순환 신경망 만들기 1. LSTM 순환 신경망 만들기 from tensorflow.keras.layers import LSTM model_lstm = Sequential() model_lstm.add(Embedding(1000, 32)) model_lstm.add(LSTM(8)) model_lstm.add(Dense(1, activation='sigmoid')) model_lstm.summary()..
9장 텍스트 분류 - 순환신경망 (4) 9-3 텐서플로로 순환 신경망 만들기 - SimpleRNN 클래스로 순환 신경망 만들기 1. 순환 신경망에 필요한 클래스 임포트 from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, SimpleRNN 2. 모델 만들기 model = Sequential() model.add(SimpleRNN(32, input_shape=(100, 100))) model.add(Dense(1, activation='sigmoid')) model.summary() """ Model: "sequential" ________________________________________________________________..
9장 텍스트 분류 - 순환신경망 (3) - 순환 신경망 클래스 구현하기 1. init() 메서드 수정 import tensorflow as tf def __init__(self, n_cells=10, batch_size=32, learning_rate=0.1): self.n_cells = n_cells # 셀 개수 self.batch_size = batch_size # 배치 크기 self.w1h = None # 은닉 상태에 대한 가중치 self.w1x = None # 입력에 대한 가중치 self.b1 = None # 순환층의 절편 self.w2 = None # 출력층의 가중치 self.b2 = None # 출력층의 절편 self.h = None # 순환층의 활성화 출력 self.losses = [] # 훈련 손실 self.val_losses ..

반응형