본문 바로가기

반응형

분류 전체보기

(291)
딥러닝 (3) 8-8 합성곱 신경망(CNN: Convolution Neural Network) 딥러닝 모델 중 가장 기본이 되는 다층 퍼셉트론 모델로 이미지의 인식, 예측 등에 활용 영상 인식 분야에서 가장 많이 사용 합성곱 신경망의 특징 여러개의 완전 연결 계층과 활성화 함수를 사용하는 대신, 합성곱 계층(Convolution Layer)과 풀링 계층(Pooling Layer)을 활성화 함수의 앞과 뒤에 배치하는 형태 이미지 배열 표현의 문제점 이미지 데이터를 1차원의 데이터로 펼쳐 입력층에 넣어야 함 원데이터가 갖는 형상, 공간적 구조가 무시됨 모델의 이미지 인식 성능을 저하시키는 요인으로 이미지 데이터는 공간 구조를 고려하는 조작이 필요 합성곱 계층의 계산 원리 완전 연결 계층이 이미지 데이터가 갖는 공간적 구조..
딥러닝 (2) 8-4 제한 볼츠만 머신과 심층 신뢰 신경망 다층 퍼셉트로넹서 역전파 작업을 수행할 때 3개 층 이상이 되면 기울기 소실 문제(Vanishing Gradient Problem)가 발생해 입력값이 출력값에 영향을 미치지 못함 이는 모델 초기의 Weight에 대한 설정이 미숙하기 때문에 나타나는 문제 모델의 변숫값을 초기화하기 위한 방안으로 제한 볼츠만 머신(RBM: Restricted Boltzmann Machine) 제시 제한 볼츠만 머신은 2개 층으로 구성 제한 볼츠만 머신을 여러 층으로 쌓은 형태가 심층 볼츠만 머신 심층 신뢰 신경망(DBN: Deep Belief Network): 제한 볼츠만 머신을 이용한 다층화 8-5 오토인코더 입출력층의 뉴런 수가 동일하며, 1개의 숨어 있는 계층(Hidden ..
딥러닝 (1) 8-1 신경망의 개념 및 다층화 신경망 인간 두뇌의 생리적 활동을 모방하는 계산적 모델을 통해 인공지능을 구현하려는 시도 1943년 제안된 맥컬룩-피츠(McCulloch-Pitts)모델이 신경 세포의 과정을 수학적 모델로 만든 것 중 가장 널리 알려져 있음 맥컬룩-피츠 모델의 가설 인공 신경 세포는 활성화되거나 활성화되지 않은 2가지 상태를 가짐 어떤 인공 신경 세포를 작동하게 하려면 2개 이상의 고정된 수의 시냅스가 일정한 시간 내에 활성화되어야 함 신경 시스템 내에서 유일하게 의미 있는 시간 지연은 시냅스 지연 억제적인 시냅스는 그 시각의 뉴런 활성화를 절대적으로 방지 신경망의 구조는 시간에 따라 변하지 않음 퍼셉트론 1958년 프랭크 로젠블랏이 제안한 신경망 모델 인공 신경 세포의 구조를 확장해 네..
강화 학습 (2) 7-5 기본 모델 가장 간단한 형태로 모델에 상태나 정책이 없고, 주어진 확률에 따라 행동하며 그에 따라 보상이 지급 탐욕 알고리즘(Greedy Algorithm) 현단계에서 최선은 아니지만, 전체적으로 최선인 경로를 선택하기 위해 개발된 것 UCB1 알고리즘(Upper Confidence Bound1 Algorithm) '성공률' + '바이어스'를 최대로 만드는 행동을 선택하는 방법 7-6 정책 경사법 모델 주어진 환경에서 상태를 갖고 관측하는 기능을 추가 강화학습에서 사용하는 가장 일반적인 모델 유형 정책 경사법의 학습 순서 1) 초기 정책을 준비 2) 정책을 파라미터로 변환 3) 파라미터에 따라 골인 지점에 이를 때까지 행동을 반복 4) 성공한 경우, 성공한 행동을 많이 받아들이도록 파라미터를 변경..
강화 학습 (1) 7-1 강화학습의 개념 시행과 보상을 바탕으로 하는 인공지능 기법 주어진 환경에서 의사결정을 최적화할 때 사용 지도학습, 비지도학습으로 나뉨 지도학습: 랜덤 포레스트, 의사결정 트리, 서포트 벡터 머신 (예측과 식별) 비지도학습: 군집 분석, 연관 관계 분석 (특성 분류) 강화학습: 기계 학습의 기법 중 미래의 가치 극대화(Optimization)를 위한 방법 강화학습은 행동과 보상을 통해 에러를 줄여나가는 방식(Trial and Error)을 사용 행동의 결과가 나중에 보상으로 주어지기 때문에 좋은 행동에 대한 즉각적인 판단이 어려움(Delayed Reward) 7-2 강화학습 기법의 개념 마르코프 결정 과정(MDP, Markov Decision Process): 마르코프 연쇄를 바탕으로 순차적인 행동..
통계 기반 기계 학습 - 비지도 학습 통계 기반 기계 학습 - 비지도 학습 비지도학습에 속하는 분석 기법은 빅데이터 분석에 사용하는 기법 빅데이터 '커질 데이터'를 의미 시간의 흐름에 따라 데이터가 지속적으로 생성 생성되는 데이터의 크기가 무한정 커짐 장비마다 생성되는 데이터의 모양이 다양함 생성된 데이터가 잘못되거나 부정확한 정보를 포함하고 있는 경우 많음 데이터의 모양을 통일시키고, 부정확한 정보를 보와하는 데이터 전처리 과정이 중요 시간의 흐름을 고려한 분석 기법인 시계열 분석 중요 6-1 군집 분석(Cluster Analysis) 데이터를 구성하는 각 개체의 유사성을 측정해 상호 유사성이 높은 대상을 집단으로 분류하고, 군집에 속한 개체의 유사성과 서로 다른 군집에 속한 개체간의 상이성을 파악하는 분석 방법 군집 내의 객체는 동질적인..
통계 기반 기계 학습 - 지도학습 통계 기반 기계 학습 - 지도학습 함수의 최적화를 통한 기계 학습: 회귀 분석, 시계열 분석 통계 기법을 통한 기계 학습: 지도학습, 비지도학습 신경망 기반 기계 학습: 딥러닝 규칙 기반 기계 학습 강화학습 기반 기계 학습: 강화학습 5-1 통계 기반 기계 학습의 분류 지도학습의 정의 및 분석 기법 자료가 입력 변수와 출력 변수로 주어지고, 입출력 변수 같의 함수적 의존 관계를 자료로부터 학습을 통해 추정함으로써 특정 입력이 주어졌을 때 출력을 예측할 수 있는 모형을 얻는 것 회귀 분석: 선형 회귀 분석, 비선형 회귀 분석, 로지스틱 회귀, 신경망, 커널 방법론 의사결정 트리 랜덤 포레스트 서포트 벡터 머신 베이지안 추론 비지도학습의 정의 및 분석 기법 주어진 자료의 숨은 의미를 찾는 분석 기법 군집 분..
몬테카를로 알고리즘(Monte-Carlo Algorithm) 4-1 몬테카를로 알고리즘의 개념 여러개의 표본을 추출해 전체적인 분포를 파악하는 방법 '결정적 알고리즘(Deterministic Algorithm)의 반대 개념 수식만으로 계산하기 어려운 문제에 대해 데이터의 무작위 표본을 얻은 후 이를 이용해 답을 구하는 방법 4-2 마르코프 체인 몬타카를로 방법 마르코프체인 몬테카를로법(Markov Chain Monte Carlo Method, MCMC) 누적 확률 추정을 위해 사용하는 방법 어떤 목표 확률 분포(Target Probability Distribution)에서 무작위 표본을 얻는 방법 메트로폴리스 - 헤이스팅스 알고리즘 1) 기존값 중 하나를 임의로 정한다 2) 기존값을 기준으로 제안 분포(Proposal Distribution)에서 후보값을 정한다 ..
마르코프 연쇄 3-1 마르코프 연쇄 마르코프 성질(Markov Property)을 지니고 있는 이산 확률 과정(Stochastic Process) 마르코프 체인은 영향을 받아 상태가 변경될 때 상태 전이 확률(Transition Probability)을 가짐 3-2 은닉 마르코프 연쇄 은닉 마르코프 연쇄의 개념 각 상태가 마르코프 체인을 따르되, 은닉돼 있다고 가정하는 것 우도 계산 상태가 주어졌을 때 관측치가 나타날 확률 마르코프 모델에서 현상태는 직전 사태만 고려하면 됨 전향 알고리즘 우도를 전체 데이터를 대상으로 해 구하는 것 모델이 주어졌을 때 관측치가 나타날 확률을 구함 비터비 알고리즘(Viterbi Algorithm) 각 상태의 확률 중 최댓값을 얻고자 하는 것 ※ 해당 내용은 의 내용을 토대로 학습하며 정..
베이지안 추론 및 응용 2-1 베이지안 통계 베이지안 통계학은 실증적(Empirical) 통계학으로, 과거의 결과를 바탕으로 분석 및 예측하는 것 확률 이론의 분류 빈도 이론: 반복적인 사건의 빈도 베이지안 이론: 어떤 가설의 확률을 평가하기 위해 사전 지식을 갖추고, 관측 결과를 바탕으로 하는 '가능도(likelihood)'를 계산해 설정한 사전 지식을 보정하는 과정 수행 베이지안 이론은 기계 학습에서 많이 사용 베이지안 확률 확률 변수의 사전 확률과 사후 확률 사이의 관계를 나타내는 것 베이지안 정리(Bayesian Theorem)라고 부름 사전 확률(P(A), Prior Probability): 결과가 나타나기 전에 결정돼 있는 A(원인)의 확률 우도 확률(P(B|A), Likelihood Probability): A(원..

반응형