[책] 비전공자를 위한 딥러닝_01: 선형함수 / 비선형함수
>>딥러닝
심층 신경망..레이어 ..은닉층
머신러닝의 일종으로 인간의 노의 신경망에서 착안한 인공신경망을 의미한다.
즉 신경망 구조로 학습하는 머신러닝을 딥러닝이라고한다.
뉴런을 층층이 쌓은 모델에 데이터를 전파시키고 : 순전파
그 예측과 정답의 차이를 역전파시켜 피드백하고 수정하는 과정을 통해 학습니다.
딥러닝에서 딥이란 신경망의 층이 많아 모델의 학습과정이 깇다는 의미.
은닉층의 수가 많을 때 깊다고 한다.
- 예측하는 값이 연속 값이면 회귀, 이산 값이면 분류
- 머신러닝의 학습 종류
-지도 : 데이터에 라벨이 있다
-비지도 : 데이터에 라벨이 없다
-반지도
-강화학습 (모델의 선택에 따라 보상 혹은 벌점)
>> 신경망기초
데이터를 활용해 모델을 만들고, 모델을 활용해 새로운 데이터를 예측해보자.
>>>>>집의 가격을 예측하기 위한 변수들
- 집의 크기, 연식, 위치
가중치를 곱해주고 bias를 더해줘서 가격을 예측한다.
가격은 또다른 새로운 특성이된다.
1. 선형 함수 ..(위의 과정이 선형함수.): 이전 층의 특성들의 가중합으로 새로운 특성들을 만들어내는 것.
2. 비선형함수..(아래를 위해 사용되는 함수.): 뇌에서 특정 신호가 들어왔을 때 다음 층으로 넘어가기 위해 임계값을 넘어야하는 시스템과 같은 .. 하나의 선이 아니라 비율이 달라지게 된다.
깊은 은닉층을 만들 때 '효과'를 올리기위해. 렐루나 시그모이드를 활용해 새로 만들어진 특성을 비선형 변환시켜준다 !
실습
deep01
Run Python code live in your browser. Write and run code in 50+ languages online with Replit, a powerful IDE, compiler, & interpreter.
replit.com
import numpy as np
##signoid # deepleaning
def sigmoid(x):
return 1/(1+np.exp(-x))
for i in range(-10,10,1):
print("sigmoid({}):{}".format(i,sigmoid(i)))
##relu # deepleaning
def relu(x):
return max(0,x)
##max 두값중 큰값을 출력되는 함수
다음 > 가중치 행렬??