AI/Generate img

[책] 비전공자를 위한 딥러닝_01: 선형함수 / 비선형함수

잉_민 2023. 1. 21. 18:03
728x90
반응형

>>딥러닝 

심층 신경망..레이어 ..은닉층 

머신러닝의 일종으로 인간의 노의 신경망에서 착안한 인공신경망을 의미한다.

즉 신경망 구조로 학습하는 머신러닝을 딥러닝이라고한다.

뉴런을 층층이 쌓은 모델에 데이터를 전파시키고 : 순전파

그 예측과 정답의 차이를 역전파시켜 피드백하고 수정하는 과정을 통해 학습니다.

 

딥러닝에서 딥이란 신경망의 층이 많아 모델의 학습과정이 깇다는 의미.

은닉층의 수가 많을 때 깊다고 한다.

 

- 예측하는 값이 연속 값이면 회귀, 이산 값이면 분류

- 머신러닝의 학습 종류

    -지도 : 데이터에 라벨이 있다

    -비지도 : 데이터에 라벨이 없다

    -반지도

    -강화학습 (모델의 선택에 따라 보상 혹은 벌점)

 

>> 신경망기초

데이터를 활용해 모델을 만들고, 모델을 활용해 새로운 데이터를 예측해보자. 

>>>>>집의 가격을 예측하기 위한 변수들

- 집의 크기, 연식, 위치

가중치를 곱해주고 bias를 더해줘서 가격을 예측한다.

가격은 또다른 새로운 특성이된다. 

 

1. 선형 함수 ..(위의 과정이 선형함수.): 이전 층의 특성들의 가중합으로 새로운 특성들을 만들어내는 것.

2. 비선형함수..(아래를 위해 사용되는 함수.): 뇌에서 특정 신호가 들어왔을 때 다음 층으로 넘어가기 위해 임계값을 넘어야하는 시스템과 같은 .. 하나의 선이 아니라 비율이 달라지게 된다.

 

깊은 은닉층을 만들 때 '효과'를 올리기위해. 렐루시그모이드를 활용해 새로 만들어진 특성을 비선형 변환시켜준다 !

 

실습

https://replit.com

 

deep01

Run Python code live in your browser. Write and run code in 50+ languages online with Replit, a powerful IDE, compiler, & interpreter.

replit.com

import numpy as np

##signoid # deepleaning

def sigmoid(x):
  return 1/(1+np.exp(-x))

for i in range(-10,10,1):
  print("sigmoid({}):{}".format(i,sigmoid(i)))
##relu # deepleaning

def relu(x):
  return max(0,x)

##max 두값중 큰값을 출력되는 함수

 

 

다음 > 가중치 행렬??

 

728x90
반응형