전체 글 (104) 썸네일형 리스트형 시그모이드 함수(Sigmoid function) x(입력)가 음수 방향으로 갈 수록 y(출력)가 0에 가까워지고, x(입력)가 양수 방향으로 갈 수록 y(출력)가 1에 가까워진다. 즉, 시그모이드 함수를 통과하면 0 에서 1 사이 값이 나온다 선형 회귀에서 가설은 H(x) = Wx + b 논리 회귀에서는 시그모이드 함수에 선형회귀 식을 넣는다. 확률 분포 그래프 (X:라벨(클래스) | Y:세로축 확률 ) Crossentropy (확률 분포 그래프의 차 이를 비교) 임의의 입력값에 대해 원하는 확률 분포 그래프를 만들도록 학습시키는 손실 함수 Keras에서 이진 논리 회귀의 경우 binary_crossentropy 손실 함수를 사용 논리 회귀 (Logistic regression) 대학교 시험 전 날 공부한 시간을 가지고 해당 과목의 이수 여부(Pass or fail)를 예측하는 문제 로지스틱 함수(Logistic function) : S-커브를 함수로 표현해낸 것 입력값(x) 으로 어떤 값이든 받을 수가 있지만 출력 결과(y)는 항상 0에서 1사이 값이 됩니다. 딥러닝에서는 시그모이드 함수 Sigmoid function)라고 불립니다. 데이터셋 분할 (학습/검증/테스트) Training set (학습 데이터셋, 트레이닝셋) = 교과서 Validation set (검증 데이터셋, 밸리데이션셋) = 머신러닝 모델의 성능을 검증(정답 라벨有) Test set (평가 데이터셋, 테스트셋) = 실제 환경에서의 평가(정답 라벨無) 경사 하강법 (Gradient descent method) 손실 함수를 최소화(Optimize) : 그래프를 따라 점점 아래로 내려간다 한칸씩 전진하는 단위를 Learning rate OverShooting : learnig rate가 지나치게 커서 최소값을 지나치고 진동하다가 발산하는 경우 목표 : 손실 함수의 최소점인 Global cost minimum을 찾는 것 한 칸씩 움직이는 스텝(Learning rate)를 잘못 설정할 경우 : Local cost minimum에 빠질 가능성이 높다. Cost가 높다 = 모델의 정확도가 낮다 최대한 Global minimum을 찾기 위해 (기계가 잘 학습을 잘 하는)가설과 손실 함수를 만든다. 그것이 바로 머신러닝 엔지니어의 핵심 역할. 선형 회귀 (Linear Regression) - 가설, 손실 함수 입력값과 출력값의 관계를 찾는 방법 독립변수와 종속변수의 관계를 찾는 방법 X와 Y의 관계를 찾는 방법 선형그래프에 대한 오차 예측 방법 직선 그래프에 대한 가설 : H(x) = Wx + b 정확한 예측을 위해 직선(가설)과 점(정답)의 거리가 가까워지도록 해야합니다. (=mean squared error) 그림을 보면 A는 3, B는 1만큼의 손실이 발생했다. Cost = (H(x ) − y ) N 1 ∑i=1 N i i Cost를 손실 함수라고 한다. 입력값이 2개 이상이면 다중 선형 회귀를 사용한다. cv2.VideoCapture PYTHON import cv2 cap = cv2.VideoCapture('03.mp4') cap = cv2.VideoCapture(0) image crop PYTHON import cv2 img = cv2.imread('imgs/01.jpg') img = img[100:200, 150:250] cv2.resize PYTHON import cv2 img = cv2.resize(img, dsize=(640, 360)) 이전 1 ··· 8 9 10 11 12 13 다음