앗! 광고가 차단되었어요!

글 내용이 방문자께 도움이 되었다면, 광고 차단 프로그램 해제를 고려해주세요 😀.

전공 정리/인공지능 (Coursera) 3

YOLO Algorithm Shallow Notes

오늘은 Coursera에서 학습한 YOLO와 그와 관련된 알고리즘을 정리한다. Object Detection 또는 Localization 문제를 해결하기 위해, 간단한 접근 방법으로는 다음과 같을 것이다. 이미지의 일부분을 crop 한다. 미리 학습된 classifier을 적용한다. 그래서 classifier가 object를 인식하면, 그 박스가 하나의 bounding box가 되는 셈이다. 하지만 이러한 접근은 연산적으로 비싸다. 그 이유는 다음과 같다. 다양한 크기로 crop 해야 한다. 이미지 전체를 일정 보폭으로 crop 하면서 predict 해야 한다. 만약 이 접근(Sliding Windows Detection)이 영상 문제에 사용된다면 성능이 매우 나쁠 것이다. Andrew Ng 교수님은 위..

01. Introduction to Machine Learning

머신러닝과의 첫 만남 대학원의 인공지능 분야에 진학하기 위해, 나는 코세라의 머신러닝, 뉴럴 네트워크에 대한 강의를 듣기로 결심했다. 그리고 한 달 좀 넘는 시간 동안 앤드류 응 교수님의 머신러닝 수업과 심층 코스 중 미니 수업 2개를 수료했다. 대학시절부터 계속 인공지능이 중요하고 매우 인기 있는 분야라고 들었지만, 직접 공부한 것은 이번이 처음이었다. 그래서 혹시 머신러닝을 처음 공부하는 분, 결심한 분을 위해 이 분야의 느낌을 본문 전에 작성하려고 한다. 강의를 듣고서, 슬픈 사실이지만 나는 머신러닝, Neural Network는 정말 피곤한 분야라고 느껴졌다 (그렇다고 흥미롭지 않다는 의미는 아니다). 나는 인공지능이면 이미지 classify도 슉슉 되고 무언가 놀라운 분야라고 생각했는데 실제로 ..

Neural Network - forward and backward propagation

오늘은 뉴럴 네트워크의 중요한 개념 forward propagation과 backward propagation을 정리하려고 한다. 뉴럴 네트워크의 학습 과정을 간단히 설명하면 (regression algorithm과 비슷하게) 파라미터 W, b (또는 Theta)를 이용하여 각 레이어의 activation과 loss를 계산하고, gradient descent 기법을 적용하기 위해 파라미터들의 partial derivative를 구하게 된다. (그리고 learning rate에 따라 파라미터를 업데이트할 것이다) 여기서 W, b를 이용하여 각 layer의 activation 값 (a), 마지막 prediction 값(y hat), 그리고 loss (cost)를 구하는 과정이 forward propagati..