선형회귀2 3.2 경사 하강법 *본 글은 "Do It! 정직하게 코딩하며 배우는 딥러닝 입문", 박해선 저, 이지스 퍼블리싱을 참고하여 작성하였습니다. GitHub Link: 링크 경사 하강법이란? 위에 그렸던 산점도에 가장 잘 맞는 직선을 그린다면, 왼쪽 아래에서 오른쪽 위로, 가운데를 지나는 직선을 그리게 될 것입니다. 위는 입력 데이터 1개의 특성에 대한 직선을 설명한 것입니다. 하지만 저희가 다룰 특성은 총 10개죠. 11차원 그래프는 그릴 수도 없지만, 11차원 공간을 가로지르는 초평면 (hyperplane)은 상상하기도 어렵습니다. 따라서 보통 특성 1, 2개 정도를 사용하여 2, 3차원 그래프로 데이터를 나타내게 됩니다. 이렇게 나타내게 되면 위에서 그러했듯 데이터에 대한 직관을 쉽게 얻을 수 있습니다. 낮은 차원에서 얻.. 2020. 10. 8. 3.1 선형 회귀 *본 글은 "Do It! 정직하게 코딩하며 배우는 딥러닝 입문", 박해선 저, 이지스 퍼블리싱을 참고하여 작성하였습니다. GitHub Link: 링크 선형 회귀 (linear regression)은 머신러닝 알고리즘 중 가장 간단하면서도 딥러닝의 기초가 됩니다. 선형 회귀의 주요 관심사는 y = ax + b와 같은 일차식이 있을 때, x값과 y값을 가지고 기울기 (a)와 절편 (b)값을 찾는 것입니다. 주어진 좌표들이 있고, 일차식 y가 초기값 a와 b를 가진다고 합시다. 이 때, 일차식 y가 주어진 좌표들을 모두 지나려면, a값과 b값을 몇 차레 조정해 줄 필요가 있을 것입니다. 이 때 만드는 일차식 y들을 '선형 회귀로 만든 모델' 이라고 하며, 그 중 맨 마지막에, 주어진 좌표들을 모두 지나게 되는.. 2020. 10. 7. 이전 1 다음