안녕하세요!
04-2 확률적 경사 하강법 공부하다 궁금한게 있어 질문드립니다~
이 CHAPTER의 실사례에서 발생한 문제는 ' 앞서 훈련한 모델을 버리지 않고 새로운 데이터에 대해서만 조금씩 더 훈련할 수 있는지'에 대한 문제였고, 이에대한 해결방법으로 확률적 경사하강법을 사용하는 것으로 보았습니다
확률적 경사하강법은 전체 데이터 중 소수의 데이터를 랜덤으로 추출하여 학습하고, 이를 반복하는 알고리즘으로 이해했습니다.
근데 이부분에서 여기서 잘 이해가 안가는게, '새로운 데이터가 쌓일수록 데이터셋의 크기가 너무 커져, 이 데이터들을 모두 학습하는데 힘이 들기 때문에, 확률적 경사하강법을 이용하여 새로운데이터만 추가적으로 학습한다. '로 이해를 했습니다.
그런데 공부를하다보니 확률적 경사하강법은 이게 아니라 '기존의 데이터에 새로운 데이터를 추가하고 -> 이 전체를 확률적 경사하강법으로 학습한다. '로 설명이 되어있는거 같은데..
그러면 따지고 보면 결국 이 방법도 전체 데이터셋으로 학습해야하기 때문에 위에 생긴 문제와 동일하게, 데이터가 쌓일수록 많은 시간과 비용이 드는게 동일한거 아닌가요?
이 부분이 이해가 잘안되니 이번 알고리즘은 공부하기도 어려웠었습니다 ㅜㅜ 답변 해주시면 감사하겠습니다 !!