단순 선형회귀모델 (1): SSE 최소화 추정량과 모멘트
기본적인 가정(H1) 단순 선형회귀모델은 $Y=\beta_0+\beta_1 x+\epsilon$이고, 오차에 대해 $E[\epsilon]=0$, $V[\epsilon]=\sigma^2$을 가정한다.→ 즉, 선형회귀모델의 모든 확률적 성격은 오차에서 비롯된다 (종속변수, 파라미터 추정량, 통계량 등의 확률분포, 모멘트 등).(H2) $Y$의 $i$번째 측정을 $Y_i=\beta_0+\beta_1 x_i+\epsilon_i,\quad i=1,2,\cdots,n$으로 표현하고, 이때의 오차 $\epsilon_i$에 대해 IID (독립항등분포)를 가정한다.→ 모든 측정의 오차 $\epsilon_i$가 서로 독립이고, 모멘트가 $E[\epsilon_i]=0$, $V[\epsilon_i]=\sigma^2$으로 일정..
합성곱 신경망
입력 이미지의 텐서 표현합성곱 신경망에서 입력 이미지는 픽셀값을 성분으로 가진 텐서로 표현된다.텐서의 차원은 케라스 기준 (배치 크기, 높이, 너비, 채널 수)이다. (NHWC)사이즈가 W*H이고 C개의 채널을 가진 이미지 N장을 처리한다는 뜻이다.파이토치의 경우 NCHW와 같이 채널 수가 사이즈 앞으로 온다.e.g.) 100장의 1280*720 컬러 이미지 (RGB)를 처리할 때의 텐서 표현은 케라스 기준 (100, 720, 1280, 3)이고, 파이토치 기준 (100, 3, 720, 1280)이다.일상생활에서 이미지의 사이즈는 너비높이인 반면, 신경망에서 사이즈는 높이너비로 표현된다. 한 장의 이미지는 행렬로 표현할 수 있는데 높이 = 행의 길이, 너비 = 열의 길이여서 그런 것 같다.일반적으로 픽셀..