선형회귀(3)
-
linear regression(ridge & lasso) coding implementation
to_numpy를 활용하면 행렬 연산이 가능한 형태로 변화 x의 feature는 5개 matmul은 행렬곱 함수(전치x 곱하기 x) 위의 w변수의 각각의 계수와 데이터프레임의 각 첫번째 행을 곱하기.(w곱하기 x_train) predicted_y_train 은 위에 수기로 계산한 것과 동일한 계산 값들임.(w계수와 train_x를 곱한것) 첫번째 값이 23.07245881로 동일한 것을 알 수 있음 잔차는 관측값 - 예측값 -> 그것을 제곱하기 -> 잔차의 평균을 구함 마찬가지로 y_test에 대해 잔차를 구하는 과정 선형회귀 모델을 만들고 fit을 이용해 학습시키기 (X_train, y_train)사용 절편 확인 mes값 구하기 \ & 결정계수 구하는 벙법 quiz! # 1. Student_Perfor..
2023.11.22 -
[linear regression]regularization - ridge/lasso 2023.11.21
-
Regression analysis(선형 회귀) 개념 & 코딩 실습
[linear Regression's history] - 선형회귀의 역사는 galton이라는 인물이 아버지의 키로부터 아들의 키를 예측하는 것으로부터 시작되었다. [vocab] response (y): = dependent variable, Y-variable, target, outcome independent variable : = X-variable, feature, attribute record : row, case, instance, example intercept : 회귀선의 기울기 regression coefficient : 회귀선의 슬로프(slope=경사) 잔차residuals : 관찰값과 fitted values와 차이 (y - y^) least squares : 제곱의 잔차 합을 최소화 ..
2023.11.15