안녕하세요 미테야, R-제곱은 적합의 좋은 통계의 예입니다. 사용할 수 있는 다른 적합성 통계가 있습니다. 나는 그들 중 일부에 대해 썼다. 이 게시물의 마지막 섹션에서 는 조정 및 예측 R-제곱 및 회귀의 표준 오류라는 두 개의 게시물에 대한 링크를 찾아 클릭합니다. 먼저 최적 맞춤 방정식선을 사용하여 해당 x 값을 기반으로 차트에서 y 값을 예측합니다. 최상의 맞춤 선이 배치되면 분석가는 오류 제곱 방정식을 만들어 오류를 관련 범위 내에 유지할 수 있습니다. 오류 목록이 있으면 오류 목록을 추가하고 R 제곱 수식을 통해 실행할 수 있습니다. 예를 들어 보겠습니다. 실제로 R2는 이벤트 간의 상관 관계를 결정하는 데 유용한 도구입니다. 예를 들어, 특정 공급품의 가격 간의 밀접한 관계 또는 상관관계는 R2에 의해 설명될 수 있으며, 일반적으로 공급업체가 동일한 산업에 있을 수 있고 동일한 공급 및 수요 요인에 의해 구동될 수 있기 때문입니다. 고정 수입 증권의 R2는 T-청구서에 대해 측정됩니다.

주식은 S&P 500에 대해 측정됩니다. 일부 필드에서는 R 제곱 값이 낮아질 것으로 예상됩니다. 예를 들어 심리학과 같이 인간의 행동을 예측하려는 모든 필드에는 일반적으로 R-제곱 값이 50% 미만입니다. 인간은 단순히 물리적 인 과정보다 예측하기 어렵다. 연구의 일부 필드는 설명할 수 없는 변화의 본질적으로 더 큰 금액을 가지고. 이러한 영역에서 R2 값은 더 낮아질 수밖에 없습니다. 예를 들어, 인간의 행동을 설명하려고 하는 연구는 일반적으로 R2 값이 50% 미만입니다. 사람들은 물리적 인 과정과 같은 것들보다 예측하기가 더 어렵습니다. R2가 사용되는 모든 경우에 예측 변수는 SSre를 최소화하여 일반 최소 제곱 회귀로 계산됩니다.

이 경우 R2는 모델의 변수 수를 늘리면 증가합니다(R2는 포함된 변수의 수에 따라 모노톤이 증가합니다. 즉, 결코 감소하지 않습니다). 이는 R2 값을 늘리기 위해 변수(키친 싱크 회귀)를 계속 추가할 수 있는 R2를 사용할 수 있는 단점을 보여 줍니다. 예를 들어, 자동차의 연비, 가격 및 엔진 출력에서 자동차 모델의 판매를 예측하려는 경우 R2가 자동차를 설계하는 수석 엔지니어의 첫 글자 또는 높이와 같은 관련없는 요인을 포함할 수 있습니다. 변수가 추가될 때 감소하지 않으며 우연만으로도 증가가 발생할 수 있습니다. R2와 잔류의 규범은 모두 상대적인 장점을 가지고 있습니다. 최소 제곱 분석의 경우 R2는 0과 1 사이에서 다양하며, 숫자가 클수록 더 나은 맞춤을 나타내고 1은 완벽한 맞춤을 나타냅니다. 잔류의 규범은 0에서 무한대까지 다양하며 숫자가 작을수록 더 나은 맞춤을 나타내고 0은 완벽한 맞춤을 나타냅니다. R2의 장점 중 하나는 S tot {디스플레이 스타일 SS_{text{tot}}}”라는 용어가 값을 정규화하는 역할을 한다는 것입니다. yi 값이 모두 상수를 곱하면 잔류의 규범도 해당 상수로 변경되지만 R2는 동일하게 유지됩니다. 기본 예로서 데이터 집합에 맞는 선형 최소 제곱의 경우: 사용된 정의에 따라 R2의 계산 정의에서 음수 값을 얻을 수 있는 경우가 있습니다. 해당 결과와 비교되는 예측이 해당 데이터를 사용하는 모델 피팅 프로시저에서 파생되지 않은 경우 발생할 수 있습니다.

모델 피팅 프로시저가 사용된 경우에도 R2는 여전히 음수일 수 있습니다(예: 선형 회귀가 절편을 포함하지 않고 수행되거나[5] 또는 데이터에 맞게 비선형 함수를 사용하는 경우). [6] 음수 값이 발생하는 경우 데이터의 평균은 이 특정 기준에 따라 피팅된 함수 값을 수행하는 것보다 결과에 더 잘 맞습니다. [7] 결정 계수의 가장 일반적인 정의는 Nash-Sutcliffe 모델 효율 계수라고도 하기 때문에-∞에서 1까지 다양할 수 있는 적합도 표시기를 나타내기 때문에 이 마지막 표기법은 많은 분야에서 선호됩니다. , 음수 값을 산출 할 수 있습니다)와 제곱 문자는 혼란스럽다.