ادامه حداقل مربعات معمولی
فرمول ماتریس / بردار [ ویرایش ]
یک سیستم بیش از حد تعیین شده را در نظر بگیرید
از N معادلات خطی در ص ناشناخته ضرایب ، بتا 1 ، بتا 2 ، ...، β ص ، با N > P . (توجه: برای یک مدل خطی مانند بالا ، همه X حاوی اطلاعات مربوط به نقاط داده نیست. ستون اول با ستونهایی جمع شده است ،، فقط ستون های دیگر حاوی داده های واقعی هستند ، بنابراین در اینجا p = تعداد تنظیم کننده ها + 1) این را می توان به صورت ماتریس به صورت زیر نوشت:
جایی که
چنین سیستمی معمولاً راه حل دقیقی ندارد ، بنابراین هدف این است که ضرایب را پیدا کنیدکه به معنای حل مسئله کوچک سازی درجه دوم ، معادلات "بهترین" است
که در آن تابع هدف S توسط داده می شود
توجیهی برای انتخاب این معیار در Properties در زیر آورده شده است. این مسئله به حداقل رساندن یک راه حل منحصر به فرد دارد ، به شرطی که ستونهای p ماتریس X به طور خطی مستقل باشند ، با حل معادلات نرمال
ماتریکس توسط رگرسیون ها به عنوان ماتریس لحظه برگشت و شناخته می شود. [1] سرانجام ،
بردار ضریب حداقل مربعات است ابرصفحه ، به عنوان بیان شده
برآورد [ ویرایش ]
فرض کنید b یک مقدار "نامزد" برای بردار پارامتر β است . مقدار y i - x i T b ، که برای مشاهده i -th باقیمانده نامیده می شود ، فاصله عمودی بین نقطه داده ( x i ، y i ) و ابر هواپیما y = x T b را اندازه گیری می کند ، و بنابراین درجه بین داده های واقعی و مدل متناسب است. مجموع باقیمانده مربع ( SSR ) (همچنین به نام مجموع خطا از مربع (ESS ) یا مجموع باقیمانده مربعات ( RSS )) [2] معیاری برای تناسب مدل کلی است:
جایی که T نشانگر جابجایی ماتریس است ، و ردیف های X ، نشانگر مقادیر تمام متغیرهای مستقل مرتبط با یک مقدار خاص از متغیر وابسته ، X i = x i T هستند . مقدار b که این جمع را به حداقل می رساند ، برآوردگر OLS برای β نامیده می شود . تابع S ( b ) در b با Hessian مثبت مشخص درجه دوم است و بنابراین این تابع دارای حداقل جهانی منحصر به فرد در، که می تواند با فرمول صریح ارائه شود: [3] [اثبات]
این محصول N = X T X است ماتریس نرمال و معکوس آن، Q = N -1 ، است ماتریس کوفاکتور از β ، [4] [5] [6] نزدیک به آن مربوط ماتریس کواریانس ، C β . ماتریس ( X T X ) –1 X T = Q X T را شبه معكوس مور-پنروز می نامندماتریس X. این فرمول این نکته را برجسته می کند که برآورد می تواند انجام شود اگر ، و فقط در صورت وجود چندخطی بودن کامل بین متغیرهای توضیحی (که باعث می شود ماتریس نرمال معکوس نداشته باشد) وجود نداشته باشد.
بعد از اینکه β را تخمین زدیم ، مقادیر مناسب (یا مقادیر پیش بینی شده ) حاصل از رگرسیون خواهد بود
که در آن P = X ( X T X ) -1 X T است ماتریس طرح ریزی بر روی فضایی V میرسد توسط ستون ها از X . این ماتریس P را گاهی ماتریس کلاه نیز می نامند زیرا "کلاه را روی متغیر y قرار می دهد" . ماتریس دیگری که از نزدیک با P مرتبط است ، ماتریس نابود کننده M = I n - P است . این یک ماتریس طرح ریزی بر روی فضای متعامد V است . هر دو ماتریس Pو M می متقارن و idempotent (به این معنی که P 2 = P و M 2 = M )، و مربوط به داده های ماتریس X طریق هویت PX = X و MX = 0 . [7] ماتریس M باقیمانده های حاصل از رگرسیون را ایجاد می کند :
با استفاده از این باقیمانده ها می توانیم مقدار σ 2 را با استفاده از آمار كای مربع كاهش یافته تخمین بزنیم :
عدد ، n - p ، درجه های آماری آزادی است . اولین مقدار ، s 2 ، تخمین OLS برای σ 2 است ، در حالی که دومین ،
، برآورد MLE برای σ 2 است . این دو برآوردگر در نمونه های بزرگ کاملاً شبیه به هم هستند. برآوردگر اول همیشه بی طرف است ، در حالی که برآوردگر دوم مغرضانه است اما میانگین مربعات خطای کوچکتر دارد . در عمل از s 2 بیشتر استفاده می شود ، زیرا برای آزمایش فرضیه راحت تر است. ریشه مربع s 2 را خطای استاندارد رگرسیون ، [8] خطای استاندارد رگرسیون ، [9] [10] یا خطای استاندارد معادله می نامند . [7]
معمولاً ارزیابی خوب بودن تناسب رگرسیون OLS با مقایسه میزان تغییر اولیه در نمونه با بازگشت به X کاهش می یابد . ضریب تعیین R 2 به عنوان یک نسبت "توضیح داد:" واریانس به "کل" واریانس متغیر وابسته تعریف Y ، در موارد که در آن مبلغ رگرسیون از مربع برابر است با مجموع مربعات باقیمانده: [11]
که در آن TSS است مجموع مربع برای متغیر وابسته، L = من ازت - 11 T / N و 1 یک IS N × 1 بردار از آنهایی. ( L یک "ماتریس مرکز" است که معادل رگرسیون روی یک ثابت است ؛ این به سادگی میانگین را از یک متغیر کم می کند.) برای اینکه R 2 معنی دار باشد ، ماتریس X داده ها در رگرسورها باید شامل یک بردار ستون باشد برای نشان دادن ثابت که ضریب آن رهگیری رگرسیون است. در آن صورت R 2 همیشه عددی بین 0 تا 1 خواهد بود ، مقادیر نزدیک به 1 نشانگر درجه مناسب بودن است.
واریانس پیش بینی متغیر مستقل به عنوان تابعی از متغیر وابسته در مقاله حداقل مربعات چند جمله ای آورده شده است .
منبع
https://en.wikipedia.org/wiki/Ordinary_least_squares
در این وبلاگ به ریاضیات و کاربردهای آن و تحقیقات در آنها پرداخته می شود. مطالب در این وبلاگ ترجمه سطحی و اولیه است و کامل نیست.در صورتی سوال یا نظری در زمینه ریاضیات دارید مطرح نمایید .در صورت امکان به آن می پردازم. من دوست دارم برای یافتن پاسخ به سوالات و حل پروژه های علمی با دیگران همکاری نمایم.در صورتی که شما هم بامن هم عقیده هستید با من تماس بگیرید.