پارتیشن بندی بازگشتی یک روش آماری برای تجزیه و تحلیل چند متغیره است . [1] پارتیشن بندی بازگشتی یک درخت تصمیم گیری را ایجاد می کند که تلاش می کند با تقسیم آن به زیر جمعیت ها بر اساس چندین متغیر مستقل دوگانه ، طبقه بندی صحیح اعضای جمعیت را انجام دهد . این فرآیند بازگشتی نامیده می شود زیرا ممکن است هر جمعیت زیرمجموعه به نوبه خود نامشخص بارها تقسیم شود تا اینکه روند تقسیم پس از رسیدن به یک معیار توقف خاص خاتمه یابد.

یک درخت پارتیشن بازگشتی که بقای مسافران در تایتانیک را نشان می دهد ("sibsp" تعداد همسران یا خواهر و برادرهای داخل آن است). ارقام در زیر برگ احتمال بقا و درصد مشاهده در برگ را نشان می دهد. خلاصه: اگر شما (من) دختر یا (ب) پسر جوان و بدون چند عضو خانواده هستید ، احتمال زنده ماندن شما خوب بود.

روش های جداسازی بازگشتی از دهه 1980 توسعه یافته است. روشهای شناخته شده پارتیشن بندی بازگشتی شامل الگوریتم ID3 راس کوینلان و جانشینان آن ، C4.5 و C5.0 و طبقه بندی و رگرسیون درختان است . روشهای یادگیری گروهی مانند جنگلهای تصادفی به کمک یک الگوریتمهای مختلف و ترکیب کردن بازده آنها به نوعی با استفاده از الگوریتمهای مختلف و ترکیب خروجی آنها ، بر غلبه بر انتقاد رایج از این روشها - آسیب پذیری آنها در برابر قرار دادن بیش از حد داده ها - کمک می کند.

در این مقاله به پارتیشن بندی بازگشتی برای آزمایش های تشخیصی پزشکی متمرکز شده است ، اما این روش کاربردهای بسیار گسترده تری دارد. درخت تصمیم را ببینید .

در مقایسه با تجزیه و تحلیل رگرسیون ، که فرمول ایجاد می کند که ارائه دهندگان مراقبت های بهداشتی می توانند از آن برای محاسبه احتمال ابتلا به بیماری استفاده کنند ، پارتیشن بازگشتی یک قاعده را ایجاد می کند مانند "اگر بیمار x ، y یا z را پیدا کند ، احتمالاً بیماری دارد. q '

یک تغییر "پارتیشن بندی بازگشتی خطی کاکس" است. [2]

 

فهرست

مزایا و معایب ویرایش ]

در مقایسه با سایر روشهای چند متغیره ، پارتیشن بندی بازگشتی مزایا و معایبی دارد.

  • مزایای آن عبارتند از:
    • از نظر بالینی مدل های بصری بیشتری ایجاد می کند که نیازی به کاربر برای انجام محاسبات ندارد. [3]
    • اولویت بندی متفاوت طبقه بندی اجازه می دهد تا برای ایجاد یک قانون تصمیم گیری که دارای حساسیت یا ویژگی بیشتری باشد ، متفاوت باشد . [2]
    • ممکن است دقیق تر باشد. [4]
  • مضرات عبارتند از:
    • برای متغیرهای مداوم به خوبی کار نمی کند [5]
    • ممکن است داده های بیش از حد سازگار باشد.

مثالها ویرایش ]

نمونه هایی از استفاده از پارتیشن بندی بازگشتی در تحقیقات آزمایش های تشخیصی موجود است. [6] [7] [8] [9] [10] [11] گلدمن از پارتیشن بندی بازگشتی برای اولویت بندی حساسیت در تشخیص سکته قلبی در بیماران مبتلا به درد قفسه سینه در اتاق اورژانس استفاده کرد. [11]