از ویکیپدیا، دانشنامه آزاد

 

یک فیلم یا یک دنباله تصویر به عنوان یک تنسور مرتبه سوم ستون x ردیف x زمان برای یادگیری فضای چند سطحی نشان داده شده است.

یادگیری فضای چند سطحی یک رویکرد برای کاهش ابعاد است. [1] [2] [3] [4] [5] کاهش ابعاد را می توان در یک تنشور داده انجام داد که مشاهدات بردار شده [1] و در یک تنشور داده سازماندهی شده است ، یا مشاهدات آن ماتریسی است که در یک داده جمع می شوند. تنسور [6] [7] در اینجا چند نمونه از تنسور داده ها وجود دارد که مشاهدات آنها بردار شده است یا مشاهدات آنها ماتریسی است که در تصاویر تانسور داده ها (2D / 3D) ، توالی های ویدئویی (3D / 4D) و مکعب های ابرشخص (3D / 4D) توافق شده است.

نقشه برداری از یک فضای بردار با ابعاد بالا به مجموعه ای از فضاهای بردار بعدی پایین یک پروژکتور چند خطه است . [4] هنگامی که مشاهدات در همان ساختار سازمانی که سنسور آنها را فراهم می کند ، حفظ می شوند. به عنوان ماتریس یا مضراب مرتبه بالاتر ، بازنمودهای آنها با انجام چندین پیش بینی خطی N محاسبه می شود. [6]

الگوریتم های یادگیری زیرسطحی چند سطحی ، کلی سازی های مرتبه بالاتر از روش های یادگیری زیر خطی خطی از جمله تجزیه و تحلیل مؤلفه اصلی (PCA) ، تجزیه و تحلیل مؤلفه های مستقل (ICA) ، تجزیه و تحلیل تمایز خطی (LDA) و آنالیز همبستگی کانونی (CCA) است.

 

فهرست

پیش زمینه ویرایش ]

با پیشرفت در زمینه دستیابی به داده ها و فناوری ذخیره سازی ، داده های بزرگی (یا مجموعه عظیم داده) به صورت روزانه در طیف گسترده ای از برنامه های نوظهور تولید می شوند. بیشتر این داده های بزرگ چند بعدی هستند. علاوه بر این ، آنها معمولاً بسیار بصری ، با مقدار زیادی افزونگی هستند و فقط بخشی از فضای ورودی را اشغال می کنند. بنابراین ، کاهش ابعاد غالباً برای نقشه برداری از داده های بسیار بعدی به یک فضای کم بعدی و در عین حال نگه داشتن هر چه بیشتر اطلاعات ، بکار می رود.

الگوریتم های یادگیری زیر فضایی خطی تکنیک های کاهش ابعاد سنتی هستند که داده های ورودی را به عنوان بردار معرفی می کنند و برای نقشه برداری خطی بهینه به یک فضای کم بعدی حل می کنند. متأسفانه ، آنها اغلب هنگام برخورد با داده های گسترده چند بعدی ناکافی می شوند. آنها منجر به بردارهای بسیار بعدی می شوند و منجر به تخمین تعداد زیادی پارامتر می شوند. [1] [6] [7] [8] [9]

Multipinear Subspace Learning انواع مختلفی از ابزارهای تجزیه و تحلیل تانسور داده ها را برای کاهش ابعاد به کار می برد. چند سال فضا یادگیری را می توان به مشاهدات که اندازه گیری بردار و سازمان یافته به یک تانسور داده شد استفاده می شود، [1] و یا که اندازه گیری ها به عنوان یک ماتریس درمان و الحاق به یک تانسور. [10]

الگوریتم ها ویرایش ]

تجزیه و تحلیل مؤلفه اصلی چند خطی ویرایش ]

از لحاظ تاریخی ، تجزیه و تحلیل مؤلفه اصلی چند قلو به عنوان "MA mode PCA" ، اصطلاحاتی گفته شده است که توسط پیتر کروننبرگ ابداع شده است. [11] در سال 2005 ، واسیلیسو و Terzopoulos اصطلاحات Multilinear PCA [12] را به عنوان راهی برای تمایز بهتر بین تجزیه تانسور چند لایه که محاسبات آماری مرتبه 2 را با هر حالت تانسور داده ها (محور) محاسبه می کند ، معرفی کردند [1] [2] [ 3] [13] [8] و کار بعدی روی آنالیز مؤلفه مستقل چند خطی [12] که آمار مرتبه بالاتر را با هر حالت / محور تانسور محاسبه می کند. MPCA یک پسوند PCA است .

تجزیه و تحلیل مؤلفه مستقل چند خطی ویرایش ]

تجزیه و تحلیل مؤلفه مستقل چند خطی [12] پسوندی از ICA است .

تجزیه و تحلیل تمایز خطی چند خطی ویرایش ]

  • پسوند چندلایه LDA
    • مبتنی بر TTP: تجزیه و تحلیل تبعیض آمیز با نمایندگی تانسور (DATER) [9]
    • مبتنی بر TTP: تجزیه و تحلیل تبعیض آمیز عمومی تانسور (GTDA) [14]
    • مبتنی بر TVP: تجزیه و تحلیل تبعیض آمیز چند سطحی بی ارتباط (UMLDA) [15]

تجزیه و تحلیل همبستگی کانونی چند سطحی ویرایش ]

  • پسوند چند خطی CCA
    • مبتنی بر TTP: تجزیه و تحلیل همبستگی کانونی تانسور (TCCA) [16]
    • مبتنی بر TVP: تجزیه و تحلیل همبستگی چند خطی کانونی (MCCA) [17]
    • مبتنی بر TVP: آنالیز همبستگی چند خطی بایزی (BMTF) [18]
  • TTP یک طرح ریزی مستقیم از یک تانسور با ابعاد بالا به یک تنشور کم بعدی با همان ترتیب است و از ماتریس های طرح ریزی N برای یک تانسور N مرتبه ای N استفاده می کند . می توان آن را در مراحل N با هر مرحله انجام ضرب ماتریس تانسور- (محصول) انجام داد. N مراحل تعویض هستند. [19] این طرح افزودنی برای تجزیه ارزش مفرد با مرتبه بالاتر [19] (HOSVD) به یادگیری فضایی است. [8] از این رو، منشاء آن را در بازگشت به ترسیم تجزیه تاکر [20] در 1960s.
  • یک TVP یک نمایش مستقیم از یک تانسور با ابعاد بالا به یک بردار کم بعدی است ، که به آن نیز به عنوان پیش بینی درجه یک گفته می شود. از آنجا که TVP یک تانسور به یک بردار را طراحی می کند ، می توان آن را به عنوان چندین پیش بینی از یک تانسور به یک مقیاس مشاهده کرد. بنابراین ، TVP یک تانسور به یک بردار P- بعدی متشکل از پیش بینی های P از تانسور به یک مقیاس. طرح ریزی از یک تانسور به یک مقیاس یک طرح ریزی اولیه چند ضلعی (EMP) است. در EMP ، یک تانسور از طریق بردارهای پروژکتور واحد N به یک نقطه پیش بینی می شود. این طرح یک تانسور در یک خط واحد است (در نتیجه یک مقیاس) ، با یک بردار طرح ریزی در هر حالت. بنابراین ، TVP از یک جسم تانسور به یک بردار در یک فضای بردار باریک P متشکل از P استEMP این پیش بینی یک فرمت تجزیه معمولی است ، [21] همچنین به عنوان تجزیه عوامل موازی (PARAFAC) شناخته می شود. [22]

روش معمولی در MSL ویرایش ]

وجود دارد N مجموعه از پارامترها حل شود، یکی در هر حالت. راه حل برای یک مجموعه اغلب به مجموعه های دیگر بستگی دارد (به جز وقتی که N = 1 ، مورد خطی). بنابراین ، روش تکرار ناپیوسته در [23] دنبال می شود.

  1. اولیه سازی پیش بینی ها در هر حالت
  2. برای هر حالت ، پروژکتور را در تمام حالت دیگر برطرف کنید و برای حالت پیش بینی در حالت فعلی حل کنید.
  3. بهینه‌سازی حالت را برای چند تکرار یا تا همگرایی انجام دهید.

این از روش حداقل مربعی متناوب برای تجزیه و تحلیل داده های چند طرفه سرچشمه گرفته است. [11]

جوانب مثبت و منفی ویرایش ]

این شکل تعداد پارامترهایی را که برای همان مقدار کاهش ابعاد با طرح بردار به وکتور (VVP) تخمین زده می شود ، (به عنوان مثال ، طرح ریزی خطی) ، طرح ریزی تانسور به وکتور (TVP) ، و Tensor-to- طرح تانسور (TTP). پیش بینی های چند سطحی به پارامترهای بسیار کمتری نیاز دارند و بازنمایی های بدست آمده فشرده تر هستند. (این رقم بر اساس جدول 3 کاغذ بررسی تولید می شود [6] )

مزایای MSL نسبت به مدل سازی فضایی سنتی خطی ، در حوزه های مشترک که نمایندگی به طور طبیعی تا حدی پرتنش است ، عبارتند از: [6] [7] [8] [9]

  • MSL با کار کردن بر روی یک نمایشگر کششی طبیعی از داده های چند بعدی ساختار و همبستگی را که داده های اصلی قبل از طرح ریزی داشتند ، حفظ می کند.
  • MSL می تواند نمایش های جمع و جور تر از همتای خطی خود را بیاموزد. به عبارت دیگر ، باید تعداد بسیار کمتری از پارامترها را تخمین زد. بنابراین ، MSL می تواند با انجام محاسبات بر روی بازنمایی با ابعاد بسیار کمتری ، داده های تانسور بزرگ را با کارایی بیشتری انجام دهد. این امر منجر به کاهش تقاضا برای منابع محاسباتی می شود.

با این حال ، الگوریتم های MSL تکراری هستند و برای همگرایی تضمین نمی شوند. جایی که یک الگوریتم MSL همگرا می شود ، ممکن است این کار را با بهینه محلی انجام دهد . (در مقابل ، تکنیک های مدل سازی خطی سنتی زیر فضایی معمولاً یک راه حل دقیق بسته را تولید می کنند.) مشکلات همگرایی MSL اغلب با انتخاب یک ابعاد مناسب فضای زیر فضایی ، و با راهکارهای مناسب برای شروع ، برای خاتمه ، و انتخاب ترتیب ترتیب کاهش می یابد. پیش بینی حل شده است [6] [7] [8] [9]

منابع آموزشی ویرایش ]

کد ویرایش ]

مجموعه داده های تنسور ویرایش ]

منبع

https://en.wikipedia.org/wiki/Multilinear_subspace_learning