۳-۱۱-۱-۱-۳- فرایند IBP
توزیع احتمال تعریف شده در معادله (۲۵) را می­توان از یک فرایند تصادفی ساده استخراج نمود. این فرایند تصادفی روشی آسان برای حفظ نمودن ویژگی­های برجسته توزیع­های احتمال معرفی می­ کند و می ­تواند به منظور استخراج برنامه ­های نمونه گیری برای مدل­هایی که بر مبنای این توزیع­ها قرار دارند، مورد استفاده قرار بگیرد. با الهام از فرایند CRP[619] (اولدس[۶۲۰]، ۱۹۸۵؛ پتمن[۶۲۱]، ۲۰۰۲)، از یک تشبیه آشپزخانه­ای و پختنی[۶۲۲] برای تعریف این فرایند تصادفی استفاده می­نماییم (شکل ۷٫۳). بسیاری از رستوران­های هندی در لندن کافه­های عصرانه[۶۲۳] با تعداد به ظاهر بی­نهایت خوراک، عرضه می­ کنند. ما می­توانیم یک توزیع بر روی ماتریس­های باینری نامتناهی، از طریق تصریح روشی که توسط آن مشتریان (اشیاء) خوراک­ها را انتخاب می­ کنند (مشخصه­ها)، تعریف کنیم.
پایان نامه - مقاله - پروژه
قبل از معرفی این ساختار لازم است مفهوم کافه و بالأخص کافه هندی معرفی گردد.
یک کافه، سیستمی است متشکل از چندین خوراک برای سرو کردن که در آن غذا در یک مکان برای عموم قرار داده شده است به این صورت که در این مکان این افراد هستند که از خود پذیرایی می­ کنند. کافه­ها در مکان­های گوناگون و مختلفی از جمله هتل­ها و در محل بسیاری از رویدادهای اجتماعی، عرضه می­ شود.
مشخصه ذاتی ساختار کافه­های مختلف آن است که افراد مستقیماً غذا را می­بینند و فوراً انتخاب خود از میان خوراک­هایی که تمایل به مصرف آن­ها را دارند، انجام می­ دهند و نیز همواره می­توانند تصمیم بگیرند که چقدر غذا سرو نمایند. در کافه­ها امکان پذیرایی همزمان از تعداد زیادی از افراد وجود دارد.
لازم به ذکر است که واژه کافه نخستین بار و در اوایل قرن ۱۸، به معنای میز دم دستی در خانه­های فرانسه[۶۲۴] که بر روی آن غذا سرو می­گردید، استعمال می­شد اما در نهایت این واژه با معنای پذیرایی کردن به کار برده شد. توجه شود که این واژه در زبان انگلیسی به طور کامل پذیرفته شده است.
تا اینجا یک توزیع بر روی ماتریس­های باینری نامتناهی تعریف شد که یکی از خواسته­ های ما را برآورده
می­ کند-اشیاء (ردیف­های ماتریس) تحت این توزیع تعویض­پذیر هستند. آن چیزی که باقی مانده آن است که نشان دهیم که استنباط در مدل­های مشخصه نهفته قابل بررسی و محاسبه است.

شکل ۷٫۳٫ بسیاری از رستوران­ها در لندن کافه­های عصرانه با تعداد به ظاهر بی­نهایت خوراک عرضه می­ کنند

۳-۱۲- مدل­سازی داده ­ها
به منظور روشن ساختن اینکه چگونه IBP می ­تواند به عنوان یک پیشین در مدل­ها، برای یادگیری غیرنظارتی مورد استفاده قرار بگیرد، یک مدل مشخصه نهفته گاوسین-خطی[۶۲۵] با مشخصه­ای باینری را استخراج و آزمون می­کنیم. در این مورد، ماتریس مشخصه به ماتریس باینری تبدیل می­ شود.
ماتریس را یک ماتریس با بعد قرار می­دهیم به طوریکه هر کدام از ردیف­ها شامل یک مشاهده بعدی است. از آنجاییکه در مدل راستنمایی گاوسین خطی درنظر گرفته شده، توسط تقریب زده می­ شود که یک ماتریس باینری و یک ماتریس است. مقادیر مشخصه در ردیف از ماتریس ذخیره شده است. داده ­های مشاهده شده به صورت در نظر گرفته می­شوند که نویز اندازه ­گیری است. فرض می­ شود که نویز مستقل از و است و ناهمبسته با مشاهدات در هر کدام از ردیف می­باشد.
به عبارت دیگر، بردار D-بعدی برای یک مشاهده ، ، از یک توزیع گاوسین با میانگین و ماتریس کواریانس تولید شده است، که یک بردار باینری K-بعدی می­باشد و یک ماتریس از وزن­ها با بعد معرفی شده در بالا هستند. به نماد ماتریسی داریم: . اگر یک ماتریس مشخصه باشد، با فرمی از یک تجزیه و تحلیل عاملی باینری رو به رو هستیم. توزیع با مفروض بودن ماتریس­های ، و ، دارای توزیع گاوسین ماتریسی با میانگین و ماتریس کواریانس می­باشد که I ماتریس یکه است. پیشین بر روی ماتریس A نیز گاوسین ماتریسی، با میانگین صفر و ماتریس کواریانس است؛ که پارامتری است که پراکندگی پیشین برای را تعیین می­ کند.
برای یک ماتریس مفروض، به دنبال یافتن توزیع پسین از و هستیم. از قاعده بیز داریم
در رابطه بالا فرض شده که و مستقل از یکدیگر هستند. بر اساس نوع کاربرد، تابع راستنمایی و پیشین تعیین می­ شود. در اینجا، موردی را در نظر می­گیریم که هر دوی نویز و
مشخصه­های ، پیشین­های گاوسین دارند. ما اکنون نمی­توانیم پیشینی بر روی قرار دهیم. چون K را
نمی­دانیم، تمایل داریم پیشینی برای آن در نظر بگیریم که اجازه دهد K در زمان استنباط تعیین شود. فرایند کافه هندی یکی از گزینه­ ها برای چنین پیشینی می­باشد.
فرایند IBP پیشین زیر را بر روی کلاس­های هم­ارزی Z، ، قرار می­دهد. یک فرم استاندارد از Z است که نسبت به رتبه ­بندی مشخصه­ها بی­تغییر است (همان مفهوم تعویض­پذیر بودن)
متغیرهای رابطه بالا در قسمت (۳-۱۰-۱-۲-) معرفی شده ­اند.

۳-۱۲-۱- ساختار رستوران[۶۲۶]
فرایند مولد[۶۲۷] کلاسیک گرفیث و قهرمانی (۲۰۰۵) به صورت زیر می­باشد: N مشتری که هر کدام نمایانگر یک مشاهده هستند، یکی پس از دیگری وارد رستورانی می­شوند (یک دنباله از N مشتری). هر مشتری با یک کافه شامل تعداد بی­نهایت خوراک که در یک خط چیده شده ­اند (متناظر با ستون­های Z) رو به رو می­ شود. نخستین مشتری از سمت چپ کافه شروع می­ کند و از هر خوراک بر می­دارد (عدد ۱ در ستون­های مربوطه قرار داده می­ شود)، بعد از به تعداد از خوراک­ها زمانیکه بشقابش سرریز می­ شود، متوقف می­ شود. توجه شود که هر خوراک نمایانگر یک مشخصه است. nامین مشتری بعدی در کافه شروع به حرکت می­ کند،
خوراک­هایی که توسط مشتریان قبلی سرو شده بود را با احتمال (بر اساس محبوبیت آن­ها) نمونه گیری می­ کند که تعداد افرادی است که ظرف را قبل از مشتری ام نمونه گیری کرده بود. بعد از اینکه این مشتری به پایان خوراک­هایی که قبلاً نمونه گیری شده بودند رسید، nامین مشتری همچنین از خوراک­های جدید با احتمال ، که به پارامتر بستگی دارد، بر می­دارد.
با بهره گرفتن از یک ماتریس باینری با ردیف و تعداد بی­نهایت ستون، می­توان مشخص نمود که کدام مشتری کدام خوراک را انتخاب می­ کند. اگر مشتری ام ظرف خوراک را سرو کند، در آرایه مقدار ۱ قرار داده می­ شود. ماتریس خوراک-مشتری، ماتریس مشخصه ما یعنی ماتریس است.
شکل زیر ماتریسی که با بهره گرفتن از فرایند IBP با پارامتر تولید شده است را نشان می­دهد. نخستین مشتری خوراک­های مورد علاقه خود را سرو می­ کند. دومین مشتری از آن خوراک­ها به تعداد ۷ خوراک و از خوراک­های جدید به تعداد ۳ خوراک، برای خود سرو می­ کند. سومین مشتری از خوراک­هایی که دو مشتری قبلی سرو کرده ­اند به تعداد ۳ خوراک، از خوراک­هایی که تنها مشتری اول سرو نموده به تعداد ۵ خوراک و ۲ خوراک از خوراک­های جدید را سرو نموده است. اگر انتخاب­های مشتریان به طور عمودی درکنار یکدیگر قرار داده شود، ماتریس باینری که در شکل (۸٫۳) پایین نشان داده شده است، حاصل می­ شود.
اگر چه کافه نامتناهی است، اما ساختار توزیع تضمین می­ کند که هر مشتری تعداد متناهی خوراک را با احتمال ۱ سرو می­ کند و بنابراین، با مفروض بودن یک تعداد متناهی از مشاهدات، انتظار می­رود که تنها یک تعداد متناهی از مشخصه­ها انتخاب شود.
با بهره گرفتن از برای مشخص کردن تعداد خوراک­های جدیدی که توسط امین مشتری نمونه گیری شده است، احتمال اینکه ماتریس خاصی توسط این فرایند تولید شود برابر است با

شکل ۸٫۳٫ یک ماتریس باینری که توسط فرایند IBP با تولید شده است.
همانطور که از شکل (۸٫۳) می­توان مشاهده نمود، ماتریس­هایی که توسط این فرایند تولید می­شوند به طور کلی به فرم مرتب شده از چپ نیستند. زیرا ترسیم­ها از توزیع پواسون همواره منجر به انتخاب­هایی از
خوراک­های جدید می­ شود که در سمت راست خوراک­هایی که قبلاً انتخاب شده ­اند قرار می­گیرند.
آنچه که از ساختار کافه هندی کم­تر مشهود می­باشد، آن است که فرایند کافه هندی بی­نهایت تعویض­پذیر[۶۲۸] است، به عبارت دیگر، توزیع احتمال Z تحت تأثیر رتبه حضور مشتریان در کافه (رتبه ­بندی مشاهدات) قرار نمی­گیرد و ستون­ها (خوراک­ها) نیز مستقل هستند. به یاد آورید که در ساختار هندی، مشتریان خوراک­ها را تنها بر مبنای محبوبیتشان انتخاب می­ کنند. بنابراین، تنها چیزی که درباره مشخصه ۱ مهم است آن است که این مشخصه یکی از مشخصه­های مشهورتر باشد. ارزش مقداری که برای مشخصه ۱ انتخاب شده است از محبوبیت آن مستقل می­باشد.
البته توجه شود که به طور کلی، مشتریان تحت چنین توزیعی تعویض­پذیر نیستند، زیرا تعداد خوراک­هایی که بر اساس شمرده می­ شود به رتبه ورود مشتریان، بستگی دارد. به هر حال اگر تنها به کلاس­های
هم­ارزی- از ماتریس­های تولید شده توسط این فرایند توجه نماییم، توزیع تعویض­پذیر را با مفروض بودن معادله (۲۵) بدست خواهیم آورد: ماتریس­های که از طریق این فرایند تولید می­شوند به فرم مرتب از چپ یکسانی نگاشت می­شوند و از طریق ﺣﺎﺻﻞضرب از معادله (۲۶) و در این کمیت، بدست می ­آید که فرایند تصادفی IBP تعویض­پذیر[۶۲۹] نامیده می­ شود (گرفیث و قهرمانی، ۲۰۰۵).

۳-۱۲-۱-۱- ویژگی­های توزیع IBP تحت ساختار رستوران
دیدگاه­ های متفاوت که برای توزیع تصریح شده در معادله (۲۵) وجود دارد امکان استخراج ویژگی­های آن را سر راست ساخته است. نخست، بعد مؤثر مدل، ، از یک توزیع پوآسون، ، نتیجه می­ شود. چنین چیزی را می­توان با بهره گرفتن از فرایند مولدی که در بخش قبلی توصیف شد، به سادگی نشان داد، زیرا تحت این فرایند عبارت است از مجموع ، ، و غیره. همانطور که
می­دانیم ﺣﺎﺻﻞضرب یک مجموعه از توزیع­های پوآسون، یک توزیع پوآسون می­باشد به طوریکه پارامتر آن برابر مجموع پارامترهای مؤلفه‌های آن است. با بهره گرفتن از تعریف امین عدد هارمونیک، مقدار این پارامتر برابر با بدست می ­آید.
ویژگی دوم این توزیع آن است که تعداد مشخصه­هایی که در مالکیت هر شیء قرار دارند از یک توزیع پیروی می­ کنند. چنین نتیجه­ای از تعریف فرایند IBP نتیجه می­ شود. نخستین مشتری به تعداد از خوراک­ها را انتخاب می­ کند. طبق ویژگی تعویض­پذیر بودن، سایر مشتریان نیز
باید به تعداد از خوراک­ها را انتخاب نمایند، زیرا رتبه ­بندی را همواره می­توان بر روی مشتریانی که با یک مشتری خاص شروع می­شوند تصریح نمود.
در واقع، مشتریان خوراک­ها را تنها بر اساس محبوبیتشان انتخاب می­ کنند. بنابراین، تنها چیزی که درباره مشخصه ۱ مهم می­باشد آن است که این مشخصه یکی از مشخصه­های مشهورتر باشد. ارزش و مقداری که برای مشخصه ۱ انتخاب شده است مستقل از محبوبیتش است.
رفتار این فرایند توسط یک ابرپارامتر[۶۳۰] که تنها پارامتر این فرایند است، کنترل می­ شود. این پارامتر تعداد مورد انتظار مشخصه­های موجود در هر مشاهده را کنترل می­ کند. به بیان دیگر، برای تعداد یکسان از مشاهدات، پارامتر بر اینکه چقدر احتمال دارد که چندین مشاهده، مشخصه­های مشترکی را سهیم باشند، تأثیر
می­ گذارد. به همین دلیل است که به آن پارامتر تمرکز[۶۳۱] نیز می­گویند.
تعداد مورد انتظار از مشخصه­های نهفته،، در مشاهده برابر است؛ مدل مولد[۶۳۲] سناریوهایی را تأیید می­ کند که در آن­ها یک تعداد اندک مشخصه عمومی و مشخصه­های نادر وجود دارد.
فرایند IBP فرض می­ کند که مشخصه­های نهفته باینری هستند. بنابراین، یک شیء یا یک مشخصه را در تملک دارد یا ندارد. همچنین فرض می­ کند که مشخصه­های نهفته از لحاظ آماری مستقل می­باشند، به این معنا که دانش درباره اینکه یک شیء یک مشخصه را در مالکیت دارد هیچگونه اطلاعاتی در مورد اینکه آیا سایر مشخصه­ها را در مالکیت دارد یا نه فراهم نمی­کند. در پایان، این فرایند فرض می­ کند که مشخصه­های نهفته یک زیرمجموعه متناهی از یک مجموعه بی­کران یا نامتناهی از مشخصه­ها هستند.
توجه شود که تشبیه به کافه هندی مستقیماً به نمونه­گیر گیبز[۶۳۳] زیر منجر می­ شود. قاعده بیز بیان می­ کند که
جمله راستنمایی از مدل نویز به راحتی محاسبه می­ شود، در حالیکه برای محاسبه جمله پیشین باید به طریق زیر عمل شود: تصور کنید مشتری آخرین فردی است که به رستوران وارد شده است (این فرض به علت تعویض­پذیر بودن معتبر است).
جمله پیشین برای مشخصه­های فعال[۶۳۴] (خوراک­های امتحان شده یا نمونه گیری شده) برابر است. مشخصه­های جدید از طریق ترکیب مدل راستنمایی با پیشین بر روی تعداد خوراک­های جدید که یک مشتری امتحان خواهد کرد، نمونه گیری می­ شود.
اگر پیشین مزدوج[۶۳۵] با راستنمایی باشد، با انتگرال­گیری از راستنمایی ، می­توانیم را حذف کنیم و را در نظر بگیریم. این رویکرد به نمونه­گیر گیبز فروپاشیده[۶۳۶] برای فرایند IBP منجر می­ شود. با حذف A، توزیع حاشیه­ای بدست می ­آید که به نمونه­گیر گیبز فروپاشیده، سطحی از انعطاف­پذیری را می­دهد به اینصورت که نسبت به نمونه­گیر گیبز فرونپاشیده[۶۳۷] سریع­تر ترکیب می­ شود.

موضوعات: بدون موضوع
[پنجشنبه 1400-07-29] [ 02:25:00 ب.ظ ]