شناسایی الگو - یادگیری ماشین

حل تشریحی سوالات شناسایی الگو - یادگیری ماشین - کنکور دکتری مهندسی کامپیوتر 1400

سوالات شناسایی الگو - یادگیری ماشین

25 سوال
66.

کدام یک از روش‌های کاهش ابعاد زیر از تکنیک "کشف ساختار درونی با بعد کمتر" یا intrinsic low-dimensional structure detection برای کاهش ابعاد داده ها استفاده می‌نماید؟

1)

ISOMAP

2)

Locally Linear Embedding (LLE)

3)

Multidimensional Scaling (MDS)

4)

Principal Components Analysis (PCA)

67.

از معیار واگرایی (Divergence) برای اندازه گیری میزان جدایی پذیری دو کلاس میتوان استفاده کرد. برای حالتی که توابع توزیع ویژگی x در دو کلاس و به صورت توابع گوسی یک متغیره و باشد، معیار واگرایی از کدام رابطه به دست می آید؟ نکته معیار واگرایی d ij توسط رابطه زیر محاسبه میشود.

1)

2)

3)

4)

68.

چنانچه مجموعه داده های زیر برای دسته بندی دو دسته ای در اختیار باشند نمونه آزمایشی ۵ = x با استفاده از دسته بند بیز و با فرض توزیع گاوس برای هر دسته و دسته بند ، به ترتیب از راست به چپ به کدام دسته تعلق خواهد داشت؟

1)

یک و یک

2)

یک و دو

3)

دو و یک

4)

دو و دو

69.

اگر به طور توام دارای توزیع نرمال با میانگین ماتریس کوواریانس باشد کدام گزینه میانگین توزیع شرطی را نشان میدهد؟

1)

2)

3)

4)

70.

در جدول زیر با فرض اینکه متغیرهای باینری X و Y مستقل باشند مقادیر و مربوط به احتمال توام کدام است؟

1)

و

2)

و

3)

و

4)

و

71.

چهار نمونه که هر کدام دارای ۲ ویژگی هستند و به صورت ماتریس X نشان داده شده است.

می خواهیم این داده ها را توسط الگوریتم PCA به یک بعد کاهش بدهیم، کدام بردار تبدیل میتواند برای این منظور به کار رود؟


1)

2)

3)

4)

72.

یک مجموعه آموزشی داریم که نمونه های آن برچسبهای +2 و +1 دارند و هر نمونه دارای m ویژگی با مقدار حقیقی است. برای هر مقدار توزیع گاوسی برای ویژگی در نظر می‌گیریم، پس که میانگین ویژگی k برای دسته j و واریانس ویژگی k برای دسته j است به این دسته بند، دسته بند بیز ساده گاوسی می‌گویند، کدام گزینه در مورد این دسته بند نادرست است؟


1)

اگر باشد دسته‌بند خطی است.

2)

قدرت تفکیک دسته بند خطی کمتر از قدرت تفکیک دسته بند بیز ساده گاوسی است.

3)

بدون هیچ شرطی روی و دسته‌بند بیز ساده گاوسی یک دسته‌بند خطی است.

4)

دسته‌بند بیز ساده گاوسی و logistic regression در حالت مجانبی وقتی که شرط برقرار باشد، یک مدل را می‌سازند.

73.

در رگرسیون چند جمله ای همراه با منظم سازی با افزایش کدام یک از گزاره های زیر درست است؟

1)

واریانس افزایش می‌یابد.




2)

بایاس افزایش می‌یابد.

3)

مدل دچار بیش برازش می‌شود.

4)

به داده های پرت اهمیت بیشتری داده می‌شود.

74.

آزمونی داده شده است که پیش بینی میکند یک شخص بیمار است (+C) یا بیمار نیست (_c). این آزمون توسط تابع زیر نشان داده میشود.

همچنین میدانیم که هزینه خطای FN سه برابر هزینه خطای FP است. ما میخواهیم مقدار را پیدا کنیم که احتمال دسته بندی اشتباه و ریسک را کمینه نماید در این خصوص کدام گزینه درست است؟ (مقدار سمت راست احتمال دسته بندی اشتباه و مقدار سمت چپ ریسک را نشان میدهد.)

1)

و

2)

و

3)

و

4)

و

75.

فرض کنید که x یک بردار تصادفی -d بعدی با میانگین و ماتریس کوواریانس است. اگر که A یک ماتریس nxd و b یک بردار n بعدی باشد ماتریس کوواریانس Y کدام است؟

1)

2)

3)

4)

76.

مسأله دسته بندی برای داده های دو دسته S=1 و ۲ = S با احتمال پیشین برابر را در نظر بگیرید. ورودی دسته بند بردار با دو ویژگی نامنفی و مستقل از هم و است. در هر دسته ویژگیهای و دارای تابع توزیع نمایی به صورت زیر هستند.

پارامترهای توزیع برای این دو دسته مشخص و به صورت زیر است.


فرض کنید برای این مسأله، دسته‌بند بهینه خطی طراحی کرده‌ایم احتمال دسته‌بندی صحیح به کمک دسته‌بند بهینه کدام است؟

1)

2)

3)

4)

77.

کدام گزینه نادرست است؟

1)

بعد VC پرسپترون کوچک تر از بعد VC در SVM خطی است.

2)

احتمال رویداد بیش برازش (Overfitting)، برای مجموعه داده های کوچک بیشتر است.

3)

اگر عمق یک درخت تصمیم به اندازه طول بردار ویژگی باشد نویز موجود در داده ها بیشتر تأثیر خواهد گذاشت.

4)

اگر داده آموزشی شامل نویز در برچسب داده ها باشد روش ادغام Boosting صدمه بیشتری نسبت به روش Bagging خواهد داشت.

78.

تعداد همسایه ها (یعنی k) در روش نزدیک ترین همسایه (KNN)، چه اثری دارد؟

1)

افزایش k باعث کاهش هزینه محاسباتی می‌شود.

2)

افزایش k باعث افزایش حساسیت به نویز ویژگی ها می‌شود.

3)

افزایش k باعث کاهش حساسیت به نویز دسته بندی می‌شود.

4)

کاهش k باعث کاهش تعداد ویژگیهای مؤثر در دسته بندی می‌شود.

79.

کدام عبارت صحیح است؟

1)

Nalve Bayes همیشه یک دسته بند خطی است


2)

یکی از مشکلات روش خوشه‌بندی سلسله مراتبی با معیار فاصله Single-link، مشکل Chain effect است.

3)

دسته بند A دقت 90% روی داده آموزشی و 75% روی داده آزمون و دسته بند B دقت 78% روی هر دو داده آموزشی و آزمون دارد میتوان نتیجه گرفت که دسته بند A از B بهتر است چون میانگین دقت آن بالاتر است.

4)

یک مجموعه داده خطی جدایی پذیر داریم و دو پرسپترون که یکی با روش نزول در امتداد گرادیان خطا و دیگری با قانون پرسپترون آموزش داده شده است میتوان گفت که هر دو پرسپترون دقت یکسانی بر روی مجموعه داده آموزشی و آزمون دارند.

80.

در یک دسته بند ماشین بردار پشتیبان با حاشیه سخت (Hard Margin SVM) در فضای دو بعدی مرز جداساز آن به وسیله قاعده مشخص شده است و از تابع زیر برای نگاشت بردار ویژگی به فضای با ابعاد بالاتر استفاده می‌کند.

آیا نمونه های و به ترتیب می‌توانند بردارهای پشتیبان این دسته‌بند باشند؟

1)

خیر - خیر

2)

خیر - بلی

3)

بلی - خیر

4)

بلی - بلی

81.

فرض کنید در یک مجموعه داده، ستون TID نشان‌دهنده کلید مربوط به نمونه ها باشد. (برای هر نمونه یک TID منحصر بفرد وجود داشته باشد.) اگر یک درخت تصمیم غیر باینری روی این داده آموزش دهیم و متغیر TID را هم به عنوان یک ویژگی وارد الگوریتم یادگیری کنیم، در صورت استفاده از معیار بهره اطلاعاتی (Information Gain) برای انتخاب ویژگی کدام گزینه صحیح است؟

1)

درخت حاصل دارای عمق پایین و مشکل کم برازش (Underfitting) خواهد بود.

2)

درخت حاصل دارای عمق بالا و مشکل بیش برازش (Overfitting) خواهد بود.

3)

متغیر TID دارای بهره اطلاعاتی بالا بوده و به عنوان ریشه درخت انتخاب خواهد شد.

4)

در صورت مناسب بودن مابقی ویژگیها الگوریتم قادر به یادگیری درختی با قدرت تعمیم بالا خواهد بود.

82.

بعد VC یک درخت تصمیم با سه گره دودویی (گره ها دارای دو فرزند هستند) در کدام است؟

83.

یک عامل یادگیری تقویتی در محیط زیر که شامل ۵ حالت است فعالیت میکند اعداد روی کمانها پاداش را نشان می دهند عامل تنها دو کنش چپ و راست که به صورت قطعی هستند را دارد.

برای سیاست بهینه کدام است؟

1)

2)

3)

4)

84.

یک کارخانه محصول A را تولید میکند میخواهیم احتمال خراب بودن این محصول را تخمین بزنیم برای این کار مجموعه ای از آزمایشها را به صورت زیر انجام میدهیم در هر آزمایش چندین محصول A را برداشته و بررسی می کنیم که آیا این محصول A سالم است یا خراب تا به یک محصول A سالم برسیم. در هر آزمایش تعداد محصول A آزمایش شده خراب که با k نشان می‌دهیم را یادداشت میکنیم فرض کنید که احتمال خرابی محصول A برابر P باشد و m آزمایش مستقل انجام دهیم و تعداد محصولات خراب را یادداشت کنیم. تخمین P با استفاده از تخمین درست نمایی بیشینه کدام است؟

1)

2)

3)

4)

85.

مجموعه داده های زیر را داریم.

مؤلفه اول هر زوج، بردار ویژگی x و مؤلفه دوم برچسب آن است. اگر از یک دسته بند logistic regression با پارامترهای و استفاده کنیم مقدار likelihood کدام است؟

1)

0/27

2)

0/64

3)

0/73

4)

0/88

86.

تابع توزیعی به صورت زیر داریم، اما مقدار را نداریم و میخواهیم با یک نمونه از توزیع مقدار آن () را تخمین بزنیم یک نمونه از توزیع گرفته می‌شود، که مقدار آن x = 3 است. تخمین درست نمایی بیشینه برابر کدام گزینه است؟

87.

فرض کنید فضای فرضیه (Hypothesis space) شامل درختهای تصمیم با عمق ۲ بر روی ۲ ویژگی است.

همچنین فرض کنید هر داده شامل ۱۰ = n ویژگی دودویی باشد چه تعداد داده (m) کافی است تا مطمئن باشیم که یک درخت تصمیم با مشخصه ذکر شده مییابیم که به احتمال حداقل ۰٫۹۹ خطای آن کمتر از ۰٫۰۵ است؟

1)

2)

3)

4)

88.

یک ژن به شکل دو الل A و a ظاهر می‌شود، به گونه ای که احتمال رخداد الل A در جمعیت برابر با است. بدین معنی که یک کپی تصادفی از این ژن به احتمال الل A و به احتمال الل است. یک ژنوتیپ از دو ژن تشکیل شده است و احتمال هر ژنوتیپ به صورت زیر است.

فرض کنید که یک نمونه برداری تصادفی از جمعیت شامل ژنوتیپ ،AA ژنوتیپ Aa و ژنوتیپ aa است. تخمین بیشینه درست نمایی (MLE) برای کدام است؟

1)

2)

3)

4)

89.

در مورد روشهای خوشه بندی کدام مورد درست است؟

1)

تابع هزینه روش k-means- ممکن است در برخی از گامهای الگوریتم افزایش یابد.


2)

الگوریتم EM برای پیدا کردن پارامترهای GMM پارامترهایی را پیدا میکند که متناظر با بیشینه سراسری تابع Likelihood هستند.

3)

در روش EM ممکن است حالتی از خوشه بندی پیدا شود که مقدار درست نمایی (Likelihood) را بی نهایت کند ولی خوشه بندی مطلوبی نباشد.

4)

اگر خوشه ها توزیع گاوسی متقارن (با ماتریس کوواریانس ) باشند جواب k - means و EM روی GMM لزوماً یکی می شود.

90.

کدام یک از موارد زیر درست است؟

1)

در تشخیص داده های پرت روشهای پارامتری نسبت به روشهای ناپارامتری حساسیت کمتری در برابر نویز دارند.

2)

تخمین زن NN - توانایی محاسبه تابع چگالی احتمال را دارد.

3)

در NN - با افزایش واریانس مدل افزایش می یابد.

4)

در NN - با کاهش بعد VC افزایش می یابد.