شناسایی الگو - یادگیری ماشین

حل تشریحی سوالات شناسایی الگو - یادگیری ماشین - کنکور دکتری مهندسی کامپیوتر 1401

سوالات شناسایی الگو - یادگیری ماشین

25 سوال
77.

از یک جمعیت که تابع توزیع تجمیعی احتمال (CDF) آن به صورت F(x) است به تعداد ۲۰ نمونه به صورت i.i.d انتخاب شده است که تعداد و بازه نمونه های به دست آمده به صورت جدول زیر است. تخمین MLE برای پارامتر کدام است؟

1)

5

2)

5/5

3)

5/75

4)

6

78.

در صورتی که داده های شکل زیر را به کمک SVM خطی (Hard Margin Linear SVM) دسته بندی نماییم، ضریب لاگرانژ متناظر با داده پس از حل Dual، تابع هدف کدام است؟


1)

0/33

2)

1/5

3)

2/5

4)

3/5

79.

اگر بخواهیم از آزمون فرض‌ها برای انتخاب یا عدم انتخاب ویژگی در یک مسئله از دسته بندی دودسته‌ای استفاده کنیم و بخواهیم پذیرش یا رد پذیرش یا رد فرض صفر را به کمک N نمونه از دسته 1 و N نمونه از دسته 2 را بررسی کنیم، در صورتی که واریانس ویژگی‌های دو دسته برابر باشند، و مقدار واریانس دسته ها را ندانیم، مقدار Test Statistic در مورد نظر کدام است؟

و

1)

2)

3)

4)

79.

کدام یک از دو ماتریس داده شده زیر ماتریس کوواریانس معتبر است؟

1)

فقط B

2)

فقط A

3)

هر دو ماتریس A و B

4)

هیج کدام

80.

کدام یک از دسته بندهای زیر قادر به جداسازی صحیح داده های آموزشی شکل زیر دسته های دایره و مثلث است؟

1 Logistic regression

2 SVM with linear kernel

3 SVM with RBF kernel

4 Decision tree

5 3-nearest-neighbor classifier (with Euclidean distance)

1)

1:no,2:no,3:yes,4:yes,5:no

2)

1:no,2:no,3:yes,4:no,5:no

3)

1:yes,2:no,3:no,4:yes,5:no

4)

1:no,2:no,3:no,4:yes,5:no

81.

داده های شکل زیر را در نظر بگیرید اولین مولفه اساسی کدام است؟

1)

2)

3)

4)

82.

مجموعه نقاط دو بعدی در دو کلاس مفروض به شرح زیر میباشند.

T به معنای ترانهاده بردار است، مؤلفه اصلی این نقاط کدام است؟

1)

2)

3)

4)

83.

یک دسته بند از نوع بیزسالو (NaiveBayes) با سه متغیر ورودی دودویی Boolean و و برچسب دودویی y را در نظر بگیرید. برای آموزش این طبقه چه تعداد پارامتر باید تخمین زده شود؟

84.

در صورتی میگوییم فرضیه (یا مدل) h بر روی داده های آموزشی overfit شده است که، فرضیه دیگری مانند وجود داشته باشد و . .................

1)

خطای بر روی داده های آموزشی کمتر از h و خطای h بر روی کل توزیع داده ها کمتر از باشد.

2)

خطای h بر روی داده های آموزشی کمتر از و خطای بر روی کل توزیع داده ها کمتر از h باشد.

3)

خطای h بر روی داده های آموزشی بیشتر از خطای روی داده‌های تست باشد.

4)

خطای بر روی داده های آموزشی بیشتر از خطای h روی داده‌های تست باشد.

85.

کدام یک از موارد زیر میتواند موجب کاهش بیش برازش در SVM شود؟

1)

کاهش واریانس کرنل RBF

2)

Soft margin در نظر گرفتن

3)

افزایش درجه کرنل چند جمله ای

4)

افزایش ضریب بخش مربوط به جریمه دسته بندی نادرست (C)

86.

زنجیره مارکوف مربوط به یک بازی با دیاگرام گذر زیر را در نظر بگیرید.

فرض کنید با شروع از حالت ، انقدر بازی را ادامه میدهید تا زمانی که به یکی از حالتهایه 0 یا N برسید که در این صورت بازی تمام است با شروع از حالت i، به طور متوسط چقدر طول میکشد تا بازی تمام شود؟

1)

i

2)

N-i

3)

i(N-i)

4)

87.

یک مجموعه داده در فضای دوبعدی به‌صورت را در نظر بگیرید که در آن و ویژگی های داده و Y برچسب داده است. پس از یادگیری پارامترهای دسته بند بیز ساده (Naive Bayes) جدول زیر به دست آمده است. اگر بدانیم درست نمایی (likelihood) دو نمونه (1,0,1) و (0,1,0) در مدل داده شده برابر آنگاه P(Y = 1) کدام است؟


1)

2)

3)

4)

88.

کدام یک از روابط زیر رابطه حد بالای Sample complexity با بعد VC را در چارچوب یادگیری PAC به درستی نشان میدهد؟

1)

2)

3)

4)

89.

فرض کنید یک مجموعه داده برای رگرسیون در اختیار دارید که توسط یک چند جمله ای درجه ۳ تولید شده است.

در مورد بایاس و واریانس مدلهای تخمین گر زیر بر روی مجموعه داده ذکر شده نسبت به مدل واقعی تولید کننده داده کدام نتیجه گیری درست است؟

1)

1

2)

2

3)

3

4)

هیچ‌کدام

90.

اگر ماتریس کوواریانس یک مجموعه داده به صورت ماتریس C باشد نسبت پراکندگی داده در جهت مؤلفه اول First component به جهت مؤلفه دوم Second component (یا همان ) در روش کاهش ابعاد PCA به کدام عدد نزدیکتر است؟

1)

3

2)

9

3)

20

4)

34

91.

به عنوان یک ایده اگر بخواهیم از بسط تیلور برای تخمین بهتر مقدار تابع هزینه C حول نقطه w در شبکه های عصبی استفاده کنیم و فرایند نزول در امتداد گرادیان (Gradient descent) را برای یافتن وزنهای بهینه به صورت موثرتری انجام دهیم در صورتی که فقط از سه جمله اول بسط استفاده کنیم رابطه به چه صورت خواهد بود؟ (نرخ یادگیری بردار گرادیان تابع هزینه و H ماتریس هسیان (Hessian matrix) تابع هزینه است که در آن است.)


1)

2)

3)

4)

استفاده از ایده بسط تیلور بدین منظور مفید نیست.

92.

کدام مورد در خصوص الگوریتم خوشه بندی k-means نادرست است؟

1)

نسبت به داده های نویزی حساسیت بالایی دارد.

2)

با رسیدن به بهینه سراسری خاتمه پیدا می کند.

3)

از نظر زمان کارا است و مرتبه زمانی مطلوبی دارد.

4)

نسبت به داده های پرت (outlier) حساسیت بالایی دارد.

93.

کدام روش برای مواجهه با بیش برازش شدن (overfitting) درخت تصمیم مناسب نیست؟

1)

اجازه دهیم که درخت به داده های آموزشی overfit شود و سپس با استفاده از داده های اعتبار سنجی، برخی انشعاب های درخت را هرس کنیم.

2)

در حین آموزش درخت تصمیم پیش از اینکه درخت همه داده های آموزشی را به درستی دسته بندی کند، به صورت زودهنگام به ساخت درخت خاتمه دهیم.

3)

اجازه دهیم که درخت به داده های آموزشی overfit شود، و سپس درخت را به مجموعه قوانین تبدیل میکنیم و با استفاده از داده های اعتبار سنجی برخی از قوانین را حذف کنیم.

4)

داده های آموزشی را با استفاده از نمونه برداری نامتوازن (imbalance کنیم و سپس با استفاده از داده های نامتوازن شده آموزش درخت را انجام دهیم.

94.

کدام یک از روشهای زیر از روشهای یادگیری تنبل (lazy) محسوب نمی شود؟

1)

(Locally weighted regression) رگرسیون محلی وزن دار

2)

(Case based reasoning) استدلال مبتنی بر مورد

3)

بردار ماشین پشتیبان (SVM)

4)

نزدیکترین همسایه (KNN)

95.

داده های زیر را در نظر بگیرید که مؤلفه دوم برچسب داده و مؤلفه اول بردار ویژگی داده است.

در صورتی که برای جداسازی دو دسته از ماشین بردار پشتیبان (SVM) استفاده شود. در تابع هزینه مقدار به کدام است؟ ( برچسب داده i ام است.)

1)

0/5

2)

0/25

3)

صفر

4)

-0/5

96.

شبکه بیزین با ۹ متغیر دودویی به شکل زیر را در نظر بگیرید کدام یک از روابط زیر همیشه در مورد این شبکه

درست است؟

1)

P(A.I)=P(A)P(I)

2)

P(C|B.F)=P(C|F)

3)

P(A,B|G)=P(A|G)P(B|G)

4)

P(B.H|E.G) = P(B|EG)P(H|E.G)

97.

یک کرنل گاوسی با رابطه را در نظر بگیرید. فاصله بین دو بردار ویژگی و در فضای جدید برابر با کدام مورد است؟

1)

2)

3)

4)

98.

فرض کنید در حال انجام یک بازی با دو سکه هستید. سکه اول با احتمال و سکه دوم با احتمال شیر می آید.

پس از چندین پرتاب این سکه‌ها نتایج به شکل جدول زیر به‌دست آمده است:

مقدار Log-Likelihood این داده ها بر اساس چقدر است؟

1)

2)

3)

4)

99.

کدام گزینه بعد VC یک دسته بند (نزدیکترین همسایه) را نشان میدهد که N تعداد نمونه های آموزشی است؟

1)

1

2)

2

3)

4)

N

100.

در رابطه با روش خوشه بندی مقید (constraint clustering) کدام گزینه نادرست است؟

1)

روش خوشه بندی مقید یک روش بدون نظارت (unsupervised) است.

2)

برخی الگوریتم های خوشه بندی مقید قیدها را به صورت قید سخت و برخی دیگر به صورت قید نرم در نظر می گیرند.


3)

در روش خوشه بندی مقید در مورد نمونه های داده که باید در یک خوشه قرار بگیرند قیدها با راهنمایی هایی ارائه می شود.

4)

در روش خوشه بندی مقید در مورد نمونه های داده که باید در خوشه های متمایز قرار بگیرند قیدها با راهنمایی هایی ارائه می شود.