Discuss, Learn and be Happy דיון בשאלות

help brightness_4 brightness_7 format_textdirection_r_to_l format_textdirection_l_to_r

באלגוריתם RM גודל ה ensemble שנבנה שווה תמיד למספר האיטרציות שנקבע ע"י המשתמש

1
done
by
מיין לפי

באלגוריתם Bagging וגם באלגוריתם RM ניתנים לביצוע מקבילי ללא כל שינוי בקוד, כך שכל מסווג נבנה במעבד אחד/מחשב אחר

1
done
by
מיין לפי

הגדלת מספר הניורונים בשכבה הביניים של רשת ניורונים תלת-שכבתית לרוב תגדיל את הדיוק על קבוצת הלימוד

1
done
by
מיין לפי

הגדלת מספר הניורונים בשכבת הביניים של רשת ניורונים תלת-שכבתית לרוב תגדיל את מרכיב טעות ה-Variance

1
done
by
מיין לפי

אלגוריתם AdaBoost מקטין גם את מרכיב ה Bias וגם את מרכיב ה Variance

1
done
by
מיין לפי

אלגוריתם Bagging מקטין גם את מרכיב ה-Bias וגם את מרכיב ה-Variance

1
done
by
מיין לפי

נתונה הפונקציה f(x1, x2) = (2x_1)^2 + (3x_1) + (5x_2)^2 +(6x_1^2)*x2 אזי אם קיימת נקודת אופטימום הרי ששיטת ניוטון תמצא בהכרח את הפתרון המדויק תוך אטרציה אחת ללא תלות בנקודה שממנה מתחילים בחיפוש

1
done
by
מיין לפי

קיום תנאי KKT עבור בעיה ריבועית, מייצגת את התנאי המספיק לפתרון אופטימלי גלובלי

1
done
by
מיין לפי

יש צורך לסווג תמונה X לשני CLASSES : A & B, שההסתברויות האפשריות שלהם בהתאמה הן :P(A)=0.4, P(B)=0.6, ההסתברות לקבל את ה-X הנ"ל בהינתן A היא 0,6 ואילו ההסתברות לקבל את X הנ"ל בהינתן B היא 0,5. אזי הCLASS שיש לבחור כדי להביא למינימום את התוחלת הטעות הוא B

1
done
by
מיין לפי

ברוב המקרים הדיוק של המסווג הראשון שנבנה ב-Ensemble של AdaBoost גדול מדיוק הסיווג של המסווג הראשון שנבנה ב-Ensemble של Bagging

1
done
by
מיין לפי