
سلام بطور خلاصه همونطور که تو تصویر بالا کشیدم! یه تابع کانوکس یه تابع کاسه شکل هست که Gradient Descent بطور خاص بخوبی درش کار میکنه .
و فقط یک نقطه مینیمم بیشتر نداره.
در نقطه مقابل اون توابع غیرکانوکس هستن که دارای لوکال مینیمم های مختلفی هستن که همین مساله باعث میشه الگوریتم گرادینت دیسنت بخوبی درش کار نکنه .
بحث کانوکس بودن و نبودن در cost function برای ما مهم هست چون بر اساس اون هست که ما میزان خوب بودن /نبودن پارامترهامون رو مشخص میکنیم .
توابع خطی همه کانوکس هستن اما توابع غیر خطی نه .
هرچند تو هفته سوم مربوط به بحث logistic regression آموزش یادگیری ماشین اندرو ان جی دقیقا این بحث هم بطور ساده و خیلی قشنگ توضیح داده میشه. اونم ببینید خیلی خوبه براتون .