شرح gradient descent

شرح gradient descent
5 (100%) 2 votes

gradient descent  (أصل الانحدار) : كل ما تحتاج إلى معرفته
التدرج المنحدر هو خوارزمية التعلم الأكثر استخدامًا في Machine Learning ، وستعرض لك هذه المشاركة كل ما تحتاج إلى معرفته عنه تقريبًا.

ما الخوارزمية المستخدمة في كل نموذج تعليمي آلي تقريبًا؟ إنها أصل متدرج. هناك بعض الاختلافات في الخوارزمية ، لكن هذا ، أساسًا ، هو كيف يتعلم أي نموذج ML. بدون هذا ، لن يكون ML هو المكان المناسب الآن.

في هذا المنشور ، سوف أقوم بشرح تنازلي التدرج مع القليل من الرياضيات. بصراحة ، لا يتضمن GD (Gradient Descent) الكثير من الرياضيات (سأشرح ذلك لاحقًا). سأستبدل معظم تعقيد الرياضيات الكامنة مع التشبيهات ، بعضها ، وبعضها من الإنترنت.

إليك ما سأنتقل إليه:

نقطة GD: شرح ما هي خوارزمية كاملة.
أنواع مختلفة من خوارزميات GD: تجاوز الاختلافات المختلفة في GD.
تنفيذ الكود: كتابة الكود في بايثون لإظهار GD.
هذه هي أول مشاركة في سلسلتي “كل ما تحتاج إلى معرفته” حول التعلم الآلي ، حيث أقوم بالبحث المتعلق بموضوع ML ، من أجلك. بعد ذلك ، أقوم بتكثيف كل شيء تعلمته في مشاركة واحدة ، لكي تستهلكها وتعلم من خلالها.

لذا ، إذا كنت ترغب في البقاء على اطلاع دائم والتعرف على بعض الشيء ، فيمكنك متابعتي هنا وعلى Twitter. أيضا ، إذا كان لديك أي أسئلة ، تغرد عليهم في وجهي. كما يمكنك أن تخبرني عن طريق حالي (عند نشر هذه الرسالة) ، سأرد عليها بالتأكيد.

1.  GD
Gradient Descent  (هناك العديد من أنواع وظائف التكلفة cost functions ). نحتاج إلى استخدام  وظيفة التكلفة هذه لأننا نريد تقليلها. التقليل من أي وظيفة يعني العثور على أعمق نقطة في هذه  (functions الوظيفة) . ضع في اعتبارك أنه يتم استخدام وظيفة التكلفة لمراقبة الخطأ في التنبؤات بنموذج ML. لذا ، يتطلب أساسا الحصول على أدنى قيمة للخطء ممكنة أو زيادة دقة النموذج. باختصار ، نحن نزيد اكثر دقة عن طريق التكرار على مجموعة بيانات التدريب أثناء التغيير والتبديل في المعلمات (الأوزان والتحيزات) من نموذجنا.

لذا ، فإن الهدف الأساسي من GD هو تقليل وظيفة التكلفةcost functions .

للبحث عن أقل خطأفي دالة التكلفة (فيما يتعلق بوزن واحد) ، نحتاج إلى تعديل معلمات النموذج. نقوم بتعديلها –  أدخل حساب التفاضل والتكامل. باستخدام حساب التفاضل والتكامل ، نعلم أن ميل الدالة هو مشتق للدالة فيما يتعلق بالقيمة.

هنا (في الصورة) ، يمكننا أن نرى الرسم البياني لوظيفة التكلفة (المسماة “خطأ” مع الرمز “J”) مقابل وزن واحد فقط. الآن إذا قمنا بحساب المنحدر (دعنا نسمي هذا dJ / dw) من دالة التكلفة فيما يتعلق بهذا الوزن ، نحصل على الاتجاه الذي نحتاجه للتحرك ، من أجل الوصول إلى (أقرب وعميق نقطة ).دعنا نتخيل أن نموذجنا لديه وزن واحد فقط.

الجزء الاول من المقال

 

 

نوفمبر 29, 2018

0 responses on "شرح gradient descent"

Leave a Message

X