الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء السابع

Neural-networks-and-deep-learning-4 الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء السابع

إذا كان شكل σ الذي يهم بالفعل ، وليس شكله الدقيق ، فلماذا يستخدم النموذج المعين المستخدم لـ σ في المعادلة (3)؟ في الواقع ، في وقت لاحق من الكتاب سننظر في بعض الأحيان إلى الخلايا العصبية حيث يكون الناتج f (w⋅x + b) لبعض وظيفة التنشيط الأخرى f (⋅). الشيء الرئيسي الذي يتغير عندما نستخدم وظيفة التنشيط المختلفة هو أن القيم الخاصة للمشتقات الجزئية في المعادلة (5) تتغير. وتبين أنه عندما نحسب تلك المشتقات الجزئية في وقت لاحق، وذلك باستخدام σ سوف تبسيط الجبر، وذلك ببساطة لأن exponentials لها خصائص جميلة عندما متباينة. في أي حال ، يتم استخدام σ بشكل شائع في العمل على الشبكات العصبية ، وهي وظيفة التنشيط التي سنستخدمها غالبًا في هذا الكتاب.

كيف يجب علينا تفسير الناتج من الخلايا العصبية السيني؟ ومن الواضح أن فارق واحد كبير بين بيرسيبترون والخلايا العصبية السيني هو أن الخلايا العصبية السيني لا إخراج فقط 0 أو 1. ويمكن أن يكون كإخراج أي عدد حقيقي بين 0 و 1، من القيم مثل 0.173 … و0،689 … هي مخرجات المشروعة. قد يكون ذلك مفيدًا ، على سبيل المثال ، إذا أردنا استخدام قيمة الإخراج لتمثيل متوسط ​​كثافة وحدات البكسل في إدخال الصورة إلى الشبكة العصبية. لكن في بعض الأحيان يمكن أن يكون مصدر إزعاج. لنفترض أننا نريد أن يشير الإخراج من الشبكة إلى إما أن “صورة الإدخال هي 9” أو “أن الصورة المدخلة ليست 9”. من الواضح أنه سيكون من الأسهل القيام بذلك إذا كان الناتج 0 أو 1 ، كما هو الحال في المستقبل. ولكن في الواقع نحن لا يمكن اقامة اتفاقية للتعامل مع هذا، على سبيل المثال، من خلال اتخاذ قرار لتفسير أي إخراج من لا يقل عن 0.5 كما يشير إلى “9”، وأي إخراج أقل من 0.5 كما تشير “ليس 9”. سأذكر دائمًا صراحة عندما نستخدم مثل هذه الاتفاقية ، لذا لا ينبغي أن يسبب أي إرباك.

تمارين
الخلايا العصبية السيمينية محاكاة perceptrons ، الجزء الأول
لنفترض أننا نأخذ جميع الأوزان والتحيزات في شبكة من percetrons ، ونضربها بثابت إيجابي ، c> 0. تبين أن سلوك الشبكة لا يتغير.
الخلايا العصبية السيمينية محاكاة perceptrons ، الجزء الثاني
لنفترض أن لدينا نفس الإعداد مثل المشكلة الأخيرة – شبكة من percetrons. لنفترض أيضا أنه تم اختيار المدخلات الإجمالية لشبكة perceptrons. لن نحتاج إلى قيمة الإدخال الفعلية ، فنحن بحاجة فقط إلى إصلاح الإدخال. لنفترض أن الأوزان و التحيزات تكون مثل w⋅x + b ≠ 0 للإدخال x لأي مستقبِل بعينه في الشبكة. الآن استبدال جميع percetrons في الشبكة من قبل الخلايا العصبية السيمينية ، وضرب الأوزان والانحيازات من خلال c> 0 إيجابية موجبة. تبين أنه في الحد كـ c → فإن سلوك هذه الشبكة من الخلايا العصبية السيمودية هو بالضبط نفس شبكة perceptrons. كيف يمكن أن يفشل هذا عندما يكون w⋅x + b = 0 لأحد الأبيات؟

سبتمبر 4, 2018

0 responses on "الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء السابع"

Leave a Message

× للتسجيل بالجامعة تواصل معنا الان
X