الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء السادس

الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء السادس
5 (100%) 1 vote[s]

حسناً ، دعوني أصف (sigmoid neuron ) عصب السيني. سنقوم بتصوير الخلايا العصبية السيمونية بنفس الطريقة التي تصور بها المستقبلات:

Neural-networks-and-deep-learning الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء السادس

تماما مثل perceptron ، فإن عصب السيني لديه مدخلات ، X1 ، X2 ، … ولكن بدلاً من كونها مجرد 0 أو 1 ، يمكن أن تأخذ هذه المدخلات أيضًا أي قيم بين 0 و 1. لذا ، على سبيل المثال ، 0.638 … هي مدخلات صالحة لعصب سيني. كما هو الحال تمامًا مثل perceptron ، فإن الخلية العصبية السيمودية لها أوزان لكل مدخلات ، w1 ، w2 ، … ، وتحيز عام ، b. لكن الناتج ليس 0 أو 1. بدلا من ذلك ، هو σ (w⋅x + b) ، حيث σ تسمى وظيفة السيني * * بالمناسبة ، σ تسمى أحيانا الوظيفة اللوجستية ، وهذه الفئة الجديدة من الخلايا العصبية تسمى الخلايا العصبية اللوجيستية. من المفيد تذكر هذه المصطلحات ، حيث يتم استخدام هذه المصطلحات من قبل العديد من الأشخاص الذين يعملون مع الشبكات العصبية. ومع ذلك ، سنتمسك بمصطلحات السيني. ، ويتم تعريفها من خلال

Neural-networks-and-deep-learning الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء السادس

 

للوهلة الأولى ، تبدو الخلايا العصبية السينيّة مختلفة جدًا عن المستقبلات. قد يبدو الشكل الجبري لدالة السيني غامضة وممنوعة إذا لم تكن على دراية بها. في الواقع ، هناك العديد من أوجه التشابه بين perceptrons والخلايا العصبية السيمينية ، وتبين أن الشكل الجبري لوظيفة السينيم أكثر من مجرد تفاصيل تقنية أكثر من كونه عائقًا حقيقيًا أمام الفهم.

لفهم التشابه مع نموذج perceptron ، افترض أن z≡w⋅x + b هو رقم موجب كبير. ثم e − z≈0 وهكذا σ (z) ≈1. وبعبارة أخرى ، عندما يكون z = w⋅x + b كبيرًا وإيجابيًا ، يكون الناتج من العصبون السيني هو 1 تقريبًا ، تمامًا كما كان من الممكن أن يكون في حالة perceptron. لنفترض من ناحية أخرى أن z = w⋅x + b سلبي جدًا. ثم e − z → ∞ و σ (z) ≈0. لذلك عندما يكون z = w⋅x + b سلبيًا جدًا ، فإن سلوك الخلايا العصبية السيمودية يقترب أيضًا تقريبًا من perceptron. إنه فقط عندما يكون w⋅x + b بحجم متواضع بحيث يكون هناك انحراف كبير عن نموذج perceptron.

ماذا عن شكل جبري σ؟ كيف نفهم ذلك؟ في الواقع ، الشكل الدقيق لـ σ ليس مهمًا جدًا – ما يهم حقًا هو شكل الوظيفة عند رسمها. وهنا الشكل:

Neural-networks-and-deep-learning الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء السادس

 

هذا الشكل عبارة عن نسخة متدرجة من وظيفة الخطوة:

Neural-networks-and-deep-learning الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء السادس

 

إذا كانت σ في الواقع دالة خطوة ، فإن العصبون السيني سيكون عبارة عن جهاز بيسترون ، لأن الناتج سيكون 1 أو 0 اعتمادًا على ما إذا كان w⋅x + b موجبًا أم سالبًا * * في الواقع ، عندما يكون w⋅x + b = 0 المخرجات perceptron 0 ، في حين أن مخرجات وظيفة الخطوة 1. لذلك ، بالمعنى الدقيق للكلمة ، سوف نحتاج إلى تعديل وظيفة الخطوة في تلك النقطة الواحدة. لكنك تحصل على هذه الفكرة .. باستخدام الدالة الفعلية التي نحصل عليها ، كما سبق أن أشرنا أعلاه ، منبثق محيطًا. في الواقع ، إنها سلاسة الدالة التي هي الحقيقة الحاسمة ، وليس شكلها المفصل. نعومة σ تعني أن التغييرات الطفيفة Δwj في الأوزان و inb في التحيز ستؤدي إلى حدوث تغيّر طفيف في الإخراج من العصبون. في الواقع ، يخبرنا حساب التفاضل والتكامل أن Δoutput يقترب بشكل جيد

Neural-networks-and-deep-learning الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء السادس

حيث يكون المجموع فوق كل الأوزان ، و wj ، و ∂wput و ∂wj و ∂output / ∂b يشير إلى المشتقات الجزئية للمخرجات بالنسبة إلى wj و b ، على التوالي. لا داعي للذعر إذا لم تكن مرتاحاً مع المشتقات الجزئية! في حين أن التعبير أعلاه يبدو معقدًا ، مع كل المشتقات الجزئية ، فإنه في الواقع يقول شيئًا بسيطًا جدًا (وهو أمر جيد جدًا): Δoutput هو دالة خطية للتغييرات Δwj و inb في الأوزان والانحياز. هذا الخطي يجعل من السهل اختيار تغييرات صغيرة في الأوزان والتحيزات لتحقيق أي تغيير صغير مرغوب فيه في الناتج. لذلك ، في حين أن الخلايا العصبية السيمينية لها نفس السلوك النوعي مثل perceptrons ، فإنها تجعل من السهل معرفة كيفية تغيير الأوزان والتحيزات التي ستغير الناتج.

0 responses on "الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء السادس"

Leave a Message

X