الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء الثالث

هذا سلسة مقالات الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء الثالث

 

في هذه الشبكة ، يقوم العمود الأول من perceptrons – ما نسميه الطبقة الأولى من perceptrons – بعمل ثلاثة قرارات بسيطة للغاية ، من خلال وزن دليل المدخلات. ماذا عن المستقبِلات في الطبقة الثانية؟ يتخذ كل واحد من هؤلاء المستقبليين قرارًا من خلال موازنة النتائج من الطبقة الأولى في اتخاذ القرار. وبهذه الطريقة ، يمكن للطبقة المعيارية في الطبقة الثانية أن تتخذ قرارًا على مستوى أكثر تعقيدًا وأكثر تجريدًا من مستوى المستقبلات في الطبقة الأولى. ويمكن اتخاذ قرارات أكثر تعقيدا من قبل المعترض في الطبقة الثالثة. بهذه الطريقة ، يمكن لشبكة متعددة الطبقات من المستقبلات المشاركة في صنع القرار المتطور.

 

بالمناسبة ، عندما عرّفت perceptrons قلت إن البصمة لديها ناتج واحد فقط. في الشبكة فوق المستقبليات تبدو وكأنها لديها مخرجات متعددة. في الواقع ، ما زالوا خرج واحد. تعتبر أسهم الإخراج المتعددة مجرد وسيلة مفيدة للإشارة إلى أن الإخراج من perceptron يستخدم كمدخل للعديد من المستقبلات الأخرى. انها أقل عملية من رسم خط انتاج واحد والذي ينقسم.

 

 

دعونا تبسيط الطريقة التي وصفنا perceptrons. عتبة الشرط ∑jwjxj> مرهقة ، ويمكننا إجراء تغييرين علميين لتبسيطها. التغيير الأول هو كتابة ∑jwjxj كمنتج نقطة ، w⋅x≡∑jwjxj ، حيث w و x هي متجهات مكوناتها هي الأوزان والمدخلات ، على التوالي. التغيير الثاني هو نقل العتبة إلى الجانب الآخر من عدم المساواة ، واستبدالها بما يعرف بالتحيز المعياري ، عتبة b≡. باستخدام التحيز بدلاً من العتبة ، يمكن إعادة كتابة قاعدة perceptron:

w⋅x≡∑jwjxj الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء الثالث

يمكنك أن تفكر في التحيز كمقياس لمدى سهولة الحصول على الإحساس بالإخراج 1. أو أن نضعه في مصطلحات بيولوجية أكثر ، فإن التحيز هو مقياس لمدى سهولة الحصول على المستقبل. بالنسبة للإدراك الحسي مع التحيز الكبير ، من السهل للغاية أن يخرج المستقبِل الواحد 1. ولكن إذا كان التحيز سلبيًا للغاية ، فمن الصعب على المستقبِل أن يخرج 1. من الواضح أن إدخال التحيز هو مجرد تغيير بسيط في كيف نصف المستقبلات ، ولكننا سنرى لاحقًا أنها تؤدي إلى تبسيط أكثر للعلائق. وبسبب ذلك ، لن نستخدم الحد الأدنى من القيمة المتبقية في الكتاب ، وسنستخدم دائمًا التحيز.

 

لقد وصفت perceptrons كوسيلة لموازنة الأدلة لاتخاذ القرارات. طريقة أخرى يمكن استخدامها هي حساب الدوال المنطقية الابتدائية التي نفكر فيها عادةً كحساب أساسي ، وظائف مثل AND و OR و NAND. على سبيل المثال ، لنفترض أن لدينا perceptron مع اثنين من المدخلات ، كل منها مع −2 الوزن ، والتحيز العام من 3. وهنا لدينا perceptron:

w⋅x≡∑jwjxj الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء الثالث

ثم نرى أن المدخلات 00 تنتج الناتج 1 ، لأن (−2) ∗ 0 + (- 2) ∗ 0 + 3 = 3 موجبة. هنا ، لقد قدمت رمز to لجعل المضاعفات صريحة. تظهر الحسابات المماثلة أن المدخلات 01 و 10 تنتجان مخرجات 1. لكن المدخلات 11 تنتج خرج 0 ، لأن (−2) ∗ 1 + (- 2) ∗ 1 + 3 = −1 سالبة. ومن ثم فإن نظامنا الإدراكي يطبق بوابة NAND!

 

يوضح مثال NAND أنه يمكننا استخدام perceptrons لحساب وظائف منطقية بسيطة. في الواقع ، يمكننا استخدام شبكات perceptrons لحساب أي دالة منطقية على الإطلاق. والسبب هو أن بوابة NAND عالمية للحوسبة ، أي أنه يمكننا بناء أي حساب من بوابات NAND. على سبيل المثال ، يمكننا استخدام بوابات NAND لإنشاء دارة تضيف بتتين ، x1 و x2. يتطلب ذلك حساب مجموع البت ، x1⊕x2 ، بالإضافة إلى بتة ترحيل التي تم تعيينها إلى 1 عندما يكون كل من x1 و x2 1 ، على سبيل المثال ، فإن بت المحمل هو منتج البت فقط x1x2:

 

w⋅x≡∑jwjxj الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء الثالث

للحصول على شبكة مكافئة من المستقبلات ، نقوم باستبدال جميع بوابات NAND من خلال المستقبلات مع اثنين من المدخلات ، كل منها بالوزن ،2 ، والتحيز العام لـ 3. وهنا الشبكة الناتجة. لاحظ أني قمت بتحريك المعترض المقابل لبوابة NAND أسفل اليمين قليلاً ، فقط لتسهيل رسم الأسهم على الرسم التخطيطي:

 

سلسلة مقالات تعلم الشبكات العصبية والتعليم العميق المقال التالي

0 responses on "الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء الثالث"

Leave a Message

X