الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء الرابع

ارجو تقييم المقال

الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء الرابع

 

للحصول على شبكة مكافئة من المستقبلات ، نقوم باستبدال جميع بوابات NAND من خلال المستقبلات مع اثنين من المدخلات ، كل منها بالوزن ،2 ، والتحيز العام لـ 3. وهنا الشبكة الناتجة. لاحظ أني قمت بتحريك المعترض المقابل لبوابة NAND أسفل اليمين قليلاً ، فقط لتسهيل رسم الأسهم على الرسم التخطيطي:

121 الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء الرابع

 

أحد الجوانب الملحوظة لهذه الشبكة من المستقبلات هو أن المخرج من أقصى نقطة في البروسترون يستخدم مرتين كمدخل في القدر الأدنى. عندما عرّفت نموذج الإدراك الحسي لم أقل ما إذا كان هذا النوع من المخرجات المزدوجة إلى نفس المكان مسموح به. في الواقع ، لا يهم كثيرا. إذا لم نكن نرغب في السماح بهذا النوع من الأشياء ، فمن الممكن ببساطة دمج الخطين ، في اتصال واحد بوزن -4 بدلاً من اثنين من الاتصالات ذات الأوزان -2. (إذا لم تجد هذا واضحًا ، فيجب أن تتوقف وتثبت لنفسك أن هذا يعادل). وبهذا التغيير ، تبدو الشبكة كما يلي ، مع جميع الأوزان غير المميزة التي تساوي -2 ، وجميع التحيزات تساوي 3 ، و وزن واحد من -4 ، كما هو ملحوظ:

121 الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء الرابع

 

حتى الآن ، كنت أرسم مدخلات مثل x1 و x2 كمتغيرات تطفو على يسار شبكة perceptrons. في الواقع ، من التقليدي أن ترسم طبقة إضافية من المستقبلات – طبقة المدخلات – لترميز المدخلات:

121 الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء الرابع

 

هذا الترميز للمستقبلات المدخلات ، التي نحصل فيها على مخرجات ، ولكن لا توجد مدخلات ،

121 الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء الرابع

 

هو الاختزال. هذا لا يعني في الواقع وجود معمل لا يحتوي على مدخلات. لنرى ذلك ، لنفترض أن لدينا جهاز استشعار بدون مدخلات. بعد ذلك ، يكون المجموع المرجَّح ∑jwjxj دائمًا صفرًا ، وبالتالي سينتج عن المعترض 1 إذا كان b> 0 ، و 0 إذا كان b≤0. بمعنى أن المعطى سيخرج ببساطة قيمة ثابتة ، وليس القيمة المطلوبة (x1 ، في المثال أعلاه). من الأفضل أن نفكر في المستقبلات المدخلة على أنها ليست في الواقع مستقبِلات على الإطلاق ، بل وحدات خاصة يتم تعريفها ببساطة لإخراج القيم المطلوبة ، x1 ، x2 ، …

 

يوضح مثال adder كيف يمكن استخدام شبكة من perceptrons لمحاكاة دارة تحتوي على العديد من بوابات NAND. ونظرًا لأن بوابات NAND عالمية للحوسبة ، فإن ذلك يعني أن المستقبلات هي أيضًا عالمية للحساب.

 

إن الحوسبة الحسابية للمستقبلات مطمئنة ومخيبة للآمال في نفس الوقت. إنه مطمئن لأنه يخبرنا أن شبكات perceptrons يمكن أن تكون قوية مثل أي جهاز كمبيوتر آخر. ولكنه أيضا مخيّب للآمال ، لأنه يجعل الأمر يبدو كما لو أن perceptrons هي مجرد نوع جديد من بوابة NAND. هذا بالكاد أخبار كبيرة!

 

ومع ذلك ، فإن الوضع أفضل من وجهة النظر هذه. اتضح أنه يمكننا وضع خوارزميات التعلم التي يمكنها ضبط أوزان وتحيزات شبكة من الخلايا العصبية الاصطناعية بشكل تلقائي. هذا التنقيح يحدث استجابة للمثيرات الخارجية ، دون تدخل مباشر من قبل مبرمج. تمكننا خوارزميات التعلم هذه من استخدام الخلايا العصبية الاصطناعية بطريقة تختلف جذريًا عن البوابات المنطقية التقليدية. بدلاً من وضع دائرة NAND وغيرها من البوابات بشكل صريح ، يمكن لشبكاتنا العصبية أن تتعلم ببساطة حل المشكلات ، وفي بعض الأحيان المشكلات التي يكون من الصعب للغاية فيها تصميم دارة تقليدية بشكل مباشر.

 

0 responses on "الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء الرابع"

Leave a Message

X