الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء 12

الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء 12
5 (100%) 2 vote[s]

 

لفهم سبب قيامنا بذلك ، فإنه يساعد على التفكير في ما تقوم به الشبكة العصبية من المبادئ الأولى. فكر أولاً في الحالة التي نستخدم فيها 10 خلايا عصبية للخرج. دعونا نركز على الخلايا العصبية الناتج الأولى، تلك التي يحاول أن يقرر ما إذا كان الرقم هو 0. وذلك من خلال يصل وزنها الأدلة من طبقة مخفية من الخلايا العصبية. ما هي تلك الخلايا العصبية الخفية؟ حسناً ، لنفترض فقط من أجل الحجة القائلة بأن الخلايا العصبية الأولى في الطبقة المخفية تكتشف ما إذا كانت صورة مشابهة لما يلي موجودة أم لا:

mnist_top_left_feature-460x473 الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء 12

ويمكنه القيام بذلك عن طريق زيادة وزن وحدات البكسل الخاصة بالمدخلات التي تتداخل مع الصورة ، وفقط وزنًا خفيفًا على مدخلات أخرى. بطريقة مماثلة ، دعنا نفترض ، من أجل حجة أن الخلايا العصبية الثانية والثالثة والرابعة في الطبقة المخفية تكتشف ما إذا كانت الصور التالية موجودة أم لا:

mnist_top_left_feature-460x473 الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء 12

كما قد تكون خمنت ، تشكل هذه الصور الأربعة معًا الصورة التي رأيناها في سطر الأرقام الموضحة مسبقًا:

mnist_top_left_feature-460x473 الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء 12

إذا كانت جميع هذه الخلايا العصبية الخفية الأربعة تطلق النار ، فيمكننا أن نستنتج أن الرقم هو 0. وبالطبع ، هذا ليس النوع الوحيد من الأدلة التي يمكننا استخدامها لاستنتاج أن الصورة كانت 0 – يمكننا الحصول على 0 بشكل شرعي. العديد من الطرق الأخرى (على سبيل المثال ، من خلال ترجمات الصور السابقة ، أو التشوهات الطفيفة). ولكن يبدو من الأسلم أن نقول أنه على الأقل في هذه الحالة ، نستنتج أن الإدخال كان 0.

لنفترض وظائف الشبكة العصبية بهذه الطريقة ، يمكننا إعطاء تفسير معقول لماذا من الأفضل الحصول على 10 مخرجات من الشبكة ، بدلاً من 4. إذا كان لدينا 4 مخرجات ، عندئذ سيحاول أول خلية خرج أن يقرر أكثر كان قليلا من الرقم. ولا توجد طريقة سهلة لربط هذه الأشكال الأكثر أهمية إلى الأشكال البسيطة مثل تلك الموضحة أعلاه. من الصعب أن نتصور أن هناك أي سبب تاريخي جيد يرتبط بشكل وثيق الأشكال المكونة للرقم (مثلا) أهم جزء في الإخراج.

الآن ، مع كل ما قيل ، كل هذا مجرد مجرّد. لا شيء يقول أن الشبكة العصبية ثلاثية الطبقات يجب أن تعمل بالطريقة التي وصفتها ، مع الخلايا العصبية الخفية التي تكتشف الأشكال البسيطة للمكونات. ربما خوارزمية تعلم ذكية سوف تجد بعض المهام من الأوزان التي تسمح لنا باستخدام 4 الخلايا العصبية الإخراج فقط. ولكن كوسيلة مجربة ، فإن طريقة التفكير التي وصفتها تعمل جيدًا ، ويمكن أن توفر لك الكثير من الوقت في تصميم بنية الشبكات العصبية الجيدة.

ممارسه الرياضه
توجد طريقة لتحديد تمثيل البتات لرقم من خلال إضافة طبقة إضافية إلى الشبكة ثلاثية الطبقات أعلاه. تقوم الطبقة الإضافية بتحويل المخرجات من الطبقة السابقة إلى تمثيل ثنائي ، كما هو موضح في الشكل أدناه. ابحث عن مجموعة من الأوزان والتحيزات لطبقة الإخراج الجديدة. لنفترض أن الطبقات الثلاثة الأولى من العصبونات تكون بحيث أن المخرج الصحيح في الطبقة الثالثة (أي طبقة الخرج القديمة) ينشط على الأقل 0.99 ، أما النواتج غير الصحيحة فتنشط أقل من 0.01.

mnist_top_left_feature-460x473 الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء 12

 

أكتوبر 15, 2018

0 responses on "الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء 12"

Leave a Message

X