The architecture of neural networks
بنية الشبكات العصبية :
في هذا القسم ، سنقوم بعمل شبكة عصبية يمكنها القيام بعمل جيد لتصنيف الأرقام المكتوبة بخط اليد. تحضيراً لذلك ، فإنه يساعد على شرح بعض المصطلحات التي تسمح لنا بتسمية أجزاء مختلفة من الشبكة.
لنفترض أن لدينا الشبكة:
وكما ذكرنا من قبل ، فإن الطبقة الموجودة في أقصى اليسار في هذه الشبكة تسمى طبقة المدخلات ، وتسمى الخلايا العصبية داخل الطبقة الخلايا العصبية المدخلة. تحتوي الطبقة الموجودة في أقصى اليمين المخرجات على الخلايا العصبية ، كما في هذه الحالة ، خلية عصبية واحدة. تسمى الطبقة الوسطى طبقة مخفية ، لأن الخلايا العصبية في هذه الطبقة ليست مدخلات أو مخرجات. قد يبدو المصطلح “مخفي” غامضًا بعض الشيء – في المرة الأولى التي سمعت فيها المصطلح اعتقدت أنه يجب أن يكون له بعض الأهمية الفلسفية أو الرياضية العميقة – ولكنه لا يعني شيئًا أكثر من “ليس مدخلاً أو مخرجًا”. تحتوي الشبكة أعلاه على طبقة مخفية واحدة فقط ، ولكن بعض الشبكات تحتوي على طبقات مخفية متعددة. على سبيل المثال ، تحتوي الشبكة الأربعة التالية على طبقتين مخفيتين:
في بعض الأحيان ، وبشكل مربك ، ولأسباب تاريخية ، تسمى هذه الشبكات متعددة الطبقات في بعض الأحيان متعدد الطبقات perceptrons أو MLP ، على الرغم من كونها تتكون من الخلايا العصبية السيمية ، وليس perceptrons.
يكون تصميم طبقات الإدخال والإخراج في الشبكة أمرًا بسيطًا في الغالب. على سبيل المثال ، لنفترض أننا نحاول تحديد ما إذا كانت صورة مكتوبة بخط اليد تصور “9” أم لا. والطريقة الطبيعية لتصميم الشبكة هي تشفير كثافة بيكسلات الصورة في الخلايا العصبية المدخلة. إذا كانت الصورة عبارة عن صورة 64 x 64 greyscale ، عندئذ سيكون لدينا 4،096 = 64 × 64 خلايا عصبية مدخلة ، مع تحجيم الشدة بشكل مناسب بين 0 و 1. ستحتوي طبقة المخرجات على عصبون واحد فقط ، مع قيم خرج أقل من 0.5 يشير إلى “صورة الإدخال ليست 9” ، والقيم الأكبر من 0.5 تشير إلى “صورة الإدخال هي 9”.
في حين أن تصميم الطبقات المدخلة والمخرجة للشبكة العصبية يكون في الغالب أمرًا بسيطًا ، إلا أنه يمكن أن يكون هناك فن لتصميم الطبقات المخفية. على وجه الخصوص ، لا يمكن تلخيص عملية التصميم للطبقات المخفية بقليل من القواعد البسيطة. وبدلاً من ذلك ، طور الباحثون في الشبكات العصبية العديد من الأساليب التصميمية للطبقات المخبأة ، والتي تساعد الأشخاص على الحصول على السلوك الذي يريدونه من شبكاتهم. على سبيل المثال ، يمكن استخدام هذه الاستدلالات للمساعدة في تحديد كيفية مقايضة عدد الطبقات المخفية مقابل الوقت اللازم لتدريب الشبكة. سنلتقي بالعديد من أساليب التصميم هذه لاحقًا في هذا الكتاب.
حتى الآن ، كنا نناقش الشبكات العصبية حيث يتم استخدام الإخراج من طبقة واحدة كإدخال للطبقة التالية. تسمى هذه الشبكات الشبكات العصبية المغذية. هذا يعني عدم وجود حلقات في الشبكة – يتم دائمًا تغذية المعلومات إلى الأمام ، ولا تتم إعادتها مطلقًا. إذا كان لدينا حلقات ، فسينتهي بنا الأمر إلى حالات يتوقف فيها الإدخال إلى الدالة على المخرجات. سيكون من الصعب فهم ذلك ، ولذلك لا نسمح بمثل هذه الحلقات.
ومع ذلك ، هناك نماذج أخرى من الشبكات العصبية الاصطناعية التي تكون فيها حلقات التغذية المرتدة ممكنة. تسمى هذه النماذج الشبكات العصبية المتكررة. الفكرة في هذه النماذج هي وجود خلايا عصبية تطلق لبعض الوقت المحدود ، قبل أن تصبح هادئة. يمكن أن يؤدي إطلاق النار إلى تحفيز الخلايا العصبية الأخرى ، التي قد تطلق بعد فترة قصيرة ، وأيضاً لفترة محدودة. هذا يسبب المزيد من الخلايا العصبية للنار ، وهكذا مع مرور الوقت نحصل على سلسلة من الخلايا العصبية التي تطلق النار. لا تتسبب الحلقات في حدوث مشاكل في مثل هذا النموذج ، حيث يؤثر ناتج العصبونات فقط على مدخلاته في وقت لاحق ، وليس على الفور.
كانت الشبكات العصبية المتكررة أقل تأثيراً من الشبكات المغذية ، ويرجع ذلك جزئياً إلى أن خوارزميات التعلم للشبكات المتكررة هي أقل قوة (على الأقل حتى تاريخه). لكن الشبكات المتكررة لا تزال مثيرة للغاية. انهم أقرب في الروح إلى كيفية عمل أدمغتنا من الشبكات المتطورة. ومن الممكن أن تتمكن الشبكات المتكررة من حل المشكلات المهمة التي لا يمكن حلها إلا بصعوبة كبيرة من خلال الشبكات المتطورة. ومع ذلك ، للحد من نطاقنا ، سنركز في هذا الكتاب على الشبكات الأكثر انتشارًا المستخدمة.
0 responses on "الشبكات العصبية والتعليم العميق neural network Perceptrons الجزء الثامن"