مقدمة في التعلم العميق Deep Learning

5/5 - (4 أصوات)

نحن نعيش في عالم ، للأفضل والأسوأ ، نحن محاطون دائمًا بخوارزميات التعلم العميق. من تصفية الشبكة الاجتماعية إلى السيارات بدون سائق إلى توصيات الأفلام ، ومن الكشف عن الاحتيال المالي إلى اكتشاف المخدرات ومعالجة الصور الطبية (… هل هذا السرطان الوهمي؟) ، يؤثر مجال التعلم العميق على حياتنا وقراراتنا كل يوم.

في الواقع ، ربما تقرأ هذا المقال في الوقت الحالي لأن خوارزمية التعلم العميق تعتقد أنه يجب عليك رؤيته.

إذا كنت تبحث عن أساسيات التعلم العميق ، والشبكات العصبية الاصطناعية ، والشبكات العصبية التلافيفية ، (الشبكات العصبية بشكل عام …) ، والدرع الخلفي ، والنسب المتدرج ، وأكثر من ذلك ، فقد وصلت إلى المكان الصحيح. في هذه السلسلة من المقالات ، سأشرح هذه المفاهيم بكل بساطة وشمولية.

سيكون هناك أيضا القطط.

إذا بدأت في التعلم العميق ، فهناك قدر لا يصدق من المعلومات المتعمقة الموجودة هناك. سأحرص على توفير موارد إضافية  لأي شخص يرغب في التعلم اكثر بعمق. (على سبيل المثال ، قد ترغب في التحقق من Efficient BackProp بواسطة Yann LeCun ، وآخرون ، والذي كتبه أحد أهم الشخصيات في التعلم العميق. تتناول هذه الورقة تحديدًا backpropagation ، ولكنها تناقش أيضًا بعض الموضوعات الأكثر أهمية. في التعلم العميق ، مثل النسب المتدرج ، والتعلم العشوائي ، والتعلم الدفعي ، وما إلى ذلك. كل شيء هنا إذا كنت تريد إلقاء نظرة!)

ما هو التعلم العميق؟
حقا ، إنه مجرد تعلم الالة  من الأمثلة.

على المستوى الأساسي للغاية ، يعد التعليم العميق أسلوبًا للتعلم الآلي يعلم الكمبيوتر على تصفية المدخلات (الملاحظات في شكل صور أو نص أو صوت) من خلال طبقات من أجل تعلم كيفية التنبؤ بالمعلومات وتصنيفها.

التعلم العميق مستوحى من الطريقة التي يقوم بها العقل البشري و بتصفية المعلومات!

يعد التعلم العميق جزءًا من عائلة التعلم الآلي التي تعتمد على تمثيلات بيانات التعلم (بدلاً من خوارزميات مهمة محددة). يرتبط التعلم العميق في الواقع ارتباطًا وثيقًا بفئة من النظريات حول تطور الدماغ التي اقترحها علماء الأعصاب الإدراكي في أوائل التسعينيات. تمامًا كما في الدماغ (أو بشكل أكثر دقة ، في النظريات والنماذج التي وضعها الباحثون في التسعينيات فيما يتعلق بتطور القشرة المخية البشرية الحديثة) ، تستخدم الشبكات العصبية تسلسلًا هرميًا من المرشحات ذات الطبقات التي تتعلم فيها كل طبقة من الطبقة السابقة و ثم يمرر إخراجها إلى الطبقة التالية.

يحاول التعلم العميق محاكاة النشاط في طبقات الخلايا العصبية في القشرة المخية الحديثة.

في الدماغ البشري ، يوجد حوالي 100 مليار خلية عصبية وكل خلية متصلة بحوالي 100000 من جيرانها. في الأساس ، هذا ما نحاول إنشاؤه ، ولكن بطريقة ما وعلى مستوى يصلح للآلات.

الغرض من التعلم العميق هو محاكاة كيفية عمل الدماغ البشري من أجل خلق بعض السحر الحقيقي.

ماذا يعني هذا من حيث الخلايا العصبية ، المحاور ، التشعبات ، وهلم جرا؟ حسنًا ، يوجد بالخلايا العصبية جسم ، التشوهات ، ومحور عصبي. تنتقل الإشارة من إحدى الخلايا العصبية إلى أسفل المحور وتتحول إلى التشعبات في العصبون التالي. يسمى هذا الاتصال (ليس اتصالًا فعليًا حقيقيًا ، ولكن اتصالًا مع ذلك) حيث يتم تمرير الإشارة باسم المشبك.

الخلايا العصبية بحد ذاتها عديمة الفائدة ، ولكن عندما يكون لديك الكثير منها ، فإنها تعمل معًا لخلق بعض السحر الخطير. هذه هي الفكرة وراء خوارزمية التعلم العميق! تحصل على مدخلات من الملاحظة ، وتضع مدخلاتك في طبقة واحدة تخلق مخرجات والتي بدورها تصبح مدخلات للطبقة التالية ، وهكذا. هذا يحدث مرارا وتكرارا حتى إشارة الإخراج النهائي الخاص بك!

وبالتالي فإن الخلايا العصبية (أو العقدة) تحصل على إشارة أو إشارات (قيم الإدخال) ، والتي تمر عبر الخلايا العصبية ، والتي تقدم إشارة الخرج. فكر في طبقة الإدخال كحواسك: الأشياء التي تراها أو تشمها أو تشعر بها ، إلخ. هذه متغيرات مستقلة لملاحظة واحدة. يتم تقسيم هذه المعلومات إلى أرقام وبتات من البيانات الثنائية التي يمكن لجهاز الكمبيوتر استخدامها. (ستحتاج إلى توحيد هذه المتغيرات أو تطبيعها بحيث تكون ضمن نفس النطاق.)

ماذا يمكن أن تكون قيمة الإنتاج لدينا؟ يمكن أن يكون مستمرًا (على سبيل المثال ، السعر) أو ثنائيًا (نعم أو لا) أو قطعيًا (القط ، الكلب ، الأوز ، القنفذ ، الكسل ، إلخ). إذا كان الأمر قاطعًا ، فأنت تريد أن تتذكر أن قيمة المخرجات الخاصة بك لن تكون مجرد متغير واحد ، ولكن عدة متغيرات مخرجات.

الصورة من قبل حنا Listek على Unsplash
أيضًا ، ضع في اعتبارك أن قيمة المخرجات ستكون مرتبطة دائمًا بنفس الملاحظة الفردية من قيم الإدخال. إذا كانت قيم المدخلات الخاصة بك ، على سبيل المثال ، هي ملاحظة لعمر شخص واحد وراتبه ومركبته ، فستكون قيمة مخرجاتك مرتبطة أيضًا بنفس الملاحظة للشخص نفسه. هذا يبدو أساسيًا ، لكن من المهم أن تضع في الاعتبار.

ماذا عن المشابك؟ يحصل كل من نقاط الاشتباك العصبي على أوزان معينة ، والتي تعتبر ضرورية للشبكات العصبية الاصطناعية (ANNs). الأوزان هي كيفية تعلم ANNs. من خلال ضبط الأوزان ، يقرر ANN إلى أي مدى يتم تمرير الإشارات. عندما تقوم بتدريب شبكتك ، فإنك تقرر كيفية ضبط الأوزان.

ماذا يحدث داخل الخلايا العصبية؟ أولاً ، تتم إضافة جميع القيم التي تحصل عليها (يتم احتساب المبلغ المرجح). بعد ذلك ، يتم تطبيق وظيفة التنشيط ، وهي وظيفة يتم تطبيقها على هذه الخلية العصبية. ومن هذا المنطلق ، فإن الخلية العصبية تتفهم ما إذا كانت تحتاج إلى تمرير إشارة أم لا.

ويتكرر هذا الآلاف أو حتى مئات الآلاف من المرات!

الصورة من قبل جيرالت على Pixabay
نقوم بإنشاء شبكة عصبية اصطناعية حيث لدينا نقاط لقيم الإدخال (ما نعرفه بالفعل / ما نريد التنبؤ به) وقيم الإخراج (توقعاتنا) وفيما بينها ، لدينا طبقة (أو طبقات) مخفية حيث تنتقل المعلومات قبل أن يضرب الإخراج. هذا مماثل للطريقة التي يتم بها تصفية المعلومات التي تراها من خلال عينيك إلى تفهمك ، بدلاً من أن يتم إطلاقها مباشرة في عقلك.

01-460x516 مقدمة في التعلم العميق Deep Learning

 

يمكن أن تخضع نماذج التعلم العميق للإشراف وشبه الإشراف وغير الخاضعة للإشراف.

 

التعلم تحت الإشراف Supervised

هذه هي النسخة الآلية من “تعلم المفاهيم”. أنت تعرف ماهية المفهوم (على سبيل المثال كائن ، فكرة ، حدث ، وما إلى ذلك) استنادًا إلى الاعتقاد بأن لكل كائن / فكرة / حدث ميزات مشتركة.

الفكرة هنا هي أنه يمكنك عرض مجموعة من الأمثلة على الكائنات مع تسمياتها وتعلم كيفية تصنيف الكائنات بناءً على ما تم عرضه بالفعل. يمكنك تبسيط ما تعلمته من ما تم عرضه لك ، وتكثيفه في شكل مثال ، ثم تأخذ تلك النسخة المبسطة وتطبقها على الأمثلة المستقبلية. نحن حقا نسمي هذا فقط “التعلم من الأمثلة”.

( ويبدو كما يلي: يشير مفهوم التعلم إلى عملية استنتاج دالة قيمة منطقية من أمثلة التدريب على مدخلاتها ونواتجها).

باختصار ، يمثل تعلم الآلة الخاضعة للإشراف مهمة تعلم وظيفة تقوم بتخطيط إدخال إلى ناتج بناءً على أزواج المدخلات والمخرجات. وهو يعمل مع بيانات التدريب المسمى تتكون من أمثلة التدريب. كل مثال هو زوج يتكون من كائن إدخال (عادة ما يكون متجهًا) وقيمة الإخراج التي تريدها (وتسمى أيضًا الإشارة الإشرافية). الخوارزمية الخاصة بك تشرف على بيانات التدريب وتنتج دالة استنتاجية يمكن استخدامها لرسم أمثلة جديدة. من الناحية المثالية ، سوف تسمح لك الخوارزمية بتصنيف الأمثلة التي لم ترها من قبل.

بشكل أساسي ، فإنه يبحث في الأشياء مع التسميات ويستخدم ما يتعلمه من الأشياء التي تحمل علامات للتنبؤ بالتسميات من الأشياء الأخرى.

تميل مهام التصنيف إلى الاعتماد على التعلم الخاضع للإشراف. هذه المهام قد تشمل

اكتشاف الوجوه والهويات وتعبيرات الوجه في الصور
تحديد الكائنات في الصور مثل علامات التوقف ، والمشاة ، وعلامات الخط
تصنيف النص كرسالة غير مرغوب فيها
التعرف على الإيماءات في مقاطع الفيديو
اكتشاف الأصوات وتحديد المشاعر في التسجيلات الصوتية
تحديد المتحدثين
نسخ خطاب إلى نص

 

التعلم شبه الإشراف – Semi-supervised learning

 

هذه الطريقة أشبه بالطريقة التي تعلمتها من مزيج ما قاله لك والداك صراحة كطفل (معلومات مصنفة) مقترنة بما تعلمته بمفردك ولم يكن لديك علامات ، مثل الزهور والأشجار التي لاحظتها دون تسمية أو عد لهم.

يقوم التعليم شبه الخاضع للإشراف بنفس النوع من التعليم الخاضع للإشراف ، لكنه قادر على الاستفادة من البيانات المصنفة وغير المُعلَّمة للتدريب. في التعلم شبه الخاضع للإشراف ، غالبًا ما تبحث عن الكثير من البيانات غير المسماة وقليلًا من البيانات المصنفة. هناك عدد من الباحثين الذين وجدوا أن هذه العملية يمكن أن توفر دقة أكثر من التعلم غير الخاضع للإشراف ولكن دون الوقت والتكاليف المرتبطة بالبيانات المصنفة. (تتطلب تسمية البيانات أحيانًا إنسانًا ماهرًا أن يفعل أشياء مثل نسخ الملفات الصوتية أو تحليل الصور ثلاثية الأبعاد لإنشاء تسميات ، والتي يمكن أن تجعل إنشاء مجموعة بيانات ذات علامات كاملة غير مجدية إلى حد ما ، لا سيما عند العمل مع مجموعات البيانات الضخمة هذه مهام التعلم العميق الحب.)

يمكن أن يشار إلى التعلم شبه الخاضع للإشراف بأنه transductive (يستنتج العلامات الصحيحة للبيانات المقدمة) أو الاستقرائي (يستنتج التعيين الصحيح من X إلى Y).

للقيام بذلك ، يتعين على خوارزميات التعلم العميق وضع واحد من الافتراضات التالية على الأقل:

ربما تشترك النقاط القريبة من بعضها البعض في تسمية (افتراض الاستمرارية)
البيانات التي ترغب في تشكيل مجموعات والنقاط التي يتم تجميعها معًا ربما تشترك في تصنيف (افتراض الكتلة)
تقع البيانات على مشعب ذي بعد أقل من مساحة الإدخال (افتراض المنوع). حسنًا ، هذا أمر معقد ، لكن فكر في الأمر كما لو كنت تحاول تحليل شخص يتحدث – ربما تريد أن تنظر إلى عضلات الوجه التي تحرك وجهها وأسلاكها الصوتية تصدر الصوت وتلتصق بهذه المنطقة ، بدلاً من النظر إلى مساحة جميع الصور و / أو جميع الموجات الصوتية.
التعلم غير الخاضع للرقابة

يتضمن التعلم غير الخاضع للإشراف تعلم العلاقات بين العناصر الموجودة في مجموعة بيانات وتصنيف البيانات دون مساعدة من التصنيفات. هناك الكثير من النماذج الخوارزمية التي يمكن أن يتخذها هذا ، ولكنها جميعًا لها نفس الهدف المتمثل في محاكاة المنطق الإنساني من خلال البحث عن الهياكل والميزات والأنماط المخفية من أجل تحليل البيانات الجديدة. يمكن أن تشمل هذه الخوارزميات التجميع ، والكشف عن الشذوذ ، والشبكات العصبية ، وأكثر من ذلك.

التجميع هو في الأساس اكتشاف أوجه التشابه أو الحالات الشاذة داخل مجموعة بيانات وهو مثال جيد لمهمة التعلم غير الخاضعة للإشراف. يمكن أن ينتج عن التجميع نتائج بحث دقيقة للغاية من خلال مقارنة المستندات أو الصور أو الأصوات للتشابهات والشذوذ. أن تكون قادرًا على المرور بكمية هائلة من البيانات لتجميع “البط” أو ربما صوت الصوت له العديد من التطبيقات المحتملة. القدرة على اكتشاف الحالات الشاذة والسلوك غير العادي بدقة يمكن أن تكون مفيدة للغاية لتطبيقات مثل الأمن والكشف عن الاحتيال.

تم تطبيق أبنية التعلم العميق على تصفية الشبكات الاجتماعية ، التعرف على الصور ، كشف الاحتيال المالي ، التعرف على الكلام ، رؤية الكمبيوتر ، معالجة الصور الطبية ، معالجة اللغة الطبيعية ، معالجة الفن البصري ، اكتشاف المخدرات وتصميمها ، علم السموم ، المعلوماتية الحيوية ، إدارة علاقات العملاء ، الصوت الاعتراف ، والعديد ، العديد من المجالات والمفاهيم الأخرى. نماذج التعلم العميق في كل مكان!

هناك ، بالطبع ، عدد من تقنيات التعلم العميق الموجودة ، مثل الشبكات العصبية التلافيفية والشبكات العصبية المتكررة وما إلى ذلك. لا توجد شبكة واحدة أفضل من الشبكات الأخرى ، ولكن بعضها مناسب بشكل أفضل لمهام محددة.

التعلم العميق والشبكات العصبية الاصطناعية
تعتمد غالبية أبنية التعلم العميق الحديثة على الشبكات العصبية الاصطناعية (ANNs) وتستخدم طبقات متعددة من وحدات المعالجة غير الخطية لاستخراج المعالم وتحويلها. تستخدم كل طبقة متتالية مخرجات الطبقة السابقة لإدخالها. إن ما يتعلمونه يشكل تسلسلًا هرميًا من المفاهيم حيث يتعلم كل مستوى تحويل بيانات الإدخال الخاصة به إلى تمثيل أكثر تجريدًا ومركبًا.

على سبيل المثال ، قد يكون الإدخال عبارة عن مصفوفة من البيكسلات ، ثم قد تشفر الطبقة الأولى الحواف وتكوين البيكسلات ، ثم قد تنشئ الطبقة التالية ترتيبًا للحواف ، ثم قد ترمز الطبقة التالية إلى الأنف والعينان ، ثم قد تتعرف الطبقة التالية على أن الصورة تحتوي على وجه وما إلى ذلك. على الرغم من أنك قد تحتاج إلى القيام بضبط دقيق ، إلا أن عملية التعلم العميق تتعرف على الميزات التي يجب وضعها في أي مستوى بمفردها!

في التعلم العميق فقط إلى عدد الطبقات التي يتم من خلالها تحويل البيانات (لديهم مسار تخصيص ائتماني كبير (CAP) ، وهو سلسلة التحويلات من المدخلات إلى المخرجات). بالنسبة إلى الشبكة العصبية الأمامية ، فإن عمق الأحرف الاستهلالية هو عمق الشبكة وعدد الطبقات المخفية زائد واحد (طبقة الإخراج). بالنسبة إلى الشبكة العصبية المتكررة ، قد تنتشر الإشارة عبر طبقة أكثر من مرة ، وبالتالي فإن عمق CAP غير محدود! يتفق معظم الباحثين على أن التعلم العميق ينطوي على عمق CAP> 2.

الشبكات العصبية التلافيفية
أحد أكثر أنواع الشبكات العصبية شيوعًا هو الشبكات العصبية التلافيفية (CNN). تعرفت ملفات CNN (وليست ملفات …) على ميزات ببيانات الإدخال وتستخدم طبقات تلافيفية ثنائية الأبعاد ، مما يعني أن هذا النوع من الشبكات مثالي لمعالجة الصور (ثنائية الأبعاد). تعمل شبكة CNN من خلال استخراج الميزات من الصور ، مما يعني أنه يتم التخلص من الحاجة إلى الاستخراج اليدوي للميزات. الميزات غير مدربة! لقد تم تعلمهم أثناء تدريب الشبكة على مجموعة من الصور ، مما يجعل نماذج التعلم العميق دقيقة للغاية لمهام رؤية الكمبيوتر. تتعلم شبكات CNN اكتشاف الميزات من خلال عشرات أو مئات الطبقات المخفية ، مع زيادة كل طبقة في تعقيد الميزات المستفادة.

مارس 14, 2019

0 responses on "مقدمة في التعلم العميق Deep Learning"

Leave a Message

//vasteeds.net/4/4336760
× للتسجيل بالجامعة تواصل معنا الان
X