ما الجديد هو مجال AI و ML الذكاء الاصطناعي

5/5 - (9 أصوات)

كان العام الماضي غنيًا بالأحداث والاكتشافات والتطورات في IA .  في الذكاء الاصطناعي خلال العام الماضي. وإذا كنا محظوظين ، فسوف نرى كيف أن بعض الاتجاهات تمتد إلى المستقبل القريب.

. أنا لا أحاول إنشاء سجل شامل من الإنجازات لهذا العام. أنا أحاول بحت الخطوط العريضة لبعض هذه الاتجاهات. هذه المراجعة تتمحور حول الولايات المتحدة. هناك الكثير من الأشياء المثيرة للاهتمام التي تحدث ، على سبيل المثال ، في الصين ، لكنني ، للأسف ، لست على دراية.

كبار الباحثين يشككون في كفاءة ومتانة بعض معماريات DNN. ولكن ، سواء أحببنا ذلك أم لا ، كانت DNNs في كل مكان: في السيارات ذاتية القيادة ، وأنظمة اللغة الطبيعية ، والروبوتات – سمها ما شئت. لم تكن أيا من القفزات في DNNs واضحة كما هو الحال في معالجة اللغات الطبيعية ، الشبكات التنافسية المتقاربة ، والتعلم العميق التعزيز.

 

Deep NLP: BERT et al.
على الرغم من أنه قبل عام 2018 كانت هناك اختراقات عديدة في استخدام DNNs للنص (يتبادر إلى الذهن نصوص word2vec و GLOVE و LSTM) السبب هو التدريب نموذج على كمية كبيرة من البيانات المتاحة للجمهور ، ثم “ضبطها” على مجموعة البيانات المحددة التي تعمل معها. في رؤية الكمبيوتر ، كان استخدام الأنماط المكتشفة في مجموعة بيانات ImageNet الشهيرة لمشكلة معينة ، جزءًا من الحل.

تكمن المشكلة في أن التقنيات المستخدمة في نقل التعلم لا تنطبق جيدًا على مشكلات البرمجة اللغوية العصبية. وبمعنى ما ، كانت التظاهرات التي تم تدريبها مسبقًا مثل word2vec تملأ هذا الدور ، ولكنها تعمل على مستوى الكلمة الواحدة وتفشل في التقاط بنية اللغة عالية المستوى.

في عام 2018 ، ومع ذلك ، فقد تغير هذا. أصبح ELMO ، التضمينات السياقية الخطوة الأولى الهامة لتحسين تعلم النقل في البرمجة اللغوية العصبية. ذهب ULMFiT إلى أبعد من ذلك: غير راض عن القدرة على التقاط الدلالية الدلالية من التفرعات ، برز المؤلفون طريقة للقيام بتدريس نقل للنموذج بأكمله.

الرجل المهم.
لكن التطور الأكثر إثارة للاهتمام كان بالتأكيد ، إدخال بيرت. من خلال السماح لنموذج اللغة بالتعلم من المجموعة الكاملة للمقالات من ويكيبيديا الإنجليزية ، تمكن الفريق من تحقيق أحدث النتائج في 11 مهمة في البرمجة اللغوية العصبية – وهو إنجاز رائع! والأفضل من ذلك ، أنه تم نشر كل من الكود وأنماط التدريب المسبق على الإنترنت – لذا يمكنك تطبيق هذا الاختراق على مشكلتك الخاصة.

05-460x326 ما الجديد هو مجال AI و ML الذكاء الاصطناعي

لا تزداد سرعة وحدة المعالجة المركزية بشكل كبير ، ولكن يبدو أن عدد الأبحاث الأكاديمية حول شبكات Adversarial Generative يستمر في النمو. كانت GANs حبيبة أكاديمية لسنوات عديدة الآن. يبدو أن تطبيقات الحياة الحقيقية قليلة ومتباعدة ، ولم تتغير إلا قليلاً في عام 2018. ومع ذلك ، تتمتع GANs بإمكانيات مذهلة في انتظار تحقيقها.

كان هناك نهج جديد ، ظهر ، كان فكرة تطوير GANs بشكل تدريجي: جعل المولد يزيد من حل نتاجه بشكل تدريجي خلال عملية التدريب. واحدة من الأوراق الأكثر إثارة للإعجاب التي استخدمت هذا النهج كان يستخدم تقنيات نقل الأسلوب لإنشاء صور واقعية تبحث. كيف واقعية؟ أخبرني أنت:

05-460x326 ما الجديد هو مجال AI و ML الذكاء الاصطناعي

 

كيف ولماذا تعمل GANs بالفعل؟ لم نتلق نظرة عميقة حتى الآن ، ولكن هناك خطوات مهمة يجري اتخاذها: قام فريق في معهد ماساتشوستس للتكنولوجيا بإجراء دراسة عالية الجودة لهذه المشكلة.

تطور آخر مثير للاهتمام ، على الرغم من أنه ليس تقنيًا في GAN ، كان تصحيحًا تخاصميًا. كانت الفكرة هي استخدام كل من الصندوق الأسود (بشكل أساسي ، وليس النظر إلى الحالة الداخلية للشبكة العصبية) وطرق الصندوق الأبيض لصياغة “رقعة” ، والتي من شأنها خداع مصنف مصنف في سي إن إن. هذه نتيجة مهمة: لقد وجهتنا نحو الحدس الأفضل حول كيفية عمل DNNs وإلى أي مدى ما زلنا من تصور مفاهيمي على مستوى الإنسان.

05-460x326 ما الجديد هو مجال AI و ML الذكاء الاصطناعي

نحن بحاجة إلى التعزيز
لقد كان التعلم التعزيزي في دائرة الضوء منذ أن هزم AlphaGo Lee Sedol في عام 2016. ومع سيطرة AI على اللعبة “الكلاسيكية” الأخيرة ، ما الذي يجب التغلب عليه؟ حسنا ، بقية العالم! على وجه التحديد ، ألعاب الكمبيوتر والروبوتات.

بالنسبة إلى التدريب ، يعتمد التعلم التعزيزي على إشارة “المكافأة” ، وهو مقياس لمدى نجاحه في المحاولة الأخيرة. توفر ألعاب الكمبيوتر بيئة طبيعية ، حيث تكون هذه الإشارة متاحة بسهولة ، على عكس الحياة الحقيقية. ومن ثم فإن جميع الأبحاث التي تجريها RL تعطي تدريس الذكاء الاصطناعي كيفية لعب ألعاب Atari.

يتحدث عن DeepMind ، خلقهم الجديد ، AlphaStar صنع الأخبار مرة أخرى. هذا النموذج الجديد هزم أحد أفضل لاعبي ستار كرافت 2 المحترفين. StarCraft أكثر تعقيدًا بكثير من الشطرنج أو Go ، مع مساحة عمل ضخمة ومعلومات مهمة مخفية عن لاعب ، على عكس معظم ألعاب اللوحة. هذا الانتصار هو قفزة كبيرة جدا في الميدان ككل.

OpenAI ، لاعب مهم آخر في الفضاء أو RL ، لم يجلس بعيدًا أيضًا. إدعائهم الشهرة هو OpenAI Five ، وهو نظام في شهر أغسطس هزم فريق من لاعبي 99.99th المئوية في Dota 2 ، لعبة الرياضات المعقدة للغاية.

على الرغم من أن OpenAI قد أعطت الكثير من الاهتمام لألعاب الكمبيوتر ، إلا أنها لم تتجاهل تطبيقًا محتملاً حقيقيًا لـ RL: robots. في العالم الحقيقي ، قد تكون التغذية المرتدة التي يقدمها المرء روبوتًا نادرة وباهظة الثمن: فستحتاج في الأساس إلى رعاية مجالس بشرية لـ R2D2 ، في حين أنها تحاول اتخاذ “خطواتها” الأولى. وتحتاج إلى ملايين نقاط البيانات هذه. ولسد هذه الفجوة ، كان الاتجاه الأخير هو تعلم محاكاة بيئة وتشغيل عدد كبير من هذه السيناريوهات بالتوازي لتعليم المهارات الأساسية للإنسان ، قبل الانتقال إلى العالم الحقيقي. يعمل كل من OpenAI و Google على هذا النهج.

ذكر الشرف: Deepfakes
Deepfakes هي صور أو مقاطع فيديو تظهر (عادة) شخصية عامة تقوم بعمل أو تقول شيئًا لم تفعله أو قلته أبدًا. يتم إنشاؤها عن طريق تدريب GAN على كمية كبيرة من لقطات الشخص “الهدف” ، ومن ثم توليد وسائل الإعلام الجديدة مع الإجراءات المطلوبة التي أجريت فيه. تطبيق سطح المكتب يسمى FakeApp صدر في يناير 2018 يسمح لأي شخص لديه جهاز كمبيوتر ودون معرفة علوم الكمبيوتر لخلق عمق. وعلى الرغم من أن مقاطع الفيديو التي تنتجها يمكن رؤيتها بسهولة على أنها غير أصلية ، إلا أن التقنية قد تقدمت كثيرًا جدًا. مجرد مشاهدة هذا الفيديو لمعرفة كم.

بنية تحتية
TensorFlow ضد PyTorch
هناك العديد من أطر التعلم العميقة هناك. المجال واسع ، وهذا التنوع منطقي على السطح.ولكن من الناحية العملية ، في الآونة الأخيرة كان معظم الناس يستخدمون Tensorflow أو PyTorch. إذا كنت مهتمًا بالموثوقية ، وسهولة النشر ، وإعادة تحميل الطراز ، والأشياء التي تهتم بها SREs ، فربما اخترت Tensorflow. إذا كنت تكتب ورقة بحث ، ولم تكن تعمل لصالح Google ، فمن المحتمل أنك استخدمت PyTorch.

ML كخدمة في كل مكان
شهدنا هذا العام المزيد من حلول الذكاء الاصطناعي ، وتعبئتها كواجهة برمجة تطبيقات للاستهلاك من قبل مهندس برمجيات لا ينعم بدكتوراة في التعلم الآلي من جامعة ستانفورد. حسّنت كل من Google Cloud و Azure الخدمات القديمة وإضافة خدمات جديدة. بدأت قائمة الخدمات التعليمية لآلة AWS تبدو مخيفًا.

05-460x326 ما الجديد هو مجال AI و ML الذكاء الاصطناعي

أﻟﻘﺖ اﻟﺸﺮآﺎت اﻟﻤﺘﻌﺪدة اﻟﻤﺘﻌﺪدة ﻗﻮاﻟﺒﻬﺎ إﻟﻰ اﻷﺳﻔﻞ ، رﻏﻢ أن اﻟﻬﺰة ﻗﺪ ﺗﺒﺮدت ﻗﻠﻴﻼً. الجميع يعدون بوعورة في التدريب النموذجي ، وسهولة الاستخدام أثناء الاستدلال والأداء المذهل للنموذج. اكتب فقط في بطاقة الائتمان الخاصة بك ، قم بتحميل مجموعة البيانات الخاصة بك ، وإعطاء النموذج بعض الوقت لتدريب أو finetune ، استدعاء REST (أو ، لمزيد من الشركات الناشئة إلى الأمام ، GraphQL) API وتصبح الماجستير في الذكاء الاصطناعي من دون معرفة أي تسرب.

بهذه الثروة المختارة ، لماذا يزعج أي شخص بناء نموذج وبنية تحتية بأنفسهم؟ من الناحية العملية ، يبدو أن منتجات MLaaS تعمل بشكل جيد مع 80٪ من حالات الاستخدام. إذا كنت ترغب في أن تعمل النسبة المتبقية والبالغة 20٪ بشكل جيد أيضًا – فأنت محظوظ: ليس فقط لا يمكنك اختيار النموذج حقًا ، ولا يمكنك حتى التحكم في hyperparameters. أو إذا كنت بحاجة إلى القيام بالاستدلال في مكان ما خارج راحة السحابة – فعادة لا يمكنك ذلك. بالتأكيد مقايضة هنا.

ذكر الشرف: AutoML و AI Hub
تم إطلاق كل من الخدمتين المميزتين ، اللتين تم كشف النقاب عنها هذا العام ، بواسطة Google.

أولاً ، Google Cloud AutoML ، عبارة عن مجموعة من المنتجات التدريبية المخصصة لنموذج البرمجة اللغوية العصبية ونموذج رؤية الكمبيوتر. ماذا يعني ذالك؟ يحل مصممو AutoML نموذج التخصيص عن طريق الضبط التلقائي للعديد من التدريب المسبق واختيار الأفضل. هذا يعني أنك لن تحتاج على الأرجح إلى تضييق نطاق تخصيص النموذج بنفسك. بالطبع ، إذا كنت ترغب في القيام بشيء جديد أو مختلف ، هذه الخدمة ليست لك. ولكن ، كمنفعة جانبية ، تقوم Google بتدريب نماذجها مسبقًا على كمية كبيرة من البيانات المسجلة الملكية. فكر في كل صور القطط هذه ؛ يجب أن تعمم هذه الطريقة أفضل من مجرد Imagenet!

الثانية ، AI Hub و TensorFlow Hub. قبل هذين الاثنين ، كان إعادة استخدام نموذج شخص ما عملية رتيبة حقيقية. عادة ما كان يعمل كود عشوائية قبالة GitHub ، تم توثيقه بشكل سيئ عادة ، وعموما ، وليس فرحة للتعامل معها. والأوزان التي تم تدريبها مسبقًا لنقل التعلم … دعنا نفترض أنك لا تريد حتى محاولة إقناع هؤلاء بالعمل. هذا هو بالضبط المشكلة التي بنيت TF Hub لحلها: إنه مستودع موثوق ومشروط من النماذج التي يمكنك ضبطها أو البناء عليها. ما عليك سوى تضمين سطرين من الشفرة – وسيقوم عميل TF Hub بجلب الشفرة والأوزان المقابلة من خوادم Google – وفويللا ، سيعمل فقط! يذهب AI Hub إلى أبعد من ذلك: فهو يسمح لك بمشاركة خطوط أنابيب ML بأكملها ، وليس النماذج فقط! لا يزال في alpha ، ولكنه بالفعل أفضل من مستودع عشوائي يحتوي على أحدث ملف “تم تعديله منذ 3 سنوات” ، إذا كنت تعرف ما أعنيه.

المعدات
نفيديا
إذا كنت جادًا بشأن ML في 2018 ، وخاصة DNNs ، كنت تستخدم GPU (أو متعددة). في المقابل ، كان قائد GPU عامًا مزدحمًا للغاية. في أعقاب برودة جنون الكريب و تراجع أسعار الأسهم اللاحقة ، أصدرت Nvidia جيلاً كاملاً من بطاقات الدرجة الاستهلاكية الجديدة بناءً على بنية تورينج. فقط مع البطاقات الاحترافية التي تم إصدارها في عام 2017 وعلى أساس رقائق فولتا ، تحتوي البطاقات الجديدة على أجهزة مضاعفة جديدة عالية السرعة ، تسمى Tensor Cores. تكمن مضاعفات المصفوفة في جوهر كيفية عمل DNNs ، وبالتالي فإن تسريع هذه العمليات سيزيد بشكل كبير من سرعة تدريب الشبكات العصبية على وحدات معالجة الرسوم الجديدة.

بالنسبة لأولئك ، غير راضين عن وحدات معالجة الرسوميات “الصغيرة” و “بطيئة” ، قام نفيديا بتحديث “الكمبيوتر العملاق” الخاص بالمؤسسة. DGX-2 عبارة عن صندوق للوحش يحتوي على 16 نسخة من Tesla Vs مقابل 480 عملية TFLOPs لعمليات FP16. تم تحديث السعر أيضًا ، ليصل إلى 400000 دولار مثير للإعجاب.

تم تحديث الأجهزة المستقلة أيضًا. Jetson AGX Xavier هو مجلس الإدارة الذي يأمل Nvidia ، هو الذهاب إلى السلطة الجيل القادم من السيارات ذاتية القيادة. وحدة المعالجة المركزية ثمانية النواة ، ومسرع الرؤية ، ومسرع التعلم العميق – كل ما تحتاجه صناعة القيادة المستقلة المتزايدة.

في تطور مثير للاهتمام ، أطلقت Nvidia ميزة قائمة على DNN لبطاقات ألعابها: Deep Learning Super Sampling. وتتمثل الفكرة في استبدال الصقل ، الذي يتم إجراؤه في الغالب عن طريق تقديم صورة بدقة أعلى من المطلوب (مثل 4X) ثم قياسها إلى دقة الشاشة الأصلية. الآن يسمح Nvidia للمطورين بتدريب نموذج تحويل الصور على اللعبة التي تعمل بجودة عالية للغاية قبل إطلاقها. بعد ذلك ، يتم شحن اللعبة إلى المستخدمين النهائيين باستخدام هذا النموذج الذي تم تدريبه مسبقًا. أثناء جلسة اللعبة ، بدلاً من تكبد تكلفة تنعيم الطراز القديم ، يتم تشغيل الإطارات من خلال هذا النموذج لتحسين جودة الصورة.

شركة انتل
لم تكن إنتل بالتأكيد رائدة في عالم أجهزة AI في عام 2018. ولكن يبدو أنهم يرغبون في تغيير ذلك.

حدث معظم النشاط ، من المستغرب ، في مجال البرمجيات. تحاول Intel جعل الأجهزة الحالية والقادمة أكثر ملاءمةً للمطورين. ومع وضع ذلك في الاعتبار ، فقد أطلقوا مجموعة من مجموعات الأدوات (المتنافسة والمثيرة): OpenVINO و nGraph.

لقد قاموا بتحديث نظامهم العصبي الحاسوبي Nural Compute Stick: جهاز USB صغير ، يمكنه تسريع تشغيل DNN على أي شيء بمنفذ USB ، حتى Raspberry Pi.

وكان هناك المزيد والمزيد من الدسائس حول وحدة معالجة الرسومات المنفصلة من إنتل. أصبحت القيل والقال أكثر وثباتًا ، ولكن يبقى أن نرى كيف سيكون الجهاز الجديد مناسبًا لتدريب DNNs. ما سيكون بالتأكيد قابل للتطبيق على التعلم العميق هو زوج من بطاقات التعلم العميق المتخصصة التي يشاع عنها ، والتي يطلق عليها اسم Spring Hill و Spring Crest ، وتستند هذه الأخيرة إلى تكنولوجيا Nervana ، وهي شركة إنتل الناشئة التي اكتسبتها منذ عدة سنوات.

الأجهزة المخصصة من المعتاد (وغير عادي) المشتبه بهم
كشفت Google النقاب عن الجيل الثالث من TPU: وهو عبارة عن مسرع خاص بـ DNN ومقره ASIC مع ذاكرة 128 ميجابايت مذهلة من ذاكرة HMB. يتم تجميع 256 من هذه الأجهزة في جراب مع أكثر من مائة بيتافلوب من الأداء. هذا العام ، بدلاً من إغاظة بقية العالم بقوة هذه الأجهزة ، جعلت Google أجهزة TPU متاحة لعامة الناس على Google Cloud.

في خطوة مماثلة ، ولكن في الغالب موجهة نحو تطبيقات الاستدلال ، نشرت أمازون AWS Inferentia: وهي طريقة أرخص وأكثر كفاءة لتشغيل النماذج في الإنتاج.

أعلنت جوجل أيضا حافة TPU: أخ صغير من البطاقات السيئة الكبيرة التي نوقشت أعلاه. الرقاقة صغيرة للغاية: 10 منها يمكن وضعها على سطح قطعة نقدية واحدة. في الوقت نفسه ، يكون جيدًا بما يكفي لتشغيل DNN على فيديو في الوقت الفعلي ويستهلك أي طاقة بالكاد.

إن الوافد الجديد المحتمل المثير للاهتمام هو Graphcore. قامت الشركة البريطانية بجمع مبلغ 310 مليون دولار مثير للإعجاب ، وفي عام 2018 قامت بشحن أول منتج لها ، رقاقة GC2. وفقا للمعايير ، يطمس GC2 أعلى بطاقة GPU Nvidia server أثناء القيام بالاستدلال ، في حين يستهلك طاقة أقل بشكل ملحوظ.

ذكر معتز: AWS Deep Racer
في حركة غير متوقعة تماما ، ولكن ، إلى حد ما يعكس تحركهم السابق مع DeepLens ، كشفت شركة أمازون النقاب عن سيارة صغيرة ذاتية القيادة ، DeepRacer و دوري سباقات لها. سيارة رياضية بقيمة 400 دولار هي عبارة عن معالج Atom ، وكاميرا بدقة 4 ميجابكسل ، وأي فأي ، ومنافذ USB متعددة ، وما يكفي من الطاقة لتشغيلها لعدة ساعات. يمكن تدريب نماذج القيادة الذاتية باستخدام بيئة محاكاة ثلاثية الأبعاد تمامًا في السحابة ومن ثم يتم نشرها مباشرة في السيارة. إذا كنت دائماً تحلم ببناء سيارتك الذاتية القيادة ، فهذه هي فرصتك للقيام بذلك من دون البدء في شركة مدعومة ب VC.

ماذا بعد؟
تحويل التركيز إلى ذكاء القرار
والآن بعد أن أصبحت المكونات – الخوارزميات والبنية التحتية والأجهزة – لجعل منظمة العفو الدولية مفيدة أكثر من أي وقت مضى ، تدرك الشركات أن أكبر حجر عثرة أمام البدء في تطبيق الذكاء الاصطناعي هو في الجانب العملي: كيف تأخذ في الواقع الذكاء الاصطناعي من فكرة إلى نظام فعال وآمن وموثوق يعمل في الإنتاج؟ منظمة العفو الدولية التطبيقية ، أو تطبيق آلة التعلم (ML) ، يشار إليها أيضا باسم المخابرات القرار ، هو علم خلق حلول منظمة العفو الدولية لمشاكل العالم الحقيقي. في حين ركز الماضي الكثير من التركيز على العلم وراء الخوارزميات ، فمن المرجح أن يشهد المستقبل مزيدًا من الاهتمام المتساوي إلى جانب التطبيق من الطرف إلى النهاية.

يبدو أن منظمة العفو الدولية تخلق المزيد من الوظائف أكثر مما تدمر
“إن منظمة العفو الدولية ستأخذ جميع وظائفنا” هي الامتناع العام في وسائل الإعلام والخوف المشترك بين العمال ذوي الياقات الزرقاء والعمال ذوي الياقات البيضاء على حد سواء. ويبدو على السطح وكأنه توقع معقول. ولكن حتى الآن ، يبدو أن العكس هو الحقيقة. على سبيل المثال ، يحصل الكثير من الأشخاص على أموال لإنشاء مجموعات بيانات مُعلَّمة.

يتجاوز ذلك مزادات البيانات المعتادة في البلدان منخفضة الدخل: تسمح تطبيقات متعددة ، مثل LevelApp للاجئين بجني المال من خلال تصنيف بياناتهم باستخدام هواتفهم الجوالة فقط. ذهب هارموني إلى أبعد من ذلك: فهم يقدمون أجهزة للمهاجرين في مخيمات اللاجئين حتى يتمكن الناس من المساهمة وكسب العيش.

علاوة على وضع العلامات على البيانات ، يتم إنشاء صناعات كاملة بواسطة تقنية AI الجديدة. نحن قادرون على القيام بالأشياء ، التي لم تكن واردة حتى قبل عدة سنوات ، مثل السيارات ذاتية القيادة أو اكتشاف المخدرات.

أكثر الحوسبة ذات الصلة سوف يحدث على الحافة
في الطريقة التي تعمل بها الأنظمة الموجهة للبيانات ، يتوفر المزيد من البيانات عادة على حافة النظام ، على جانب العرض. أما المراحل اللاحقة من خط الأنابيب عادة ما تكون عينة أقل أو بطرق أخرى فتقلل من دقة الإشارات. من ناحية أخرى ، مع أداء نماذج AI المتزايدة التعقيد بشكل أفضل مع المزيد من البيانات. ألن يكون من المنطقي تحريك مكون الذكاء الاصطناعي أقرب إلى البيانات ، إلى الحافة؟

مثال بسيط: تخيل كاميرا عالية الدقة ، تنتج فيديو عالي الجودة بسرعة 30 إطارًا في الثانية. يعمل نموذج رؤية الكمبيوتر ، الذي يعالج هذا الفيديو ، على خادم به. تقوم الكاميرا بتدفق الفيديو إلى الخادم ، إلا أن عرض النطاق الترددي للوصلة الصاعدة محدود ، لذلك يتم تقلص الفيديو وضغطه بشكل كبير. لماذا لا تحرك نموذج الرؤية إلى الكاميرا وتستهلك تيار الفيديو الأصلي؟

كانت هناك دائما العديد من العقبات مع ذلك ، في المقام الأول: مقدار القدرة الحسابية المتاحة على أجهزة الحافة وتعقيد الإدارة (مثل دفع النماذج المحدثة إلى الحافة). يتم إلغاء تقييد الحوسبة من خلال ظهور الأجهزة المتخصصة (مثل Edge من Google ، محرك Apple العصبي ، إلخ) ، ونماذج أكثر فاعلية وبرامج محسنة. يتم التعامل مع تعقيد الإدارة باستمرار من خلال التحسينات في الأطر والأدوات الخاصة بـ ML.

توحيد في مجال البنية التحتية لمنظمة العفو الدولية
كانت السنوات السابقة مليئة بالنشاط في البنية التحتية لمنظمة العفو الدولية: الإعلانات الكبرى ، جولات التمويل الضخمة والوعود السامية. في عام 2018 ، يبدو أن السباق في الفضاء قد تهدأ ، وبينما كان لا يزال هناك مداخل جديدة هامة ، فإن معظم المساهمات كانت من قبل لاعبين كبار حاليين.

قد يكون أحد التفسيرات المحتملة أن فهمنا لماهية البنية التحتية المثالية لنظام AI ليس ناضجًا بما فيه الكفاية. لأن المشكلة معقدة. وسيتطلب ذلك جهداً طويل الأجل ومستمر ومركّز ومجهّزاً بشكل جيد لإيجاد حل قابل للتطبيق – وهو أمر لا يمكن أن تكون الشركات الناشئة والشركات الأصغر فيه جيداً. سيكون من المدهش حقا ، إذا كان “بدء” حل “بدء التشغيل” AI من أصل اللون الأزرق.

من ناحية أخرى ، مهندسو البنية التحتية ML هم نادرون وبعيدون. تصبح شركة ناشئة تكافح مع العديد من الموظفين على هدف استحواذ واضح وقيمة للاعب أكبر. وهناك على الأقل العديد من أولئك الذين يلعبون هذه اللعبة للفوز ، على حد سواء بناء الأدوات الداخلية والخارجية. على سبيل المثال ، لكل من AWS و Google Cloud ، تعتبر خدمات البنية التحتية لمنظمة العفو الدولية من أهم نقاط البيع.

ضع كل ذلك معًا ، وأصبح التوحيد الرئيسي للمساحة بمثابة توقعات معقولة.

حتى المزيد من الأجهزة المخصصة
قانون مور ميت ، على الأقل بالنسبة لوحدات المعالجة المركزية (CPUs) ، وقد ظل لسنوات عديدة. ستواجه وحدات معالجة الرسومات قريبًا مصيرًا مشابهًا. وعلى الرغم من أن نماذجنا أصبحت أكثر كفاءة ، لحل بعض المشكلات الأكثر تقدمًا ، سنحتاج إلى الحصول على المزيد من القوة الحاسوبية. يمكن حل هذا مع التدريب الموزع ، ولكن لديه حدوده الخاصة والمفاضلات.

وعلاوة على ذلك ، إذا كنت ترغب في تشغيل بعض النماذج الأكبر على جهاز محدود الموارد ، فإن التدريب الموزع لن يساعد. أدخل مسرعات منظمة العفو الدولية المخصصة. اعتمادًا على طريقة التخصيص التي تريدها أو يمكنك استخدامها ، يمكنك حفظ ترتيب بحجم الطاقة أو التكلفة أو وقت الاستجابة.

بطريقة ما ، حتى Tensor Cores في Nvidia هي مثال على هذا الاتجاه. بدون أجهزة للأغراض العامة ، سنرى المزيد من هذه الأجهزة.

أقل الاعتماد على بيانات التدريب
تعتبر البيانات المسجلة ، بوجه عام ، إما باهظة الثمن أو يتعذر الوصول إليها أو كليهما. هناك استثناءات قليلة لهذه القاعدة. كانت مجموعات البيانات المفتوحة عالية الجودة مثل MNIST و ImageNet و COCO وجائزة Netflix ومراجعات IMDB مصدرًا للابتكار المذهل. لكن العديد من المشكلات لا تحتوي على مجموعة بيانات متوافقة للعمل بها. على الرغم من أن بناء مجموعة بيانات لا يمثل تحركًا مهنيًا كبيرًا لأحد الباحثين ، إلا أن الشركات الكبيرة ، التي يمكنها رعاية أو إطلاق واحدة ، ليست في عجلة من أمرها: فهم يبنون قواعد البيانات الضخمة على ما يرام ، ولكنهم يبقون على مقربة من صدورهم.

إذاً ، كيف يمكن لكيان مستقل صغير ، مثل شركة أبحاث ناشئة أو جامعة ، أن يقدم حلولاً مثيرة للمشاكل الصعبة؟ من خلال بناء الأنظمة التي تعتمد بشكل أقل وأقل على الإشارات الخاضعة للإشراف وأكثر وأكثر على البيانات غير المبوبة وغير المهيكلة – والتي هي وفيرة بفضل الإنترنت والانتشار في أجهزة استشعار رخيصة.

هذا يفسر إلى حد ما انفجار الاهتمام في GANs ، النقل والتعلم التعزيزي: كل هذه التقنيات تتطلب استثمارًا أقل (أو لا) في مجموعة بيانات تدريبية.

إذن ، كل شيء مجرد فقاعة ، أليس كذلك؟
هل هناك قطة في تلك الغرفة المظلمة؟ أعتقد أن هناك بالتأكيد ، وليس مجرد واحد ، بل متعدد. وفي حين أن بعض القطط تحتوي على أربعة أرجل ، وذيول ، وشعيرات – كما تعلمون ، فإن الصفقة المعتادة – بعضها حيوانات غريبة أننا بدأنا فقط في رؤية الخطوط العريضة الأساسية.

دخلت الصناعة عام سبعة من “صيف” منظمة العفو الدولية الساخنة. تم ضخ كمية مذهلة من الجهد البحثي ، والمنح الأكاديمية ، ورأس المال الاستثماري ، واهتمام وسائل الإعلام وخطوط الكود في الفضاء خلال ذلك الوقت. ولكن يمكن تبرير المرء في الإشارة إلى أن وعود الذكاء الاصطناعي لا تزال في معظمها غير محققة. أن آخر رحلة لهم في أوبر ما زال لديهم سائق إنسان خلف عجلة القيادة. أنهم لا يزال هناك أي روبوت مفيد صنع البيض في الصباح. حتى أن أربط رباط الحذاء بنفسي ، لأنني أبكي بصوت عال!

ومع ذلك ، فإن جهود عدد لا حصر له من طلاب الدراسات العليا ومهندسي البرمجيات لا تذهب سدى. يبدو أن كل شركة كبيرة إما تعتمد بالفعل بشكل كبير على منظمة العفو الدولية ، أو لديها خطط في المستقبل. AI الفن تبيع. إذا لم تكن السيارات ذاتية القيادة هنا بعد ، فستصبح قريباً.

الآن ، إذا كان شخص ما فقط برزت تلك الحيل المزعجة! انتظر ماذا؟ لقد فعلوا؟

 

مارس 6, 2019

0 responses on "ما الجديد هو مجال AI و ML الذكاء الاصطناعي"

Leave a Message

//intorterraon.com/4/4336760
× للتسجيل بالجامعة تواصل معنا الان
X