التعلم العميق والتجميع Deep Learning for Clustering

كتابة علي القحطاني 

منذ بداية التطور الكبير والنجاحات الملحوظة في التعلم العميق (Deep Learning) في بداية القرن الماضي ، ظل أكثر التركيز على التعليم الموجه (Supervised Learning) حيث امتد هذا النجاح إلى الكثير من التطبيقات. يعتبر التعلم العميق هو أحد أنواع تعلم الآلة (Machine Learning) المبني على الشبكات العصبية الاصطناعية (Artificial Neural networks) لغرض تعلم التمثيل (Learning Representation)، حيث يتم تعليم أنماط تمييزية لمثال معين في أبعاد صغيرة، قد يكون التعلم العميق تحت إشراف (Supervised) أو شبه خاضع للإشراف (Semi-Supervised) أو غير خاضع للإشراف (Unsupervised). وتتنوع معماريات التعلم العميق لتشمل: الشبكات العصبية العميقة DNN وشبكات المعتقدات العميقة DBN والمشفر التلقائي AE والشبكات العصبية المتكررة RNN والشبكات العصبية الترشيحية CNN ليتم تبنيها في مجالات كثير وكثيرة شملت رؤية الكمبيوتر والتعرف على الكلام ومعالجة اللغة الطبيعية والتعرف على الصوت وغيرها الكثير ، محققة نتائجاً مماثلة أو متوفقه على أداء البشر.


١- خوارزمية التجميع (Clustering Algorithms):

تعبر أيضا واحدة من خوارزميات تعلم الآلة الغير خاضع للإشراف، وتهدف الى تجميع البيانات على حسب تشابهها. تكون البيانات المتشابه في مجموعة واحدة وتكون البيانات المختلفة في مجموعات مختلفة. تواجه هذه الخوارزميات التقليدية تحدياً كبير كلما زادت أبعاد البيانات، ويصبح ادائها محدود. في المقابل، التعلم العميق يسمح لتعلم مميزات تمثل البيانات الاصلية مما يسهل على الخوارزميات التقليدية لتعمل بشكل أفضل في فضاء قليل الأبعاد. خوارزميات التجميع تعد من أقدم وأكثر خوارزميات تعلم الآلة انتشاراً واستخداماً. عند التحدث عن خوارزميات التجميع فأول مايخطر في بال كل مهتم أو مبتدأ هو خوارزمية K-means ، وهي خوارزمية تكرارية لتجميع البيانات الأكثر تشابهاً في مجموعة واحدة بناءاً على قياس المسافة بين مركز التجميع والبيانات ففي البداية يحدد مركز لكل مجموعة حيث يحسب المسافة بين هذا المراكز وكل أمثلة البيانات المعطاة ومن ثم يحدد إلى اي مركز يتبع كل مثال بناءا على المسافة. ومن ثم يتم تحديث مراكز المجموعات وحساب المسافة بين المراكز الجديدة والبيانات. وبشكل تكراري تتم عملية التقسيم إلى مجموعات. هذه الخوارزمية تعمل بشكل جيد للمشاكل البسيطة والأقل ابعاداً ، ولكن مع زيادات ابعاد البيانات يصبح التعامل اصعب ويحد بشكل كبير من تفوق أداء خوارزمية التجميع. 

 


٢- التعلم العميق وتضمين التجميع (Deep Learning with Embedded Clustering):

بسبب محدودية الأداء للخوارزميات التقليدية خصوصاً مع زيادة الأبعاد، كان دمج خوارزمية التجميع مع أحد معماريات التعلم العميق أحد المواضيع الساخنة والواعدة كمجال بحث مستقبلي. فهذا النوع من النماذج يسمح بتعلم أنماط تمييزية للبيانات وتقسيمها في نفس الوقت خلال مرحلة التدريب باستخدام اثنان من دوال الخسارة (Cost Functions) أحدهم لنموذج التعلم العميق والآخر لخوارزمية التجميع ويكون التحسين بشكل متجانس لجميع دوال الخسارة في الوقت ذاته. تسابقت الأبحاث في هذا المجال إلى استخدام المعمارية المثالية للوفى بحاجة هذه المهمة، فالكثير من التركيز كان على المعماريات التي يتم تدريبها بطريقة غير خاضعة للإشراف مثل: المشفر التلقائي العميق (Deep Auto-encoder) والمشفر  التلقائي الترشيحية العميق (Deep convolutional Auto-encoder) القائمة على تقنية الضغط وفك الضغط (Encoding and Decoding) من خلال استخدام دالة خسارة اعادة الإعمار. في هذه النماذج يتم ضغط المثال المستخدم للتدريب من خلال سلسلة من الطبقات (Layers) إلى فضاء كامن يسمح لتعلم مميزات تمثل البيانات الأصلية في فضاء قليل الأبعاد ومن ثم يتم إعادة إعمار الشكل الأصلي من خلال فك الضغط للميزة التمثيلية بعملية عكسية من خلال سلسلة من الطبقات باستخدام طريقة الانتشار العكسي لدالة خسارة إعادة الإعمار. استغلت قوة هذه النماذج خصوصاً في فضائها الكامن لتضمين خوارزمية التجميع مما يسمح بتوفيق اثنتان من خوارزميات تعلم الآلة وإنجاح مهمة معينة بشكل متوافق وعملي وفعال محققاً نتائج واعدة للتعليم الغير خاضع للإشراف خاطفاً اهتمام الكثير من الباحثين في مجال التعلم العميق نحو هذا المجال.

  

تعليقات

Popular Posts

الفرق بين تعلم الآلة وعلم البيانات والذكاء الاصطناعي والتعلم العميق والإحصاء

الذكاء الإصطناعي و مشروع نيوم

إستخدامات الذكاء الاصطناعي في مواجهة فيروس كورونا

خمس سلبيات مباشرة للذكاء الإصطناعي

أبرز أربعة تقنيات عملية للذكاء الإصطناعي

الذكاء الإصطناعي ونفط المستقبل

أبرز ست وظائف سيقضي عليها الذكاء الاصطناعي

معالجة اللغات الطبيعية : تحديات اللغة العربية