في مجال التعلم الآلي، تلعب المعلمات الفائقة دورًا حاسمًا في تحديد أداء وسلوك الخوارزمية. المعلمات الفائقة هي معلمات يتم تعيينها قبل بدء عملية التعلم. لا يتم تعلمها أثناء التدريب؛ وبدلاً من ذلك، فإنهم يتحكمون في عملية التعلم نفسها. في المقابل، يتم تعلم معلمات النموذج أثناء التدريب، مثل الأوزان في الشبكة العصبية.
دعونا نتعمق في بعض الأمثلة على المعلمات الفائقة الموجودة بشكل شائع في خوارزميات التعلم الآلي:
1. معدل التعلم (α): معدل التعلم عبارة عن معلمة مفرطة تتحكم في مقدار ضبطنا لأوزان شبكتنا فيما يتعلق بتدرج الخسارة. يمكن أن يؤدي معدل التعلم المرتفع إلى التجاوز، حيث تتقلب معلمات النموذج بشكل كبير، في حين أن معدل التعلم المنخفض يمكن أن يسبب تقاربًا بطيئًا.
2. عدد الوحدات/الطبقات المخفية: في الشبكات العصبية، يكون عدد الوحدات والطبقات المخفية بمثابة معلمات مفرطة تحدد مدى تعقيد النموذج. المزيد من الوحدات أو الطبقات المخفية يمكن أن تلتقط أنماطًا أكثر تعقيدًا ولكنها قد تؤدي أيضًا إلى التراكب.
3. وظيفة التنشيط: اختيار وظيفة التنشيط، مثل ReLU (الوحدة الخطية المعدلة) أو Sigmoid، هو معلمة تشعبية تؤثر على عدم خطية النموذج. تتميز وظائف التنشيط المختلفة بخصائص مختلفة ويمكن أن تؤثر على سرعة التعلم وأداء النموذج.
4. حجم الدفعة: حجم الدفعة هو عدد أمثلة التدريب المستخدمة في تكرار واحد. إنها معلمة مفرطة تؤثر على سرعة واستقرار التدريب. يمكن أن تؤدي أحجام الدُفعات الأكبر إلى تسريع التدريب ولكنها قد تؤدي إلى تحديثات أقل دقة، بينما يمكن أن توفر أحجام الدُفعات الأصغر تحديثات أكثر دقة ولكن مع تدريب أبطأ.
5. قوة التنظيم: التنظيم هو أسلوب يستخدم لمنع التجاوز عن طريق إضافة شرط جزائي إلى دالة الخسارة. قوة التنظيم، مثل π في تنظيم L2، هي معلمة مفرطة تتحكم في تأثير مصطلح التنظيم على الخسارة الإجمالية.
6. معدل التسرب: التسرب هو أسلوب تنظيم حيث يتم تجاهل الخلايا العصبية المختارة عشوائيًا أثناء التدريب. معدل التسرب هو معلمة مفرطة تحدد احتمالية تسرب الخلايا العصبية. فهو يساعد على منع الإفراط في التجهيز عن طريق إدخال الضوضاء أثناء التدريب.
7. حجم النواة: في الشبكات العصبية التلافيفية (CNNs)، يكون حجم النواة عبارة عن معلمة تشعبية تحدد حجم المرشح المطبق على بيانات الإدخال. تلتقط أحجام النواة المختلفة مستويات مختلفة من التفاصيل في البيانات المدخلة.
8. عدد الأشجار (في الغابة العشوائية): في أساليب التجميع مثل Random Forest، يكون عدد الأشجار بمثابة معلمة مفرطة تحدد عدد أشجار القرار في الغابة. يمكن أن تؤدي زيادة عدد الأشجار إلى تحسين الأداء ولكنها تزيد أيضًا من التكلفة الحسابية.
9. C في أجهزة المتجهات الداعمة (SVM): في SVM، C عبارة عن معلمة تشعبية تتحكم في المفاضلة بين الحصول على حدود قرار سلسة وتصنيف نقاط التدريب بشكل صحيح. تؤدي قيمة C الأعلى إلى حدود قرار أكثر تعقيدًا.
10 عدد المجموعات (بالوسائل K): في خوارزميات التجميع مثل K-Means، يكون عدد المجموعات عبارة عن معلمة تشعبية تحدد عدد المجموعات التي يجب أن تحددها الخوارزمية في البيانات. يعد اختيار العدد المناسب من المجموعات أمرًا بالغ الأهمية للحصول على نتائج تجميعية ذات معنى.
توضح هذه الأمثلة الطبيعة المتنوعة للمعلمات الفائقة في خوارزميات التعلم الآلي. يعد ضبط المعلمات الفائقة خطوة مهمة في سير عمل التعلم الآلي لتحسين أداء النموذج وتعميمه. يعد بحث الشبكة والبحث العشوائي والتحسين الافتراضي من الأساليب الشائعة المستخدمة للعثور على أفضل مجموعة من المعلمات الفائقة لمشكلة معينة.
تعد المعلمات الفائقة مكونات أساسية في خوارزميات التعلم الآلي التي تؤثر على سلوك النموذج وأدائه. يعد فهم دور المعلمات الفائقة وكيفية ضبطها بشكل فعال أمرًا بالغ الأهمية لتطوير نماذج التعلم الآلي الناجحة.
أسئلة وأجوبة أخرى حديثة بخصوص EITC/AI/GCML تعلم الآلة على Google Cloud:
- ما هو تحويل النص إلى كلام (TTS) وكيف يعمل مع الذكاء الاصطناعي؟
- ما هي القيود المفروضة على العمل مع مجموعات البيانات الكبيرة في التعلم الآلي؟
- هل يمكن للتعلم الآلي تقديم بعض المساعدة الحوارية؟
- ما هو ملعب TensorFlow؟
- ماذا تعني مجموعة البيانات الأكبر في الواقع؟
- ما هو التعلم المجمع؟
- ماذا لو لم تكن خوارزمية التعلم الآلي المختارة مناسبة وكيف يمكن التأكد من اختيار الخوارزمية الصحيحة؟
- هل يحتاج نموذج التعلم الآلي إلى الإشراف أثناء التدريب؟
- ما هي المعلمات الأساسية المستخدمة في الخوارزميات القائمة على الشبكة العصبية؟
- ما هو TensorBoard؟
عرض المزيد من الأسئلة والأجوبة في EITC/AI/GCML Google Cloud Machine Learning