Logo ar.boatexistence.com

لماذا النسب المتدرج العشوائي؟

جدول المحتويات:

لماذا النسب المتدرج العشوائي؟
لماذا النسب المتدرج العشوائي؟

فيديو: لماذا النسب المتدرج العشوائي؟

فيديو: لماذا النسب المتدرج العشوائي؟
فيديو: Tutorial 12- Stochastic Gradient Descent vs Gradient Descent 2024, يمكن
Anonim

وفقًا لأحد كبار علماء البيانات ، فإن إحدى المزايا المميزة لاستخدام Stochastic Gradient Descent هي أنه يقوم بالحسابات بشكل أسرع من نزول التدرج ونزول التدرج اللوني … أيضًا ، على مجموعات البيانات الضخمة ، يمكن أن يتقارب نزول التدرج العشوائي بشكل أسرع لأنه يقوم بإجراء التحديثات بشكل متكرر.

ما هو استخدام الانحدار العشوائي؟

أصل التدرج العشوائي هو خوارزمية تحسين تستخدم غالبًا في تطبيقات التعلم الآلي للعثور على معلمات النموذج التي تتوافق مع أفضل ملاءمة بين المخرجات المتوقعة والفعليةإنها تقنية غير دقيقة ولكنها قوية. يستخدم النسب المتدرج العشوائي على نطاق واسع في تطبيقات التعلم الآلي.

لماذا نحتاج إلى استخدام الانحدار العشوائي بدلاً من الانحدار القياسي لتدريب شبكة عصبية تلافيفية؟

هبوط التدرج العشوائي يقوم بتحديث المعلمات لكل ملاحظة مما يؤدي إلى المزيد من التحديثات. لذلك فهو نهج أسرع يساعد في اتخاذ قرار أسرع. يمكن ملاحظة تحديثات أسرع في اتجاهات مختلفة في هذه الرسوم المتحركة.

لماذا نفضل الانحدار المتدرج؟

السبب الرئيسي لاستخدام النسب المتدرج للانحدار الخطي هو التعقيد الحسابي: من الأرخص حسابيًا (أسرع) للعثور على الحل باستخدام النسب المتدرج في بعض الحالات. هنا ، تحتاج إلى حساب المصفوفة X′X ثم قلبها (انظر الملاحظة أدناه). إنها عملية حسابية باهظة الثمن.

لماذا يستخدم SGD؟

أصل التدرج العشوائي (غالبًا ما يتم اختصاره SGD) هو طريقة تكرارية لتحسين وظيفة موضوعية بخصائص نعومة مناسبة(على سبيل المثال قابل للتفاضل أو قابل للتباين الفرعي).

موصى به: