اسکلارن.گروه .گرادیانبوستکلاسیفایر¶

  • 2021-05-29

کلاس اسکلیرن.گروه. گرادیان بوستینگ طبقه بندی کننده ( * , ضرر = 'لاگ_لاک' , نرخ یادگیری = 0.1 , ارزیابی کننده = 100 , نمونه فرعی = 1.0 , معیار = 'فریدمن_مس_معیار = 2 , نمونه_منپله_برگ = 1 , مین_وزن _شکست_برگ = 0.0 , حداکثر _عمق = 3 , حداقل کاهش = 0.0, ورودی = هیچ, تصادفی _ ایالت = هیچ, حداکثر _ ویژگی = هیچ, طولانی = 0, حداکثر _ برگ_ گره = هیچ, گرم_ شروع = غلط, اعتبار سنجی _ کسر = 0.1, نی_ایتر_نوتغییر = هیچ, تول = 0.0001, حکچ = 0.0 ) [منبع] ¶

افزایش گرادیان برای طبقه بندی.

این الگوریتم ایجاد یک مدل افزودنی در مد مرحله عاقلانه رو به جلو; این اجازه می دهد تا برای بهینه سازی توابع از دست دادن متمایز دلخواه. در هر مرحله درختان رگرسیون بر روی شیب منفی تابع ضرر قرار میگیرند. طبقه بندی دودویی یک مورد خاص است که فقط یک درخت رگرسیون منفرد القا می شود.

sklearn.ensemble.HistGradientBoostingClassifier is a much faster variant of this algorithm for intermediate datasets ( n_samples >= 10_000 ).

اطلاعات بیشتر را در راهنمای کاربر بخوانید .

پارامترهای: زیان, پیش فرض='ورود به سیستم'

تابع از دست دادن به بهینه سازی شود. انحراف دوجمله ای و چندجمله ای همان چیزی است که در رگرسیون لجستیک استفاده می شود. این یک انتخاب خوب برای طبقه بندی با خروجی های احتمالی است. برای از دست دادن' نمایی', افزایش گرادیان بازیابی الگوریتم ادابوست.

از نسخه 1.1 منسوخ شده است: انحراف ضرر در نسخه 1.1 منسوخ شد و در نسخه 1.3 حذف خواهد شد. از دست دادن استفاده= 'ورود به سیستم' که معادل است.

میزان یادگیری با یادگیری _ نرخ سهم هر درخت را کاهش می دهد . یک معامله بین نرخ یادگیری و ارزیابی کننده ها وجود دارد. مقادیر باید در محدوده باشد [0.0, جبهه ملی) .

ن_استیماتورها بین المللی, پیش فرض=100

تعداد مراحل تقویت برای انجام. افزایش گرادیان نسبت به بیش از حد مناسب است بنابراین تعداد زیادی معمولا منجر به عملکرد بهتر می شود. مقادیر باید در محدوده باشد [1, جبهه ملی) .

شناور زیر نمونه, پیش فرض=1.0

کسری از نمونه هایی که برای نصب فراگیران پایه فردی استفاده می شود. اگر کوچکتر از 1.0 باشد این منجر به افزایش گرادیان تصادفی می شود. نمونه فرعی با پارامتر تعامل دارد ن_استیماتورها . انتخاب زیر نمونه< 1.0 leads to a reduction of variance and an increase in bias. Values must be in the range (0.0, 1.0] .

معیار, پیش فرض='فریدمن

تابع برای اندازه گیری کیفیت یک تقسیم. معیارهای پشتیبانی شده برای میانگین مربع خطا با نمره بهبود توسط فریدمن,' مربع _ خطا ' برای میانگین مربع خطا. مقدار پیش فرض فریدمن به طور کلی بهترین است زیرا در برخی موارد می تواند تقریب بهتری را فراهم کند.

جدید در نسخه 0.18.

حداقل تعداد نمونه های مورد نیاز برای تقسیم یک گره داخلی:

اگر اعضای هیات, ارزش باید در محدوده باشد [2, جبهه ملی) .

اگر شناور باشد, مقادیر باید در محدوده باشد (0.0, 1.0] و نمونه های من_مپلیت سقف خواهد بود(نمونه های من _مپلیت * ن_مپلیت) .

تغییر در نسخه 0.18: ارزش های شناور اضافه شده برای فراکسیون.

حداقل تعداد نمونه های مورد نیاز برای قرار گرفتن در یک گره برگ. یک نقطه تقسیم در هر عمق تنها در صورتی در نظر گرفته می شود که حداقل نمونه های تمرینی برگ را در هر یک از شاخه های چپ و راست باقی بگذارد. این ممکن است اثر صاف کردن مدل را به ویژه در رگرسیون داشته باشد.

اگر اعضای هیات, ارزش باید در محدوده باشد [1, جبهه ملی) .

اگر شناور باشد مقادیر باید در محدوده باشد (0.0, 1.0) و نمونه های مینی_برگ سقف خواهند بود(نمونه های مینی_برگ * ن_برگ).

تغییر در نسخه 0.18: ارزش های شناور اضافه شده برای فراکسیون.

حداقل کسر وزنی از مجموع مجموع وزنها (از همه نمونه های ورودی) مورد نیاز برای قرار گرفتن در یک گره برگ. وزن نمونه ها در صورت عدم وجود وزن نمونه برابر است. مقادیر باید در محدوده باشد [0.0, 0.5].

حداکثر _عمق بین المللی یا هیچ, پیش فرض=3

حداکثر عمق براوردگرهای رگرسیون فردی. حداکثر عمق تعداد گره های درخت را محدود می کند. بهترین مقدار به تعامل متغیرهای ورودی بستگی دارد. اگر هیچ کدام, سپس گره ها گسترش می یابند تا زمانی که همه برگها خالص شوند یا تا زمانی که همه برگها حاوی کمتر از نمونه های منشعب شوند. اگر اعضای هیات, ارزش باید در محدوده باشد [1, جبهه ملی) .

کاهش شناور, پیش فرض=0.0

یک گره تقسیم خواهد شد اگر این تقسیم باعث کاهش ناخالصی بزرگتر یا مساوی این مقدار شود. مقادیر باید در محدوده باشد [0.0, جبهه ملی) .

معادله کاهش ناخالصی وزنی به شرح زیر است:

جایی که ن تعداد کل نمونه ها است, ن_ت تعداد نمونه ها در گره فعلی است, ن_ت_ل تعداد نمونه ها در کودک چپ است, و ن_ت_ر تعداد نمونه ها در کودک راست است.

اگر وزن نمونه منتقل شود همه به مجموع وزنی اشاره می کنند.

جدید در نسخه 0.19.

یک شی براوردگر که برای محاسبه پیش بینی های اولیه استفاده می شود. اینیت باید تناسب و پیش بینی را فراهم کند . اگر 'صفر', پیش بینی اولیه خام به صفر تنظیم شده است. به طور پیش فرض از یک پیش بینی کننده ساختگی برای پیش بینی کلاس های قبلی استفاده می شود.

ایالت تصادفی, نمونه ایالتی تصادفی یا هیچ, پیش فرض=هیچ

بذر تصادفی داده شده به هر تخمین درخت را در هر تکرار تقویت کننده کنترل می کند. علاوه بر این, این کنترل جایگشت تصادفی از ویژگی های در هر تقسیم (یادداشت برای اطلاعات بیشتر ببینید). همچنین تقسیم تصادفی داده های تمرین را برای دستیابی به یک مجموعه اعتبار سنجی کنترل می کند. رمز عبور اعضای هیات برای خروجی تجدید در سراسر فراخوانی تابع چندگانه. واژه نامه را ببینید .

حداکثر _امکانات, بین المللی یا شناور, پیش فرض=هیچ

تعداد ویژگی هایی که باید هنگام جستجوی بهترین اسپلیت در نظر بگیرید:

اگر اعضای هیات, ارزش باید در محدوده باشد [1, جبهه ملی) .

اگر شناور, مقادیر باید در محدوده باشد (0.0, 1.0] و ویژگی های در نظر گرفته شده در هر تقسیم خواهد بود حداکثر(1, اعضای هیات(حداکثر _ویژگی * ن_ویژگی_در_این_)) .

اگر 'خودکار', سپس حداکثر _امکانات=مربع (ن_امکانات).

اگر 'مربع', سپس حداکثر _امکانات=مربع (ن_امکانات) .

اگر' ورود به سیستم2', سپس حداکثر _امکانات=ورود به سیستم2 (ن_امکانات) .

اگر هیچ, سپس حداکثر _ویژگیها=ن_ویژگیها .

توجه: جستجو برای یک تقسیم متوقف نمی شود تا زمانی که حداقل یک پارتیشن معتبر از نمونه های گره پیدا شود حتی اگر نیاز به بازرسی موثر بیش از ویژگی های حداکثر باشد.

اعضای هیات طولانی, به طور پیش فرض=0

فعال کردن خروجی طولانی. اگر 1 سپس پیشرفت و عملکرد را هر چند وقت یکبار چاپ می کند (هرچه درختان بیشتر فرکانس را پایین بیاورند). اگر بزرگتر از 1 باشد پیشرفت و عملکرد را برای هر درخت چاپ می کند. مقادیر باید در محدوده باشد [0, جبهه ملی) .

بیشینه گرههای برگ, پیشفرض=هیچکدام

درختان را با حداکثر گره های برگ به بهترین شکل رشد دهید. بهترین گره ها به عنوان کاهش نسبی ناخالصی تعریف می شوند. مقادیر باید در محدوده باشد [2, جبهه ملی) . اگر هیچ, سپس تعداد نامحدودی از گره های برگ.

گرم_شروع بولی, پیش فرض=نادرست

هنگامی که به درست تنظیم , استفاده مجدد از راه حل از تماس های قبلی به جا و اضافه کردن براوردگر بیشتر به گروه, در غیر این صورت, فقط پاک کردن راه حل های قبلی. مشاهده واژه نامه .

اعتبارسنجی شناور, پیش فرض=0.1

نسبت داده های تمرین را به عنوان اعتبار سنجی برای توقف زودهنگام کنار بگذارید. مقادیر باید در محدوده باشد (0.0, 1.0) . فقط در صورتی استفاده می شود که تغییر ن_ایتر روی یک عدد صحیح تنظیم شود.

جدید در نسخه 0.20.

برای تصمیم گیری در مورد توقف زودهنگام برای خاتمه دادن به تمرین در هنگام بهبود نمره اعتبار سنجی استفاده می شود. به طور پیش فرض روی هیچ کدام تنظیم نشده است تا توقف زودهنگام را غیرفعال کند. اگر روی یک عدد تنظیم شود, اندازه اعتبار سنجی داده های تمرین را به عنوان اعتبار سنجی کنار می گذارد و زمانی که امتیاز اعتبار سنجی در همه تعداد تکرارهای قبلی بهبود نمی یابد. تقسیم طبقه بندی شده است. مقادیر باید در محدوده باشد [1, جبهه ملی) .

جدید در نسخه 0.20.

تحمل برای توقف زود هنگام. هنگامی که از دست دادن است حداقل برای تکرار نی_ایتر_نو_تغییر بهبود نیست (اگر به یک عدد تنظیم), تمرین متوقف می شود. مقادیر باید در محدوده باشد [0.0, جبهه ملی) .

جدید در نسخه 0.20.

پارامتر پیچیدگی مورد استفاده برای حداقل هزینه-هرس پیچیدگی. زیر درخت با بزرگترین پیچیدگی هزینه است که کوچکتر از ح.ک. چ_الفا انتخاب خواهد شد. به طور پیش فرض هیچ هرس انجام نمی شود. مقادیر باید در محدوده باشد [0.0, جبهه ملی) . برای اطلاعات بیشتر به هرس حداقل هزینه و پیچیدگی مراجعه کنید.

جدید در نسخه 0.22.

تعداد براوردگرهایی که با توقف زودهنگام انتخاب شده اند (اگر تغییر ن_ایتر مشخص شده باشد). در غیر این صورت روی ن_استیماتورها تنظیم شده است .

جدید در نسخه 0.20.

ویژگی های مبتنی بر ناخالصی اهمیت دارد.

طراحی سایت _ طراحی سایت _ طراحی سایت _ طراحی سایت _ طراحی سایت _ طراحی سایت _ طراحی سایت _ طراحی سایت _ طراحی سایت _ طراحی سایت _ طراحی سایت _ طراحی سایت _ طراحی سایت _ طراحی سایت _ طراحی سایت _ طراحی سایت _ طراحی سایت

بهبود از دست دادن (=انحراف) در نمونه های خارج از کیسه نسبت به تکرار قبلی. [0] بهبود از دست دادن مرحله اول نسبت به تخمینگر اولیه است. فقط در صورت نمونه فرعی موجود است< 1.0

قطار _ امتیاز _ نداری شکل (ن_استیماتورها,)

[من] انحراف (= از دست دادن) مدل در تکرار من در نمونه در کیسه است. اگر زیرمجموعه == 1 این انحراف در داده های تمرین است.

از دست دادن _ از دست دادن عملکرد

شی از دست دادن عملکرد بتن.

منسوخ شده از نسخه 1.1: ضرر ویژگی در نسخه 1.1 منسوخ شد و در 1.3 حذف خواهد شد.

پیش بینی های اولیه را فراهم می کند. تنظیم از طریق استدلال اولیه و یا از دست دادن.نشانهگذار .

تخمین زدگان _ تصمیمگیرندهگرایشگر شکل (تخمین زدگان, ضررها_.ک )

مجموعه ای از زیر براوردگرهای نصب شده. زیان.ک است 1 برای طبقه بندی دودویی, در غیر این صورت ن_کلاس.

کلاسها _ نداری شکل (کلاس ها,)

کلاس برچسب.

صفحه نخست

تعدادی از ویژگی های در طول مناسب دیده می شود .

جدید در نسخه 0.24.

نام ویژگی هایی که در هنگام تناسب دیده می شود . فقط وقتی تعریف می شود ایکس نام ویژگی هایی دارد که همه رشته ها هستند.

جدید در نسخه 1.0.

تعداد کلاس ها.

حداکثر ویژگی ها _ اعضای هیات

ارزش استنباط شده از ویژگی های حداکثر.

شیب مبتنی بر هیستوگرام تقویت درخت طبقه بندی.

طبقه بندی درخت تصمیم.

یک متا براوردگر که تعدادی از طبقه بندی کننده های درخت تصمیم را بر روی زیر نمونه های مختلف مجموعه داده قرار می دهد و از میانگین گیری برای بهبود دقت پیش بینی و کنترل بیش از حد برازش استفاده می کند.

یک متا تخمینگر که با نصب یک طبقه بندی کننده بر روی مجموعه داده اصلی شروع می شود و سپس نسخه های اضافی طبقه بندی کننده را در همان مجموعه داده قرار می دهد که وزن نمونه های طبقه بندی شده نادرست به گونه ای تنظیم می شود که طبقه بندی کننده های بعدی بیشتر روی موارد دشوار تمرکز کنند.

ویژگی ها همیشه به طور تصادفی در هر تقسیم مجاز می شوند. از این رو, بهترین تقسیم یافت شده ممکن است متفاوت باشد, حتی با داده های تمرینی یکسان و حداکثر ویژگیها=ن_ویژگی ها , اگر بهبود معیار برای چندین تقسیم برشمرده شده در جستجوی بهترین تقسیم یکسان باشد. برای دستیابی به یک رفتار قطعی در حین برازش باید حالت تصادفی برطرف شود.

فریدمن, تقریب تابع حریص: یک ماشین تقویت گرادیان, سالنامه ارقام, جلد. 29, شماره 5, 2001.

فریدمن, تقویت گرادیان تصادفی, 1999

تیبشیرانی و جی فریدمن. عناصر یادگیری اد. 2, اسپرینگر, 2009.

مثال زیر نشان می دهد که چگونه به تناسب یک طبقه بندی گرادیان افزایش با 100 کنده تصمیم گیری به عنوان یادگیرندگان ضعیف.

درختان موجود در گروه را اعمال کنید ایکس, شاخص های برگ برگشت.

تابع تصمیم گیری را محاسبه کنید ایکس .

مناسب (ایکس, و [, نمونه _ وزن, مانیتور])

مدل تقویت گرادیان را متناسب کنید.

پارامترهای این تخمین را دریافت کنید.

پیش بینی کلاس برای ایکس.

پیش بینی ورود به سیستم کلاس-احتمالات برای ایکس.

پیش بینی احتمالات کلاس برای ایکس.

نمره (ایکس, و [, نمونه _ وزن])

میانگین دقت داده ها و برچسب های تست داده شده را برگردانید.

پارامترهای این تخمینگر را تنظیم کنید.

محاسبه تابع تصمیم ایکس برای هر تکرار.

پیش بینی کلاس در هر مرحله برای ایکس.

پیش بینی احتمالات کلاس در هر مرحله برای ایکس.

درختان موجود در گروه را اعمال کنید ایکس, شاخص های برگ برگشت.

جدید در نسخه 0.17.

نمونه های ورودی. در داخل این نوع دیتیپ به دیتیپ=ان پی تبدیل خواهد شد.شناور32 . اگر یک ماتریس پراکنده فراهم شود به یک ماتریس پراکنده تبدیل می شود .

بازده : ایکس_میگذارد صف مانند شکل (نمونهها, ن_میمیترها, ن_کلاس ها)

برای هر نقطه داده ایکس که در ایکس و برای هر درخت در گروه شاخص برگ را برگردانید ایکس در هر تخمینگر به پایان می رسد. در مورد طبقه بندی دودویی ن_کلاس است 1.

تخمین دهنده برای رشد گروه استفاده می شود.

تابع تصمیم گیری را محاسبه کنید ایکس .

پارامترها: ایکس شکل (نمونه ها, ویژگی ها)

نمونه های ورودی. به صورت داخلی تبدیل خواهد شد دی تایپ=ان پی.شناور32 و اگر یک ماتریس پراکنده برای یک ماتریس پراکنده فراهم شود .

بازده: نمره نداری شکل (نمونهها, نمونهها, کلاسها) یا (نمونهها,)

تابع تصمیم گیری نمونه های ورودی که مربوط به مقادیر خام پیش بینی شده از درختان گروه است . ترتیب کلاسها با کلاس های صفت مطابقت دارد_ . رگرسیون و طبقه بندی باینری مجموعه ای از شکل ها را تولید می کنند (نمونه ها,).

تخمین دهنده برای رشد گروه استفاده می شود.

ویژگی های مبتنی بر ناخالصی اهمیت دارد.

بالاتر, مهم تر از ویژگی های. اهمیت یک ویژگی به عنوان کاهش کل (نرمال شده) معیار حاصل از این ویژگی محاسبه می شود. همچنین به عنوان اهمیت جینی شناخته می شود.

هشدار: اهمیت ویژگی مبتنی بر ناخالصی می تواند برای ویژگی های کاردینالیته بالا (بسیاری از ارزش های منحصر به فرد) گمراه کننده باشد. دیدن اسکلیرن.بازرسی.جایگشت_مهم به عنوان یک جایگزین.

بازگشت : ویژگی ها _ اهمیت ها _ نداری شکل (ن_امکانات,)

مقادیر این مجموعه مجموع به 1, مگر اینکه همه درختان درختان تک گره متشکل از تنها گره ریشه, که در این صورت خواهد بود مجموعه ای از صفر.

مدل تقویت گرادیان را متناسب کنید.

پارامترها: ایکس شکل (نمونه ها, ویژگی ها)

نمونه های ورودی. به صورت داخلی تبدیل خواهد شد دی تایپ=ان پی.شناور32 و اگر یک ماتریس پراکنده برای یک ماتریس پراکنده فراهم شود .

(مانند شکل (نمونه ها,)

مقادیر هدف (رشته ها یا اعداد صحیح در طبقه بندی, اعداد واقعی در رگرسیون) برای طبقه بندی, برچسب باید به کلاس مطابقت.

نمونه _ وزن مجموعه مانند شکل (نمونه ها,), پیش فرض=هیچ

وزن نمونه. اگر هیچ کدام, سپس نمونه به همان اندازه وزن. انشعابات که گره کودک با صفر خالص یا وزن منفی ایجاد می شوند در حالی که جستجو برای یک تقسیم در هر گره نادیده گرفته. در مورد طبقه بندی, انشعابات نیز نادیده گرفته می شوند در صورتی که در هر کلاس واحد حمل وزن منفی در هر دو گره کودک منجر.

مانیتور قابل فراخوانی, پیش فرض=هیچ

مانیتور است که پس از هر تکرار با تکرار فعلی به نام, یک مرجع به تخمین و متغیرهای محلی از _مناسب مراحل به عنوان استدلال کلمه کلیدی قابل فراخوانی(من, خود, مردم محلی()) . اگر قابل فراخوانی درست می گرداند روش اتصالات متوقف شده است. مانیتور را می توان برای چیزهای مختلف مانند محاسبات برگزار کردن تخمین می زند, توقف زود هنگام, مدل درون نگری, و عکس فوری.

بازگشت: شی خود

پارامترهای این تخمین را دریافت کنید.

پارامترهای: بولی عمیق, پیش فرض=درست

اگر درست, خواهد پارامترهای این براوردگر بازگشت و شامل اشیا فرعی که براوردگر هستند.

بازگشت : پارامترها

نام پارامتر نقشه برداری به ارزش های خود را.

پیش بینی کلاس برای ایکس.

پارامترها: ایکس شکل (نمونه ها, ویژگی ها)

نمونه های ورودی. به صورت داخلی تبدیل خواهد شد دی تایپ=ان پی.شناور32 و اگر یک ماتریس پراکنده برای یک ماتریس پراکنده فراهم شود .

بازگشت : و نداری شکل (نمونه ها,)

ارزش های پیش بینی شده.

پیش بینی ورود به سیستم کلاس-احتمالات برای ایکس.

پارامترها: ایکس شکل (نمونه ها, ویژگی ها)

نمونه های ورودی. به صورت داخلی تبدیل خواهد شد دی تایپ=ان پی.شناور32 و اگر یک ماتریس پراکنده برای یک ماتریس پراکنده فراهم شود .

بازده: پ نداری شکل (نمونه ها, کلاس ها)

کلاس ورود به سیستم-احتمال از نمونه های ورودی. ترتیب کلاسها با کلاس های صفت مطابقت دارد_ .

اگر از دست دادن احتمالات را پشتیبانی نمی کند.

پیش بینی احتمالات کلاس برای ایکس.

پارامترها: ایکس شکل (نمونه ها, ویژگی ها)

نمونه های ورودی. به صورت داخلی تبدیل خواهد شد دی تایپ=ان پی.شناور32 و اگر یک ماتریس پراکنده برای یک ماتریس پراکنده فراهم شود .

بازده: پ نداری شکل (نمونه ها, کلاس ها)

احتمال کلاس از نمونه های ورودی. ترتیب کلاسها با کلاس های صفت مطابقت دارد_ .

اگر از دست دادن احتمالات را پشتیبانی نمی کند.

میانگین دقت داده ها و برچسب های تست داده شده را برگردانید.

در طبقه بندی چند برچسب, این دقت زیر مجموعه است که یک متریک خشن از شما برای هر نمونه که هر مجموعه برچسب به درستی پیش بینی نیاز است.

پارامترها: ایکس مانند شکل (نمونه ها, ویژگی ها)

(نمونه ها,) یا (نمونه ها, ن_ن_نمونه ها, خروجی ها)

برچسب های واقعی برای ایکس .

نمونه _ وزن مجموعه مانند شکل (نمونه ها,), پیش فرض=هیچ

بازگشت: نمره شناور

میانگین دقت خود.پیش بینی(ایکس) مچ دست. y.

پارامترهای این تخمینگر را تنظیم کنید.

این روش روی تخمینگرهای ساده و همچنین روی اجسام تو در تو (مانند خط لوله) کار می کند. در حالت دوم پارامترهای فرم __ به طوری که این امکان وجود دارد برای به روز رسانی هر یک از اجزای یک شی تو در تو.

مولفه های: * * دیکته پارامترها

بازگشت : نمونه خود تخمین

محاسبه تابع تصمیم ایکس برای هر تکرار.

این روش اجازه می دهد تا نظارت (به عنوان مثال تعیین خطا در مجموعه تست) بعد از هر مرحله.

پارامترها: ایکس شکل (نمونه ها, ویژگی ها)

نمونه های ورودی. به صورت داخلی تبدیل خواهد شد دی تایپ=ان پی.شناور32 و اگر یک ماتریس پراکنده برای یک ماتریس پراکنده فراهم شود .

بازده: نمره ژنراتور نداری شکل

تابع تصمیم گیری نمونه های ورودی که مربوط به مقادیر خام پیش بینی شده از درختان گروه است . کلاس مربوط به که در کلاس صفت_. رگرسیون و طبقه بندی باینری موارد خاصی با هستند ک == 1 , در غیر این صورت ک==ن_کلاس ها .

پیش بینی کلاس در هر مرحله برای ایکس.

این روش اجازه می دهد تا نظارت (به عنوان مثال تعیین خطا در مجموعه تست) بعد از هر مرحله.

پارامترها: ایکس شکل (نمونه ها, ویژگی ها)

نمونه های ورودی. به صورت داخلی تبدیل خواهد شد دی تایپ=ان پی.شناور32 و اگر یک ماتریس پراکنده برای یک ماتریس پراکنده فراهم شود .

بازده: بله ژنراتور نداری شکل (نمونه ها,)

مقدار پیش بینی شده از نمونه های ورودی.

پیش بینی احتمالات کلاس در هر مرحله برای ایکس.

این روش اجازه می دهد تا نظارت (به عنوان مثال تعیین خطا در مجموعه تست) بعد از هر مرحله.

پارامترها: ایکس شکل (نمونه ها, ویژگی ها)

نمونه های ورودی. به صورت داخلی تبدیل خواهد شد دی تایپ=ان پی.شناور32 و اگر یک ماتریس پراکنده برای یک ماتریس پراکنده فراهم شود .

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.