انت هنا الان : شبكة جامعة بابل > موقع الكلية > نظام التعليم الالكتروني > مشاهدة المحاضرة
الكلية كلية العلوم للبنات
القسم قسم الحاسبات
المرحلة 4
أستاذ المادة زينب فلاح حسن الكيم
28/03/2019 08:02:01
Probabilistic Classification Principle • Establishing a probabilistic model for classification – Discriminative model
• To train a discriminative classifier regardless its probabilistic or nonprobabilistic nature, all training examples of different classes must be jointly used to build up a single discriminative classifier. • Output L probabilities for L class labels in a probabilistic classifier while a single label is achieved by a non-probabilistic classifier .
Continuous-valued Features – Numberless values taken by a continuous-valued feature – Conditional probability often modeled with the normal distribution
– Learning Phase: Output: normal distributions
– Test Phase: Given an unknown instance • Instead of looking-up tables, calculate conditional probabilities with all the normal distributions achieved in the learning phrase • Apply the MAP rule to assign a label (the same as done for the discrete case)
Zero conditional probability • If no example contains the feature value
– In this circumstance, we face a zero conditional probability problem during test – For a remedy, class conditional probabilities re-estimated
المادة المعروضة اعلاه هي مدخل الى المحاضرة المرفوعة بواسطة استاذ(ة) المادة . وقد تبدو لك غير متكاملة . حيث يضع استاذ المادة في بعض الاحيان فقط الجزء الاول من المحاضرة من اجل الاطلاع على ما ستقوم بتحميله لاحقا . في نظام التعليم الالكتروني نوفر هذه الخدمة لكي نبقيك على اطلاع حول محتوى الملف الذي ستقوم بتحميله .
الرجوع الى لوحة التحكم
|