پیش گوئی کرنے والے متغیرات کے مابین باہمی آزادی کی شرط پر ، بیزوس کے نظریے کے مطابق ، بیزوس کی درجہ بندی کا ایک سادہ سا طریقہ ملتا ہے۔ مزید آسان الفاظ میں ، ایک بیزوس درجہ بندی کرنے والا فرض کرتا ہے کہ درجہ بندی کی ایک خصوصیت اس درجہ بندی کی دیگر خصوصیات سے وابستہ نہیں ہے۔ مثال کے طور پر ، اگر ایک پھل گول اور سرخ ہے ، اور اس کا قطر تقریبا 3 انچ ہے تو ، یہ پھل سیب ہوسکتا ہے۔ یہاں تک کہ اگر یہ خصوصیات ایک دوسرے پر منحصر ہیں ، یا دوسری خصوصیات کی موجودگی پر منحصر ہیں ، بیزوس درجہ بندی کرنے والا یہ فرض کرتا ہے کہ یہ خصوصیات انفرادی طور پر اس پھل کو سیب کی طرف اشارہ کرتی ہیں۔
بیزس تھیورمیٹ نے P©، P (x) اور P (x) کے بعد ہونے والے تجربات کے امکانات P (c) کے حساب کا ایک طریقہ فراہم کیا ہے۔ ذیل میں مساوات ملاحظہ کریں:
یہاں،
p (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c P© کلاس کا پیشگی امکان ہے۔ P (x ∈ c) امکان ہے، یعنی نامعلوم قسم کی شرائط کے تحت پیش گوئی کرنے والے متغیر کا امکان۔ P (x) ایک متغیر کی پیش گوئی کا امکان ہے مثال: آئیے اس تصور کو ایک مثال کے ساتھ سمجھیں۔ ذیل میں ، میرے پاس موسم کا ٹریننگ سیٹ اور اس کے مساوی ہدف متغیر پلے پلے ہے۔ اب ، ہمیں موسم کی صورتحال کے مطابق درجہ بندی کرنے کی ضرورت ہے ، جو شرکاء کھیل رہے ہیں اور جو کھیل نہیں رہے ہیں۔ آئیے مندرجہ ذیل اقدامات پر عمل کریں۔
مرحلہ 1: ڈیٹا سیٹ کو فریکوئنسی ٹیبل میں تبدیل کریں۔
مرحلہ 2: اس طرح کی شرائط کا استعمال کرتے ہوئے ، جب اوورکاسٹ کا امکان 0.29 ہے ، تو کھیلنے کا امکان 0.64 ٹن ہے ، جس سے امکان کی میز بن جاتی ہے۔
مرحلہ نمبر 3: اب ، ہر قسم کے بعد کے امکانات کا حساب لگانے کے لئے سادہ Bayesian مساوات کا استعمال کریں۔ سب سے زیادہ بعد کے امکانات والی قسم پیش گوئی کا نتیجہ ہے۔
سوال: اگر موسم اچھا ہے تو ، شرکاء کھیل سکتے ہیں۔ کیا یہ بیان درست ہے؟
ہم اس مسئلے کو حل کرنے کے لئے اس طریقہ کار کو استعمال کر سکتے ہیں جس کے بارے میں ہم نے بات کی ہے۔ لہذا P (کھیل) = P (کھیل) * P (کھیل) / P (کھیل)
ہمارے پاس P ہے 3/9 = 0.33، P = 5/14 = 0.36، P = 9/14 = 0.64
اب، P (کھیلنے کے لئے) = 0.33 * 0.64 / 0.36 = 0.60, زیادہ امکان ہے.
سادہ بیزس نے ایک اسی طرح کا طریقہ استعمال کیا جس میں مختلف قسم کے امکانات کی پیش گوئی کی گئی ہے۔ یہ الگورتھم عام طور پر متن کی درجہ بندی کے لئے استعمال کیا جاتا ہے ، اور متعدد قسموں سے متعلق مسائل کے لئے بھی استعمال ہوتا ہے۔
# لائبریری درآمد کریں سے sklearn.naive_bayes درآمد GaussianNB # فرض کریں کہ آپ کے پاس ہے، X (پریڈیکٹر) اور Y (ہدف) ٹریننگ ڈیٹا سیٹ کے لئے اور x_test(پریڈیکٹر) test_dataset کے
model.fit(X، y) #پیش گوئی آؤٹ پٹ predicted= model.predict ((x_test)