اس عرصے کے دوران ، پلاسٹک کی مشینوں کو سیکھنے کے لئے پلاسٹک سیکھنے کے لئے ، باب 5 میں پلاسٹک کی لوجسٹک رجعت کی پلاسٹک سیکھنا کافی مشکل محسوس ہوتا ہے۔ اس کا سراغ لگانا ، پلاسٹک کی لوجسٹک رجعت کی پلاسٹک سے لے کر پلاسٹک کی لکیری رجعت کی پلاسٹک تک ، پھر پلاسٹک کی کم سے کم دوگنی پلاسٹک تک۔ آخر کار ، اعلی درجے کی ریاضی کی پلاسٹک (چھٹا ایڈیشن) کے باب 9 کے سیکشن 10 میں پلاسٹک کی کم سے کم دوگنی پلاسٹک تک ، اس سے معلوم ہوتا ہے کہ کم سے کم دوگنی پلاسٹک کے پیچھے ریاضی کا اصول کہاں سے آیا ہے۔ کم سے کم دوگنا کرنے والی جڑیں زیادہ سے زیادہ اصلاحات کے مسائل میں تجرباتی فارمولوں کی تعمیر کا ایک طریقہ ہے۔ اس کے طریقہ کار کو سمجھنا جڑوں کی لوجسٹک رجعت جڑیں اور جڑوں کی حمایت کرنے والی ویکٹر مشینوں کی سیکھنے کی جڑوں کو سمجھنے کے لئے مفید ہے۔
کم از کم دو گنا چکنائی کی تاریخ کا پس منظر بہت دلچسپ ہے۔
1801ء میں اطالوی ماہر فلکیات جوزیپ پیازی نے پہلا چھوٹا سیارہ وادی ستارہ دریافت کیا۔ 40 دن کے ٹریک مشاہدات کے بعد وادی ستارہ سورج کے پیچھے چلنے کی وجہ سے پیازی نے وادی ستارے کی پوزیشن کھو دی۔ اس کے بعد دنیا بھر کے سائنسدانوں نے وادی ستارے کی تلاش شروع کر دی۔ لیکن زیادہ تر لوگوں کے حساب کے مطابق کوئی نتیجہ نہیں نکلا۔ اس وقت 24 سالہ گاس نے بھی وادی ستارے کی مدار گنتی کی۔ آسٹریا کے ماہر فلکیات ہیریچ اولبس نے وادی ستارے کی مدار گنتی کے مطابق وادی ستارے کو دوبارہ دریافت کیا۔
گاس کا کم سے کم دوگنا کرنے کا طریقہ کار 1809 میں اس کی کتاب میں شائع ہوا تھا جس کا نام تھیوری آف ہائبرڈ موشن، اور فرانسیسی سائنسدان لیجنڈ نے 1806 میں آزادانہ طور پر کم سے کم دوگنا کرنے کا طریقہ کار دریافت کیا تھا ، لیکن اس وقت یہ معلوم نہیں تھا۔ دونوں نے پہلے کم سے کم دوگنا کرنے کا اصول کس نے قائم کیا اس کے بارے میں تنازعہ کیا تھا۔
1829 میں ، گاس نے اس بات کا ثبوت فراہم کیا کہ کم سے کم دوگنا کرنے کا اصلاحی اثر دوسرے طریقوں سے زیادہ مضبوط ہے ، دیکھیں گاس - مارکوف تھیوری۔
کم سے کم دوگنا کرنے والے دوگنا کرنے والے دوگنا کرنے کا بنیادی مقصد یہ ہے کہ تمام اعداد و شمار کے انحراف کا مربع اور کم سے کم ہو۔ ((پہلے دور میں دوگنا کرنے والے دوگنا کرنے والے دوگنا کرنے والے کو کہا جاتا تھا)
فرض کریں کہ ہم کچھ جنگی جہازوں کی لمبائی اور چوڑائی کا ڈیٹا اکٹھا کرتے ہیں۔
اس اعداد و شمار کے ساتھ ہم نے پائیتھون میں ایک متفرق نقطہ گراف تیار کیا:
اس کوڈ میں یہ کہا گیا ہے:
```
import numpy as np # -*- coding: utf-8 -*
import os
import matplotlib.pyplot as plt
def drawScatterDiagram(fileName): # 改变工作路径到数据文件存放的地方
os.chdir("d:/workspace_ml")
xcord=[];ycord=[]
fr=open(fileName)
for line in fr.readlines():
lineArr=line.strip().split()
xcord.append(float(lineArr[1]));ycord.append(float(lineArr[2]))
plt.scatter(xcord,ycord,s=30,c='red',marker='s')
plt.show()
```
假如我们取前两个点(238,32.4)(152, 15.5)就可以得到两个方程
152*a+b=15.5
328*a+b=32.4
解这两个方程得a=0.197,b=-14.48
那样的话,我们可以得到这样的拟合图:
![线性回归之——最小二乘法](/upload/asset/8c4ec1df86e5867e4ce4da6af7d7c8423b163ef7.png)
好了,新的问题来了,这样的a,b是不是最优解呢?用专业的说法就是:a,b是不是模型的最优化参数?在回答这个问题之前,我们先解决另外一个问题:a,b满足什么条件才是最好的?
答案是:保证所有数据偏差的平方和最小。至于原理,我们会在后面讲,先来看看怎么利用这个工具来计算最好的a和b。假设所有数据的平方和为M,则
![线性回归之——最小二乘法](/upload/asset/7189e60a47e6a0a78747c40ff511abe8357350c0.png)
我们现在要做的就是求使得M最小的a和b。请注意这个方程中,我们已知yi和xi
那其实这个方程就是一个以(a,b)为自变量,M为因变量的二元函数。
回想一下高数中怎么对一元函数就极值。我们用的是导数这个工具。那么在二元函数中, 我们依然用导数。只不过这里的导数有了新的名字“偏导数”。偏导数就是把两个变量中的一个视为常数来求导。
通过对M来求偏导数,我们得到一个方程组
![线性回归之——最小二乘法](/upload/asset/4a863a2f6678f5689641aafb11860b12bc820f80.png)
这两个方程中xi和yi都是知道的。
很容易就求得a和b了。由于采用的是维基百科的数据,我这里就直接用答案来画出拟合图像:
![线性回归之——最小二乘法](/upload/asset/2cfbd2f5af3b691577361855ebe337110be5991d.png)
```
# -*- coding: utf-8 -*importnumpy as npimportosimportmatplotlib.pyplot as pltdefdrawScatterDiagram(fileName):
# 改变工作路径到数据文件存放的地方os.chdir("d:/workspace_ml")xcord=[];
# ycord=[]fr=open(fileName)forline infr.readlines():lineArr=line.strip().split()xcord.append(float(lineArr[1]));
# ycord.append(float(lineArr[2]))plt.scatter(xcord,ycord,s=30,c='red',marker='s')
# a=0.1965;b=-14.486a=0.1612;b=-8.6394x=np.arange(90.0,250.0,0.1)y=a*x+bplt.plot(x,y)plt.show()
# -*- coding: utf-8 -*
import numpy as np
import os
import matplotlib.pyplot as plt
def drawScatterDiagram(fileName):
#改变工作路径到数据文件存放的地方
os.chdir("d:/workspace_ml")
xcord=[];ycord=[]
fr=open(fileName)
for line in fr.readlines():
lineArr=line.strip().split()
xcord.append(float(lineArr[1]));ycord.append(float(lineArr[2]))
plt.scatter(xcord,ycord,s=30,c='red',marker='s')
#a=0.1965;b=-14.486
a=0.1612;b=-8.6394
x=np.arange(90.0,250.0,0.1)
y=a*x+b
plt.plot(x,y)
plt.show()
```
اعداد و شمار کے فٹ ہونے میں ، ماڈل کی پیرامیٹرز کو بہتر بنانے کے لئے کیوں ماڈل کے پیشن گوئی کے اعداد و شمار کو اصل اعداد و شمار سے فرق کے مربع کی بجائے مطلق اور کم سے کم کی ضرورت ہے؟
اس سوال کا جواب پہلے ہی دیا جا چکا ہے، لنک ملاحظہ کریںhttp://blog.sciencenet.cn/blog-430956-621997.html)
ذاتی طور پر مجھے یہ وضاحت بہت دلچسپ لگتی ہے۔ خاص طور پر اس مفروضے کے بارے میں: تمام نقاط جہاں f (x) سے انحراف ہوتا ہے وہاں شور ہوتا ہے۔
ایک نقطہ کی انحراف جتنی زیادہ ہے، شور اتنا ہی زیادہ ہے، اس نقطہ کے نمودار ہونے کا امکان اتنا ہی کم ہے۔ تو، انحراف کی ڈگری x، نمودار ہونے کے امکانات f (x) کے ساتھ کس تعلق کو پورا کرتی ہے؟
مندرجہ بالا دونوں صورتیں دو جہتی ہیں، یعنی صرف ایک خود متغیر ہے۔ لیکن حقیقی دنیا میں حتمی نتائج پر اثر انداز ہونے والے متعدد عوامل کا ایک اوورلیپ ہوتا ہے، یعنی خود متغیر کے متعدد حالات ہوتے ہیں۔
عام طور پر N میٹرو لکیری افعال کے لئے ، لکیری لکیری الجبر کی لکیری میں الٹ میٹرکس کا استعمال کرتے ہوئے حل کرنا ٹھیک ہے۔ چونکہ مناسب مثالیں فی الحال نہیں مل سکی ہیں ، لہذا یہ بطور ڈائریکٹر یہاں رہ گیا ہے۔
یقیناً، فطرت میں کثیرالاضلاع کے علاوہ، سادہ لکیری کے مقابلے میں، کثیرالاضلاع کا زیادہ ہونا ضروری ہے، جو کہ ایک اعلی درجے کا مواد ہے۔
اصل کام، نقل کی اجازت ہے، نقل کرتے وقت براہ کرم ہائپر لنک کی شکل میں مضمون کی اصل اصل کی نشاندہی کریں ، مصنف کی معلومات اور یہ بیان ؛ ورنہ قانونی ذمہ داری کا پیچھا کریں گے۔http://sbp810050504.blog.51cto.com/2799422/1269572