一、愛因斯坦的四維空間
首先是四維時空不是四維空間
另外在一般性的彎曲四維時空中不存在平移不變性或者你說的對稱性
但是在一些特定的宇宙模型中是存在的,比如愛因斯坦本人提出的S3超球模型就是一個球?qū)ΨQ的宇宙
二、如何進(jìn)行邏輯回歸 累積概率密度
謂LR分類器(Logistic Regression Classifier),并沒有什么神秘的。在分類的情形下,經(jīng)過學(xué)習(xí)之后的LR分類器其實就是一組權(quán)值w0,w1,...,wm.
當(dāng)測試樣本集中的測試數(shù)據(jù)來到時,這一組權(quán)值按照與測試數(shù)據(jù)線性加和的方式,求出一個z值:
z = w0+w1*x1+w2*x2+...+wm*xm。 ① (其中x1,x2,...,xm是某樣本數(shù)據(jù)的各個特征,維度為m)
之后按照sigmoid函數(shù)的形式求出:
σ(z) = 1 / (1+exp(z)) 。②
由于sigmoid函數(shù)的定義域是(-INF, +INF),而值域為(0, 1)。因此最基本的LR分類器適合于對兩類目標(biāo)進(jìn)行分類。
那么LR分類器的這一組權(quán)值w0,w1,...,wm是如何求得的呢?這就需要涉及到極大似然估計MLE和優(yōu)化算法的概念了。
我們將sigmoid函數(shù)看成樣本數(shù)據(jù)的概率密度函數(shù),每一個樣本點,都可以通過上述的公式①和②計算出其概率密度
詳細(xì)描述
1.邏輯回歸模型
1.1邏輯回歸模型
考慮具有p個獨立變量的向量,設(shè)條件概率為根據(jù)觀測量相對于某事件發(fā)生的概率。邏輯回歸模型可表示為
(1.1)
上式右側(cè)形式的函數(shù)稱為稱為邏輯函數(shù)。下圖給出其函數(shù)圖象形式。
其中。如果含有名義變量,則將其變?yōu)閐ummy變量。一個具有k個取值的名義變量,將變?yōu)閗-1個dummy變量。這樣,有
(1.2)
定義不發(fā)生事件的條件概率為
(1.3)
那么,事件發(fā)生與事件不發(fā)生的概率之比為
(1.4)
這個比值稱為事件的發(fā)生比(the odds of experiencing an event),簡稱為odds。因為0<1,故odds>0。對odds取對數(shù),即得到線性函數(shù),
(1.5),
1.2極大似然函數(shù)
假設(shè)有n個觀測樣本,觀測值分別為設(shè)為給定條件下得到y(tǒng)i=1(原文)的概率。在同樣條件下得到y(tǒng)i=0()的條件概率為。于是,得到一個觀測值的概率為
(1.6) -----此公式實際上是綜合前兩個等式得出,并無特別之處
因為各項觀測獨立,所以它們的聯(lián)合分布可以表示為各邊際分布的乘積。
上式稱為n個觀測的似然函數(shù)。我們的目標(biāo)是能夠求出使這一似然函數(shù)的值最大的參數(shù)估計。于是,最大似然估計的關(guān)鍵就是求出參數(shù),使上式取得最大值。
對上述函數(shù)求對數(shù)
(1.8)
上式稱為對數(shù)似然函數(shù)。為了估計能使取得最大的參數(shù)的值。
對此函數(shù)求導(dǎo),得到p+1個似然方程。
(1.9)
,j=1,2,..,p.-----p為獨立向量個數(shù)
上式稱為似然方程。為了解上述非線性方程,應(yīng)用牛頓-拉斐森(Newton-Raphson)方法進(jìn)行迭代求解。
1.3 牛頓-拉斐森迭代法
對求二階偏導(dǎo)數(shù),即Hessian矩陣為
(1.10)
如果寫成矩陣形式,以H表示Hessian矩陣,X表示
(1.11)
令
(1.12)
則。再令(注:前一個矩陣需轉(zhuǎn)置),即似然方程的矩陣形式。
三、美國心理學(xué)家l迦納把人的潛在智能分為哪七個類型?
?
美國迦納博士提出人至少有8項智能:
1.語文2.數(shù)理邏輯3.空間4.音樂5.肢體動覺6.人際7.內(nèi)省8.自然觀察