午夜视频在线网站,日韩视频精品在线,中文字幕精品一区二区三区在线,在线播放精品,1024你懂我懂的旧版人,欧美日韩一级黄色片,一区二区三区在线观看视频

分享

PCA的數(shù)學(xué)原理

 InfoRich 2024-09-13 發(fā)布于上海
PCA(Principal Component Analysis)是一種常用的數(shù)據(jù)分析方法。PCA通過線性變換將原始數(shù)據(jù)變換為一組各維度線性無關(guān)的表示,可用于提取數(shù)據(jù)的主要特征分量,常用于高維數(shù)據(jù)的降維。網(wǎng)上關(guān)于PCA的文章有很多,但是大多數(shù)只描述了PCA的分析過程,而沒有講述其中的原理。這篇文章的目的是介紹PCA的基本數(shù)學(xué)原理,幫助讀者了解PCA的工作機制是什么。
>>>>

當(dāng)然我并不打算把文章寫成純數(shù)學(xué)文章,而是希望用直觀和易懂的方式敘述PCA的數(shù)學(xué)原理,所以整個文章不會引入嚴格的數(shù)學(xué)推導(dǎo)。希望讀者在看完這篇文章后能更好的明白PCA的工作原理。

數(shù)據(jù)的向量表示及降維問題


一般情況下,在數(shù)據(jù)挖掘和機器學(xué)習(xí)中,數(shù)據(jù)被表示為向量。例如某個淘寶店2012年全年的流量及交易情況可以看成一組記錄的集合,其中每一天的數(shù)據(jù)是一條記錄,格式如下:

(日期, 瀏覽量, 訪客數(shù), 下單數(shù), 成交數(shù), 成交金額)

其中“日期”是一個記錄標(biāo)志而非度量值,而數(shù)據(jù)挖掘關(guān)心的大多是度量值,因此如果我們忽略日期這個字段后,我們得到一組記錄,每條記錄可以被表示為一個五維向量,其中一條看起來大約是這個樣子:

Image

注意這里我用了轉(zhuǎn)置,因為習(xí)慣上使用列向量表示一條記錄(后面會看到原因),本文后面也會遵循這個準(zhǔn)則。不過為了方便有時我會省略轉(zhuǎn)置符號,但我們說到向量默認都是指列向量。

我們當(dāng)然可以對這一組五維向量進行分析和挖掘,不過我們知道,很多機器學(xué)習(xí)算法的復(fù)雜度和數(shù)據(jù)的維數(shù)有著密切關(guān)系,甚至與維數(shù)呈指數(shù)級關(guān)聯(lián)。當(dāng)然,這里區(qū)區(qū)五維的數(shù)據(jù),也許還無所謂,但是實際機器學(xué)習(xí)中處理成千上萬甚至幾十萬維的情況也并不罕見,在這種情況下,機器學(xué)習(xí)的資源消耗是不可接受的,因此我們必須對數(shù)據(jù)進行降維。

降維當(dāng)然意味著信息的丟失,不過鑒于實際數(shù)據(jù)本身常常存在的相關(guān)性,我們可以想辦法在降維的同時將信息的損失盡量降低。

舉個例子,假如某學(xué)籍?dāng)?shù)據(jù)有兩列M和F,其中M列的取值是如何此學(xué)生為男性取值1,為女性取值0;而F列是學(xué)生為女性取值1,男性取值0。此時如果我們統(tǒng)計全部學(xué)籍?dāng)?shù)據(jù),會發(fā)現(xiàn)對于任何一條記錄來說,當(dāng)M為1時F必定為0,反之當(dāng)M為0時F必定為1。在這種情況下,我們將M或F去掉實際上沒有任何信息的損失,因為只要保留一列就可以完全還原另一列。

當(dāng)然上面是一個極端的情況,在現(xiàn)實中也許不會出現(xiàn),不過類似的情況還是很常見的。例如上面淘寶店鋪的數(shù)據(jù),從經(jīng)驗我們可以知道,“瀏覽量”和“訪客數(shù)”往往具有較強的相關(guān)關(guān)系,而“下單數(shù)”和“成交數(shù)”也具有較強的相關(guān)關(guān)系。這里我們非正式的使用“相關(guān)關(guān)系”這個詞,可以直觀理解為“當(dāng)某一天這個店鋪的瀏覽量較高(或較低)時,我們應(yīng)該很大程度上認為這天的訪客數(shù)也較高(或較低)”。后面的章節(jié)中我們會給出相關(guān)性的嚴格數(shù)學(xué)定義。

這種情況表明,如果我們刪除瀏覽量或訪客數(shù)其中一個指標(biāo),我們應(yīng)該期待并不會丟失太多信息。因此我們可以刪除一個,以降低機器學(xué)習(xí)算法的復(fù)雜度。

上面給出的是降維的樸素思想描述,可以有助于直觀理解降維的動機和可行性,但并不具有操作指導(dǎo)意義。例如,我們到底刪除哪一列損失的信息才最?。恳嗷蚋静皇菃渭儎h除幾列,而是通過某些變換將原始數(shù)據(jù)變?yōu)楦俚牧械质沟脕G失的信息最?。康降兹绾味攘縼G失信息的多少?如何根據(jù)原始數(shù)據(jù)決定具體的降維操作步驟?

要回答上面的問題,就要對降維問題進行數(shù)學(xué)化和形式化的討論。而PCA是一種具有嚴格數(shù)學(xué)基礎(chǔ)并且已被廣泛采用的降維方法。下面我不會直接描述PCA,而是通過逐步分析問題,讓我們一起重新“發(fā)明”一遍PCA。

向量的表示及基變換


既然我們面對的數(shù)據(jù)被抽象為一組向量,那么下面有必要研究一些向量的數(shù)學(xué)性質(zhì)。而這些數(shù)學(xué)性質(zhì)將成為后續(xù)導(dǎo)出PCA的理論基礎(chǔ)。

內(nèi)積與投影

下面先來看一個高中就學(xué)過的向量運算:內(nèi)積。兩個維數(shù)相同的向量的內(nèi)積被定義為:

Image

內(nèi)積運算將兩個向量映射為一個實數(shù)。其計算方式非常容易理解,但是其意義并不明顯。下面我們分析內(nèi)積的幾何意義。假設(shè)A和B是兩個n維向量,我們知道n維向量可以等價表示為n維空間中的一條從原點發(fā)射的有向線段,為了簡單起見我們假設(shè)A和B均為二維向量,則A=(x1,y1)A=(x1,y1),B=(x2,y2)B=(x2,y2)。則在二維平面上A和B可以用兩條發(fā)自原點的有向線段表示,見下圖:

Image

好,現(xiàn)在我們從A點向B所在直線引一條垂線。我們知道垂線與B的交點叫做A在B上的投影,再設(shè)A與B的夾角是a,則投影的矢量長度為Image其中

Image是向量A的模,也就是A線段的標(biāo)量長度。

注意這里我們專門區(qū)分了矢量長度和標(biāo)量長度,標(biāo)量長度總是大于等于0,值就是線段的長度;而矢量長度可能為負,其絕對值是線段長度,而符號取決于其方向與標(biāo)準(zhǔn)方向相同或相反。

到這里還是看不出內(nèi)積和這東西有什么關(guān)系,不過如果我們將內(nèi)積表示為另一種我們熟悉的形式:

A?B=|A||B|cos(a)

現(xiàn)在事情似乎是有點眉目了:A與B的內(nèi)積等于A到B的投影長度乘以B的模。再進一步,如果我們假設(shè)B的模為1,即讓|B|=1,那么就變成了:

A?B=|A|cos(a)

也就是說,設(shè)向量B的模為1,則A與B的內(nèi)積值等于A向B所在直線投影的矢量長度!這就是內(nèi)積的一種幾何解釋,也是我們得到的第一個重要結(jié)論。在后面的推導(dǎo)中,將反復(fù)使用這個結(jié)論。

下面我們繼續(xù)在二維空間內(nèi)討論向量。上文說過,一個二維向量可以對應(yīng)二維笛卡爾直角坐標(biāo)系中從原點出發(fā)的一個有向線段。例如下面這個向量:

Image

在代數(shù)表示方面,我們經(jīng)常用線段終點的點坐標(biāo)表示向量,例如上面的向量可以表示為(3,2),這是我們再熟悉不過的向量表示。

不過我們常常忽略,只有一個(3,2)本身是不能夠精確表示一個向量的。我們仔細看一下,這里的3實際表示的是向量在x軸上的投影值是3,在y軸上的投影值是2。也就是說我們其實隱式引入了一個定義:以x軸和y軸上正方向長度為1的向量為標(biāo)準(zhǔn)。那么一個向量(3,2)實際是說在x軸投影為3而y軸的投影為2。注意投影是一個矢量,所以可以為負。

更正式的說,向量(x,y)實際上表示線性組合:

Image

不難證明所有二維向量都可以表示為這樣的線性組合。此處(1,0)和(0,1)叫做二維空間中的一組基。

Image

所以,要準(zhǔn)確描述向量,首先要確定一組基,然后給出在基所在的各個直線上的投影值,就可以了。只不過我們經(jīng)常省略第一步,而默認以(1,0)和(0,1)為基。

我們之所以默認選擇(1,0)和(0,1)為基,當(dāng)然是比較方便,因為它們分別是x和y軸正方向上的單位向量,因此就使得二維平面上點坐標(biāo)和向量一一對應(yīng),非常方便。但實際上任何兩個線性無關(guān)的二維向量都可以成為一組基,所謂線性無關(guān)在二維平面內(nèi)可以直觀認為是兩個不在一條直線上的向量。

例如,(1,1)和(-1,1)也可以成為一組基。一般來說,我們希望基的模是1,因為從內(nèi)積的意義可以看到,如果基的模是1,那么就可以方便的用向量點乘基而直接獲得其在新基上的坐標(biāo)了!實際上,對應(yīng)任何一個向量我們總可以找到其同方向上模為1的向量,只要讓兩個分量分別除以模就好了。例如,上面的基可以變?yōu)?/span>Image

現(xiàn)在,我們想獲得(3,2)在新基上的坐標(biāo),即在兩個方向上的投影矢量值,那么根據(jù)內(nèi)積的幾何意義,我們只要分別計算(3,2)和兩個基的內(nèi)積,不難得到新的坐標(biāo)為Image

下圖給出了新的基以及(3,2)在新基上坐標(biāo)值的示意圖:

Image

另外這里要注意的是,我們列舉的例子中基是正交的(即內(nèi)積為0,或直觀說相互垂直),但可以成為一組基的唯一要求就是線性無關(guān),非正交的基也是可以的。不過因為正交基有較好的性質(zhì),所以一般使用的基都是正交的。

基變換的矩陣表示

下面我們找一種簡便的方式來表示基變換。還是拿上面的例子,想一下,將(3,2)變換為新基上的坐標(biāo),就是用(3,2)與第一個基做內(nèi)積運算,作為第一個新的坐標(biāo)分量,然后用(3,2)與第二個基做內(nèi)積運算,作為第二個新坐標(biāo)的分量。實際上,我們可以用矩陣相乘的形式簡潔的表示這個變換:

Image

太漂亮了!其中矩陣的兩行分別為兩個基,乘以原向量,其結(jié)果剛好為新基的坐標(biāo)??梢陨晕⑼茝V一下,如果我們有m個二維向量,只要將二維向量按列排成一個兩行m列矩陣,然后用“基矩陣”乘以這個矩陣,就得到了所有這些向量在新基下的值。例如(1,1),(2,2),(3,3),想變換到剛才那組基上,則可以這樣表示:

Image

于是一組向量的基變換被干凈的表示為矩陣的相乘。

一般的,如果我們有M個N維向量,想將其變換為由R個N維向量表示的新空間中,那么首先將R個基按行組成矩陣A,然后將向量按列組成矩陣B,那么兩矩陣的乘積AB就是變換結(jié)果,其中AB的第m列為A中第m列變換后的結(jié)果。

數(shù)學(xué)表示為:

Image

其中pi是一個行向量,表示第i個基,aj是一個列向量,表示第j個原始數(shù)據(jù)記錄

特別要注意的是,這里R可以小于N,而R決定了變換后數(shù)據(jù)的維數(shù)。也就是說,我們可以將一N維數(shù)據(jù)變換到更低維度的空間中去,變換后的維度取決于基的數(shù)量。因此這種矩陣相乘的表示也可以表示降維變換。

最后,上述分析同時給矩陣相乘找到了一種物理解釋:兩個矩陣相乘的意義是將右邊矩陣中的每一列列向量變換到左邊矩陣中每一行行向量為基所表示的空間中去。更抽象的說,一個矩陣可以表示一種線性變換。很多同學(xué)在學(xué)線性代數(shù)時對矩陣相乘的方法感到奇怪,但是如果明白了矩陣相乘的物理意義,其合理性就一目了然了。

協(xié)方差矩陣及優(yōu)化目標(biāo)


上面我們討論了選擇不同的基可以對同樣一組數(shù)據(jù)給出不同的表示,而且如果基的數(shù)量少于向量本身的維數(shù),則可以達到降維的效果。但是我們還沒有回答一個最最關(guān)鍵的問題:如何選擇基才是最優(yōu)的?;蛘哒f,如果我們有一組N維向量,現(xiàn)在要將其降到K維(K小于N),那么我們應(yīng)該如何選擇K個基才能最大程度保留原有的信息?

要完全數(shù)學(xué)化這個問題非常繁雜,這里我們用一種非形式化的直觀方法來看這個問題。

為了避免過于抽象的討論,我們?nèi)砸砸粋€具體的例子展開。假設(shè)我們的數(shù)據(jù)由五條記錄組成,將它們表示成矩陣形式:

Image

其中每一列為一條數(shù)據(jù)記錄,而一行為一個字段。為了后續(xù)處理方便,我們首先將每個字段內(nèi)所有值都減去字段均值,其結(jié)果是將每個字段都變?yōu)榫禐?(這樣做的道理和好處后面會看到)。

我們看上面的數(shù)據(jù),第一個字段均值為2,第二個字段均值為3,所以變換后:

Image

我們可以看下五條數(shù)據(jù)在平面直角坐標(biāo)系內(nèi)的樣子:

Image

現(xiàn)在問題來了:如果我們必須使用一維來表示這些數(shù)據(jù),又希望盡量保留原始的信息,你要如何選擇?

通過上一節(jié)對基變換的討論我們知道,這個問題實際上是要在二維平面中選擇一個方向,將所有數(shù)據(jù)都投影到這個方向所在直線上,用投影值表示原始記錄。這是一個實際的二維降到一維的問題。

那么如何選擇這個方向(或者說基)才能盡量保留最多的原始信息呢?一種直觀的看法是:希望投影后的投影值盡可能分散。

以上圖為例,可以看出如果向x軸投影,那么最左邊的兩個點會重疊在一起,中間的兩個點也會重疊在一起,于是本身四個各不相同的二維點投影后只剩下兩個不同的值了,這是一種嚴重的信息丟失,同理,如果向y軸投影最上面的兩個點和分布在x軸上的兩個點也會重疊。所以看來x和y軸都不是最好的投影選擇。我們直觀目測,如果向通過第一象限和第三象限的斜線投影,則五個點在投影后還是可以區(qū)分的。

下面,我們用數(shù)學(xué)方法表述這個問題。

方差

上文說到,我們希望投影后投影值盡可能分散,而這種分散程度,可以用數(shù)學(xué)上的方差來表述。此處,一個字段的方差可以看做是每個元素與字段均值的差的平方和的均值,即:

Image

由于上面我們已經(jīng)將每個字段的均值都化為0了,因此方差可以直接用每個元素的平方和除以元素個數(shù)表示:

Image

于是上面的問題被形式化表述為:尋找一個一維基,使得所有數(shù)據(jù)變換為這個基上的坐標(biāo)表示后,方差值最大。

協(xié)方差

對于上面二維降成一維的問題來說,找到那個使得方差最大的方向就可以了。不過對于更高維,還有一個問題需要解決??紤]三維降到二維問題。與之前相同,首先我們希望找到一個方向使得投影后方差最大,這樣就完成了第一個方向的選擇,繼而我們選擇第二個投影方向。

如果我們還是單純只選擇方差最大的方向,很明顯,這個方向與第一個方向應(yīng)該是“幾乎重合在一起”,顯然這樣的維度是沒有用的,因此,應(yīng)該有其他約束條件。從直觀上說,讓兩個字段盡可能表示更多的原始信息,我們是不希望它們之間存在(線性)相關(guān)性的,因為相關(guān)性意味著兩個字段不是完全獨立,必然存在重復(fù)表示的信息。

數(shù)學(xué)上可以用兩個字段的協(xié)方差表示其相關(guān)性,由于已經(jīng)讓每個字段均值為0,則:

Image

可以看到,在字段均值為0的情況下,兩個字段的協(xié)方差簡潔的表示為其內(nèi)積除以元素數(shù)m。

當(dāng)協(xié)方差為0時,表示兩個字段完全獨立。為了讓協(xié)方差為0,我們選擇第二個基時只能在與第一個基正交的方向上選擇。因此最終選擇的兩個方向一定是正交的。

至此,我們得到了降維問題的優(yōu)化目標(biāo):將一組N維向量降為K維(K大于0,小于N),其目標(biāo)是選擇K個單位(模為1)正交基,使得原始數(shù)據(jù)變換到這組基上后,各字段兩兩間協(xié)方差為0,而字段的方差則盡可能大(在正交的約束下,取最大的K個方差)。

協(xié)方差矩陣

上面我們導(dǎo)出了優(yōu)化目標(biāo),但是這個目標(biāo)似乎不能直接作為操作指南(或者說算法),因為它只說要什么,但根本沒有說怎么做。所以我們要繼續(xù)在數(shù)學(xué)上研究計算方案。

我們看到,最終要達到的目的與字段內(nèi)方差及字段間協(xié)方差有密切關(guān)系。因此我們希望能將兩者統(tǒng)一表示,仔細觀察發(fā)現(xiàn),兩者均可以表示為內(nèi)積的形式,而內(nèi)積又與矩陣相乘密切相關(guān)。于是我們來了靈感:

假設(shè)我們只有a和b兩個字段,那么我們將它們按行組成矩陣X:

Image

然后我們用X乘以X的轉(zhuǎn)置,并乘上系數(shù)1/m:

Image

奇跡出現(xiàn)了!這個矩陣對角線上的兩個元素分別是兩個字段的方差,而其它元素是a和b的協(xié)方差。兩者被統(tǒng)一到了一個矩陣的。

根據(jù)矩陣相乘的運算法則,這個結(jié)論很容易被推廣到一般情況:

設(shè)我們有m個n維數(shù)據(jù)記錄,將其按列排成n乘m的矩陣X,設(shè)Image

則C是一個對稱矩陣,其對角線分別個各個字段的方差,而第i行j列和j行i列元素相同,表示i和j兩個字段的協(xié)方差。

協(xié)方差矩陣對角化

根據(jù)上述推導(dǎo),我們發(fā)現(xiàn)要達到優(yōu)化目前,等價于將協(xié)方差矩陣對角化:即除對角線外的其它元素化為0,并且在對角線上將元素按大小從上到下排列,這樣我們就達到了優(yōu)化目的。這樣說可能還不是很明晰,我們進一步看下原矩陣與基變換后矩陣協(xié)方差矩陣的關(guān)系:

設(shè)原始數(shù)據(jù)矩陣X對應(yīng)的協(xié)方差矩陣為C,而P是一組基按行組成的

矩陣,設(shè)Y=PX,則Y為X對P做基變換后的數(shù)據(jù)。設(shè)Y的協(xié)方差矩陣為D,我們推導(dǎo)一下D與C的關(guān)系:

Image

現(xiàn)在事情很明白了!我們要找的P不是別的,而是能讓原始協(xié)方差矩陣對角化的P。換句話說,優(yōu)化目標(biāo)變成了尋找一個矩陣P,Image滿足 是一個對角矩陣,并且對角元素按從大到小依次排列,那么P的前K行就是要尋找的基,用P的前K行組成的矩陣乘以X就使得X從N維降到了K維并滿足上述優(yōu)化條件。

至此,我們離“發(fā)明”PCA還有僅一步之遙!

現(xiàn)在所有焦點都聚焦在了協(xié)方差矩陣對角化問題上,有時,我們真應(yīng)該感謝數(shù)學(xué)家的先行,因為矩陣對角化在線性代數(shù)領(lǐng)域已經(jīng)屬于被玩爛了的東西,所以這在數(shù)學(xué)上根本不是問題。

由上文知道,協(xié)方差矩陣C是一個是對稱矩陣,在線性代數(shù)上,實對稱矩陣有一系列非常好的性質(zhì):

1)實對稱矩陣不同特征值對應(yīng)的特征向量必然正交。

2)設(shè)特征向量λ重數(shù)為r,則必然存在r個線性無關(guān)的特征向量對應(yīng)于λλ,因此可以將這r個特征向量單位正交化。

由上面兩條可知,一個n行n列的實對稱矩陣一定可以找到n個單位正交特征向量,設(shè)這n個特征向量為e1,e2,?,en,我們將其按列組成矩陣:

Image

則對協(xié)方差矩陣C有如下結(jié)論:

Image

其中Λ為對角矩陣,其對角元素為各特征向量對應(yīng)的特征值(可能有重復(fù))。

以上結(jié)論不再給出嚴格的數(shù)學(xué)證明,對證明感興趣的朋友可以參考線性代數(shù)書籍關(guān)于“實對稱矩陣對角化”的內(nèi)容。

到這里,我們發(fā)現(xiàn)我們已經(jīng)找到了需要的矩陣P:

Image

P是協(xié)方差矩陣的特征向量單位化后按行排列出的矩陣,其中每一行都是C的一個特征向量。如果設(shè)P按照Λ中特征值的從大到小,將特征向量從上到下排列,則用P的前K行組成的矩陣乘以原始數(shù)據(jù)矩陣X,就得到了我們需要的降維后的數(shù)據(jù)矩陣Y。

至此我們完成了整個PCA的數(shù)學(xué)原理討論。在下面的一節(jié),我們將給出PCA的一個實例。

算法及實例


為了鞏固上面的理論,我們在這一節(jié)給出一個具體的PCA實例。

PCA算法

總結(jié)一下PCA的算法步驟:

設(shè)有m條n維數(shù)據(jù)。

1)將原始數(shù)據(jù)按列組成n行m列矩陣X

2)將X的每一行(代表一個屬性字段)進行零均值化,即減去這一行的均值

3)求出協(xié)方差矩陣Image

4)求出協(xié)方差矩陣的特征值及對應(yīng)的特征向量

5)將特征向量按對應(yīng)特征值大小從上到下按行排列成矩陣,取前k行組成矩陣P

6)Y=PX即為降維到k維后的數(shù)據(jù)

實例

這里是上文提到的

Image

為例,我們用PCA方法將這組二維數(shù)據(jù)其降到一維。

因為這個矩陣的每行已經(jīng)是零均值,這里我們直接求協(xié)方差矩陣:

Image

然后求其特征值和特征向量,具體求解方法不再詳述,可以參考相關(guān)資料。求解后特征值為:

Image

其對應(yīng)的特征向量分別是:

Image

其中對應(yīng)的特征向量分別是一個通解,c1c1和c2c2可取任意實數(shù)。那么標(biāo)準(zhǔn)化后的特征向量為:

Image

因此我們的矩陣P是:

Image

可以驗證協(xié)方差矩陣C的對角化:

Image

最后我們用P的第一行乘以數(shù)據(jù)矩陣,就得到了降維后的表示:

Image

降維投影結(jié)果如下圖:

Image

進一步討論


根據(jù)上面對PCA的數(shù)學(xué)原理的解釋,我們可以了解到一些PCA的能力和限制。PCA本質(zhì)上是將方差最大的方向作為主要特征,并且在各個正交方向上將數(shù)據(jù)“離相關(guān)”,也就是讓它們在不同正交方向上沒有相關(guān)性。


因此,PCA也存在一些限制,例如它可以很好的解除線性相關(guān),但是對于高階相關(guān)性就沒有辦法了,對于存在高階相關(guān)性的數(shù)據(jù),可以考慮Kernel PCA,通過Kernel函數(shù)將非線性相關(guān)轉(zhuǎn)為線性相關(guān),關(guān)于這點就不展開討論了。另外,PCA假設(shè)數(shù)據(jù)各主特征是分布在正交方向上,如果在非正交方向上存在幾個方差較大的方向,PCA的效果就大打折扣了。

最后需要說明的是,PCA是一種無參數(shù)技術(shù),也就是說面對同樣的數(shù)據(jù),如果不考慮清洗,誰來做結(jié)果都一樣,沒有主觀參數(shù)的介入,所以PCA便于通用實現(xiàn),但是本身無法個性化的優(yōu)化。

希望這篇文章能幫助朋友們了解PCA的數(shù)學(xué)理論基礎(chǔ)和實現(xiàn)原理,借此了解PCA的適用場景和限制,從而更好的使用這個算法。 

來源:算法數(shù)學(xué)俱樂部,編輯:nhyilin

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多