當(dāng)前位置:財(cái)稅問(wèn)題 >
實(shí)務(wù)
問(wèn)題已解決
你好,請(qǐng)問(wèn)答案中的公式原理是什么?
溫馨提示:如果以上題目與您遇到的情況不符,可直接提問(wèn),隨時(shí)問(wèn)隨時(shí)答
速問(wèn)速答答案中的公式原理是香農(nóng)信息熵(Shannon Entropy),它可用來(lái)度量隨機(jī)變量的不確定性。香農(nóng)信息熵可以用來(lái)衡量任何一種系統(tǒng)的復(fù)雜性,從而預(yù)測(cè)其中的模式和預(yù)測(cè)性。它是通過(guò)計(jì)算系統(tǒng)的所有可能狀態(tài),來(lái)衡量系統(tǒng)的不確定性的。其公式為:
H(X)=-Σi=1Np(xi)logp(xi)
其中,H(X)是熵(entropy)的意思,p(xi)是每個(gè)隨機(jī)變量xi的概率,N是變量的總數(shù),log是以2為底的對(duì)數(shù)函數(shù)。
應(yīng)用:香農(nóng)信息熵可以用于許多領(lǐng)域,例如機(jī)器學(xué)習(xí),數(shù)據(jù)挖掘,壓縮,生物信息學(xué)等。在機(jī)器學(xué)習(xí)中,它可以用來(lái)度量未知變量的熵,在壓縮領(lǐng)域,它可以度量壓縮的效率等。
拓展:此外,還可以使用復(fù)香農(nóng)熵( Joint Entropy)來(lái)度量多個(gè)隨機(jī)變量之間的依賴(lài)性,其公式為:
H(X,Y)=–Σi=1N Σj=1Mp(xi,yj)logp(xi,yj)
其中,H(X,Y)是復(fù)香農(nóng)熵,N和M分別表示X和Y的變量數(shù),p(xi,yj)是X和Y的聯(lián)合概率。
2023 01/10 18:27
閱讀 192