信息熵是信息论中的一个重要概念.设随机变量 X所有可能的取值为 1 , 2 , ⋯ , n ,且 P ( X = i ) = p i > 0 ( i = 1 , 2 , ⋯ , n ) , ∑ i = 1 n p i = 1 ,定义 X的信息熵 H ( X ) = - ∑ i = 1 n p i log 2 p i .( )
若n=1,则H(X)=0
若n=2,则H(X)随着 p 1 的增大而增大
若 p i = 1 n ( i = 1 , 2 , ⋯ , n ) ,则H(X)随着n的增大而增大
若n=2m,随机变量Y所有可能的取值为 1 , 2 , ⋯ , m ,且 P ( Y = j ) = p j + p 2 m + 1 - j ( j = 1 , 2 , ⋯ , m ) ,则H(X)≤H(Y)
已知命题函数是增函数,命题,的导数大于0,那么 ( )
已知函数的导函数为,那么“”是“是函数的一个极值点”的( )
已知双曲线的两条渐近线方程为,那么此双曲线的虚轴长为()
直线与圆相交所得的弦的长为()
若直线与直线平行,则实数( )