一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。

题目

一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。

如果没有搜索结果或未解决您的问题,请直接 联系老师 获取答案。
相似问题和答案

第1题:

某信源由A、B、C和D四个符号组成,设每个符号独立等概出现。


参考答案:

第2题:

假设信源是由q个离散符号S1,S2,…,Si…,sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足ΣP(Si)=1。那么符号Si含有的信息量I(Si)等于(38),单位是(39)。

A.-logqP(Si)

B.logqP(Si)

C.-log2P(Si)

D.log2P(Si)


正确答案:C

第3题:

作为元素系统,若每个元素出现的概率相等,则为无序状态,这时符号熵被称为( )。

A.高熵

B.低熵

C.最小熵

D.最大熵


正确答案:D

第4题:

如果在已知发送独立的符号中,符号“E”出现的概率为0.125,则符号“E”所包含的信息量为()。

A.1bit
B.2bit
C.3bit
D.4bit

答案:C
解析:

第5题:

假设信源是由q个离散符号S1,S2,…,S1…,Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足∑P(Si)=1。那么符号 Si含有的信息量I(si)等于(31),单位是(32)。

A.-logqP(Si)

B.logqP(Si)

C.-log2P(Si)

D.log2P(Si)


正确答案:C
解析:信息与“不确定性”紧密相关,是对于接收者来说事先不知道的消息。在有效的通信中,信源将要发送的信号是不确定的,接收者在接收到信号后不确定性减小或消失,那么接收者从不知到知而获得信息。信息量的定义如下:假设信源是由q个离散符号S1,S2,…,Si…,Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足∑P(Si)=1。那么符号 Si含有的信息量I(Si)等于log2(1/P(Si)),单位为比特(bit),而1bit等于大概二元制信源每一个符号的信息量。直观上可以理解为信号出现的概率越小,信息量就越大,信号出现的概率越大,信息量就越小,如果信号出现的概率是1(没有任何不确定性),信息量就是0。将信息的测度纳入概率的范畴,符合人们对信息量的理解。

第6题:

设一离散无记忆信源的输出由四种不同的符号组成,它们出现的概率分别为1/2、1/4、1/8、1/8。

(1)此信源平均每个符号包含的信息熵多大?

(2)若信源每隔10毫秒发出一个符号,那么此信源平均每秒输出的信息量为多少?


参考答案:(1)此信源平均每个符号包含的信息熵为:

(2)若信源每隔10ms发出一个符号,则每秒能否发送100个符号,此信源平均每秒输出的信息量为175bps。

第7题:

假设信源是由q个离散符号S1,S2,…,Si,…Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号出现的概率为P(Si),并满足∑P(Si)=1。那么符号Si含有的信息量I(Si)等于( ),单位是( )

A. –logq P(Si)

B. logq P(Si)

C. -log2 P(Si)

D. log2 P(Si)@@@SXB@@@A.比特

B.信息熵

C. dB

D.无单位


正确答案:C,A

第8题:

符号集a、b、c、d,它们相互独立,相应概率为1/2、1/4、1/8/、1/16,其中包含信息量最小的符号是()

A.a

B.b

C.c

D.d


正确答案:A

第9题:

作为元素系统,若每个元素出现的概率相等,则为无序状态,这时符号熵被称为( )。


正确答案:D

第10题:

离散信源输出4个不同符号,若各符号概率分别为1/2,1/4,1/8,1/8,则该信源的熵为()。

A.1.5bit/sign
B.1.875bit/sign
C.1.75bit/sign
D.1bit/sign

答案:C
解析:

更多相关问题