文档库 最新最全的文档下载
当前位置:文档库 › 信息论概念复习1

信息论概念复习1

信息论概念复习1
信息论概念复习1

信息论概念复习题

一、填空

1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 信息的 可度量性 是建立信息论的基础。 统计度量 是信息度量最常用的方法。 熵 是香农信息论最基本最重要的概念。

事物的不确定度是用时间统计发生 概率的对数 来描述的。

7、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 8、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。

9、自信息量的单位一般有 比特、奈特和哈特 。 10、必然事件的自信息是 0 。

11、不可能事件的自信息量是 ∞ 。

12、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。

13、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。

14、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。

15、离散平稳有记忆信源的极限熵,

=∞H )

/(lim 1

21-∞→N N

N X

X X X H 。

16、对于n 元m 阶马尔可夫信源,其状态空间共有 nm 个不同的状态。

17、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log2(b-a ) 。

18、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续 信道。 19、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 无记忆 信道。 20、具有一一对应关系的无噪信道的信道容量C= log2n 。

21、对称信道的信道容量C= log2m-Hmi 。

22、对于离散无记忆信道和信源的N 次扩展,其信道容量CN= NC 。

24、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是 信息率小于信道容量 。

25、信息率失真理论是量化、数模转换、频带压缩和 数据压缩 的理论基础。

26、求解率失真函数的问题,即:在给定失真度的情况下,求信息率的 极小值 。

27、单符号的失真度或失真函数d (xi ,yj )表示信源发出一个符号xi ,信宿再现yj 所引起的 误差或失真 。

28、汉明失真函数 d (xi ,yj )=?

??≠=j

i j i 1

0 。

29、如果规定平均失真度D 不能超过某一限定的值D ,即:D D ≤。我们把D D ≤称为 保真度准则 。 30

试验信道的集合用PD 来表示,则PD=

{}m

j n i D D x y

p i j

,,2,1,,,2,1;:)/( ==≤ 。

31、信息率失真函数,简称为率失真函数,即:试验信道中的平均互信息量的 最小值 。 32、平均失真度的上限Dmax 取{Dj :j=1,2,···,m}中的 最小值 。 33、率失真函数对允许的平均失真度是 单调递减和连续的 。

34、当失真度大于平均失真度的上限时Dmax 时,率失真函数R (D )= 0 。 35、信源编码的目的是: 提高通信的有效性 。

36、设无记忆二元序列中,“0”和“1”的概率分别是p0和p1,则“0”游程长度L (0)的概率为

1

1

)0(0

)]0([p p L p L -= 。

37、信道编码的最终目的是 提高信号传输的可靠性 。 38、BSC 信道即:无记忆二进制对称信道 。

39、任意两个码字之间的最小汉明距离有称为码的最小距dmin ,则dmin=

)

',(min '

c c

d c c ≠。

40. 若失真矩阵为

1

310d ??

=?

?

??

,若输入等概,则对应的m D ax = 1 ,

max R (D )

= 0 。

41. 若二元一阶平稳马氏源的符号转移概率为21|1(1|0)3X X p =

21|1(1|1)3X X p =

,那么

符号的平稳分布为

=)0(X p 2/3 ,=)1(X p 1/3 ;信源的符号熵为 0.918 比特/符号,信源的剩余度为0.082 。

信息分为三个基本层次,即语法信息 、语义信息、语用信息,其中,香农信息论所研究的信息是语法信息中的概率信息。

对于无记忆二元对称信道,最大似然准则等价于最小汉明距离准则。 Huffman 编码是信源的最优编码。(填“是”或“不是”) 熵是信源平均不确定性的量度。

若信源的熵为H(X),信源序列长度为N ,则典型序列出现概率约为()

2NH X - ,数目近

似为()

2

NH X 。

如果以2为底,自信息的单位为 比特 ,信息熵的单位为 比特/符号 ,信道容量的单位为 比特/符号 。

如果某信源S 存在一个符号,其出现概率为1,则该信源的熵为 0 。

已知离散无记忆信源的概率分布为:p(a1)=1/4,p(a2)=3/4,则其二次扩展信源的概率分布为 p(a1a1)=1/16 、 p(a1a2)=3/16 、 p(a2a1)=3/16 、 p(a2a2)=9/16 ,熵为 1.6226比特/符号 。

满足Kraft 不等式是异前置码存在的 充要 条件;满足Kraft 不等式是一个码为唯一可译码的 必要 条件。(填写“充分”、“必要”或“充要”) 信源信道编码定理:设有一离散无记忆平稳信道的每秒容量为C ,一个离散信源每秒的熵为H ,那么,如果 HC 时,对任何编码系统,译码差错率p>0。

一个典型的通信系统主要由信源、编码器、信道、译码器和信宿五个部分组成。

通信系统的3个性能指标分别是:传输的有效性、传输的可靠性、传输的安全性 。 根据熵的链规则,H(X, Y , Z)可以分解为H(X)+H(Y|X)+H(Z|XY)。 设信源符号集为12{,,,}

q s s s =S ,码符号集为

12{,,,}

r x x x =X ,对信源进行编码,得

到的码为

12{,,,}

q C ωωω= ,码长分别为

12,,,q

l l l ,即时码存在的充要条件是

1

1

i

q

l i r

-=≤∑。

信源在某时刻发出的符号仅与此之前发出的有限个符号有关,而与更早些时候发出的符号无关,这一性质称为马尔可夫性。

有噪信道编码定理:设有一离散无记忆平稳信道的容量为C ,则只要信息传输速率R 满足RC 时,对任何编码方式,译码差错率大于零。

二、判断

1. 非奇异的定长码是唯一可译码 (√)

2. 信源编码可以提高信息传输的有效性 (√)

3. 连续信源和离散信源的平均互信息都具有非负性 (√)

4. 离散级联信道的容量一定小于构成级联信道的每个子信道的容量 (╳)

5. 当信道输入独立等概率时,信道疑义度达到最大值。 (╳) 互信息是非负的。 (×)

在信息处理过程中熵不会增加; (√)

信息率失真函确定了在满足失真度的条件下所必需传送的最大信息量; (×) 对于离散对称信道,当输入等概率时达到信道容量。 (√) 最优码就是平均码长等于信源熵的编码; (×) 最大后验概率准则与最大似然准则是等价的; (×)

只要信息的传输速率小于信道容量,就一定可以找到一种编码方式,可以使传输差错任意小; (√)

离散信源N 次扩展之后的熵,是原来信源熵的N 倍。 (×) 14. R (D )函数是关于D 的下凸函数 (√) 15.最大后验概率准则与最大似然准则是等价的; (×) 必然事件和不可能事件的自信息量都是0 。错 自信息量是

)

(i x p 的单调递减函数。对

单符号离散信源的自信息和信源熵都具有非负性。对 单符号离散信源的自信息和信源熵都是一个确定值。错

单符号离散信源的联合自信息量和条件自信息量都是非负的和单调递减的。对 自信息量、条件自信息量和联合自信息量之间有如下关系:

)

/()()/()()(j i j i j i j i y x I y I x y I x I y x I +=+= 对

自信息量、条件自信息量和互信息量之间有如下关系:

)

/()()/()();(i j j j i i j i x y I y I y x I x I y x I -=-= 对

当随即变量X 和Y 相互独立时,条件熵等于信源熵。对

当随即变量X 和Y 相互独立时,I (X ;Y )=H (X ) 。错 25、信源熵具有严格的下凸性。错

26、平均互信息量I (X ;Y )对于信源概率分布p (xi )和条件概率分布p (yj/xi )都具有凸函数性。 对

27、m 阶马尔可夫信源和消息长度为m 的有记忆信源,其所含符号的依赖关系相同。 错 28、利用状态极限概率和状态一步转移概率来求m 阶马尔可夫信源的极限熵。 对 29、定长编码的效率一般小于不定长编码的效率。 对 30、若对一离散信源(熵为H (X ))进行二进制无失真编码,设定长码子长度为K ,变长码子平均长度为K ,一般K >K 。 错

31、信道容量C 是I (X ;Y )关于p (xi )的条件极大值。 对

32、离散无噪信道的信道容量等于log2n ,其中n 是信源X 的消息个数。 错

33、对于准对称信道,当

m y p j 1

)(

时,可达到信道容量C 。错

34、信道无失真传递信息的条件是信息率小于信道容量。对

35、最大信息传输速率,即:选择某一信源的概率分布(p (xi )),使信道所能传送的信息率的最大值。 错

36、求解率失真函数的问题,即:在给定失真度的情况下,求信息率的极小值。对 37、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小。 错 38、当p (xi )、p (yj/xi )和d (xi ,yj )给定后,平均失真度是一个随即变量。 错 39、率失真函数对允许的平均失真度具有上凸性。对 40、率失真函数没有最大值。 错

41、率失真函数的最小值是0 。对

42、率失真函数的值与信源的输入概率无关。错

43、信源编码是提高通信有效性为目的的编码。 对

44、信源编码通常是通过压缩信源的冗余度来实现的。 对

45、离散信源或数字信号的信源编码的理论基础是限失真信源编码定理。 错

46、一般情况下,哈夫曼编码的效率大于香农编码和费诺编码。 对

47、在编m (m>2)进制的哈夫曼码时,要考虑是否需要增加概率为0的码字,以使平均码长最短。 对

三、简答

简述通信系统的基本模块及其作用? 狭义信息论?

简述自信息的性质。

简述信源熵的基本性质。

简述信源熵、条件熵、联合熵和互信息量之间的关系。 信道的分类方法有哪些?

7、简述信道编码定理。

8、简述信息率失真函数的性质。

9、试比较信道容量与信息率失真函数。

信息论编码》模拟试题一及参考答案

模拟试题一 一、概念简答题(共10题,每题5分) 1.简述离散信源和连续信源的最大熵定理。 2.什么是平均自信息(信息熵)?什么是平均互信息?比较一下两个概念的异同之处。 3.解释等长信源编码定理和无失真变长信源编码定理,说明对于等长码和变长码,最佳码的每符号平均码长最小为多少?编码效率最高可达多少? 4.解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。 5.设某二元码字C={111000,001011,010110,101110}, ①假设码字等概率分布,计算此码的编码效率? ②采用最小距离译码准则,当接收序列为110110时,应译成什么码字? 6.一平稳二元信源,它在任意时间,不论以前发出过什么符号,都按 发出符号,求

和平均符号熵 7.分别说明信源的概率分布和信道转移概率对平均互信息的影响,说明平均互信息与信道容量的关系。 8.二元无记忆信源,有求: (1)某一信源序列由100个二元符号组成,其中有m个“1”,求其自信息量?

(2)求100个符号构成的信源序列的熵。 9.求以下三个信道的信道容量: , ,10.已知一(3,1,3)卷积码编码器,输入输出关系为:

试给出其编码原理框图。 二、综合题(共5题,每题10分) 1.二元平稳马氏链,已知P(0/0)=0.9,P(1/1)=0.8,求: (1)求该马氏信源的符号熵。 (2)每三个符号合成一个来编二进制Huffman码,试建立新信源的模型,给出编码结果。 (3)求每符号对应的平均码长和编码效率。 2.设有一离散信道,其信道矩阵为,求:(1)最佳概率分布?

信息论试题1

《信息论基础》答案 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X,其概率分布为 123 x x x X 111 P 244 ?? ?? ? = ?? ? ?? ?? ,其信源剩余度为94.64%;若 对该信源进行十次扩展,则每十个符号的平均信息量是15bit。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b,最小瞬时电压为a。若消息从放大器中输出,则该信源的绝对熵是∞;其能在每个自由度熵的最大熵是log(b-a)bit/自由度;若放大器的最高频率为F,则单位时间内输出的最大信息量是2Flog (b-a)bit/s. 5.若某一信源X,其平均功率受限为16w,其概率密度函数是高斯分布时,差熵 的最大值为1 log32e 2 π;与其熵相等的非高斯分布信源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r(S))。 8、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,, =≥≤?”或“?” (1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)。 (2)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论考题及答案

一、(25分)如果X 和Y 相互独立,证明X 和Y 的熵满足可加性,即 H(Y)H(X)Y)H(X,+= 证明:设P(x,y)=P(x)P(y),则有 1 H(X,Y)()()log P()()11()()log ()()log ()()11()log ()log ()() ()() xy xy xy x y P x P y x P y P x P y P x P y P x P y P x P y P x P y H X H Y ==+=+=+∑∑∑∑∑ 二、(50分)联合总体X ,Y 具有如下联合分布。 X Y 分别计算 (1) 联合熵H(X,Y)是多少? (2)边缘熵H(X)和H(Y)是多少? (3)对于每一个y 值,条件熵H(X ︱y)是多少? (4)条件熵H(X ︱Y)是多少? (5)X 和Y 之间的互信息是多少? 解答:(1) H(X,Y)=3.375 (2) H(X)=2, H(Y)=1.75 (3) H(X|y=1)=2,H(X|y=1)=1.875,H(X|y=1)=1.875, H(X|y=4)=0.5 (4)H(X|Y)=1.1264 (5)I(X;Y)=H(X)-H(X|Y)=2-1.1264=0.8736 三、(25分)考虑一个差错概率为f=0.15的二进制对称信道。输入总体为x Ω:{0P =0.9,1p =0.1},假设观察到y=1,请计算(1|1)P x y ==? 解: (1|1)P x y === (1|1)(1) (1|)() x P y x P x P y x P x ===∑= = 9.015.01.085.01 .085.0?+?? =22 .0085 .0=0.39

信息论测试题及答案

一、设X 、Y 就是两个相互统计独立的二元随机变量,其取-1或1的概率相等。定义另一个二元随机变量Z,取Z=YX(一般乘积)。试计算: 1、H(Y)、H(Z); 2、H(YZ); 3、I(X;Y)、I(Y;Z); 二、如图所示为一个三状态马尔科夫信源的转移概率矩阵 1. 绘制状态转移图; 2、 求该马尔科夫信源的稳态分布; 3、 求极限熵 ; 三、在干扰离散对称信道上传输符号1与0,已知P(0)=1/4,P(1)=3/4,试求: 1. 信道转移概率矩阵P 2、信道疑义度 3、信道容量以及其输入概率分布 四、某信道的转移矩阵?? ????=1.006.03.001.03.06.0P ,求信道容量,最佳输入概率分布。 五、求下列各离散信道的容量(其条件概率P(Y/X)如下 :) 六、求以下各信道矩阵代表的信道的容量

答案 一、设X 、Y 就是两个相互统计独立的二元随机变量,其取-1或1的概率相等。定义另一个二元随机变量Z,取Z=YX(一般乘积)。试计算: 1、H(Y)、H(Z); 2、H(XY)、H(YZ); 3、I(X;Y)、I(Y;Z); 解:1、 2 i 11111H Y P y logP y log log 2222i i =??=-+????∑()=-()()=1bit/符号 Z=YX 而且X 与Y 相互独立 ∴ 1(1)(1)(1)P P X P Y P X ?=+=-?=-(Z =1)=P(Y=1)= 1111122222 ?+?= 2(1)(1)(1)P P X P Y P X ?=-+=-?=(Z =-1)=P(Y=1)= 1111122222 ?+?= 故H(Z)= i 2i 1(z )log (z )i P P =- ∑=1bit/符号 2、从上式可以瞧出:Y 与X 的联合概率分布为:

(完整版)最全新概念英语第一册单词(完整版)(最新整理)

Lesson 1 1excuse[ik'skju:z] v.原谅 2me[mi:, mi] pron.我(宾格) 3yes[jes] ad.是的 4is[iz, s, z, ?z] v.be动词现在时第三人称单数5this[eis] pron.这 6your[j?:, j?:, j?r, j?:r] 你的,你们的 7handbag['h?ndb?g] n.(女用)手提包 8pardon['pɑ:d?n] int.原谅,请再说一遍 9it[it] pron.它 10thank you感谢你(们) 11 very much非常地 Lesson 2 1 pen [pen] n.钢笔 2 pencil ['pensl] n.铅笔 3 book [buk] n.书 4 watch [w?t?] n.手表 5 coat [k?ut] n.上衣,外衣 6 dress [dres] n.连衣裙 7 skirt [sk?:t] n.裙子 8 shirt [??:t] n.衬衣 9 car [kɑ:] n.小汽车 10 house [haus] n.房子 Lesson 3 1 umbrella [?m'brel?] n.伞 2 please [pli:z] int.请 3 here [hi?] ad.这里 4 my [mai]我的 5 ticket ['tikit] n.票 6 number ['n?mb?] n.号码 7 five [faiv] num.五 8 sorry ['s?ri] a.对不起的 9 sir [s?:] n.先生 10 cloakroom ['kl?ukru:m] n.衣帽存放处Lesson 4 1 suit [su:t, sju:t] n.一套衣服 2 school [sku:l] n.学校 3 teacher ['ti:t??] n.老师 4 son [s?n] n.儿子 5 daughter ['d?:t?] n.女儿 Lesson 5 1 Mr. ['mist?]先生 2 good [gud] a.好 3 morning ['m?:ni?] n.早晨 4 Miss [mis]小姐 5 new [nju:] a.新的 6 student ['stju:d?nt] n.学生 7 French [frent?] a.& n.法国人 8 German ['d??:m?n] a.& n.德国人 9 nice ['nais] a.美好的 10 meet [mi:t] v.遇见 11 Japanese [?d??p?'ni:z] a.& n.日本人 12 Korean [k?'ri?n] a.& n.韩国人 13 Chinese [?t?ai'ni:z] a.& n.中国人 14 too [tu:] ad.也 Lesson 6 1 make [meik] n.(产品的)牌号 2 Swedish ['swi:di?] a.瑞典的 3 English ['i?gli?] a.英国的 4 American [?'merik?n] a.美国的 5 Italian [i't?li?n] a.意大利的 6 Volvo ['v?lv??] n.沃尔沃 7 Peugeot n.标致 8 Mercedes ['m?:sidi:z] n.梅赛德斯 9 Toyota ['t??j??t?] n.丰田 10 Daewoo n.大宇 11 Mini ['mini] n.迷你 12 Ford [f?:d] n.福特 13 Fiat ['fai?t, -?t] n.菲亚特 Lesson 7 1 I [ai] pron.我 2 am [m, ?m, ?m] v.be 动词现在时第一人称单数

信息论基础及答案

《信息论基础》试卷第1页 《信息论基础》试卷答案 一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或()()lg lim lg p x p x dx +∞-∞ ?→∞ --?? ) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 3、无记忆信源是指 信源先后发生的符号彼此统计独立 。 4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。 5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。 6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。 7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 2 2 x - )时,信源具有最大熵,其值为 0.6155hart(或 1.625bit 或 1lg 22 e π)。 8、即时码是指 任一码字都不是其它码字的前缀 。 9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r ),此 时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。 10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。 11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。 12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同的状态。 13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。 14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)

信息论与编码试卷与答案

一、(11’)填空题 (1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 (2)必然事件的自信息是 0 。 (3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍。 (4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。 (5)若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 (6)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是香农编码。(7)已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出_2_______个码元错误,最多能纠正___1__个码元错误。 (8)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R__小于___C(大于、小于或者等于),则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。(9)平均错误概率不仅与信道本身的统计特性有关,还与___译码规则____________和___编码方法___有关 三、(5')居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。 假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A表示“大学生”这一事件,B表示“身高1.60以上”这一事件,则 P(A)=0.25 p(B)=0.5 p(B|A)=0.75 (2分) 故 p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375 (2分) I(A|B)=-log0.375=1.42bit (1分) 四、(5')证明:平均互信息量同信息熵之间满足 I(X;Y)=H(X)+H(Y)-H(XY) 证明:

新概念英语第一册所有语法点汇总)

新概念英语第一册所有语法点汇总 Lesson 1 人称代词含有be动词的陈述句、否定句和一般疑问句 Lesson 3 祈使句简单的倒装句 Lesson 5 冠词 Lesson 6 选择疑问句 Lesson 7 特殊疑问句一般疑问句 Lesson 9 How …?的一些社交上的用法形容词的意义与作用 Lesson 11所有格形容词和所有格代词名词所有格 Lesson 15 名词可数名词单数变复数的规则 Lesson 16 名词复数-s或-es的发音规则 Lesson 19 There be 句型常见方位介词:in、on、over、under Lesson 21 动词的双宾语 Lesson 23 定语 Lesson 27 some, any 一些 Lesson 29 情态动词情态动词must的用法 Lesson 31 时态:共十六种时态,时态是通过动词变化来实现的。现在进行时 Lesson 34 动词+ing的规则 Lesson 35 短语动词 Lesson 37 be going to 句型宾语补足语 Lesson 39 祈使句 do的用法

Lesson 40 词组:动词+介词 Lesson 43 情态动词can的用法 Lesson 47 一般现在时 Lesson 48 序数词 Lesson 49 动词加 s(es) 规则动词不定式 some、any用法Lesson 51 What…(be,look…) like? 频率副词 Lesson 57 一般现在时与现在进行时 Lesson 59 have/has的用法 Lesson 61 主语+系动词+表语 Lesson 63 each和every的区别 Lesson 64 禁令Don’t and Mustn’t Lesson 65 日期的表达反身代词 Lesson 67 一般过去时动词的过去式变化否定疑问句Lesson 69 用介词at,on和in的时间短语 Lesson 74 副词的用法副词的构成 Lesson 75 宾语从句 Lesson 79 Must与Need Lesson 83 现在完成时 Lesson 85 现在完成时的特殊结构 Lesson 89 for与since Lesson 91 一般将来时

信息论考试题

2009-2010学年第二学期末考试试题 信息论与编码理论 一、(共10分) 简述最大熵原理与最小鉴别信息原理,并说明两者之间的关系。 二、(共12分) 某一无记忆信源的符号集为{0, 1},已知P(0) = 1/4,P(1) = 3/4。 1) 求符号的平均熵; 2) 有100个符号构成的序列,求某一特定序列(例如有m个“0”和(100 - m)个“1”)的自信息量的表达式; 3) 计算2)中序列的熵。

三、(共12分) 一阶马尔可夫信源的状态图如下图所示。信源X 的符号集为{0, 1, 2}。 1) 求平稳后信源的概率分布; 2) 求)(X H ; 3) 求上述一阶马尔可夫信源的冗余度。 P P

四、(共10分) 设离散型随机变量XYZ 的联合概率满足xyz ?)()()()(y z p x y p x p xyz p =。 求证:);();(Z Y X I Y X I ≥ 五、(共12分) 设有一离散无记忆信道,输入信号为321,,x x x ,输出为321,,y y y ,其信道转移矩阵为???? ??????=214141412141414121Q ,61)(,32)(21==x P x P 。 试分别按理想译码准则与最大似然译码准则确定译码规则,并计算相应的平均译码差错概率。

六、(共14分) 设有一离散信道,输入X ,输出Y ,其信道转移矩阵为?? ????7.01.02.02.01.07.0, 求:1)信道的信道容量及达到信道容量时的输入分布? 2)当输入X 分布为7.0)(1=x P 3.0)(2=x P 时,求平均互信息);(Y X I 及信道疑义度)(X Y H 。

信息论试卷题目及标准答案

信息论试卷题目及答案

————————————————————————————————作者:————————————————————————————————日期: 2

中国海洋大学2008—2009学年第一学期 一、填空题(每空2分,共20分) 1、1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 2、信源编码的目的是提高通信的有效性。信道编码的最终目的是提高信号传输的可靠性。 3、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的N 倍。 4、对于香农编码、费诺编码和哈夫曼编码,编码方法惟一的是香农编码。 5、信道输入与输出间的平均互信息是信道转移概率的 下凸 函数,是输入概率的 上凸 函数。 6、信道矩阵??????10002/12/1代表的信道的信道容量C=符号/1bit ,达到信道容量的条件是输入符号等概分布。 7、 设某二进制码{00011,10110,01101,11000,10010,10001},则码的最小距离是2 ,假设码字等概分布,则该码的码率为 0.517比特/符号 ,这时若通过二元对称信道接收码字为01100和00110时,应译为01101 , 10110 。。 二、判断题(每题2分,共10分) 1、必然事件和不可能事件的自信息量都是0 。(错) 2、最大后验概率准则与最大似然准则是等价的。(错) 3、如果信息传输速率大于信道容量,就不存在使传输差错率任意小的信道编码。(对) 4、连续信源和离散信源的熵都具有非负性。(错) 5、相同功率的噪声中,高斯噪声使信道容量最小。(对) 三、简答题(第1、2题各6分,第三题10分,共22分) 1、简述最大离散熵定理。对于一个有m 个符号的离散信源,其最大熵是什么? 答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 (3分) 最大熵值为 m H 2max log = (3分) 2、对于任意概率事件集X 、Y 、Z ,证明下述三角不等式成立()()()Z X H Z Y H Y X H ≥+ 证:因为)|()|(Y X H YZ X H ≤ ,(3分) 所以: ) |()|()|() |,() |()|()|()|(Z Y H XZ Y H Z Y H Z Y X I YZ X H Z X H Y X H Z X H ≤-==-≤-(3分)

新概念第一册全部单词测试

新概念英语一册L1---L48单词测试 原谅这手提包请再说一遍感谢你非常地钢笔铅笔 书手表外衣连衣裙 衬衣裙子小汽车房子 伞请这里票 号码五对不起先生 衣帽存放处一套衣服学校老师 儿子女儿先生好 早晨小姐新的学生 法国人德国美好的遇见 日本人韩国人中国人也 牌号瑞典的英国的美国的意大利的名字什么国籍 工作电脑键盘操作人员工程师警察女警察出租司机空姐 邮递员护士机械师理发师家庭妇女送牛奶的人怎样今天 身体好美好的谢谢再见 见胖的女人瘦的 高的矮的脏的干净的热的冷的老的年轻的忙的懒的谁的蓝色的大概白色的抓住父亲 母亲女衬衫姐,妹领带兄,弟他的她的颜色 绿色来楼上时髦的帽子相同的可爱的箱子 地毯海关官员女孩 丹麦人朋友挪威人护照 1

棕色的旅游者俄罗斯人荷兰人红色的灰色的黄色的黑色的橘黄色的雇员勤奋的推销员男人办公室助手事情孩子们累渴坐下冰淇淋大的小的开着的关着的轻的重的长的鞋子祖父祖母给 哪一个空的满的尖的钝的瓶子罐头刀子叉子勺子架子课桌桌子盘子食厨香烟电视机地板梳妆台杂志床报纸立体声音响厨房电冰箱右边带电的左边炉子中间房间在哪里客厅靠近窗户扶手椅门图画墙长裤卧室乱使…通风衣服大衣柜掸掉灰尘扫倒空读削尖穿上脱掉开(电灯)关(电灯)花园树 爬谁草横过打字信篮子骨头清洗牙齿(pl.)做(饭)牛奶一顿饭喝水龙头日子云天空照耀家庭步行在…之上桥轮船飞机睡觉刮脸哭 洗等跳照片 2

村庄山谷在…之间另一个 妻子沿着河岸水 建筑物在…旁努力地书架 锤子上漆粉红色最喜欢的作业听碟子前面 仔细的花瓶掉下花 送给带给乳酪面包 肥皂巧克力糖咖啡 茶烟草当然水壶 茶壶沸腾老板分钟 书写糟糕的举起饼干 新鲜的黄油纯净的蜂蜜 成熟的果酱甜的上等的 酒啤酒黑板 L49—96单词测试 卖肉的肉牛肉羔羊肉丈夫牛排肉馅鸡 告诉实情也(否定句)西红柿土豆卷心菜莴苣豌豆豆角梨葡萄桃 希腊气候国家宜人的天气春季有风的温暖的下雨有时夏天秋天冬天下雪一月二月三月4月5月6月 7月8月9月10月 11月12月美国巴西 3

信息论与编码期末考试题(全套)..

于信源爛H(X). () 2.由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集. () 3.—般情况下,用变长编码得到的平均码长比定长编码 大得多. () 4.只要信息传输率大于信道容量,总存在一种信道编译 码,可以以所要求的任意小的误差概率实现可靠的通信 . () 5.务码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件.() &连续信源和离散信源的爛都具有非负性. () 7.信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确 定性就越小,获得的信息戢就越小. 8.汉明码是一种线性分组码. () 9.率失真函数的最小值是0 . () 10.必然事件和不可能事件的自信息量都是0 . () 二、填空题共6小题,满分20分. 1 、码的检、纠错能力取决 于______________________________ . 2、___________________________________ 信源编码的目的是:信道编码 的目的是____________________ . 3、把信息组原封不动地搬到码字前k位的(仏灯码就叫 做___________________ ? 4、香农信息论中的三大极限建理 是____________________ 、 ____________________ 、■ 5、耳信道的输入与输出随机序列分别为X和Y ,则 KX\Y N)=NI(X,Y)成立的 条件______________________________ ? 6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码, 编码方法惟一的是 O ",则该信源的Dmax= ________ a 0 三、本题共4小题,满分50分. K某信源发送端有2种符号x,i = 1,2), /心)=a:接收端 有3种符号y r. () = 123),转移概率矩阵为 1/2 1/2 0 P = ? 1/2 1/4 1/4. (1)计算接收端的平均不确定 度 (2)计算由于噪声产生的不确 定度H(rix): (3)计算信道容量以及最佳入 口分布. 2、一阶马尔可夫信源的状态转移 (1) 求信源平稳后的概率分布: (2) 求此信源的燔: (3) 近似地认为此信源为无记忆时,符号的概率分布为 稳分布?求近似信源的爛H(X)并与Hs进行比较. 4、设二元(7,4)线性分组码的生成矩阵为0 0 0 10 0 0 1 0 0 0 1 (1)给岀该码的一致校验矩阵,写出 所有的陪集首和与之相对应的伴随式: (2)若接收矢gv = (0001011),试讣 算出其对应的伴 随式S并按照最小距离译码准则试着对其译码. (二) 一、填空题(共15分,每空1分) 一、判断题共10小J满分20分. 1.当随机变量X和丫相互独立时,条件爛H(XI Y)等 7、某二元信源[爲冷打加其失真矩阵 图如右图所示, 信源X的符号集为{0丄2}? 1 1 0 1 G = 1 1 0 1 1 0 1 0 1 0

信息论试卷含答案

《信息论基础》模拟试卷 一、填空题(共15分,每空1分) 1、信源编码的主要目的是 ,信道编码的主要目的是 。 2、信源的剩余度主要来自两个方面,一是 ,二是 。 3、三进制信源的最小熵为 ,最大熵为 。 4、无失真信源编码的平均码长最小理论极限制为 。 5、当 时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为 和 。 7、根据是否允许失真,信源编码可分为 和 。 8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是 时,信源具有最大熵,其值为值 。 9、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY ) H(X)+H(X/Y) H(Y)+H(X)。 (2)()() 1222 H X X H X = ()()12333H X X X H X = (3)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y) 0, H(Y/X) 0,I(X;Y) H(X)。 二、(6分)若连续信源输出的幅度被限定在【2,6】区域内,当输出信号的概率密度是均匀分布时,计算该信源的相对熵,并说明该信源的绝对熵为多少。 三、(16分)已知信源 1234560.20.20.20.20.10.1S s s s s s s P ????=???????? (1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L ;(4分) (3)计算编码信息率R ';(2分) (4)计算编码后信息传输率R ;(2分) (5)计算编码效率η。(2分) 四、(10分)某信源输出A 、B 、C 、D 、E 五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。如果符号的码元宽度为0.5s μ。计算: (1)信息传输速率t R 。(5分) (2)将这些数据通过一个带宽为B=2000kHz 的加性白高斯噪声信道传输,噪声的单边功率谱密度为 6010W n Hz -=。试计算正确传输这些数据最少需要的发送功率P 。(5分)

新概念英语第一册课文全中文

新概念英语第一册课文(全中文)$课文1对不起! 1对不起 2什么事? 3这是您的手提包吗? 4对不起,请再说一遍。 5这是您的手提包吗? 6是的,是我的。 7非常感谢! $课文3对不起,先生。 8请把我的大衣和伞拿给我。 9这是我(寄存东西)的牌子。 10谢谢,先生。 11是5号。 12这是您的伞和大衣 13这不是我的伞。 14对不起,先生。 15这把伞是您的吗? 16不,不是! 17这把是吗? 18是,是这把 19非常感谢。 $课文5很高兴见到你。 20早上好。 21早上好,布莱克先生。 22这位是索菲娅 23索菲娅是个新学生。 24她是法国人。 25索菲娅,这位是汉斯。 26他是德国人。 27很高兴见到你。 28这位是直子。 29她是日本人。 30很高兴见到你。 31这位是昌宇。 32他是韩国人。 33很高兴见到你。 34这位是鲁明。 35他是中国人。 36很高兴见到你。 37这位是晓惠。 38她也是中国人。 39很高兴见到你。 $课文7你是教师吗?

40我是个新学生, 41我的名字叫罗伯特。 42很高兴见到你。 43我的名字叫索菲娅。 44你是法国人吗? 45是的,我是法国人。 46你也是法国人吗? 47不,我不是。 48你是哪国人? 49我是意大利人。 50你是教师吗? 51不,我不是。 52你是做什么工作的? 53我是电脑录入员。 54你是做什么工作的? 55我是工程师。 $课文9今天好吗? 56你好,海伦 57你好,史蒂文 58你今天好吗? 59很好,谢谢你。 60你好吗? 61很好,谢谢。 62托尼好吗? 63他很好,谢谢。 64埃玛好吗? 65她也很好,海伦。 66再见,海伦。 67见到你真高兴。 68我见到你也很高兴,史蒂文。69再见。 $课文11这是你的衬衫吗? 70那是谁的衬衫? 71戴夫,这是你的衬衫吗? 72不,先生。 73这不是我的衬衫。 74这是我的衬衫。 75我的衬衫是蓝色的。 76这件衬衫是蒂姆的吗? 77也许是,先生。 78蒂姆的衬衫是白色的。 79蒂姆! 80什么事,先生。 81这是你的衬衫吗? 82是的,先生。 83给你。

(整理)信息论期末考试试题1.

安徽大学2011—2012学年第1学期 《信息论》考试试卷(AB 合卷) 院/系 年级 专业 姓名 学号 一、填空题 1、接收端收到y 后,获得关于发送的符号是x 的信息量是 。 2、香农信息的定义 。 3、在已知事件z Z ∈的条件下,接收到y 后获得关于事件x 的条件互信息(;|)I x y z 的表达式为 。 4、通信系统模型主要分成五个部分分别为: 。 5、研究信息传输系统的目的就是要找到信息传输过程的共同规律,以提高信息传输的可靠性、有效性、 和 ,使信息传输系统达到最优化。 6、某信源S 共有32个信源符号,其实际熵H ∞=1.4比特/符号,则该信源剩余度为 。 7、信道固定的情况下,平均互信息(;)I X Y 是输入信源概率分布()P x 的 型凸函数。 信源固定的情况下,平均互信息(;)I X Y 是信道传递概率(|)P y x 的 型凸函数。 8、当信源与信道连接时,若信息传输率达到了信道容量,则称此信源与信道达到匹配。信道剩余度定义为 。 9、已知信源X 的熵H (X )=0.92比特/符号,则该信源的五次无记忆扩展信源X 5的信息熵 5()H X = 。

10、将∞H ,6H ,0H ,4H ,1H 从大到小排列为 。 11、根据香农第一定理,对于离散无记忆信源S ,用含r 个字母的码符号集对N 长信源符号序列进行变长编码,总能找到一种无失真的唯一可译码,使每个信源符号所需平均码长满足: 。 12、多项式剩余类环[]())q F x f x 是域的充要条件为 。 13、多项式剩余类环[](1)n q F x x -的任一理想的生成元()g x 与1n x -关系为 。 14、有限域12 2F 的全部子域为 。 15、国际标准书号(ISBN )由十位数字12345678910a a a a a a a a a a 组成(诸i a ∈11F ,满足: 10 1 0(mod11)i i ia =≡∑) ,其中前九位均为0-9,末位0-10,当末位为10时用X 表示。《Handbook of Applied Cryptography 》的书号为ISBN :7-121-01339- ,《Coding and Information Theory 》的书号为ISBN :7-5062-3392- 。 二、判断题 1、互信息(;)I x y 与平均互信息(;)I X Y 都具有非负性质。 ( ) 2、离散信源的信息熵是信源无失真数据压缩的极限值。 ( ) 3、对于无噪无损信道,其输入和输出有确定的一一对应关系。 ( ) 4、对于有噪无损信道,其输入和输出有确定的一一对应关系。 ( ) 5、设有噪信道的信道容量为C ,若信息传输率R C >,只要码长n 足够长,必存在一种信道编码和相应的译码规则,使译码平均错误概率E P 为任意小。反之,若R C <则不存在以R 传输信息而E P 为任意小的码。 ( ) 6、在任何信息传输系统中,最后获得的信息至多是信源所提供的信息。如果一旦在某一

信息论与编码试题集与答案(新)

1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 -1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 已知n =7的循环码4 2 ()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 3 1x x ++ 。 6. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001?? ???? ;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010?? ? ??? 。 7. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。 二、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 (√ ) 2. 线性码一定包含全零码。 (√ ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 5. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度L 的增大而增大。 (×) 6. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X ,当它是正态分布时具 有最大熵。 (√ ) 7. 循环码的码集中的任何一个码字的循环移位仍是码字。 (√ ) 8. 信道容量是信道中能够传输的最小信息量。 (×) 9. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (×) 10. 在已知收码R 的条件下找出可能性最大的发码i C 作为译码估计值,这种译码方 法叫做最佳译码。 (√ )

最新新概念英语第一册英语教案(全)

Lesson 1 Excuse me! 对不起! Lesson 2 Is this your…这是你的……吗? 一、教学目的 1.理解主系表结构的陈述、一般疑问式 2.初步掌握询问“是否”的方法 二、教学重点 1.主系表结构 2.一般疑问句 3.代词小引 三、教学难点 1.人称代词和物主代词的区分运用 2.主系表结构及其一般疑问句 四、教学标准 1.识别并简单运用主系表结构 2.掌握一般疑问句及肯定回答 五、教学内容 1.语法点: 1)代词人称代词和物主代词 2)Be 动词 3)一般疑问句 4)主系表结构this为主语,名词做表语 5)一般疑问句以及它的肯定回答 2.语言点: 1)打扰他人 2)表达谢意 3.语音:初步知识,字母、音标介绍 六、扩展练习 1.打扰他人的表达 2.表达谢意

Lesson 3 Sorry, sir. 对不起,先生。Lesson 4 Is this your…这是你的……吗? 一、教学目的 1.理解并运用主系表结构的陈述、一般疑问式 2.掌握询问“是否”的方法 二、教学重点 1.主系表结构 2.一般疑问句 3.代词形容词性物主代词 三、教学难点 1.人称代词和物主代词的区分运用 2.主系表结构及其一般疑问句 四、教学标准 1.识别并简单运用主系表结构 2.掌握一般疑问句及否定回答 五、教学内容 1.语法点: 1)否定陈述句 2)Be动词的否定形式 3)代词的功能 4)一般疑问句及否回答 5)形容词性物主代词 2.语言点: 1)询问“是否”

2)表达歉意 3.语音:字母、音标介绍 六、扩展练习 1.询问“是否” 2.向别人道歉

信息论与编码期末考试题----学生复习用

《信息论基础》参考答案 一、填空题 1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。 3、三进制信源的最小熵为0,最大熵为32log bit/符号。 4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。 7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或()22 212x f x e σπσ -= 时,信源 具有最大熵,其值为值21 log 22 e πσ。 9、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。 (2)()() 1222H X X H X =≥()()12333 H X X X H X = (3)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论与编码试卷及答案(多篇)

一、概念简答题(每题5分,共40分) 1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同? 答:平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2.简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少? 答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 最大熵值为。 3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系? 答:信息传输率R指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。 平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U型凸函数。 4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。 答:通信系统模型如下:

数据处理定理为:串联信道的输入输出X、Y、Z组成一个马尔可夫链,且有, 。说明经数据处理后,一般只会增加信息的损失。 5.写出香农公式,并说明其物理意义。当信道带宽为5000Hz,信噪比为30dB时求信道容量。 .答:香农公式为,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于信噪比和带宽。 由得,则 6.解释无失真变长信源编码定理。 .答:只要,当N足够长时,一定存在一种无失真编码。 7.解释有噪信道编码定理。 答:当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8.什么是保真度准则?对二元信源,其失真矩阵,求a>0时率失真函数的和? 答:1)保真度准则为:平均失真度不大于允许的失真度。 2)因为失真矩阵中每行都有一个0,所以有,而。 二、综合题(每题10分,共60分) 1.黑白气象传真图的消息只有黑色和白色两种,求:

新概念英语1册 课文 完整版

新概念英语1册课文完整版 学习新概念英语计划建议: 1、第一步:先背单词,不要去看课文。 2、第二步:听录音,看看自己是否能听懂,是否能用英文把课文写出来。 3、第三步:通过自学导读理解课文的关键语句。 4、第四步:做完教材中的所有练习。 5、学新概念最有效的方式就是背诵课文了。建议能将整个课文背诵出来。也不需要完全背诵,只要能照着中文背诵出来就可以了。 Lesson 1 Excuse me! 对不起! Excuse me! Yes? Is this your handbag? Pardon? Is this your handbag? Yes, it is. Thank you very much. 参考译文 对不起

什么事? 这是您的手提包吗? 对不起,请再说一遍。 这是您的手提包吗? 是的,是我的。 非常感谢! Lesson 3 Sorry, sir. 对不起,先生。 My coat and my umbrella please. Here is my ticket. Thank you, sir. Number five. Here's your umbrella and your coat. This is not my umbrella. Sorry sir. Is this your umbrella? No, it isn't. Is this it? Yes, it is. Thank you very much.

参考译文 请把我的大衣和伞拿给我。 这是我(寄存东西)的牌子。 谢谢,先生。 是5号。 这是您的伞和大衣 这不是我的伞。 对不起,先生。 这把伞是您的吗? 不,不是! 这把是吗? 是,是这把 非常感谢。 Lesson 5 Nice to meet you 很高兴见到你。 MR. BLAKE: Good morning. STUDENTS: Good morning, Mr. Blake. MR. BLAKE: This is Miss Sophie Dupont. Sophie is a new student. She is French.

相关文档