您好!欢迎来到静学网! 注册 登入
  • 致力提供中国优质IT教程及新媒体资讯,打造中国品牌教育先锋。

通信技术的发展历史及消息、信息、信号的区别

课程目录 教育推动者 次浏览

通信技术的发展历史

 
自然界中遍地是通信信号,无论是有生命还是无生命都有自己的通信方法,从人类通信角度来讲,从人类最初的动作、神态、叫声来传达信息,我们把这些传达的信号成为通信。通信发展至今已经取得了长足的进步,从叫声、动作到文字记录再到无线电技术发展,再到如今的第五代移动通信技术的飞速发展,这些都是通信发展的伟大进步。
 
在有悠久历史的中国,通信的起源至少可以追溯到周朝。众所周知,中国历史上周幽王(公元前781~公元前771年)烽火嬉诸侯的故事。
 
这个故事就是古代应用光通信的见证,它证明光通信在中国的应用至少可以追溯到公元前800年,这在世界上也是领先的。烽火是非常原始的光通信,而且是最简单的二进制数字通信。它利用有或无光信号表示有或无“敌情”。广义地说,通信是传递信息。
 
目前,通信方式主要有两类:利用人力或机械的方式传递信息,例如常规的邮政,称之为运动通信;或者是利用电(包括电流、无线电波或光波)传递信息,即电信。


通信
 
本课程的讨论仅限于后者。近代电通信技术始于1820年安培(A.M.Ampère)发明的电报通信,这是近代数字通信的开始。此后,电报通信技术不断地改进,并得到迅速发展和广泛应用;特别是莫尔斯(Samuel F.B.Morse)于1838年前后将电报通信推向实用。贝尔(A.G.Bell)于1876年发明了电话,这是模拟通信的开始。
 
由于电话通信是一种实时、交互式通信,比电报更便于使用,所以在20世纪前半叶这种采用模拟技术的电话通信技术和电话通信网,比电报得到了更迅速和广泛的发展。
 
到了20世纪60年代以后,随着半导体、计算机和激光技术的出现和发展,传输字符和计算机数据的数字通信技术进入了高级发展阶段。由于这种高级数字通信技术在许多方面都优于模拟通信,甚至像语音、图像一类的模拟信号也希望采用数字通信技术来传输。因此,近20多年来数字通信得到迅猛的发展。
 
与此同时,作为高级光通信技术的光纤通信技术也与其携手同行,两者都成为现代通信网的主要支柱。上述光通信和数字通信发展的历史过程,都是从其低级形式走向高级形式的发展过程。
 

消息、信息、信号的区别

 
通信的目的是传递消息中包含的信息。例如,语音、文字、图形、图像等都是消息(message)。人们接收消息,关心的是消息中包含的有效内容,即信息(information)。例如,在传递天气预报时,“晴天”可以用汉字表示,也可以用一种符号或图形表示。
 
这些表示是不同形式的消息,但是它们却载有相同的信息。消息必须转换成为电信号(通常简称为信号),才能在通信系统中传输。所以,信号(signal)是消息的载体。信息是消息中包含的有意义的内容,或者说有效内容。我们还提到不同形式的消息可以包含相同的信息。类似于运输货物多少采用“货运量”来衡量一样,传输信息的多少可使用“信息量(information content)”来衡量。
 
所以如何度量信息是首先要解决的问题。消息是多种多样的。因此度量消息中所含的信息量的方法,必须能够用来度量任何消息,而与消息的类型无关。同时,这种度量方法也应该与消息的重要程度无关。
 
例如,“1kg黄金失窃”和“1kg白银失窃”应该含有相同的信息量,虽然黄金比白银贵重得多。在一切有意义的通信中,对于接收者而言,同样消息量中包含的信息量可能不同。例如,发布天气预报“明天降雨量将有1mm”不会使接收者认为有什么奇怪;而预报“明天降雨量将有1m”则会使接收者大吃一惊。
 
这表明,消息中确有可能包含不同的信息量。消息所表达的事件越不可能发生,越使人感到意外,则信息量就越大。因此,我们可以从事件的不确定程度,即其发生的概率来描述其信息量的大小。确知的消息,例如“明日太阳将从东方升起”,没有必要传输,因为接收者对其丝毫不感兴趣。也就是说,这种确知的消息中信息量为0。
 
概率论告诉我们,事件的不确定程度可以用其出现的概率来表述。若用概率来描述信息量,则消息所表达的事件出现的概率越小,其中包含的信息量就越大。如果(消息所表达的)事件是必然的,其发生概率等于1,则消息的信息量等于0。
 
事件发生概率越小,则其信息量应该越大。如果事件是不可能的,其发生概率等于0,则消息将含有无限的信息量。另外,如果接收到的消息是由若干个独立事件构成的,则接收到的总信息量应该是这些独立事件的信息量的总和。
 
综上所述,消息中所含的信息量I可以按如下方法定义:
 
(1)消息中所含的信息量I是该消息出现概率P(x)的函数,即I=I[P(X)]
 
(2)消息出现的概率越小,它所含的信息量越大;反之则信息量越小。当P(x)=1时,I=0。
 
(3)假设若干个独立事件的出现概率分别是P(x1),P(x2),P(x3),…,则由这些独立事件构成的消息所含的信息量等于各独立事件的各个消息的信息量的总和
,即
 
I[P(X1)P(X2)…]=I[P(X1)]+I[P(X2)]+……
 
容易看出,若I与P(x)之间的关系为:
 
I=log(a底)1/P(X)=-loga(Px)
 
 则上述三项要求可以满足。
 
所以,我们将式(1.2-3)作为消息x所含信息量I的定义。I的单位和对数的底a有关。
 
如果a=2,则信息量的单位为比特(bit),通常简记为b;
 
如果a=e,则信息量的单位为奈特(nat);
 
如果a=10,则信息量的单位为哈特莱(hartley)。
 
通常,采用比特作为单位最为广泛,即有
 
I=-loga(Px)
 
现在,首先讨论等概率出现的离散消息的信息含量。假设需要传输M个独立的等概率离散消息之一,则采用一个M进制的波形来传送就行了。也就是说,传送M个离散消息之一和传送M进制波形之一是等价的。当M=2时,即二进制时,式I=-loga(Px)变为1.
 
上式所示,通常选用以2为对数的底是很方便的,因为这时一个二进制波形的信息量恰好等于1 b。
 
在工程上,常常不考虑其是否为等概率的消息,总是认为一个二进制波形(或码元)等于1 b。这就是说,在工程应用中,通常把一个二进制码元称做1 b,这就把原来的信息量的单位变成了信号(二进制码元)的单位了。
 
这一点对于初学者来说一定要注意,在概念上不能混淆。按照式(1.2-3a)的定义,当M>2时,每一码元的信息量为:
 
I=log2(1/M)=log2(M)
 
若M是2的整次幂,例如M=2k(k=1,2,3,…),则式(1.2-5)变成
 
I= log2(2^K)=K.



静学网 , 版权所有丨如未注明 , 均为原创丨转载请注明通信技术的发展历史及消息、信息、信号的区别
顶一下
(0)
踩一下
(0)
畅所欲言
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
用户名: 验证码:点击我更换图片
最新评论
友情链接:
自学网
本网站所刊载信息,不代表静学网观点。 刊用本网站稿件,务经书面授权或注明来源。 未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。 投稿邮箱:1870447831@qq.com | 举报邮箱:1870447831@qq.com