信息论的创始人是谁
信息科学是以信息为主要研究对象,以信息的运动规律和应用方法为主要研究内容,以计算机等技术为主要研究工具,以扩展人类的信息功能为主要目标的一门新兴的综合性学科。
信息论的创始人是美贝尔电话研究所的数学家香农(
C.E.Shannon1916――),他为解决通讯技术中的信息编码问题,把发射信息和接收信息作为一个整体的通讯过程来研究,提出通讯系统的一般模型;同时建立了信息量的统计公式,奠定了信息论的理论基础。1948年香农发表的《通讯的数学理论》一文,成为信息论诞生的标志。香农创立信息论,是在前人研究的基础上完成的。1922年卡松提出边带理论,指明信号在调制(编码)与传送过程中与频谱宽度的关系。1922年哈特莱发表《信息传输》的文章,首先提出消息是代码、符号而不是信息内容本身,使信息与消息区分开来,并提出用消息可能数目的对数来度量消息中所含有的信息量,为信息论的创立提供了思路。美国统计学家费希尔从古典统计理论角度研究了信息理论,苏联数学家哥尔莫戈洛夫也对信息论作过研究。控制论创始人维纳建立了维纳滤波理论和信号预测理论,也提出了信息量的统计数学公式,甚至有人认为维纳也是信息论创始人之一。 在信息论的发展中,还有许多科学家对它做出了卓越的贡献。法国物理学家L.布里渊(L.Brillouin)1956年发表《科学与信息论》专著,从热力学和生命等许多方面探讨信息论,把热力学熵与信息熵直接联系起来,使热力学中争论了一个世纪之久的“麦克斯韦尔妖”的佯谬问题得到了满意的解释。英国神经生理学家(W.B.Ashby)1964年发表的《系统与信息》等文章,还把信息论推广应用芋生物学和神经生理学领域,也成为信息论的重要著作。这些科学家们的研究,以及后来从经济、管理和社会的各个部门对信息论的研究,使信息论远远地超越了通讯的范围。 信息论 - 信息概念 信息科学是以信息为主要研究对象,以信息的运动规律和应用方法为主要研究内容,以计算机等技术为主要研究工具,以扩展人类的信息功能为主要目标的一门新兴的综合性学科。信息科学由信息论、控制论、计算机科学、仿生学、系统工程与人工智能等学科互相渗透、互相结合而形成的。60年代中,由于出现复杂的工程大系统需要用计算机来控制生产过程,系统辨识成为重要研究课题。从信息科学的观点来看,系统辨识就是通过输入输出信息来研究控制系统的行为和内部结构,并用简明的数学模型来加以表示。控制就是根据系统结构和要求对信息加工、变换和利用。 “信息”使用的广泛性使得我们难以给“信息”下一个确切的定义,但是,一般说来,信息可以界定为由信息源(如自然界、人类社会等)发出的被使用者接受和理解的各种信号。作为一个社会概念,信息可以理解为人类共享的一切知识,或社会发展趋势以及从客观现象中提炼出来的各种消息之和。信息并非事物本身,而是表征事物之间联系的消息、情报、指令、数据或信号。一切事物,包括自然界和人类社会,都在发出信息。我们每个人每时每刻都在接收信息。在人类社会中,信息往往以文字、图象、图形、语言、声音等形式出现。就本体论意义而言,信息是标志事物存在及其关系的属性。但这样的描述难以将信息定量化,就认识论意义。
百度知道上有相同的问题,我图简便直接复制过来了。
信息论的创始人是美贝尔电话研究所的数学家香农。
信息论的创始人是美贝尔电话研究所的数学家香农(C.E.Shannon1916――),他为解决通讯技术中的信息编码问题,突破老框框,把发射信息和接收信息作为一个整体的通讯过程来研究,提出通讯系统的一般模型;同时建立了信息量的统计公式,奠定了信息论的理论基础。1948年申农发表的《通讯的数学理论》一文,成为信息论诞生的标志。 申农创立信息论,是在前人研究的基础上完成的。1922年卡松提出边带理论,指明信号在调制(编码)与传送过程中与频谱宽度的关系。1922年哈特莱发表《信息传输》的文章,首先提出消息是代码、符号而不是信息内容本身,使信息与消息区分开来,并提出用消息可能数目的对数来度量消息中所含有的信息量,为信息论的创立提供了思路。美国统计学家费希尔从古典统计理论角度研究了信息理论,苏联数学家哥尔莫戈洛夫也对信息论作过研究。控制论创始人维纳建立了维纳滤波理论和信号预测理论,也提出了信息量的统计数学公式,甚至有人认为维纳也是信息论创始人之一。 在信息论的发展中,还有许多科学家对它做出了卓越的贡献。法国物理学家L.布里渊(L.Brillouin)1956年发表《科学与信息论》专著,从热力学和生命等许多方面探讨信息论,把热力学熵与信息熵直接联系起来,使热力学中争论了一个世纪之久的“麦克斯韦尔妖”的佯谬问题得到了满意的解释。英国神经生理学家(W.B.Ashby)1964年发表的《系统与信息》等文章,还把信息论推广应用于生物学和神经生理学领域,也成为信息论的重要著作。这些科学家们的研究,以及后来从经济、管理和社会的各个部门对信息论的研究,使信息论远远地超越了通讯的范围。因此,信息论可以分成两种:狭义信息论与广义信息论。 狭义信息论是关于通讯技术的理论,它是以数学方法研究通讯技术中关于信息的传输和变换规律的一门科学。广义信息论,则超出了通讯技术的范围来研究信息问题,它以各种系统、各门科学中的信息为对象,广泛地研究信息的本质和特点,以及信息的取得、计量、传输、储存、处理、控制和利用的一般规律。显然,广义信息论包括了狭义信息论的内容,但其研究范围却比通讯领域广泛得多,是狭义信息论在各个领域的应用和推广,因此,它的规律也更一般化,适用于各个领域,所以它是一门横断学科。广义信息论,人们也称它为信息科学。关于信息的本质和特点,是信息论研究的首要内容和解决其它问题的前提。信息是什么?迄今为止还没有一个公认的定义。 英文信息一词(Information)的含义是情报、资料、消息、报导、知识的意思。所以长期以来人们就把信息看作是消息的同义语,简单地把信息定义为能够带来新内容、新知识的消息。但是后来发现信息的含义要比消息、情报的含义广泛得多,不仅消息、情报是信息,指令、代码、符号语言、文字等,一切含有内容的信号都是信息。哈特莱第一次把消息、情报、信号、语言等等都是信息的载体,而信息则是它们荷载着的内容。但是信息到底是什么呢?申农的狭义信息论第一个给予信息以科学定义:信息是人们对事物了解的不确定性的消除或减少。这是从通讯角度上下的定义,即信源发出了某种情况的不了解的状态,即消除了不定性。并且用概率统计数学方法,来度量为定性被消除的量的大小:H(x)为信息熵,是信源整体的平均不定度。而信息I(p)是从信宿角度代表收到信息后消除不定性的程度,也就是获得新知识的量,所以它只不在信源发出的信息熵被信宿收到后才有意义。在排除干扰的理想情况下,信源发出的信号与信宿接收的信号一一对应,H(x)与I(p)二者相等。所以信息熵的公式也就是信息量的分式。式中的k是一个选择单位的常数,当对数以2为底时,单位称比特(bit),信息熵是l0g2=1比特。 在申农寻信息量定名称时,数学家冯.诺依曼建议称为熵,理由是不定性函数在统计力学中已经用在熵下面了。在热力学中熵是物质系统状态的一个函数,它表示微观粒子之间无规则的排列程度,即表示系统的紊乱度,维纳说:“信息量的概念非常自然地从属于统计学的一个古典概念――熵。正如一个系统中的信息量是它的组织化程度的度量,一个系统的熵就是它的无组织程度的度量;这一个正好是那一个的负数。”这说明信息与熵是一个相反的量,信息是负熵,所以在信息熵的公式中有负号,它表示系统获得后无序状态的减少或消除,即消除不定性的大小。 信息一般具有如下一些特征:1可识别;2可转换;3可传递;4可加工处理;5可多次利用(无损耗性);6在流通中扩充;7主客体二重性。信息是物质相互作用的一种属性,涉及主客体双方;信息表征信源客体存在方式和运动状态的特性,所以它具有客体性,绝对性;但接收者所获得的信息量和价值的大小,与信宿主体的背景有关表现了信息的主体性和相对性。8信息的能动性。信息的产生、存在和流通,依赖于物质和能量,没有物质和能量就没有能动作用。信息可以控制和支配物质与能量的流动。 信息论还研究信道的容量、消息的编码与调制的问题以及噪声与滤波的理论等方面的内容。信息论还研究语义信息、有效信息和模糊信息等方面的问题。广义信息论则把信息定义为物质在相互作用中表征外部情况的一种普遍属性,它是一种物质系统的特性以一定形式在另一种物质系统中的再现。信息概念具有普遍意义,它已经广泛地渗透到各个领域,信息科学是具有方法论性质的一门科学。信息方法具有普适性。 所谓信息方法就是运用信息观点,把事物看做是一个信息流动的系统,通过对信息流程的分析和处理,达到对事物复杂运动规律认识的一种科学方法。它的特点是撇开对象的具体运动形态,把它作为一个信息流通过程加以分析。信息方法着眼于信息,揭露了事物之间普遍存在的信息联系,对过去难于理解的现象从信息观点作出了科学的说明。信息论为控制论、自动化技术和现代化通讯技术奠定了理论基础,为研究大脑结构、遗传密码、生命系统和神经病理象开辟了新的途径,为管理的科学化和决策的科学批提供了思想武器。信息方法为认识当代以电子计算机和现代通讯技术为中心的新技术革命的浪潮,为认识论的研究和发展,将进一步提高人类认识与改造自然界的能力。