文档库 最新最全的文档下载
当前位置:文档库 › 利用人工神经网络实现函数逼近_王强

利用人工神经网络实现函数逼近_王强

利用人工神经网络实现函数逼近_王强
利用人工神经网络实现函数逼近_王强

收稿日期:2001-09-04

第19卷 第5期

计 算 机 仿 真

2002年9月

文章编号:1006-9348(2002)05-0044-04

利用人工神经网络实现函数逼近

王强,余岳峰,张浩炯

(上海交通大学能源工程系上海200240)

摘要:神经网络可以被用来计算复杂的输入与输出结果集之间的关系,因此神经网络具有强大的函数逼近功能。该文利用Cybenko 理论论述了用一种单隐层的前馈神经网络模型在一定条件下可以逼近任何定义在C ([0,1]n )上的函数的问题,并给出了一个对一维非线性函数的仿真实例,取得了良好的效果。关键词:函数逼近;人工神经网络;Matlab;建模与仿真中图分类号:TP3 文献标识码:A

1 引言

对于经典的函数逼近理论,理论分析严密,体系成熟。但由此衍生的很多算法有共同的缺点:计算量大,适应性差,对模型和数据的要求很高,依赖性太强,而神经网络应用于函数逼近的优越性可在数据本身需决定的模式特征不明确,数据模糊或含较多噪声、非线性等情况下体现。关于神经网络逼近能力的研究,国内外已有许多理论成果,本文想通过具体的仿真实例来说明神经网络对非线性函数的强大的逼近能力。

2 人工神经网络

人工神经网络(以下简称神经网络)是在人脑结构的启发下构建的计算模型,它既是高度非线性动力学系统,又是自适应组织系统。神经网络的最重要特征是它的学习、组织和容错能力。不像常规的算法,神经网络可以通过被训练去完成特定的任务。为系统提供一系列具有代表性的描述问题的样本,即成组的输入、输出样本,神经网络可以推断出输入和输出数据间的映射关系。训练完成后,神经网络可以

被用来识别与训练阶段任意样本相似的新数据。神经网络甚至还可以识别不完整的或有噪声的数据,这个重要特征被广泛地应用于预测、诊断和控制方面。另外,神经网络还有自组织能力。

图1 神经网络功能图

在最抽象的层次上,神经网络可以被当作是一个黑箱,数据从一边输入,经过神经网络处理后产生相应的输出。输出与目标值比较后,产生的误差用于调整神经

网络内部的连接权重。图1显示了神经网络的功能图。

更仔细地研究该黑箱,发现它与外界的接口由输入层和输出层的神经元组成。神经元是组成神经网络的基本处理单元,通常被组织成层状。除了输入层和输出层外,还可能有中间的神经元层,通常被称为隐层。隐层神经元收集上层所有神经元的信息,经过相应处理后将其输出传递给下层神经元,由此完成了信

息在层与层之间地传递,这种传递通常是单向的,在神经元与神经元之间的连接构成了信息传递的通道。在每个神经元中会采用一种传递函数,又称之为激活函数。图2显示了一个简单神经网络的架构:

图2 神经网络架构

3 神经网络函数逼近能力分析

神经网络最强大的应用之一是函数逼近,神经网络函数逼近即从样本出发,对未知函数的非线性逼近。神经网络可以被用来计算复杂的输入与输出结果集之间的关系,因此神经网络可以完成非线性函数的逼近。应用神经网络进行函数逼近不仅在纯和应用数学领域有意义,而且在工程和物理学领域也非常有用,因为这种逼近方式已被广泛地应用于系统辨识与建模,信号处理及模式识别等多个方面。

在函数逼近领域,Kolmogorov 在他的一篇很有名的论文中证明了下述表达式:

f (x 1,,,x n )=

E ln

v =0

g(K 1U v (x 1)+

,+K n U v (x n ))

其中,g,U i (x ),i =1,...,n 都是单变量函数,0[K i [1,i

=1,,,n,0[U v(t)[1,t I[0,1],v=1,...n。然而,g和U v的构造是很复杂的。

Cybenko使用函数分析的方法,结合Hahn-Banach理论和Riesz理论,不仅提出了对上述问题极为有效的替代方法,同时也解决了长时间来一直存在的用一种单隐层的前馈神经网络模型去逼近定义在C([0,1]n)上的函数的问题。他证明对于连续有界函数R(x),如果(f1(x),,,f q(x))是从[0,1]n 到R n的连续映射,对于任何E>0,存在N,c j,H j I R,Y j I R n,c j,k=c j(f k)I R,j=1,,,N,k=1,,,q,使

f k(x)-E N j=1c j,k R(y j#x+H j)

对所有的x I[0,1]n,f1(x),,f q(x)成立,其中x#y使x与y的内积。

由此我们可以看出,Cybenko定理证明了所有定义在[0, 1]n上的连续函数可以在任意指定误差范围内被有限线性组合所逼近。该逼近理论对神经网络的理论和应用非常有帮助,因为很多类型的神经网络是由简单的非线性的激活函数组合和叠加而成。考虑如图2所示的前馈网络,设此三层网络输入层、隐层和输出层的节点数分别为m,n,p,第j个隐层节点的激活函数为R j(#),确定了网络的结构后,即可对网络进行训练。设网络的输入为x i,输出为f^(x i),实际函数值f(x i)用于指导网络的学习。 X j与c ji为权重,则p个输出分别为

f^(x j)=E n j=1c ji R j( w T x+H j)i=1,2,,,p

其中w T j=(w1j,,,w mj)T,x=(x1,,,x m)T。

由Cybenko定理我们可以看出,通过训练,f^(x i)和实际函数值f(x i)是可以无限接近的。神经网络种类非常多,由于用途不同,其网络拓扑结构和学习规则有很大不同,各种网络具有其优缺点,并不存在对任何问题都解决很好的万能网络。但是,对上述函数逼近问题而言,只要合理的选择网络拓扑结构和激活函数,都能够得到很好的解决。

4仿真工具选择

MATLAB是一种著名的线性系统分析和仿真工具,在矩阵运算,数值拟合,二维和三维图形绘制上具有极强的功能。为了支持不同的专业领域的用户,MATLAB还提供了大量的面向专业领域的工具箱。通过使用工具箱,以往需要复杂编程的算法开发任务需要花费很长的时间才能完成,而且调试需要花费更多的时间。而使用MATLAB语言和MATLAB工具箱,用户可以专注于算法研究,编程只需要几行就可以完成,而且可以很快的画出图形,从而迅速地进行多种算法的比较,从中找出最好的方案。MATLAB工具箱中的大多数函数都是通过M文件编写的,用户可以察看其中的源码,通过适当的修改,便可以形成自己的特殊算法。在这其中,就包括我们所需要的神经网络工具箱,利用MATLAB的神经网络工具箱,我们可以很方便地完成函数逼近地仿真。但是, MATLAB的执行速度较慢,显示界面也不够友好,美观,如果采用在VB中调用MATLAB的方法,将可以较好地解决这些问题。

为了完成VB与MATLAB的无缝连接,我们使用了Ax-tiveX技术。MATLAB6.0for Windows支持AxtiveX Automation 服务器协议。AxtiveX Automati on是一种允许一个应用程序(客户端)去控制另一个应用程序(服务器端)的协议,由于VB是支持AxtiveX Automation客户端协议的,因此如果已经建立了一个AxtiveX Au tomation连接,在一个VB程序里就可以调用MATLAB命令,向MATLAB内传送或从MATLAB中接受数据了。在这个AxtiveX Automation连接中,MATLAB作为服务器(Server),VB作为客户端(Clien t)。在机器中安装MATLAB后,我们在系统注册表中会发现一个名为/Matlab. Application0的表项,这就是MATLAB的AxtiveX对象名。这样就可以在VB中创建MATLAB的对象了,代码如下

di m Matlab as Object

Set Matlab=CreateObject(/Matlab.Application0)在VB中创建了Matlab ActiveX对象之后,就可以使用该对象所包括的各种方法来完成对Matlab的调用。M atlab.Ap-plicati on共包括5个方法,它们是E x ecute,PutFullMatri x,Get-FullMatrix,Mini mizeC om mand Win dow,MaximizeCommandWindow。其中最主要的是:

E xecu te方法:调用MATLAB执行一条由Command字符串决定的MATLAB命令,同时返回一个字符串表示命令的执行情况。

PutFullMatri x,GetFullMatrix方法:完成矩阵变量在VB与MATLAB之间的传递。

利用这些方法在VB里可以实现MATLAB的任何功能。

5仿真实例

为了验证上述的神经网络的逼近效果,我们举一个简单的一维非线性的函数逼近为例。

首先我们取某电感差压传感器测量的数据作为数据源,将一组数据以竖排的形式写入一文本文件,如

X:-1-0.9-0.8-0.7-0.6-0.5-0.4-0.3-0. 2-0.100.10.20.30.40.50.60.70.80.91

T:0.96440.87060.77060.67210.57730.47520.38410. 28510.191600.19160.28510.38410.47520.57730.67210. 77060.87060.9644

将该文件保存为/data.txt0,其中X为输入压力,单位为MPa,T为输出电压,单位为V,由于测量中存在的误差使该函数成为一个非线性函数。我们将X作为自变量,而T作为目标函数值,从而构成了神经网络的输入值和目标值。

为取得该文件里的数据,我们使用了如下的程序:

Dim matlab As Object

Dim result As String

Set matlab =CreateObject(/Matlab.Application 0)%创建Matlab 对象

result =matlab.execute (/[fname,fpath]=uigetfile (.*.txt .,.Open a file .,100,200);0)%取得文件名

result =matlab.ex ecute (/fid=fopen(fname,.r .);0)%打开文件

result =matlab.execute (/s =fscanf (fid,.%g %g .,[2,21]);0)%读取数据

这样,我们就将文件/data.txt 0中的自变量值和目标函数值保存到了矩阵s 中。接着我们使用如下代码分别取得了矩阵s 中的自变量值和目标函数值

result =matlab.execute(/A=s .;0)result =matlab.execute(/p=A(:,1);0)result =matlab.execute(/t=A(:,2);0)result =matlab.execute(/p=p .;t=t .;0)

自变量值和目标函数值分别被保存在数组p 和t 中,这样我们就取得了需要训练的数据。由于该一维非线性的函数逼近比较简单,我们构造了一个三层的BP 神经网络结构,其中输入层和输出层都只含一个神经元,隐层包括5个神经元,使用/tansig 0函数作为激活函数,输出层采用/purelin 0函数作为激活函数,训练采用/trai nl m 0算法,我们可以使用如下代码构造该神经网络

result =matlab.execute(/net=newff(minmax(p),[5,1],{.tansig .,.purelin .},.trainlm .);0)

并用/sim 0函数实现该神经网络的仿真

result =matlab.execute(/x=sim(net,p);0)

图3,4,5显示了该函数在训练前,训练后及整个仿真程序的最终结果

:

图3

训练前仿真结果

图4

训练后仿真结果

图5 VB 程序最终仿真结果

我们看到,该网络通过训练后,由输入值计算出的输出值与我们的目标函数值完全吻合。

6 结论

该仿真实例表明,神经网络确实具有很强的函数逼近能

力。只要合理地选择网络的拓扑结构和激活函数,对上文中提到的连续函数都能够极为有效地逼近。参考文献:

[1] Ti anping Chen and Robert Chen,Approxi mation Capability to Func tions

of Several Variables,Nonlinear Functions and Operators by Radial Ba -

sis Functi on Neural Networks,IEEE Transacti on on Neural Net works, May,iss ue,19951

[2]Tianpi ng Chen and Hong Chen,Approximation of Continuous Func tions

by Neural Networks with Applicati on to Dynamic Sys te ms,IEEE Trans-action on Neural Networks,Nov,iss ue,1993.

[3]Tianping Chen and Robert Chen,Universal Approxi mation to Nonlinear

Operators by Neural Net works with Arbitrary Activation Functions and its Application to Dynamic Sys tem,IEEE Transaction on Neural Net-works,Nov,iss ue,19951

[4]段君晓1神经网络的函数逼近能力分析1模糊系统与数学,

1998,12(4)1[5]周永权1前向代数神经网络的函数逼近理论及学习算法1计

算机研究与发展,2000,37(3)1

作者简介

王强(1977-),男,上海交通大学能源工程系硕

士生,研究方向为锅炉燃烧过程的神经网络控制。

余岳峰(1962-),男,上海交通大学能源工程系副

教授,硕士生导师,研究方向为热工过程自动控制,

火焰图像处理。

张浩炯(1977-),男,上海交通大学能源工程系硕士生,研究方向为热工过程的模糊辨识与控制。

Function Approximation Using Artificial Nueral Networks

Wang Qiang,Yu Yuefeng,Zhang Haojiong

(Shanghai Jiao Tong Universi ty,Shanghai200240,C Hina)

ABSTRACT:Neural networks can be used to compu te the relationship between complicated i npu ts and ou tputs,so neural networks have the strong ability to approximate functions.Thi s paper uses the Cybenko.s theory to illustrate that single-hidden layer feed forward neural networks can approximate any function that is defined under certain condi tions.T his paper also gives the simulation example of modeling a nonlinear function and good result obtai ned.

KEY WORDS:Function approxi mation;Artificial neural net work;Matlab;Modeli ng and si mulation

(上接第40页)

YANG Ji,CHEN Nai-Gang,XU Wei

(The Computer T eaching and Researching Section of Changchun Flying Academy Air Force,Jilin Changchun130022,China)

ABSTRACT:In virtual reality,the collision detection bet ween hand and objects in virtual enviornments is a very important subject.Because the complexity of structure of object and the variety of collision resp onse,it is very difficult to provide a general algorithm for all objects.This paper present a real-time accurate algorithm for collision detection between hand and objects in aircraft cabin,such as swi tch,button,oil handle and brake handle.

KEY WORDS:Virtual reality;Data glove;Collision detection

(上接第43页)

Study and Implementation of Algorithm of Dual Suppressing Naks in SRTP

CHEN Gang1,WANG Yuan-yuan2

(1.Institution of Com munications Engineering,PLA Univ.of Sci.&Tech.,Nanjing Jiangsu210016,Chi na;

2.Institution of Com mand Automation,PLA Univ.of Sci.&T ech.,Najing Jiangsu210016,China)

ABSTRACT:SRTP is one of approaches of implementing reliable underlyi ng transmission of R T I.Suppressing redundant NAK can effectually avoid the network congestion.By analyzing the causes of generating local and remote NAK and the mechanis m of suppressi ng them,we amelio-rate the algorithm of suppressin g the remote NAK and i mplement the suppression of local and remote NAKs under the platform of MS-Win-dows.

KEY WORDS:SRTP;NAK;HLA/RTI;Simulation

【科技英语翻译】长句翻译_北京林业大学

【科技英语翻译】长句翻译 例1. Also, most engines have a spill return system, by which any excess fuel from the injector pump and injectors is returned to the fuel tank. 译文:另外,大多数发动机都有一个溢出回油系统,通过该系统,从噴油泵和喷油嘴喷出的过多的油会回流到油箱。 照应译法——过渡词一般采用直译法 例2. Around the world, there were about 806 million cars and light trucks on the road in 2007; they burn over a billion cubic meters of petrol/gasoline and diesel fuel yearly. 译文:2007年,全世界范围内道路上行驶的小汽车和轻型卡车大约有8.06亿辆。每年烧掉的汽油和柴油超过10亿立方米。 换序法-2007应该在后面但是放在了前面 例3. Information technology, together with industrial machinery and processes, can assist design, implementation, and monitoring of control systems. One example of industrial control system is a programmable logic controller (PLC). PLCs are specialized hardened computers which are frequently used to synchronize the flow of inputs from physical sensors and events with the flow of outputs to actuators and events. 译文:信息技术与工业机械和工业生产过程一道,可以帮助控制系统的设计、执行和监控。可编程逻辑控制器(PLC)就是工业控制系统的一个例证。可编程逻辑控制器属于专用硬化计算机,常常用来将(物理)传感器和事件的输入信号与执行机构和事件的输出信号同步。Synchronize同步 还原法——把PLC还原成可编程逻辑控制器 例4. Machines are usually powered by mechanical, chemical thermal, or electrical means, and are often motorized. Historically, a power tool also required moving parts to classify as a machine. However, the advent of electronics technology has led to the development of power tools without moving parts that are considered machines. 译文:机器通常是通过机械能、化学能、热能或电能方式获得动力。并且常常是机动化。历史上,电动工具也要求有活动零件来作为机器分类的标志。但是,电子技术的出现带动了被看作机器但没有活动零件的电动工具的发展。 句中的machine和tool属于近义词 分译法——第一句翻译成了两句(也可以用合译法什么的) 例5. Many mechanical engineering companies especially those in industrialized nations, have begun to incorporate computer-aided engineering (CAE) programs into their existing design and analysis processes, including 2D and 3D solid modeling computer aided design (CAD). 译文:许多机械工程公司,尤其是工业化国家的机械工程公司,已经开始将计算机辅助工程(CAE)程序运用到他们现有的设计与分析过程中包括二维和三维的实体模型计算机辅助设计(CAD)。 还原法。Those指的mechanical engineering companies,机械工程公司

(采用BP神经网络完成非线性函数的逼近)神经网络

控制系统仿真与模型处理设计报告 (采用BP神经网络完成非线性函数的逼近)

1、题目要求: (1)确定一种神经网络、网络结构参数和学习算法。 (2)选择适当的训练样本和检验样本,给出选取方法。 (3)训练网络使学习目标误差函数达到0.01,写出学习结束后的网络各参数,并绘制学习之前、第100次学习和学习结束后各期望输出曲线、实际输出曲线。绘制网络训练过程的目标误差函数曲线。 (4)验证网络的泛化能力,给出网络的泛化误差。绘制网络检验样本的期望输出曲线和网络输出曲线。 (5)分别改变神经网络的中间节点个数、改变网络的层数、改变学习算法进行比较实验,讨论系统的逼近情况,给出你自己的结论和看法。 2、设计方案: 在MATLAB中建立M文件下输入如下命令: x=[0:0.01:1]; y=2.2*power(x-0.25,2)+sin(5*pi*x); plot(x,y) xlabel('x'); ylabel('y'); title('非线性函数'); 得到如下图形,即所给的非线性函数曲线图:

构造一个1-7-1的BP神经网络,第一层为输入层,节点个数为1;第二层为隐层,节点个数为7;变换函数选正切s型函数(tansig);第三层为输出层,节点个数为1,输出层神经元传递函数为purelin函数。并且选Levenberg-Marquardt算法(trainlm)为BP网络的学习算法。对于该初始网络,我们选用sim()函数观察网络输出。继续在M函数中如下输入。 net=newff(minmax(x),[1,7,1],{'tansig','tansig','purelin'},'trainlm'); y1=sim(net,x); figure; plot(x,y,'b',x,y1,'r') title('期望输出与实际输出比较'); xlabel('t'); 则得到以下所示训练的BP网络期望输出与实际输出曲线比较: 应用函数train()对网络进行训练之前,需要预先设置训练参数。将最大训练次数为100次,训练精度设置为0.01,学习速度为0.01。 net.trainParam.epochs=100; net.trainParam.goal=0.001; net.trainParam.lr=0.01; net=train(net,x,y); y2=sim(net,x);

王强谈英语学习

王强,1962年出生于内蒙包头。新东方教育集团董事,北京大学文学学士,美国纽约州立大学计算机硕士,曾任北京大学英语系讲师,纽约州立大学英语系访问学者,美国贝尔传讯研究所软件工程师。 研究领域:语言学,比较文化,计算机科学 成果:发表学术论文、译著多篇,著有《书之爱》和即将推出的英语口语方面的一系列教材 记者:当您在美国申请就读计算机专业硕士学位的面试中,考官似乎对一个英语语言学学士转读计算机专业心存疑惑,但您用准确流利的英语做了精彩的解释,最后在竞争中脱颖而出,还记得当时的“辩词”吗? 王强:对于那一次出色的自我推销,后来连我自己都甚觉惊讶。我是这样向当时的计算机系主任阐述我所学的英语语言学和我希望踏入的计算机领域之间的关系的: ……计算机的运行靠的计算机程序(program),而程序必是以一种程序语言(programming language)来编写的。我迄今的工作是语言的研究和运用。就语言这一层面而言,汉语、英语以至任何其它编程语言,我不认为它们有什么本质上的差别。对我来说,学习和掌握一门编程语言不过是象学会一门方言一样易如反掌。在我现有的对于语言本质的深刻认识的基础上,编程语言的掌握和运用根本不会成为什么难题。其二,计算机科学的骨髓是逻辑。我迄今撰写文学评论方面的各种文章便是逻辑的反复与熟练的运用。对逻辑本质的极高领悟将把我放置在超出您许多初涉计算机科学领域的学习者的前面。其三,任何伟大的科学发现都是与大师们超常的想象力甚至审美能力分不开的。如杨振宁(Frank Yang)的例子。一个好的程式不仅可以无误地运行,它还应具有可读的逻辑的美学清晰性。我文学方面的素养正可以充任这一角色…… 当时能够成功地通过面试,我想有这么几个重要的因素:自信、流利的英语、充实的内容以及逻辑清晰的表述,这一切,不仅为我赢得了美国大学计算机硕士的文凭,还帮我在进入著名的美国贝尔传讯研究所的激烈竞争中一战告捷。 记者:美国人是否都很有口才? 王强:总得来说,很难说美国人都有口才,但与中国人比起来,大多数美国人不会对当众发表意见发怵。可以这样说,第一,美国人自信,从小就学会自信,他在表达观点时,不太考虑什么标准答案,条条框框的东西。因此,各抒己见成了日常生活的习惯。第二,美国人很重视从小培养口才,因为尤其在现代社会,口头交流是推销自己的最直接的手段。当你求职时,雇主不但要看你的书面履历,还要与你面谈,看你是否能清晰并有逻辑地阐述自己的观点,是否能通过口头语言把自己内在的非常优秀的东西呈现出来。在这种情况下,口头交流变得十分重要。因此,在美国,演讲的技能训练始终贯穿在其各级各类的正规教育中。所以,美国人总是有东西说,有些陈述有内容,有些不一定有内容,但即便这样,从语言的流畅性来说,他保证让人不尴尬。所以,美国人给人的感觉是,敢说,能说,

2017北京林业大学英汉互译与英语国家文化考试大纲

北京林业大学2017年 “外国语言文学”硕士研究生招生考试大纲 (英汉互译与英语国家文化) 一、大纲综述 英汉互译与英语国家文化是英汉互译技能和英语国家相关文化知识考试,是英语类考生报考我校“外国语言文学”学术型研究生的专业考试科目之一。为帮助考生明确考试复习范围和有关的考试要求,特制定本考试大纲。 本考试大纲主要依据我国英语专业普遍开设的翻译和文化知识课程进行编制,适用于报考我校“外国语言文学”(方向01-05)硕士研究生的英语类考生(方向06为日语类考生,考试科目和考纲另发)。非英语专业报考本专业的考生,应参照英语专业的相关教材进行自学。 二、考试内容 考生应掌握以下方面的内容: 1. 英汉互译 能够熟练运用加词、减词、转类、换形、断句、合句、换序、转句、转态、正反等翻译手法,熟悉英汉语在词汇、语法、语义、语用、篇章、修辞等方面的差异,以及这些差异在翻译中的处理方法。了解英汉语言的主要文化差异,以及翻译中处理各种文化问题和文化现象的方法。能够进行叙事、科技、旅游、商务、新闻报道、社会问题、文学作品、传统文化等多种题材和体裁的英汉互译。 2. 英语国家社会与文化 英国、美国、加拿大、澳大利亚、新西兰五国概况、历史及社会文化知识。 三、考试要求 本考试为翻译和基本专业知识相结合的考试,考生应掌握基本的英汉互译能力和英语国家社会文化方面的基本知识。 四、考试方式及时间 考试方式为闭卷、笔试,时间为3小时,满分为150分。 五、试卷结构 1. 英译汉:50分,1-2篇,共约400英文词短文。 2. 汉译英:50分,1-2篇,共约500汉字短文。

3. 英语国家社会与文化:50分,选择题、填空题、解词、答题等形式。 六、复习参考书 1. 翻译:考试题目不会选自正式出版的教材或本校讲义,以下教材仅为考生的学习和复习提供一个参考。 陈德彰《英汉翻译入门》第二版,北京:外研社,2012。 陈宏薇、李亚丹主编《新编汉英翻译教程》(第二版),上海:外教社,2010/2013。 冯庆华《实用翻译教程》(第三版),上海:外教社,2010。 冯庆华、陈科芳主编《汉英翻译基础教程》,北京:高教社,2008。 李长栓、施晓菁《汉英翻译案例讲评》,北京:外文出版社,2012。 穆雷主编《英汉翻译基础教程》,北京:高教社,2008。 孙致礼《新编英汉翻译教程》(第二版),上海:外教社,2011/2013。 王振国、李艳琳《新英汉翻译教程》,北京:高教社,2007。 王振国、李艳琳《新汉英翻译教程》,北京:高教社,2014。 杨士焯编著《英汉翻译教程》(第二版),北京:北大,2011。 叶子南《英汉翻译案例讲评》,北京:外文出版社,2011。 Joan Pinkham《中式英语之鉴》,北京:外研社,2000。 2. 英语国家社会与文化 朱永涛、王立礼主编《英语国家社会与文化入门》(第三版,上下册),北京:高等教育出版社,2011。 梅仁毅主编《英语国家社会与文化》,北京:外语教学与研究出版社,2010。 訾缨主编《英语国家概况》,北京:北京大学出版社,2010。

BP神经网络逼近非线性函数

BP神经网络逼近非线性函数3、试用BP神经网络逼近非线性函数 f(u) = )5.0 u(9.1 e+ - sin(10u) 其中,u∈[-0.5,0.5] 解题步骤: ①网络建立:使用“net=newff(minmax(x), [20, 1], {'tansig’,’ purelin' });,语句建立个前馈BP神经网络。该BP神经网络只含个隐含层,且神经元的个数为20。隐含层和输出层神经元的传递函数分别为tansig和pure-lin。其他参数默认。 ②网络训练:使用“net=train (net, x , y) ;”语句训练建立好的BP神经网络。当然在网络训练之前必须设置好训练参数。如设定训练时间为50个单位时间,训练目标的误差小于0.01,用“net.trainParam.epochs=50; net.train-Param.goal=0.01;”,语句实现。其他参数默认。 ③网络仿真:使用“y1=sim(net, x); y2=sim(net, x};”语句仿真训练前后的BP神经网络。 (2)程序如下: clear all; x=[-0.5:0.01:0.5]; y=exp(-1.9*(0.5+x)).*sin(10*x); net=newff(minmax(x),[20,1],{'tansig' 'purelin'}); y1=sim(net,x); %未训练网络的仿真结果net.trainParam.epochs=50; net.trainParam.goal=0.01; net=train(net,x,y); y2=sim(net,x); %训练后网络的仿真结果figure;

钱清教授谈英语学习方法

钱清教授谈英语学习方法 钱清教授谈英语学习方法 阅读简易读物能给我们提供英语句子的最基本成分,学会简单自如的表达方法。例如givein(屈服、让步、递交),giveout(分布、公布、发出),giveaway(捐赠、送掉),giveback(归还), giveup(放弃、终止),giveyourselfup(投降)。这些动词短语都可以用范围更窄的外来词表达,例如giveaway作为"捐赠"可用donate;gaveyourselfup作为"投降"可用surrender;giveout作为"散发"可用distribute等。用词同语法一样,都是英语句子的基本组成部分。掌握了这些。即便词汇量不大,表达能力仍可较强。读简易读物,反复见到一些常用词汇和语法现象便于我们学习一些基本语言现象,例如语法、词汇搭配,又便于巩固已学过的知识使其成为技巧。就像认识人一样:我们见过一次的人往往认不出脸,叫不出名字,语言现象也不是见了一次就会认识使用,英语方法《英语专家钱清教授谈英语学习方法》。但在不同上下文中反复见到的语言现象就容易熟悉,进而逐步掌握。 钱清教授简介: 1932年生于南京。1953年毕业于江苏师大(现苏州大学),1957年入北京外国语学院英语系副博士研究生班。1984年获得美国芝加哥大学哲学博士学位。1958年起在北京外国语学院英语系任教。现为北京外国语大学英语学院教授、博士生导师。任全国美国文学研究会副会长,国际大学英语教授协会会员。 主要著作有《英语会话手册》、《当代英文散文选读》(与吴景荣、丁往道合编)、《美国文学名著精选》(主编)、《英美文学工具书指南》《美国六十年代的实验小说》、《当代美国探索性小说的小说技巧》等书籍和文章。

2020北京林业大学翻译硕士复试分数线高不高

2017北京林业大学翻译硕士复试分数线 高不高 翻译硕士专业学位研究生,即MTI(Master of Translation and Interpreting)是为了适应市场经济对应用型高层次专门人才的需求,国务院学位委员会于2007年1月批准设置的一种专业学位。2008年开始招生,2009年面向应届本科毕业生招生。 MTI教育重视实践环节,强调翻译实践能力的培养。翻译硕士专业学位的培养目标为具有专业口笔译能力的高级翻译人才。翻译硕士专业学位获得者应具有较强的语言运用能力、熟练地翻译技能和宽广的知识面,能够胜任不同专业领域所需的高级翻译工作。 全日制MTI招生对象为具有国民教育序列大学本科学历(或本科同等学力)人员,具有良好的双语基础。作为我国专业硕士之一,MTI不仅面向英语专业的考生,同时也鼓励非外语专业毕业生及有口笔译时间经验者报考,其中非外语专业的毕业生更受到报考院校的欢迎。 2015年北京林业大学翻译硕士复试分数线是375分,政治和外语最低52分;专业课一和专业课二最低78分。 2015年北京林业大学翻译硕士英语笔译专业复试考试内容主要有: 1. 翻译基础知识 2. 英汉互译实践 3. 口语表达与视译 考研复试面试不用担心,凯程老师有系统的专业课内容培训,日常问题培训,还要进行三次以上的模拟面试,确保你能够在面试上游刃有余,很多老师问题都是我们在模拟面试准备过的。 下面凯程老师给大家详细介绍下北林的翻译硕士专业: 一、北京林业大学翻译硕士研究方向 翻译说以的细分研究方向大体分为笔译和口译。笔译要求在英语和汉语方面同时提高,加强两种语言的运用能力和互译能力。会开设英汉、汉英的翻译课程,同时英文写作和关于中文素养的课程也会同时开设。目的是可以在翻译各种文体的文本时,采用恰当的方法以及准确的用语进行翻译工作。口译在交传和同传方面都会有相应的课程开设,同时进行培训,其中包括视译、带稿同传等各种方式。口译更为注重实战经验,培养过程中,模拟回忆或实际回忆的次数非常多。 二、北京林业大学翻译硕士考研难不难 总体来说,北京林业大学翻译硕士招生量较大,考试难度不高,2015年北京林业大学翻译硕士的招生人数为22人(含推免生10人)。根据凯程从北京林业大学研究生院内部的统计数据得知,北京林业大学翻译硕士的考生中90%是跨专业考生,在录取的学生中,基本都是跨专业考的。 在考研复试的时候,老师更看重跨专业学生的能力,而不是本科背景。其次,翻译硕士考试科目里,百科,翻译及基础本身知识点难度并不大,跨专业的学生完全能够学得懂。即使本科学翻译的同学,专业课也不见得比你强多少(大学学的内容本身就非常浅)。凯程每年都有大量二本三本学生考取的,所以记住重要的不是你之前学得如何,而是从决定考研起就要抓紧时间完成自己的计划,下定决心,就全身心投入,要相信付出总会有回报。在凯程辅导班里很多这样三凯程生,都考的不错,主要是看你努力与否。 三、北京林业大学翻译硕士就业怎么样

北京林业大学导师

梁文艳--北京林业大学资源与环境学院导师简介 2006-4-6 14:57:22 北京林业大学 考研共济网 点击浏览:360次 ·[考研一站式]北京林业大学硕士招生相关文章索引 ·[考研一站式]北京林业大学硕士专业课试题、[订购]考研参考书、专业目录 姓 名48号 梁文艳 kaoyangj 性 别济 女336260 37 民 族kaoyangj 汉共济网 48号 政治面貌 200092 党员 考 所在学科院 环境科学共济 职务/职称研 讲师 正门对面 研究方向 正门 水环境科学专 个人简历336 26038 1969年11月15日生,中共党员。北京林业大学资源与环境学院讲师,在读博士。1992年 毕业于北京工业大学环境监测专业,1997年毕业于北京工业大学环境工程专业。 同济大学四平路 成果及正门 获奖情况 336 26038 发表论文:112室 1.电位滴定法测定三苯基锡化合物,北京工业大学学报,1993,20(1).济 2.洗涤吸收法处理饮食业油烟的新探索,环境保护,1999(259). 3.微孔过滤法回收活性炭生产废水中活性炭的研究,环境保护,2000(269). 4.堆浸技术回收铜资源中的污染防治,环境保护,2001(282). 5.《环境工程设计基础》,化学工业出版社,2002年,参加了其中二章的编写。 6.“环境监测”课程教学改革探索,中国林业教育,2003(6). 7.排污费改革几个相关问题的思考,环境保护,2003(312) 8.脉冲变频电磁场对水中藻类的抑制及去除效能,环境科学,2004(4) 9.饮用水处理中藻类去除方法的研究进展,应用与环境生物学报,已接收待发表。 10.《环境评价》,高教教育出版社,参与了其中一章和一节的编写,今年出版。 参加科研课题: 光华木材厂搬迁技改项目中废水环境污染控制研究。 国家自然科学基金项目:强化共聚气浮纳滤技术处理水中有机物的研究(50178009)

BP神经网络在Matlab函数逼近中的应用

燕山大学 模式识别与智能系统导论 题目:BP网络在函数逼近中的应用 专业:控制工程 姓名: X X X 学号:

一BP神经网络及其原理............................................................ - 1 - 1.1 BP神经网络定义............................................................. - 1 - 1.2 BP神经网络模型及其基本原理..................................... - 1 - 1.3 BP神经网络的主要功能................................................. - 3 - 1.4 BP网络的优点以及局限性............................................. - 3 - 二基于MATLAB的BP神经网络工具箱函数 ........................ - 6 - 2.1 BP网络创建函数............................................................. - 7 - 2.2 神经元上的传递函数...................................................... - 7 - 2.3 BP网络学习函数............................................................. - 8 - 2.4 BP网络训练函数............................................................. - 9 - 三BP网络在函数逼近中的应用.............................................. - 10 - 3.1 问题的提出.................................................................... - 10 - 3.2 基于BP神经网络逼近函数......................................... - 10 - 3.3 不同频率下的逼近效果................................................ - 14 - 3.4 讨论................................................................................ - 17 -

怎样学好英语英语演讲稿(精选多篇)

第一篇:怎样学好高中英语 怎样学好高中英语 ? 我们都有一个美好的愿望: 学好英语,邀游英语世界。很多同学想知道:高 中英语到底该怎样学? 首先大家要明确的一个观点就是:英语是不能速成的,学好英语没有捷径可走。有些同学不愿吃苦,只顾投机取巧,钻研方法和技巧,不愿在学习内容上花时间和精力,这部分同学首先要解决的是态度问题。外语学习的过程是练功夫的过程,需要长期坚持不懈的努力。只有端正态度,勤奋和长期坚持,再加上科学的适合自己的学习方法,我们的英语成绩才会进步。 一、积极参与课堂活动。我们现在使用的高中英语教材是新教材,课文短小口语化,主题贴近现实生活,课文中设计了内容丰富并与主题相关的听、说、读、写等开放性的任务型活动和探究性学习的内容。新教材重点强调学生动口动手,而不是死记单词和语法规则。课堂上我们一定要听从老师的指挥,积极参与对话、讨论,发言,要敢于开口,不怕出错,珍惜课堂上的每一分钟,不放弃每一次用英语交流的机会;不会说的也要说。要讲好英语就是要胆子大,脸皮厚。英语是一门实践性 很强的学科,只有大胆实践,才能提高交流能力。 我们要在听力、口语、阅读、写作四项技能上全面发展,听 说领先。高一年级在头2个月我们主要以训练听与说的能力为主,以后逐步加大阅读和书面表达训练。 二、英语学习要重视句子和文章的朗读背诵,以培养语感。学英语记单词很 重要,但机械记忆的单词量再大,也不会真正提高你的英语水平。要做到词不离句,句不离文。请记住:句子比单词重要,记句子比记单词划算。我们要养成背句子的 好习惯,因为句子中既包含了发音规则,又有语法内容,还有词的具体用法。 学过的课文要高声朗读,精彩段落和文章要读透背熟,做过的完形、阅读、单项选择题,听力录音稿也要朗读。朗读也是提高口语的办法。学英语语感很重要,而朗读、背诵,多听多说有助于培养语感。通过大量的朗读背诵,我们的语感形成了,这时候我们的语音语调就更标准,常用句子就能脱口而出,说英语就更自信; 在阅读文章时就能轻易地找到上下文关联的感觉,体会到英语文字的美。 三、英语学习要重视复习。英语知识点多,需要大量记忆。很多同学抱怨,说自己的记性差,记了又忘了。有什么办法能让我们记得长久些,甚至终生不忘?有2个办法。最好的办法以是听课文录音带。反复地听,反复地读,课文中的语言点、词汇在录音带中不断被重复。这跟我们提倡朗读是一个道理,声音对大脑的刺激有助于记忆。记住:英语首先是一门声音,我们要多运用耳朵和嘴巴,要大量进行声音的输 入与输出。想学好英语复读机、录音机是比不可少的。第二,经常复习。要

北京林业大学林学院森林培育考博参考书-导师-资料-分数线-育明考博

北京林业大学林学院森林培育考博参考书-导师-资料-分数线 一、北京林业大学考博资讯 北京林业大学林学院是北林具有鲜明特色、科研教学型的学院,也是北林历史最悠久的学院。学院拥有一支结构合理的师资队伍,学科方向明确,研究成果丰硕。 林学院共有7个专业招收博士生57人,其中生态学招收11人,林业装备与信息化招收6人,土壤学招收4人,森林培育招收12人,森林保护学招收13人,森林经理学招收7人,草学招收4人。 森林培育下设四个方向:第一个方向是林木种苗培育理论与技术,导师是郭素娟、刘勇、尹伟伦;第二个方向是生态林与城市森林培育理论与技术,导师是贾黎明、刘勇、马履一、徐呈洋;第三个方向是用材林与能源林培育理论与技术,导师是苏淑钗;第四个方向是经济林(果树)培育与利用,导师是苏淑钗和谭晓风。各位考生在报考前需要和导师取得联系。 考试科目整个专业是统一的,一共300分,分为三个科目,第一门是英语,第二门专业课森林培育学,第三门是森林生态学。 注意事项: 1、复试成绩=外语口语及听力×10%+专业外语×20%+综合素质×70%;入学总成绩=初试总成绩×(75-50)%+复试成绩×(25-50)%。 2、原则上按考生报考导师录取,同时兼顾考生入学总成绩排名;导师在达到录取基本分数线的考生中有录取决定权。每名导师招生总数原则上不能超过3人(含直博、自主选拔生、少数民族骨干计划生),外聘导师及首次招生导师原则上不能超过1人。 3、达到录取分数线但是没有导师接受者不予录取,所以说提前联系一下导师是非常重要的,育明考博可以协助大家联系到一位称心满意地导师。 二、北京林业大学考博英语内容、题型 北京林业大学博士生英语入学考试时间为180分钟,试题总分为100分。设有词汇、阅读、完型填空、翻译、写作五种题型,不分时间段。考题以一般社交用语、人文知识、科普常识为语言素材、以一般社会生活、学校教育和科研活动为话题,重在考查考生用英语进行社交、工作和科研的能力。 北京林业大学博士生英语入学考试分为五部分。 1.词汇:10分 共20题,每题0.5分。分为两个部分: 1)选择填空:第1-10题每句有一个词语为空白,考生从试卷上给出的A,B,C,D四个答案中选择一个正确答案。

BP神经网络实现函数逼近python实现

机器学习作业一BP神经网络实现函数逼近 一.算法描述 BP(Back Propagation)神经网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用梯度下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(input)、隐层(hidden layer)和输出层(output layer)。 二.数据描述 逼近函数y = sin(x) 三.算法参数 输入学习率,迭代次数,逼近函数,神经网络规模 输出逼近的函数 四.实验流程 反向传播算法(Back Propagation)分二步进行,即正向传播和反向传播。 这两个过程简述如下: 1.正向传播 输入的样本从输入层经过隐单元一层一层进行处理,传向输出层;在逐层处理的过程中。在输出层把当前输出和期望输出进行比较,如果现行输出不等于期望输出,则进入反向传播过程。 2.反向传播 反向传播时,把误差信号按原来正向传播的通路反向传回,逐层修改连接权值,以望代价函数趋向最小。 输入层输入向量(n维):X=(x1,x2,…,xi,…,xn)T 隐层输出向量(隐层有m个结点):Y=(y1,y2,…,yj,…,ym)T 输出层输出向量(l维):O=(o1,o2,…,ok,…,ol)T 期望输出向量:d=(d1, d2,…,dk,…,dl)T 输入层到隐层之间的权值矩阵:V=(V1,V2,…,Vj,…,Vm) 隐层到输出层之间的权值矩阵用:W=(W1,W2,…,Wk,…,Wl) 对输出层第k个结点和隐含层的第j个结点有如下关系:

北京林业大学翻译硕士MTI专业学位

北京林业大学翻译硕士(MTI)专业学位 “英语笔译”专业招生入学考试大纲及参考书目 北京林业大学翻译硕士(MTI)专业学位“英语笔译”专业的入学考试大纲是在2010年教育部专业学位命题指导意见的基础上根据本专业情况制订的,如果教育部在2011年有新的方案将随时另行通知。 一、考试目的 本考试旨在全面考察考生的英汉双语综合能力及双语翻译能力,本校根据考生参加本考试的成绩和《政治理论》的成绩总分(满分共计500分),参考全国统一录取分数线来选择参加复试的考生。 二、考试的性质与范围 本考试是英语笔译翻译硕士专业学位研究生的入学资格考试,除全国统考分值100分的第一单元《政治理论》之外,专业考试分为三门,分别是第二单元外国语考试《翻译硕士英语》,第三单元基础课考试《英语翻译基础》以及第四单元专业基础课考试《汉语写作与百科知识》。 《翻译硕士英语》重点考察考生的英语水平,总分100分。《英语翻译基础》重点考察考生的英汉互译专业技能和潜质,总分150分。《汉语写作和百科知识》重点考察考生的现代汉语写作水平和百科知识,总分150分。 三、考试基本要求 1. 具有良好的英语基本功,掌握6,000个以上的英语积极词汇。 2. 具有较好的双语表达和转换能力及潜质。 3. 具备一定的中外文化以及政治、经济、法律等方面的背景知识。对作为母语的现代汉语有较强的写作能力。 四、考试形式 本考试采取客观试题与主观试题相结合,试题在各项试题中的分布见各门“考试内容一览表”。 五、考试内容和参考书目 见后面分别表述。参考书仅供考试复习时学习和参考。 六、样题 参见《全日制翻译硕士专业学位(MTI)研究生入学考试指南》,外研社2009年11月出版 七、复试笔试科目 笔译:英汉互译,翻译基础知识 参考书同《英语翻译基础》考试(翻译知识部分将以这两本书为主要范围)。

北京林业大学林学院森林保护学考博参考书-导师-资料-黑幕-育明考博

北京林业大学林学院森林保护学考博参考书-导师-资料-黑幕 一、北京林业大学考博资讯 北京林业大学林学院是北林具有鲜明特色、科研教学型的学院,也是北林历史最悠久的学院。学院拥有一支结构合理的师资队伍,学科方向明确,研究成果丰硕。 林学院共有7个专业招收博士生57人,其中生态学招收11人,林业装备与信息化招收6人,土壤学招收4人,森林培育招收12人,森林保护学招收13人,森林经理学招收7人,草学招收4人。 森林保护学下设四个方向:其中第一个方向是森林昆虫学,导师是骆有庆、温俊宝、宗世祥;第二个方向是林木病理学,导师是戴玉成、田呈明、张星耀;第三个方向是昆虫及菌物系统学,导师是戴玉成、田呈明、武三安、崔宝凯;第四个方向是植物检疫,导师是温俊宝。大家需要注意的是考前一定要联系导师。 考试科目整个专业是统一的,一共300分,分为三个科目,第一门是英语,第二门专业课是普通昆虫学,第三门是森林生态学。 注意事项: 1、复试成绩=外语口语及听力×10%+专业外语×20%+综合素质×70%;入学总成绩=初试总成绩×(75-50)%+复试成绩×(25-50)%。 2、原则上按考生报考导师录取,同时兼顾考生入学总成绩排名;导师在达到录取基本分数线的考生中有录取决定权。每名导师招生总数原则上不能超过3人(含直博、自主选拔生、少数民族骨干计划生),外聘导师及首次招生导师原则上不能超过1人。 3、达到录取分数线但是没有导师接受者不予录取,所以说提前联系一下导师是非常重要的,育明考博可以协助大家联系到一位称心满意地导师。 二、北京林业大学考博英语内容、题型 北京林业大学博士生英语入学考试时间为180分钟,试题总分为100分。设有词汇、阅读、完型填空、翻译、写作五种题型,不分时间段。考题以一般社交用语、人文知识、科普常识为语言素材、以一般社会生活、学校教育和科研活动为话题,重在考查考生用英语进行社交、工作和科研的能力。 北京林业大学博士生英语入学考试分为五部分。 1.词汇:10分 共20题,每题0.5分。分为两个部分: 1)选择填空:第1-10题每句有一个词语为空白,考生从试卷上给出的A,B,C,D四个答案中选择一个正确答案。

神经网络作业(函数逼近)

智能控制理论及应用作业 1资料查询 BP 神经网络的主要应用: 人脸识别、风电功率预测、短时交通流混沌预测、高炉熔渣粘度预测、汇率预测、价格预测、函数逼近等 Rbf神经网络的主要应用: 函数逼近、短时交通流预测、模式识别、降水预测、民航客运量预测、遥感影像分析、声纹识别、语言识别、人脸识别、车牌识别、汇率预测 Hopfield网络应用: 车牌识别、图像识别、遥感影像分类、字母识别、交通标志识别、优化计算中的应用、联想记忆存储器的实现、 2 BP编程算法: 2.1 利用样本训练一个BP网络 注:此程序自李国勇书中学习而来 程序部分: function [ output_args ] = bp( input_args ) %UNTITLED Summary of this function goes here % Detailed explanation goes here %此设计为两层BP神经网络,3输入,3隐含层节点,两个输出 %初始化部分: lr=0.05; %%需要给定学习速率 error_goal=0.001; %期望的误差 max_epoch=100000; %训练的最大步长 a=0.9; %惯性系数 Oi=0; Ok=0; %给两组输入,以及目标输出: X=[1 1 1;-1 -1 1;1 -1 1;]; %随便给一组输入输入,训练BP网络

T=[1 1 1 ;1 1 1]; %X=-1:0.1:1; %输入范围 %T=sin(pi*X); %X=[] q=3; %隐含层的节点数自己定义,在此给3个 %初始化 [M,N]=size(X); %输入节点个数为M,N为样本数 [L,N]=size(T); %输出节点个数为L wij=rand(q,M); %先给定加权系数一组随机值 wki=rand(L,q); wij0=zeros(size(wij)); %加权系数矩阵的初始值 wki0=zeros(size(wki)); for epoch=1:max_epoch %计算开始 NETi=wij*X; %各个隐含层的净输入 for j=1:N for i=1:q Oi(i,j)=2/(1+exp(-NETi(i,j)))-1; %再输入作用下,隐含层的输出 end end NETk=wki*Oi; %各个输出层的净输入 for i=1:N for k=1:L Ok(k,i)=2/(1+exp(-NETk(k,i)))-1; %在输入作用下,输出层的输出end end E=((T-Ok)'*(T-Ok))/2; %性能指标函数,就是误差 if(E

怎样学好英语英语发言稿(精选多篇)

怎样学好英语英语演讲稿(精选多篇) 第一篇:怎样学好高中英语 怎样学好高中英语 ?我们都有一个美好的愿望:学好英语,邀游英语世界。很多同学想知道:高中英语到底该怎样学? 首先大家要明确的一个观点就是:英语是不能速成的,学好英语没有捷径可走。有些同学不愿吃苦,只顾投机取巧,钻研方法和技巧,不愿在学习内容上花时间和精力,这部分同学首先要解决的是态度问题。外语学习的过程是练功夫的过程,需要长期坚持不懈的努力。只有端正态度,勤奋和长期坚持,再加上科学的适合自己的学习方法,我们的英语成绩才会进步。 一、积极参与课堂活动。我们现在使用的高中英语教材是新教材,课文短小口语化,主题贴近现实生活,课文中设计了内容丰富并与主题相关的听、说、读、写等开放性的任务型活动和探究性学习的内容。新教材重点强调学生动口动手,而不是死记单词和语法规则。课堂上我们一定要听从老师的指挥,积极参与对话、讨论,发言,要敢于开口,不怕出错,珍惜课堂上的每一分钟,不放弃每一次用英语交流的机会;不会说的也要说。要讲好英语就是要胆子大,脸皮厚。英语是一门实践性很强的学科,只有大胆实践,才能提高交流能力。 我们要在听力、口语、阅读、写作四项技能上全面发展,听

说领先。高一年级在头2个月我们主要以训练听与说的能力为主,以后逐步加大阅读和书面表达训练。 二、英语学习要重视句子和文章的朗读背诵,以培养语感。学英语记单词很重要,但机械记忆的单词量再大,也不会真正提高你的英语水平。要做到词不离句,句不离文。请记住:句子比单词重要,记句子比记单词划算。我们要养成背句子的好习惯,因为句子中既包含了发音规则,又有语法内容,还有词的具体用法。 学过的课文要高声朗读,精彩段落和文章要读透背熟,做过的完形、阅读、单项选择题,听力录音稿也要朗读。朗读也是提高口语的办法。学英语语感很重要,而朗读、背诵,多听多说有助于培养语感。通过大量的朗读背诵,我们的语感形成了,这时候我们的语音语调就更标准,常用句子就能脱口而出,说英语就更自信;在阅读文章时就能轻易地找到上下文关联的感觉,体会到英语文字的美。 三、英语学习要重视复习。英语知识点多,需要大量记忆。很多同学抱怨,说自己的记性差,记了又忘了。有什么办法能让我们记得长久些,甚至终生不忘?有2个办法。最好的办法以是听课文录音带。反复地听,反复地读,课文中的语言点、词汇在录音带中不断被重复。这跟我们提倡朗读是一个道理,声音对大脑的刺激有助于记忆。记住:英语首先是一门声音,我们要多运用耳朵和嘴巴,要大量进行声音的输

2017北京林业大学翻译硕士考研初试参考书

2017北京林业大学翻译硕士考研初试参 考书 翻译硕士专业学位研究生,即MTI(Master of Translation and Interpreting)是为了适应市场经济对应用型高层次专门人才的需求,国务院学位委员会于2007年1月批准设置的一种专业学位。2008年开始招生,2009年面向应届本科毕业生招生。 MTI教育重视实践环节,强调翻译实践能力的培养。翻译硕士专业学位的培养目标为具有专业口笔译能力的高级翻译人才。翻译硕士专业学位获得者应具有较强的语言运用能力、熟练地翻译技能和宽广的知识面,能够胜任不同专业领域所需的高级翻译工作。 全日制MTI招生对象为具有国民教育序列大学本科学历(或本科同等学力)人员,具有良好的双语基础。作为我国专业硕士之一,MTI不仅面向英语专业的考生,同时也鼓励非外语专业毕业生及有口笔译时间经验者报考,其中非外语专业的毕业生更受到报考院校的欢迎。 北京林业大学翻译硕士初试参考书很多人都不清楚,这里凯程北京林业大学翻译硕士王牌老师给大家整理出来了,以供参考: 《新英汉翻译教程》王振国、李艳琳高等教育出版社2007 《新编汉英翻译教程》第二版陈宏薇、李亚丹高等教育出版社上海外教社 《英译中国现代散文选》张培基(三册中至少一册) 《高级翻译理论与实践》叶子南 《中国文化概要》陶嘉炜北京大学出版社 《中国文化读本》叶朗朱良志 《现代应用文写作大全》修订版康贻祥金城出版社 《百科知识考点精编与真题解析》,李国正光明日报出版社 提示:以上书比较多,有些书的具体内容是不需要看的,凯程授课老师届时会给大家详细讲解每个重点的内容,减少大家盲目复习。 下面凯程老师给大家详细介绍下北林的翻译硕士专业: 一、北京林业大学翻译硕士研究方向 翻译说以的细分研究方向大体分为笔译和口译。笔译要求在英语和汉语方面同时提高,加强两种语言的运用能力和互译能力。会开设英汉、汉英的翻译课程,同时英文写作和关于中文素养的课程也会同时开设。目的是可以在翻译各种文体的文本时,采用恰当的方法以及准确的用语进行翻译工作。口译在交传和同传方面都会有相应的课程开设,同时进行培训,其中包括视译、带稿同传等各种方式。口译更为注重实战经验,培养过程中,模拟回忆或实际回忆的次数非常多。 二、北京林业大学翻译硕士考研难不难 总体来说,北京林业大学翻译硕士招生量较大,考试难度不高,2015年北京林业大学翻译硕士的招生人数为22人(含推免生10人)。根据凯程从北京林业大学研究生院内部的统计数据得知,北京林业大学翻译硕士的考生中90%是跨专业考生,在录取的学生中,基本都是跨专业考的。 在考研复试的时候,老师更看重跨专业学生的能力,而不是本科背景。其次,翻译硕士考试科目里,百科,翻译及基础本身知识点难度并不大,跨专业的学生完全能够学得懂。即

相关文档
相关文档 最新文档