文档库 最新最全的文档下载
当前位置:文档库 › Decision Rule Extraction from Trained Neural Networks Using Rough Sets

Decision Rule Extraction from Trained Neural Networks Using Rough Sets

Decision Rule Extraction from Trained Neural Networks Using

Rough Sets

Alina Lazar and Ishwar K. Sethi

Vision and Neural Networks Laboratory

Department of Computer Science

Wayne State University

Detroit, MI 48202

ABSTRACT

The ability of artificial neural networks to learn and generalize complex relationships from a collection of training examples has been established through numerous research studies in recent years. The knowledge acquired by neural networks, however, is considered incomprehensible and not transferable to other knowledge representation schemes such as expert or rule-based systems. Furthermore, the incomprehensibility of knowledge acquired by a neural network prevents users to gain better understanding of a classification task learned by the network.

The aim of the present paper is to describe a method that can help to make the knowledge embedded in a trained neural network comprehensible, and thus transform neural networks into a powerful knowledge acquisition tool. Our method is based on rough sets, which offer a useful framework to reason about classification knowledge but lack in generalization capabilities. Unlike many existing methods that require training examples as well as the trained network to extract the knowledge embedded in numerical weights, our method works only with the weight matrix of trained network. No training examples are required. The suggested method has been applied to several trained neural networks with great success. Keywords:Rough Sets and Data Mining, Artificial Neural Network, Rule Extraction.

1. Introduction

Knowledge can be seen as organized data sets, with the ability to perform classification. Hence a formal framework capable of reasoning about classifications and delivering implicit facts from explicit knowledge would be very helpful.

Artificial neural networks and expert system can be combined to obtain such a framework. For neural networks the knowledge database is the neural network which is automatically created, from the training examples, when the learning algorithm is run. The knowledge is represented by the weights of the connections between the neurons, the threshold values and the activation function. Because of the implicit knowledge representation, it is not possible to identify for a problem the description at the neuron level. This is why neural networks are often named "black boxes". On the other side in the conventional expert systems knowledge representation is based on rules. Because of the explicit knowledge representation, these systems have explanatory abilities, are readable and interpretable but they are difficult to construct. The advantages and disadvantages of the neural network systems and rule-based systems are complementary, so it is desirable to integrate the advantages of both types of systems.

One way is to extract input-output decision rules from a trained feedforward neural network. The extracted rules can be used to understand better the internal representation developed by the network, to extend neural network systems to "safety-critical" problem domains, to improve the generalization of neural networks solutions2, for data mining, for knowledge acquisition for symbolic artificial intelligent systems.

Several methods to perform rule extraction have been suggested in the literature. Sethi and Yoo described an approach for symbolic mapping9, 10 of neurons in neural networks, based on the assumption that hidden units often take on extreme values and thus can be approximated as perceptrons. This assumption allows each neuron and the whole network to be represented in a symbolic Boolean form or in a symbolic multivalued form. A backtracking search procedure is used to perform the symbolic mapping.

The aim of this paper is to improve Sethi and Yoo's approach9, 10 by using the rough logic instead the backtracking search for the symbolic mapping. The proposed method consists of three main stages. During the first stage, a completely specified decision table is constructed using the trained neural network and knowledge about the domain of each the neural network

inputs. The second stage consists of applying rough logic to the completely specified decision table to find a reduced decision table. The third stage consists of applying a greedy algorithm to select the minimal set of decision rules exhibiting the classification behavior of the trained neural networks.

The organization of the paper is as follows. Section 2 briefly describes the symbolic mapping approach to rule extraction; Section 3 presents some theoretical facts about rough sets; Section 4 describes our new method for rule extraction; Section 5 contains a experimental comparison using two data sets for the two symbolic mapping methods. Finally, Section 6 contains the summary of the work, the discussion and the future work.

2. Symbolic Rule Extraction

The symbolic approach9, 10 for rule extraction uses a trained neural network, the neural network weights and the threshold values in order to generate an equivalent propositional logic rule set. First, an admissible transformation of threshold logic allows all negative weights to be converted to positive weights for a unified treatment. Then, the transformed weights are used as inputs for a backtracking search procedure. The extension from Boolean logic representation to multiple-valued logic representation (MVL) allows integer multiple-values for each input neuron not only binary values. An encoding scheme is used to represent the multiple-valued variables in [0, 1.0] interval.

2.1. Symbolic Representation of a Neuron (SM)

The symbolic mapping of a neuron is based on the assumption that the neurons in a feedforward neural network, after training, take on extreme values and effectively implement a threshold function, even if they have either a logistic or hyperbolic tangent function. Given the input weights and the threshold value along with the encoding scheme, the Boolean function represented by a perceptron can be obtained as follows:

(1) list all possible input combinations and corresponding summations of weights; (2) for each summation greater or equal to the threshold, set the Boolean function value to 1 and form a product term represent the input combination; (3) express the product terms in a simplified disjunctive normal form.

When the number of neurons increases this kind of exhaustive enumeration procedure becomes unmanageable. A backtracking search procedure seems to be a good solution, both for binary inputs9 and MVL inputs10.

2.2. Backtracking Search for Symbolic Mapping

The backtracking search makes use of two functions: the bounding function and the solution function. The bounding function eliminates the possibility of generating any unnecessary subpath that cannot lead to a solution, while the solution function ensures that no unnecessary subpath , which cannot lead to a solution is generated.

The algorithm first converts any negative weight to a positive weight using an admissible transformation. For the binary case, the inputs are sorted by the corresponding weight values. For the multivalued inputs the ordering is done based not only on the corresponding weights but also on the encoding of each multivalued variable, as different variables may not have the same encoding representation. Then a backtracking search tree is grown using the bounding and the solution functions. From the tree a binary or multivalued Boolean function is obtained. Because it is a backtracking search the maximum time is exponential.

3. Rough Sets

Rough set theory8 was designed to analyze the classification of imprecise, uncertain or incomplete data. This theory is based on finite sets, equivalence relations and cardinalities. It can be used for decision making or classification, data analysis, discovering dependencies in data, and data reduction or information extraction.

3.1. Basic Notions

An information system is a data table where each column is labeled by an attribute, and an object labels each row. Each row represents some piece of information about the corresponding object.

Formally, an information system can be defined as a pair (U, A) where U is a non empty, finite set called universe and A is a nonempty, finite set of primitive attributes .

A decision table (Table 1) is a simple way of looking at an information system. Let S=(U, A) be an information system and let C, D be two subsets of attributes. C and D are called condition and decision attributes, respectively. A decision table is an information system with distinguished condition and decision attributes. Usually the set of decision attributes has the cardinallity equal with one.

One of the most important concepts in rough set theory is the indiscernability relation . For each possible subset of condition attributes an indiscernability relation is an equivalence relation, where two objects are in the same partition if and only if they can not be discerned from each other on the basis of attributes B.

,A B ?Subsets of interest are sets of objects with the same value for the decision attribute. We can define the lower approximation of a set, as the set formed from the objects that "certainly" belong to the subset of interest and the upper approximation of a set, as the set formed from the objects that "possibly" belong to the subset of interest. Now, a rough set is any subset defined through its lower and upper approximation.

3.2. Reducts

All the subsets that preserve the indiscernability relation and are minimal are called reducts . We can define the reducts relative to the decision attribute d or relative to an object . A decision table related reduct is said to be relative with the decision attribute d if it preserves the partition related with the decision classes, but not necessarily the full indiscernability relation. A -relative reduct keeps the minimum amount of information needed to discern the object . This kind of reduction preserves the object-related discernability. ,A B ?k x k x k x

3.3. Decision Systems (Table 2)

A decision rule is an implication, of type s p →. For each object, certain values of the condition attributes determine the value of the decision attribute. We define a decision system as a finite collection or set of decision rules. The order of the rules does not matter as in the case of an algorithm. Any subset of any decision system is a decision system, itself.

3.4. Decision System Minimization

In order to obtain a decision system with a minimum number of rules, superfluous decision rules associated with the same decision class should be eliminated without disturbing the decision making process.

Let D be a basic decision system and let S=(U, A) be an information system. The set of all decision rules in D having the same successor s , as a decision attribute value, is denoted by D s . We can say that D s is the decision subsystem associated with class s . The set of all predecessors, condition attributes values, of decision rules belonging to D s , is denoted by P s .

We say that a decision rule s p →from D is dispensable in D if the disjunction of all elements in P s is equivalent with the disjunction of all elements in P s \{s }. Otherwise the rule is indispensable.

If every decision rule belonging to D s , is indispensable the decision system D s is said to be independent . A subset D' of D , is a reduct decision system, if D' is independent and the disjunction of all elements in P s is equivalent with the disjunction of all elements in P s '.

A decision subsystem D s associated with class s is reduced , if the reduct of D s , it is D s itself. For a decision system, if all its decision subsystems D s are reduced, we say that it is minimal.

Let consider the decision table from Table 1. The associated decision system is shown in Table 2. The above theory implies that there are 2 minimal decision subsystems for class 1.

1

01101

01.2.1e d a d b e b a →∨→

The set of objects from class 1 is {1, 2}. Rule number one covers the set {1,2}. Rule number two also, covers the set {1,2}, where the set {1} is covered by the condition and the set {2} is covered by a . We have to choose between the two minimal decision systems that are shown below:

10d b 01d 2

201101

01e d e d b a e b a →→∨→

2

2011010110e d e d b a e d a d b →→∨→∨

3.5 Minimization Algorithm for Decision Systems (DSM)

Several minimal decision systems can be derived from a decision table. For general applications it is necessary to compute all the decision systems. However, if we are interested in a compact decision system we will look not only at the number of decision rules but also at the number of conditions for each rule. We want our decision system to be minimal in terms of the number of rules and of the number of conditions. For the example given above the first decision system has less conditions than the second one. The steps of the Decision System Minimization Algorithm are:

1. Having the reduced decision table for a set of objects U , establish the initial decision subsystems for each class;

2. For each decision subsystem or for each class repeat steps 3 to 8;

3. Initialize an empty set S ;

4. Compute the union R of set S with the set of objects covered by each decision rule for the initial decision system;

5. Find the decision rule, which has the greatest cardinality for the set R associated. This means that we are looking for the

decision rule that covers the greatest number of objects in set S. If there are several such rules choose the rule with minimum number of conditions. Memorize the decision rule;

6. Make the union between S and the set of objects covered by the chosen decision rule;

7. If S is not equal with the set of objects U go to step 3;

8. Generate the symbolic representation in disjunctive normal form for the minimal decision system for this class.

4. Extraction of Knowledge

Having in mind the rough set approach and having the input weights and the threshold values for the given trained feedforward neural network, the decision rules represented by a network of perceptrons can be obtained in the following way: ? Complete the decision table, by listing all input data and the corresponding summation weights. For each summation that

is greater than or equal to the threshold value set the Boolean function to 1, else to 0.

? Simplify the decision table. First, find the reducts for the condition attribute set (full discernability). Remove duplicate

rows. Find value-reducts of condition attributes (object discernability). Again, remove redundant decision rules. We used Rosetta system 8, 9 for the computation of the reducts and for the rule generation (Table 2).

? Apply the Decision System Minimization Algorithm(DSM) and find a minimal decision rule set.

5. Examples

5.1 Lupus Example

In the Lupus decision table every object corresponds to a patient's record and every attribute is a diagnostic criteria, used to determine the presence of Systematic Lupus Erthematosus (SLE). There are 11 symptoms that are used as diagnostic criteria. The presence of four or more of these criteria in a patient implies the diagnosis of SLE. 1000 patient cases were considered, half with the diagnosis and half without, under the assumption of independence of each symptom. 500 cases were used for training the feedforward neural network and obtaining the weights. We considered two representations.

First, each patient is represented as an 11-componet binary vector ],...,['1121x x x X =. Applying the binary SM procedure 9 we found an expression of 125 terms, 56 terms of 3 conditions, 67 terms of 4 conditions and 2 terms of 2 conditions, total of 440 conditions.

Applying the new DSM we found an expression of 125 terms, 3 terms of 5 conditions, 64 terms of 4 conditions, and 59 terms of 2 conditions, total of 439 conditions.

For this first representation the performance for the two methods is almost the same. The rule expression is big and therefore, hard to handle.

The second representation consisted in a 4-component compact MVL representation ],,,['4321y y y y Y =for each patient. The relationship between the two representations is: . The input domain for

and is {0, 1}, for is {0, 1, 2, 3, 4} and for is {0, 1, 2, 3, 4, 5}.

11410

6

,x y x i =∑=3

5

2

211,,y

x y x y i i i ==

=∑=31y 4y 2y y Applying MVL symbolic mapping a 7 terms expression with a total of 50 conditions was found. For the DSM a 7 terms expression and a total of 14 conditions was obtain. The rules obtained for the class 1, are shown in Table 3. Putting together all these rules we obtain the following expression:

}

1{3}1{2}1{1}4,3,2,1{3

}2{2}4,3{3}1{2}4,3,2{3}1{1}2{2}1{1}5{3}4,3{21y y y y y y y y y y y y y d ∨∨∨∨∨∨=. In this case the number of rules in the decision system is much smaller than for the binary representation, no matter which of the two methods is used. Shorter decision systems are better from the practical point of view, because an expert can use them much easier. Now, comparing the two methods, the expression generated by our method DMS is shorter than the expression obtained with the MLV SM approach.

5.2 User Example

User data 7 consists from a set of 49 two-dimensional continuous examples and is shown in Figure 1. This data belongs to two classes of computer usage at University of London Computer Center. Like for the MVL SM approach, in order to apply the DMS method we have to quantize the data first. After quantization 7 the decision table from Table 4. was obtained. The following rules were generated applying MVL SM approach:

}

2{1

}2{2}

0{1

}1{2}3,2{1

}1,0{2}

0{2

0}

3{1

}2{2}1{1}1{2}1,0{1}3,2{2}3{21a

a a

a a a

a c a a a a a a a c ∨∨∨=∨∨∨=

Applying our DMS method we obtained better results in terms of the length of the expression. The generated rules are shown in Table 5. The expressions for both classes are:

}2{2

}2{1}1{2

}3,2,0{1

}

0{2

0}

1{2}1{1}2{2}3,1,0{1

}3{21a

a a

a

a c a a a a a c ∨∨=∨∨=

Again, we can observe that our method, the DMS method, generates shorter expressions or decision systems even in this case when the data size is small.

6. Summary

This paper presented briefly the symbolic mapping approach to rule extraction and then the rough set approach and the DSM algorithm. Both approaches reveal the knowledge embedded in the numerical weights of a feedforward neural network with binary, MVL, or continuous inputs. We have shown on two examples that our method generates better results in terms of number of rules and number of conditions.

For the binary example, the binary Lupus data, the results are almost the same. The second example, the MVL Lupus data, gives us a much shorter expression, which can be used easier by an expert. Also, the expression generated by the DSM is shorter than the one generated by the MVL SM. The same thing was observed in the case of the continuous example, on User data. In this case for both approaches the continuous inputs were first transformed in MVL inputs through a quatization process.

The rules generated by the rough sets approach and DSM algorithm covered all the objects from the initial decision table. The only problem is how accurate was the output generated by the neural network.

Our method can be viewed as a rule-based classifier system based on neural networks, rough set theory and Boolean reasoning. Neural networks provide a good generalization for data. Rough sets theory manages very well MVL data in order to perform classifications and extract rules.

Further work will be done in order to show the importance of the neural networks in this hybrid system. We want to generate two decision systems: one from the decision table that contains all combinations of input values and the other from the

decision table that contains only the training examples. Then, we will perform the classification with the two decision systems on testing data and compare the results. We expect that the results for the first decision system will be better, fact that will prove the necessity of using neural networks to construct the initial decision table.

REFERENCES

1.R. J. H. Filer, I. K. Sethi, J. Austin, 1996, "A Comparison between Two Rule Extraction Methods for Continuous Input

Data", Proc. of NIPS Workshop on Rule Extraction from Trained Neural Network, Snowness, Colorado.

2.J. Jelonek, K. Krawiec, R. Slowinski, J. Stefanowski, J. Szymas, 1993, "Neural Networks and Rough Sets - Comparison

and Combination for Classification of Histological Pictures", Proc. of International Workshop on Rough Sets and

Knowledge Discovery (RSKD'93), Banff, Alberta, Canada, pp. 426-433.

3.P. Lingras, 1996, "Unsupervised learning using rough Kohonen neural networks classifiers", Proc. of Symp. on

Modeling, Analysis and Simulation, CESA'96, Lille France, pp. 753-757.

4.P. Lingras, 1997, "Comparison of neofuzzy and rough neural networks", Proc. of the fifth Inter. Workshop on Rough

Sets and Soft Computing, RSSC'97, Durham.

5. A. ?hrn, J. Komorowski, 1997, "Rosetta - A Rough Set Toolkit for Analysis of Data", Proc. Third International Joint

Conference on Information Sciences, Durham, NC, USA, March 1-5, Vol. 3, pp. 403-407.

6. A. ?hrn, J. Komorowski, A. Skowron, P. Synak, 1998, "The Design and Implementation of a Knowledge Discovery

Toolkit Based on Rough Sets: The ROSETTA System", Rough Sets in Knowledge Discovery, L. Polkovski and A.

Skowron (eds.), Physica Verlag, Heidelberg, Germany.

7. A. ?hrn, L. Ohno-Machado, T. Rowland, 1998, "Building Manageable Rough Set Classifiers", Proc. AMIA Annual Fall

Symposium, pages 543-547, Orlando, FL.

8. 4. Z. Pawlak, 1991, Rough Sets - Theoretical Aspects of Reasoning about Data, Kluwer Academic Publishers.

9.I.K. Sethi and J.H. Yoo, 1996a, "Symbolic Mapping of Neurons in Feedforward Networks," Pattern Recognition Letters,

Vol. 17, pp. 1035-1046.

10.I.K. Sethi and J.H. Yoo, 1996b, "Multiple-Valued Logic Representation of Neurons in Feedforward Networks,"

Engineering Intelligent Systems, Vol. 4, pp. 243-253.

Table 1.Decision Table Example Table 2. Decision System Example

Table 3. Decision Subsystem for Class 1, Lupus Data Table 4. Quatized User Data

Figure 1. User Data Table 5. Decision System for User Data

月经的时间是什么时候

如对您有帮助,可购买打赏,谢谢 月经的时间是什么时候 导语:月经的人每个女性来说,是正常女性应该每个月都要来的生理期,那么在生理期的时候,女性朋友们有没有好好的照顾自己呢,对于生理期的理解, 月经的人每个女性来说,是正常女性应该每个月都要来的生理期,那么在生理期的时候,女性朋友们有没有好好的照顾自己呢,对于生理期的理解,不知道大家有没有很好的正确的认识呢,对于月经的时间来说大家知道到底是什么时候吗?正常的月经时间是什么样的呢?下面我们就来一起学习一下关于月经的时间。 出血(即经血来潮)的第一天称为月经周期的开始,两次月经第一天的间隔时间称为一个月经周期,一般为28~30天,和农历一个月的时间差不多。周期长短因人而异,偶而提前或延后不超过7天仍可视为正常,即月经周期不应少于21天,也不能超过35天。妊娠及哺乳期月经会停止。 女人月经期一般是几天?经期是指经血来潮的持续时间。正常月经持续2~7天,一般为4~5天。经量是指经期排出的血量。月经量的多少很难统计,临床上常用每日换多少次月经垫粗略估计量的多少。有人测定正常人月经血量约为10~58ml,个别妇女月经量可超过100ml。有人认为每月失血量多于80ml即为病理状态。一般月经第2~3天的出血量最多。由于个人的体质、年龄、气候、地区和生活条件的不同,经量有时略有增减,均属正常生理范畴。 经色是指月经血的颜色。月经血一般呈暗红色,开始色较浅,以后逐渐加深,最后又转为淡红色而干净。除血液外,尚含有子宫内膜碎片、子宫颈粘液及阴道上皮细胞。月经血的主要特点是不凝固,但在正常情况下偶尔也有一些小凝块。 生活中的小知识分享,对您有帮助可购买打赏

上海交通大学医学院附属瑞金医院放射科简介

上海交通大学医学院附属瑞金医院放射科简介 瑞金医院放射科目前为影像医学与核医学专业硕士、博士及博士后培养点,上海市住院医师规范化培训考核基地。科室现有高级职称人员18名,博士生导师2名,硕士生导师4名,在读博士研究生和硕士研究生20余名,每年招收进修医师25-30名。拥有多层螺旋CT 4台,磁共振检查仪3台,平板DSA设备3台及数字胃肠机、数字平板钼靶机、DR、CR等大型医疗设备。放射科已有完整的PACS和RIS系统,放射科的数字化建设已走在全国的前列。每年承办国家级继续教育学习班3-4项,主持国际多中心研究多项。近年来成功地主办、协办了多次大型国际性及区域性会议。科室与比利时、法国、美国等相关大学医院建立了多项合作交流项目,每年接待国外来访学者多批,并每年排除进修人员多名。2006年同比利时自由大学医院共同举办了中比神经影像研讨会,在上海、北京、杭州三地举行,受到了相当的好评。科室具有较强的师资队伍,在法文、英文教学方面具有特色,目前承担了上海市教委的影像学精品课程项目。 放射专业逐步形成了骨关节疾病、内分泌疾病、消化道和胰腺疾病、乳腺疾病、颅神经病变等方面的传统诊疗特色,开展了众多具有国际先进水平的特色项目:各类肿瘤或肿瘤样病变CT导引下的穿刺病理活检术;全身范围的多层CTA 检查;面肌痉挛和三叉神经痛的磁共振诊断;磁共振功能成像对脑认知的研究;乳腺癌影像学早期诊断;肾上腺病变的介入性治疗;肾动脉球囊扩张或内支架成形术治疗肾血管性高血压;CT引导下经皮治疗腰突症所致的坐骨神经根炎;半导体激光对原发及转移性肿瘤的姑息治疗;半导体激光治疗骨样骨瘤等。学科目前承担国家自然科学基金1项、上海市重大课题项目4项、市科委、市教委、市卫生局等基金及其它各类基金近20项;近年来获上海市科学技术进步“三等奖”2项、上海市医学科技奖“三等奖”2项。 联系导师简介 陈克敏,男,1951年1月出生,教授、主任医师 放射科主任,1976年毕业于上海第二医学院医学系,长期从事放射诊断和介入治疗的临床、教学和研究工作。目前担任中华医学会放射学分会委员、中国医学影像技术研究协会放射学分会副主任委员、上海放射学会副主任委员、国家

中国大学软件报告专业大学排名和大学名单.doc

2019年中国大学软件工程专业大学排名和 大学名单 中国大学软件工程专业大学排名和大学名单 在最新公布的中国校友会网中国大学软件工程专业大学排名和大学名单中,北京大学、清华大学、国防科学技术大学的软件工程专业荣膺中国六星级学科专业,入选中国顶尖学科专业,位居全国高校第一;浙江大学、北京航空航天大学、华东师范大学的软件工程专业荣膺中国五星级学科专业美誉,跻身中国一流学科专业。上海交通大学、复旦大学、武汉大学、南京大学、吉林大学、中山大学、华中科技大学、四川大学、中国科学技术大学、山东大学、西安交通大学、哈尔滨工业大学、同济大学、天津大学、东南大学、湖南大学、西北工业大学、大连理工大学、北京理工大学、重庆大学、东北大学、西北大学、苏州大学、南京航空航天大学、北京邮电大学、北京工业大学、解放军理工大学等高校的软件工程专业入选中国四星级学科专业,跻身中国高水平学科专业。 2014中国大学软件工程专业排行榜 名次一级学科学科专业星级学科专业层次学校名称2014综合排名办学类型办学层次1软件工程6星级中国顶尖学科专业北京大学1中国研究型中国顶尖大学1软件工程6星级中国顶尖学

科专业清华大学2中国研究型中国顶尖大学1软件工程6星级中国顶尖学科专业国防科学技术大学中国研究型中国一流大学4软件工程5星级中国一流学科专业浙江大学6中国研究型中国一流大学4软件工程5星级中国一流学科专业北京航空航天大学21中国研究型中国一流大学4软件工程5星级中国一流学科专业华东师范大学24中国研究型中国一流大学7软件工程4星级中国高水平学科专业上海交通大学3中国研究型中国一流大学7软件工程4星级中国高水平学科专业复旦大学4中国研究型中国一流大学7软件工程4星级中国高水平学科专业武汉大学5中国研究型中国一流大学7软件工程4星级中国高水平学科专业南京大学8中国研究型中国一流大学7软件工程4星级中国高水平学科专业吉林大学9中国研究型中国一流大学7软件工程4星级中国高水平学科专业中山大学10中国研究型中国一流大学7软件工程4星级中国高水平学科专业华中科技大学12中国研究型中国一流大学7软件工程4星级中国高水平学科专业四川大学13中国研究型中国一流大学7软件工程4星级中国高水平学科专业中国科学技术大学14中国研究型中国一流大学7软件工程4星级中国高水平学科专业山东大学16中国研究型中国一流大学7软件工程4星级中国高水平学科专业西安交通大学18中国研究型中国一流大学7软件工程4星级中国高水平学科专业哈尔滨工业大学20中国研究型中国一流大学7软件工程4星级中国高水平学科专业同济大学22中国研究型中国一流大学7软件工程4星级中国高水平学科专业天津大学23中国研究型中国一流大学7软件工程4星级中国高水平学科专业东南大学25中国研究型中国一流大学7软件工程4星级中国高水平学科专业湖南大学28中国研究型中国高水平大学7软件工程4星级中国高水平学

慕课 离散数学 电子科技大学 课后习题十 答案

作业参考答案——10-特殊图 1.(a)(c)(d)是欧拉图,(a)(b)(c)(d)(e)可以一笔画,(a)(b)(c)(d)(e)(f)(g)是 哈密顿图。 2.根据给定条件建立一个无向图G=,其中: V={a,b,c,d,e,f,g} E={(u,v)|u,v∈V,且u和v有共同语言} 从而图G如下图所示。 a b c d e f g 将这7个人围圆桌排位,使得每个人都能与他两边的人交谈,就是在图G 中找哈密顿回路,经观察上图可得到两条可能的哈密顿回路,即两种方案:abdfgeca和acbdfgea。 3.证明(法一):根据已知条件,每个结点的度数均为n,则任何两个不相邻 的结点v i,v j的度数之和为2n,而图中总共有2n个结点,即deg(v i)+ deg(v j)?2n,满足哈密顿图的充分条件,从而图中存在一条哈密顿回路,当然,这就说明图G是连通图。 证明(法二):用反证法,假设G不是连通图,设H是G的一个连通分支,由于图G是简单图且每个结点的度数为n,则子图H与G-H中均至少有n+1个结点。所以G的结点数大于等于2n+2,这与G中结点数为2n矛盾。所以假设不成立,从而G是连通图。 4.将n位男士和n位女士分别用结点表示,若某位男士认识某位女士,则在 代表他们的结点之间连一条线,得到一个偶图G,假设它的互补结点子集V1、V2分别表示n位男士和n位女士,由题意可知V1中的每个结点度 1

数至少为2,而V2中的每个结点度数至多为2,从而它满足t条件t=1,因此存在从V1到V2的匹配,故可分配。 5.此平面图具有五个面,如下图所示。 a b c d e f g r1r2 r3 r4 r5 ?r1,边界为abca,D(r1)=3; ?r2,边界为acga,D(r2)=3; ?r3,边界为cegc,D(r3)=3; ?r4,边界为cdec,D(r4)=3; ?r5,边界为abcdefega,D(r5)=8;无限面 6.设该连通简单平面图的面数为r,由欧拉公式可得,6?12+r=2,所以 r=8,其8个面分别设为r1,r2,r3,r4,r5,r6,r7,r8。因是简单图,故每个面至少由3条边围成。只要有一个面是由多于3条边所围成的,那就有所有面的次数之和 8∑ i=1 D(r i)>3×8=24。但是,已知所有面的次数之和等于边数的两倍,即2×12=24。因此每个面只能由3条边围成。 2

陕西师范大学招生计划录取人数及招生专业目录(文科理科).doc

2019年陕西师范大学招生计划录取人数及招生专业目录(文科理科) 陕西师范大学招生计划录取人数及招生专业目录(文科理科) 更新:2018-11-29 11:48:29 2019年陕西师范大学招生计划录取人数及招生专业目录(文科理科) 选择可以说在很大程度上影响着考生后半生的生活方向和轨迹,很多考生因为高考填志愿时没有足够重视,要么浪费了不少分数;要么学了不喜欢的专业,在大学里感觉“痛不欲生”。 俗话说“七分考,三分报”,正是说明志愿填报的重要性。那么如何填报志愿,填报志愿时选大学应主要考虑哪些指标?其中一个重要指标就是大学招生计划人数和招生专业。今日将带你一起了解关于陕西师范大学招生计划和招生人数、陕西师范大学招生专业目录等相关知识。 注:2019年陕西师范大学招生专业和招生计划人数截至发稿前官方暂未公布,所以小编先整理了2018年陕西师范大学的招生计划专业的信息。考生务必以官方发布的信息为准,本文只作参考! 2018年陕西师范大学招生计划人数和招生专业在陕西招生计划

专业名称计划类型层次科类计划数外国语言文学类 (含英语(创新试验班),翻译)非定向本科文史15哲学非定向本科文史11日语非定向本科文史11法学非定向本科文史15行政管理非定向本科文史10新闻传播学类 (含新闻学,编辑出版学,网络与新媒体专业)非定向本科文史17公共事业管理非定向本科文史10旅游管理非定向本科文史5社会学非定向本科文史14思想政治教育 (创新试验班)非定向本科文史10历史学类 (含历史学(创新试验班),文物与博物馆学,古典文献学专业)非定向本科文史22中国语言文学类 (含汉语言文学(基地班),汉语言文学(创新试验班),秘书学,汉语国际教育专业)非定向本科文史40预科班非定向本科文史10俄语非定向本科文史10数学类 (含数学与应用数学(创新试验班)、信息与计算科学、统计学专业)非定向本科理工43心理学类 (含心理学,应用心理学专业)非定向本科理工24计算机类 (含计算机科学与技术(创新试验班)软件工程,信息管理与信息系统专业)非定向本科理工57旅游管理非定向本科理工9生物科学类 (含生物科学(基地班),生物技术,生态学专业)非定向本科理工51食品科学与工程类 (含食品科学与工程,食品质量与安全专业)非定向本科理工34物理学类 (含物理学(创新试验班)电子信息科学与技术专业)非定向本科理工22新闻传播学类 (含新闻学,编辑出版学,网络与新媒体专业)非定向本科理工

上海交通大学医学院附属瑞金医院北院

上海交通大学医学院附属瑞金医院北院 2018年度决算

目录 第一部分上海交通大学医学院附属瑞金医院北院概况 一、主要职能 二、机构设置 第二部分上海交通大学医学院附属瑞金医院北院2018年度决算表 一、收入支出决算总表 二、收入决算表 三、支出决算表 四、财政拨款收入支出决算总表 五、一般公共预算财政拨款支出决算表 六、一般公共预算财政拨款基本支出决算表 七、一般公共预算财政拨款“三公”经费及机关运行经费支出决算表 八、政府性基金预算财政拨款支出决算表 九、资产负债情况表 第三部分上海交通大学医学院附属瑞金医院北院2018年度决算情况说明 第四部分名词解释

第一部分上海交通大学医学院附属瑞金医院北院概况 一、主要职能 上海交通大学医学院附属瑞金医院北院是“郊区新建三级 综合医院项目”(“5+3+1”工程)的重要组成部分之一,位于嘉 定新城,于2009 年12月奠基,2012 年12月17日开始试运营。全院占地面积210亩,建筑面积72,000平方米,核定床位600张,核定编制800人,医院目前现有职工(含瑞金派驻及退 休回聘)903人,其中研究生学历272人,中高级职称320人,已开放临床医技科室41个,其中血液科、内分泌科、普外科等 多个瑞金母院固有的优势、重点学科在新院得到了有效的延伸 与发展。 瑞金医院北院的发展将本着“落户嘉定、服务周边”,改善 区域居民对优质医疗资源可及性的建设目标,继续朝着符合公 立医院综合改革总体思想和目标,紧密结合瑞金医院母院,有 所侧重,有所互补,捆绑错位发展;积极融合嘉定,与二级医 院和社区形成三级服务网络,更好地发挥在疑难复杂病例、危 急重症救治等方面的综合服务能力,切实为老百姓带来优质的 医疗服务。 二、机构设置

女人月经提前是什么原因

女人月经提前是什么原因 女人月经提前是什么原因 1、内分泌失调引起的月经提前: 有些女性在生活中压力过大,精神较为紧张,引起神经内分泌功能失调,主要是下丘脑-垂体-卵巢轴的功能不稳定或是有缺陷,从而导致月经提前或月经不调。 2、素体阳气盛引起的月经提前: 素体阳气盛,或过量食用辛辣食物和补品,或情志抑郁,或久病失血较多的人,都容易血热。血得热则枉行,流速也加快,从而导致月经提前。 3、器质病变或药物引起的月经提前: 女性的生殖器官局部的炎症、肿瘤及发育异常、营养不良,颅内疾患,其他内分泌功能失调如甲状腺等都是引起月经提前的原因。 月经提前是怎么回事? 月经提前是月经不调的一个症状。中医认为,月经能否正常来潮,与肝、脾、肾以及冲任二脉关系最大。而导致月经提前的原因,主要和内分泌失调与血热、气虚等因素有关。 中医的角度讲,月经是“天癸”所产生的。古代有“女人二七而天癸至,七七而天癸竭”的说法,讲的是女性到了14岁左右的年龄,会出现月经初次来潮,到了49岁左右,则会停经,这是

一个自然的生理过程。所谓的“天癸”是一个复杂的概念。中医认为天癸是由先天肾气所产生的,它让男女具有生殖能力,并影响人体的生长发育。事实上,这与现代西医所讲的激素是相类似的。中医认为月经是女性生长发育过程中的一个自然现象。月经该到的时候到,该走的时候走,才是顺应自然之道。月经不调,不期而至、不按时而至等都破坏身体平衡,是一种病理现象。 在中医妇科理论中,月经不调的主因为外感六淫、内伤七情、生活所伤、体质因素等。体质禀赋于父母,但受后天环境、饮食、精神、心理、性格、情绪等因素影响大。因此,体质因素导致月经不调,也越来越受到人们的重视。 女人月经提前怎么调理 针挑法:在督脉的阳关穴至腰俞穴之间任意挑选一点,用消毒针挑破表皮0.2-0.3厘米、深约0.1-0.15厘米。自上而下连挑三针,间隔0.1厘米。 敷脐法:生地、地骨皮各12克,丹皮、黄柏、青蒿各10克,研成粉,取少量醋调成厚糊状敷于脐孔上,胶布固定。每日换1次。 敷穴法:蓖麻子仁10克,捣烂如泥,敷于头顶百会穴。见干燥后即更换。 烟熏法:用艾条熏隐白穴,每次20分钟,每日2次。本法最好在月经多前即熏。

山西大学商务学院管理学院科研简报

山西大学商务学院管理学院 科 研 简 报 (2013第9期) 写在前面: 2013年12月10日,管理学院邀请学院科研处王兴超老师对科研团队成员进行了“科研调查方法与数据分析”的指导,王兴超老师结合多篇高水平学术论文就调查问卷的获得、统计软件的选择和应用进行了深入分析,团队成员受益良多,之后,管理学院教师中展开了对科研调查方法和数据分析的进一步研究热潮,本期选择了管理学院李强老师推荐的一篇原载于《调研世界》(2013年10期)、由国家统计局统计科学研究所孙娜娜撰写的短文“回归分析方法你用对了吗”,既供大家借鉴、思考,也希望能对管理学院全体教师有所启发。同时,非常感谢李强老师对管理学院科研管理工作的支持与帮助! 2013年12月 回归分析方法你用对了吗 国家统计局统计科学研究所 孙娜娜 在一家调查公司工作的朋友曾经问过我一个问题,让我至今记忆犹新。他说,他们当时正在给一家公司做汽车销售满意度方面的调查,通过调查得到大概20多个变量的满意度得分,想通过建立统计模型确定各个满意度的权重。他们公司的做法是:根据这些数据建立多元线性回归模型,将各变量的回归系数作为权重。但是在建立模型过程中遇到如下问题:变量之间存在严重的多重共线性,导致许多变量系数,与实际不符,可是这些数据是公司花了几千万元获得的,又不能删除,能使用什么方法对模型进行调整,使其符合实际呢。面对这位朋友的疑问,我一言难尽。 谈及统计方法,大多数学过统计或经济的人首先想到的应该就是线性回归分析。回归分析,是用来研究一个变量(被解释变量)对另一个或多个变量(解释变量)的依赖关系,通过建立模型,寻找数据内部规律,可通过给定的解释变量预

女孩初潮时间一般是几天

如对您有帮助,可购买打赏,谢谢 女孩初潮时间一般是几天 导语:对于女孩而言,月经初潮后就是少女了,正式的进入了青春期,卵巢健康发育,第二性征开始显现。月经初潮一般是4~5天,青春期卵巢发育功能不 对于女孩而言,月经初潮后就是少女了,正式的进入了青春期,卵巢健康发育,第二性征开始显现。月经初潮一般是4~5天,青春期卵巢发育功能不完善,体内各个系统在成长阶段,没有稳定成熟,所以来过初潮后,下次再来就很难预料。而且会受到许多外界因素的干扰如体质、情绪、饮食等,出现月经紊乱的现象。不过不需要过分担心,在经期做好私部卫生,合理饮食,经过自我调节,就可以过度到正常的月经了。 女孩的第1次月经称为月经初潮(Menarche)。大多数女孩的初潮年龄为12-14岁。出现初潮之前,女孩的乳房已经开始发育,身高突然增长,也有的已经长出了阴毛或腋毛。一般地,初潮常常是不排卵月经,初潮后数月至1年才有排卵。 一般经过4~5天,子宫内膜大部分脱落完毕,在女性激素的作用下,又重新长出一层子宫内膜,并逐渐增厚,这时月经也就干净了。 在月经初潮时,卵巢重量仅为成熟时的40%。以后卵巢继续发育长大。由于卵巢的功能和调节机能不稳定,在月经初潮后的半年到一年时间内,月经不一定按规律每月来潮,初潮后,有的隔几个月、半年甚至一年才第二次来潮,这不是病理现象,以后会逐月按时来潮。每次月经出血持续5天左右,为月经期。 月经是女性的正常生理现象,对于初次来潮的女孩,都会经历不适和恐慌,然而月经的到了说明了身体的成熟,生理的转变,是非常重要的时刻,应该做好足够的自我保健,保养好身体。 预防疾病常识分享,对您有帮助可购买打赏

信息工程专业介绍

信息工程专业介绍: 1.专业简介:信息技术是衡量一个国家现代化水平的重要标志,我国把信息技术列为21世纪发展战略计划的首位。信息工程是一门研究信息的产生、获取、传输、存储和显示技术的学科。信息工程专业培养在信息工程,重点是光电信息工程领域具有宽厚的理论基础、扎实的专业知识和熟练的实验技能的高级信息工程科技人才。毕业生将在光电信号的采集、传输、处理、存储和显示的科学研究、工程设计、技术开发和企业管理中展示才华。 2.主修课程:光电信息物理基础、光电子学、信号与系统、通信原理、图像处理、传感器原理技术、光电检测技术、自动控制理论、光纤通信、计算机通讯网络、工程光学、微机原理、计算机软件技术基础、计算机网络技术、计算机辅助设计、数字与模拟电子技术基础、电路基础以及有关数理基础和工程基础方面的课程。 3.毕业去向:本专业历年输送了大量优秀毕业生攻读硕士、博士学位。除此之外,主要为科研单位、高等院校、电信部门、信息产业部门、企事业单位及有关公司录用,从事光电信息工程与技术、通信工程与技术、光电信号检测、处理及控制技术等领域的研究、设计、开发应用和管理等工作。 电子信息工程专业 业务培养目标: 业务培养目标:本专业培养具备电子技术和信息系统的基础知识,能从事各类电子设备和信息系统的研究、设计、制造、应用和开发的高等工程技术人才。 业务培养要求:本专业是一个电子和信息工程方面的较宽口径专业。本专业学生主要学习信号的获取与处理、电厂设备信息系统等方面的专业知识,受到电子与信息工程实践的基本训练,具备设计、开发、应用和集成电子设备和信息系统的基本能力。 电子信息工程已经涵盖很广的范围。电话交换局里怎样处理各种电话信号,手机是怎样传递我们的声音甚至图象,我们周围的网络怎么样传递数据,甚至信息化时代军队的信息传递中如何保密等知识。我们通过一些基础知识的学习认识这些东西,并能够进行维护和更先进的技术和新产品的开发。 你首先要有扎实的数学知识,要学习许多电路知识,电子技术,信号与系统,计算机控制原理,信号与系统,通信原理等基本课程。自己还要动手设计、连接一些电路以及结合计算机的实验。譬如自己连接传感器的电路,用计算机自己设置小的通信系统,还会参观一些大的公司的电子和信息处理设备,对整体进行了解,理解手机信号、有线电视是如何传输的等,并能有机会在老师指导下参与大的工程的设计。 随着计算机和互联网日益深入到社会生活的多个层面,社会需求量相当大。现在是一个热门专业。 毕业后干什么——从事电子设备和信息系统的设计、应用开发以及技术管理等 随着社会信息化的深入,各行业大都需要本专业人才,而且薪金很高。可成为: 电子工程师——设计开发一些电子,通信器件,起薪一般2000元——6000元/月; 项目主管—策划一些大的系统,经验、知识要求很高,起薪一般4000元/月以上; 还可以继续进修成为教师,进行科研项目等 专业是个好专业:适用面比较宽,和计算机、通信、电子都有交叉;但是这行偏电,因此动手能力很重要;另外,最好能是本科,现在专科找工作太难了!当然大虾除外 本专业对数学和英语要求不低,学起来比较郁闷要拿高薪,英语是必需的; 吃技术这碗饭,动手能力和数学是基本功当然,也不要求你成为数学家,只要能看懂公式就可以了,比如微积分和概率统计公式,至少知道是在说些什么而线性代数要求就高一些,因为任何书在讲一个算法时,最后都会把算法化为矩阵计算(这样就能编程实现了,而现代的电子工程相当一部分工作都是编程) 对于动手能力,低年级最好能焊接装配一些小电路,加强对模拟、数字、高频电路(这三门可是电子线路的核心)的感性认识;工具吗就找最便宜的吧!电烙铁、万用表是必需的,如果有钱可以买个二手示波器电路图吗,无线电杂志上经常刊登,无线电爱好者的入门书对实际操作很有好处

上海各大医院排名及专治各科

综合排名: 综合排名比得主要是综合医院,专科医院就不参与了,这当中也包括三甲中医院,因为现在三甲中医院也是科室齐全,只不过多了个“中”字而已 1,复旦大学附属上海华山医院 上海人心中的永远的金字招牌,无论关于上海哪家医院排第一的理论到底有多多,最起码,华山医院这上海第一在上海人心中是肯定的!再看,《2007年全国医院排名》华山医院全国第三,上海第一;2009年全年门急诊量279万,全国第二,仅次于解放军总医院的300万;2009年出院人数4.7万,少于瑞金医院的5.5万,上海第二,综上,华山医院上海第一无可厚非。中国科学院院士一人,中国工程院院士两人,上海第一家接受JCI评审的综合医院,10个国家重点科室上海第一,全国仅次于协和医院......华山医院上海第一,想必应该如此2,上海交大附属瑞金医院 《2007年全国排名》全国第五,上海第二,2009年全员出院人次上海第一,中国科学院院士人,中国工程院院士2人,瑞金的实力无需多说,和华山不相上下。 3,复旦大学附属上海中山医院 虽然《2007年全国医院排名》把仁济医院排在全国第八,上海第三,但拥有中国科学院院士,工程院院士各1人,还有那么多重点专科的中山医院......够了,不多说。 争议就从第四名开始了

以下都是我个人意见: 4,上海交大附属仁济医院 5,第二军医大附属长海医院 6,上海交大附属新华医院 7,第二军医大附属长征医院 8,上海中医药大学附属曙光医院 9,上海中医药大学附属龙华医院 10,同济大学附属上海同济医院 分科排名(分科排名就不列举前10了,有名的我就写上,也算是指导大家去上海就医的选择吧) 内科: 神经内科:1,复旦大学附属上海华山医院;2,复旦大学附属上海中山医院;3,复旦大学附属儿科医院 心内科:1,复旦大学附属上海中山医院;2,复旦大学附属上海新华医院;3,复旦大学附属上海华山医院 消化内科:1,上海交大附属仁济医院;2,复旦大学附属上海中山医院;3,上海交大附属瑞金医院 呼吸内科:1,上海交大附属新华医院;2,第二军医大附属长海医院;3,同济大学附属上海同济医院 内分泌科:1,上海交大附属瑞金医院;2,上海交大附属仁济医院;3,同济大学附属上海同济医院

2020年山西大学商务学院招聘辅导员试题及答案

2020年山西大学商务学院招聘辅导员试题及答案 注意事项 1、请用钢笔、圆珠笔或签字在答题卡相应位置填写姓名、准考证号,并用2B铅笔在答题卡指定位置填涂准考证号。 2、本试卷均为选择题,请用2B铅笔在答题卡上作答,在题本上作答一律无效。 一、单项选择题(在下列每题四个选项中只有一个是最符合题意的,将其选出并把它的标号写在题后的括号内。错选、多选或未选均不得分。) 1、认知心理学把理解问题看作是在头脑中形成()的过程。 A、问题结构 B、问题线索 C、问题内容 D、问题空间 【答案】D 2、人们在谈论现在的孩子比过去的聪明,这说明儿童心理特征的()。 A、延续性 B、多变性 C、稳定性 D、可变性 【答案】D 3、德育工作的出发点是()。 A、德育内容 B、德育目标 C、德育过程 D、德育原则 【答案】B 4、()是教师备课和上课的主要依据。 A、教学大纲 B、教科书 C、参考书 D、教学进度计划 【答案】B 5、艾宾浩斯的遗忘曲线表明,遗忘过程在学习后()内进展最快。 A、31天

C、1天 D、20分钟 【答案】D 6、形状知觉的关键期是出生后到()。 A、四岁左右 B、二岁左右 C、六岁左右 D、五岁左右 【答案】B 7、提出“捧着一颗心来,不带半根草去”的是著名的教育家()。 A、陈立奇 B、陶行知 C、晏阳初 D、梁启超 【答案】B 8、学生认识的主要任务是()。 A、获得直接经验 B、进行科学实验 C、进行社会实践 D、学习间接经验 【答案】D 9、“君子之教,喻也”体现了教学的启发式原则,这一句话出自()。 A、《中庸》 B、《大学》 C、《论语》 D、《学记》 【答案】D 10、通过摆事实、讲道理,使幼儿明辨是非的教育方法是()。 A、情感陶冶法 B、说理教育法 C、品德评价法 D、实际锻炼法

正常女性的月经周期

正常女性的月经周期为28天左右,如果月经来潮周期总是提前7天以上,甚至1个月内两次来潮者,则称为“月经先期”,亦称“经期提前”或“经早”。如仅超前3-5天,且无其他明显症状,属正常范围。偶尔超前一次,也不算经期提前。 “红色风暴”的成因: 中医认为,月经能否正常来潮,与肝、脾、肾以及冲任二脉关系最大。而导致月经提前的原因,主要与以下两种因素关系最为密切。 因素一:血热 素体阳气盛,或过量食用辛辣食物和补品,或情志抑郁,或久病失血较多的人,都容易血热。血得热则枉行,流速也加快,以致经期提前。《丹溪心法》说:“经水不及期而来者,血热也。”血热又有实热、虚热,肝郁化热之别。 因素二:气虚 饮食失节或劳累过度的人最易损伤脾气。脾是血的“管理者”,“管理者”孱弱,“被管理者”难免乘机“兴风做浪”,导致月经提前来潮。如《景岳全书妇人规》云:“若脉证无火,而经早不及期者,乃心脾气虚,不能固摄而然。” 遏制“红色风暴”的中医之道: 对月经提前的治疗,国医国药比现代医学疗效更为确切。祖国医学认为,月经提前的治疗原则,重在调经以治本,一般而言,如先病而后月经提前,当先治病,病去则经自调;若因经不调而后生病者,当先调经,经调则病自除。 “红色风暴”之实热型: 信号:月经提前,量多,颜色深红或紫红,质地黏稠,心胸烦闷,面红口干,尿黄便秘,舌红苔黄。 治宜清热凉血,方用清经汤加减。 方例:丹皮10克,地骨皮10克,生地15克,白芍15克,青蒿12克,黄柏10克。 若口干口渴较重者,则加元参、知母清热生津;若经血量多且数日不减者,加黄连、炒栀子、侧柏炭、阿胶等清热止血。 药膳: 藕柏饮取生藕节300克,侧柏叶100克,捣烂取汁,加冰糖适量,用温开水冲服,每日两次,经前连服3-5天。 地黄粥鲜生地洗净切片,煮浓汁滤出,粳米粥加蜜(或冰糖)适量,入地黄汁100毫升,调匀,每日服两次,每次250毫升左右,经前连服4-6天。 大蓟速溶饮鲜大蓟2500克,洗净切碎,加水适量,中火煮1小时,去渣,以文火浓缩。停火待温,入白糖500克,搅拌均匀,冷却晾干。每次10克,沸水冲服,每日3次,经前服用。 食疗: 取干芹菜500克,加水1000毫升,煎取500毫升汁液,可常服,疗效显著。 取丝瓜籽50克,刺菜30克,水煎,加白糖适量内服。 取干芹菜50克,金针菜15克,加水300毫升,煎取200毫升汁液,月经前每天服1剂,连服5-7天。“红色风暴”之虚热型: 信号:经期提前,量少,颜色红,质地黏稠,手足心热,两颧潮红,舌红少苔。 治疗******以养阴清热为主,方用两地汤。 方例:生地15克,玄参10克,白芍15克,麦冬10克,地骨皮10克,阿胶10克(烊化)。 若午后潮热者,加青蒿、鳖甲。 药膏: 两地膏(两地汤改型) 取生地、地骨皮各30克,玄参、麦冬、白芍各15克,加水煎取浓汁300毫升。阿胶30克,加水60毫升烊化,对入药汁内,再加白蜜40毫升,放文火上调匀。每次服20毫升,每日3次。冬地膏天冬、麦冬、生地各250克,水煎去渣,加蜜适量收膏,每次服10毫升,每天3次,经前3-5天

山西大学商务学院管理学院学年论文实施细则

山西大学商务学院管理学院 学年论文实施细则 为了进一步培养学生的科学态度和书面表达能力,使学生具备初步的科学研究能力,掌握科学方法,根据《人才培养方案》的要求,特制定学年论文的实施细则。 一、学年论文的工作程序 (一)学年论文的选题 在教师指导下,按照本专业的培养目标和专业方向,从本专业的基础理论、学术问题或从科技、生产、教学和社会生活的实际问题中选定。坚持教师提供题目和学生自主选题相结合的原则,支持学生选做有创新特色的课题。 (二)指导教师对学生论文进行指导、评定,给出论文成绩。 (三)管理学院存档并汇总学年论文成绩,按照要求上报教务处。 二、学年论文的指导 (一)指导教师的确定 学年论文选派治学严谨、认真负责、具有一定科研能力的专职教师担任,鼓励青年教师通过独立指导学年论文提高水平; (二)论文指导教师应履行的职责 1.根据专业教学要求指导学生选题。 2.向学生讲清选题意义、任务,提出明确要求,介绍主要参考文献、资料目录。 3.指导学生拟定学年论文提要。 4.对所指导论文提出评阅意见,写出评语,填写《学年论文成绩评审表》。 三、学年论文的要求 (一)总体要求 学年论文主要是围绕本专业课程而开展的综合训练。学生可根据自己的兴趣在所学专业领域内选择题目,必须在毕业前完成1篇学年论文,且成绩达到合格水平。否则,不得参加毕业论文的撰写与答辩。 (二)具体撰写要求

学年论文每篇不少于3000字,学年论文一律按照学院要求的格式采用A4纸双面打印,学年论文的各个组成部分按下述顺序排列: (1)封面; (2)目录; (3)正文(包括中文内容摘要和关键词); (4)参考文献; (5)学年论文成绩评审表。 学年论文各部分的具体格式范式见附表二。其中:(1)-(4)项内容按照顺序装订,(5)由指导教师评定成绩、等级与评语后夹在论文中,不与论文一起装订。 四、成绩评定 1、学年论文成绩实行优、良、中、差四级制和百分制双轨计分法,成绩均四舍五入保留整数。每个专业的学年论文优秀率不大于20%,成绩必须符合正态分布。 2、每篇学年论文由指导教师写出评语,给出论文成绩与等级。 3、学年论文成绩及格以上者(含及格)取得2学分。论文成绩不及格者必须重作,及格后方可获得学分。 五、组织与时间安排 1、管理学院主管领导负责学年论文工作计划的制定、指导教师的配备、组织选题、成绩考核、存档等工作。 2、在第5学期期末组织学年论文的撰写安排,第6学期按照学院教务处规定录入成绩,上报、存档。 六、评分标准 优秀(85分-100分): 1. 写作态度认真,按期圆满完成学年论文。 2.论文观点明确,语言表达流畅,论证充分全面,逻辑严密,结构层次清楚。 3.论文整体水平高,有独立分析问题、解决问题的能力。 4. 书写工整,格式及标点规范。

大学软件工程专业排名

大学软件工程专业排名 权威排名: 2006年高校软件工程排名(开设学校:139所) 1、南京大学 2、清华大学 3、复旦大学 4、武汉大学 5、浙江大学 6、上海交通大学 7、中国科学技术大学 8、中山大学 9、华中科技大学 10、哈尔滨工业大学 11、陕西师范大学 12、吉林大学 13、东北师范大学 14、北京师范大学 其他院校该专业较强的有: 北京交通大学 北京理工大学 华东师范大学 华南理工大学 南开大学 四川大学

天津大学 西安交通大学 西北工业大学 厦门大学 中国地质大学 同济大学 苏州大学 重庆大学 中国石油大学 南京理工大学 宁夏大学 教高[2001]6号文:教育部、国家计委关于批准有关高等学校试 办示范性软件学院的通知 教育部、国家计委关于批准有关高等学校试办示范性软件学院的通知 (2001年12月3日) 教高〔2001〕6号 为适应我国经济结构战略性调整的要求和软件产业发展对人才的迫切需要,实现我国软件人才培养的跨越式发展,教育部和国家发展计划委员会共同研究决定选择部分高等学校,

采取多项扶持政策,支持其试办示范性软件学院。这是新时期推进高等教育改革与发展的一项重要举措。经统一部署、有关高校申报和专家评审,现决定首批批准35所高等学校试办示范性软件学院。为做好示范性软件学院的建设工作,现将有关意见通知如下: 一、要将建设示范性软件学院作为进入新世纪跨越式培养软件人才的重大举措落实好。《国务院关于印发鼓励软件产业和集成电路产业发展若干政策的通知》(国发[2000]18号)中明确提出通过政策引导,鼓励资金、人才等资源投向软件产业,进一步促进我国信息产业快速发展,力争到2010年使我国软件产业研究开发和生产能力达到或接近国际先进水平。实现这一政策目标,加快软件人才培养是重要保证。建设示范性软件学院是我国软件产业人才培养方面实现跨越式发展的一次重大改革尝试,旨在为我国软件产业的发展带来新的推动力。各示范性软件学院要抓住机遇,加快建设步伐,努力成为我国有重要影响的多层次实用 型软件人才培养基地。 二、要将建设示范性软件学院作为加大高等教育人才培养结构调整力度,推进用信息技术改造传统产业的重要举措抓好。《国民经济和社会发展第十个五年计划纲要》提出,要以信息化带动工业化,发挥后发优势,实现社会生产力的跨越式发展。各示范性软件学院要在加大软件专门人才培养力度的同时,把培养大批各类复合型软件人才作为重要任务,为用信息技术改造传统产业准备坚实的人才基础。示范性软件学院可以从所在学校二年级后在校本科生中招生;可以开展软件方向第二学士学位办学;可以招收软件方向工程硕士研究生;可直接从应届本科毕业生中招收工程硕士研究生;招生方式和规模由所在学校自主确定,国 家不安排招生计划数。 三、建设示范性软件学院要以进一步推进办学机制改革,主动推进国内合作办学与中外合作办学,推动产学研紧密结合为基本办学模式。可以多途径探索合作办学的管理体制与运行机制,由高等学校与国内外企业合作,拉动社会资金投入,按运作企业化、办学专业化、后勤社会化的模式兴办。示范性软件学院应把开展切实有效的产学研合作作为推进办学模式

女人停经的正常年龄

巢之安牌知本天韵胶囊本产品不能替代药物使用 女人停经的正常年龄 一般女性正常绝经年龄应该在53~55岁。过早停经将会导致卵巢早衰萎缩,激素分泌功能下降,女性的衰老速度也会急剧加快。所以,拥有健康而有活力的卵巢是女性保持年轻态的关键所在。 一般从卵巢功能衰退至月经停止,月经变化的情况有三种: (1)稀发月经:月经周期间隔时间长,由正常20~30天变为2~3个月或更长的时间行经一次。经量可正常或较前减少,间隔时间逐渐延长到4~5个月或半年才行经一次,以后则完全停止。 (2)月经周期紊乱:从正常的月经周期变为不定期的阴道出血,有时经期延长或变为持续性阴道出血,淋漓不断达1~2个月不止;也可发生大量阴道出血,病人可发生贫血,面色萎黄,全身乏力,心慌,气短。严重者血红蛋白可明显降低。有的反复出血,一般经1~2年,月经即完全停止。绝经前月经周期紊乱是最常

巢之安牌知本天韵胶囊本产品不能替代药物使用见的。据报道,有人对282例绝经前妇女进行观察,发现其中181例有月经周期紊乱表现,占63.8%。 (3)突然绝经:少数妇女过去月经周期及经期一直正常,现在突然绝经;也有的周期正常,仅有几次月经量逐渐减少,以后月经突然停止。据报道对282例自然绝经妇女进行观察,发现其中40例突然绝经,占14.1%。因此,多数为前两种表现。 养成良好的生活习惯: 勤加运动,每天进行1-2小时的有氧运动;不熬夜、早睡早起给身体以及卵巢有一个良好的休息保养时间;远离烟酒,现代生活节奏的加快很多女性也会选择抽烟喝酒来释放压力,但是烟酒对女性身体的伤害是巨大的,包括对月经的伤害,吸烟者和偶尔吸烟者一般比非吸烟者早2年绝经。 注意饮食营养均衡,膳食要搭配好,不能过于追求苗条的身材而过度减肥,过度减肥对身体的伤害也是极大的;要保持乐观的心态,保持好的心情。 巢之安知本天韵胶囊是滋养卵巢延缓衰老的营养性蓝帽子产品,配方创新新型复合卵巢营养素(即IFS),“新型复合卵巢营养素IFS”,与卵巢具有极强

软件工程就业前景

软件工程就业前景

我国软件出口规模达到215亿元软件从业人员达到72万人在中国十大it职场人气职位中软件工程师位列第一位,软件工程人才的就业前景十分乐观. 软件工程是计算机领域发展最快的学科分支之一,国家非常重视软件行业的发展,对软件工程师人才的培养给予了非常优惠的政策.在中国十大IT职场人气职位中,软件工程师位列第一位,软件工程人员的就业前景十分乐观.以下就是软件工程就业前景介绍;软件工程就业前景时间:2011-6-30 来源:中国药业人才网点击量:2919 编辑:末末我国软件出口规模达到215亿元,软件从业人员达到72万人,在中国十大it职场人气职位中,软件工程师位列第一位,软件工程人才的就业前景十分乐观. 软件工程是计算机领域发展最快的学科分支之一,国家非常重视软件行业的发展,对软件工程师人才的培养给予了非常优惠的政策.在中国十大IT职场人气职位中,软件工程师位列第一位,软件工程人员的就业前景十分乐观.以下就是软件工程就业前景介绍. 一、软件工程专业就业前景之可视化编程 掌握程序设计方法及可视化技术,精通一种可视

化平台及其软件开发技术.获取delphi程序员系列、java初级或vb开发能手认证. 二、软件工程专业就业前景数据库管理 能应用关系范式进行数据库设计,精通sql语言,胜任数据库服务器管理与应用工作.获取oracle数据库管理或sql server数据库应用或windows 三、 软件工程专业就业前景计算机办公应用精通办公自动化应用与管理,熟悉服务器的安装、管理和维护,基于应用服务器的相关服务和软件系统,具备对服务器的网络安全设置、邮件、网页发布、ftp、oa、bbs等系统的应用和维护能力. 就业方向:企业、政府、社区、各类学校等系统管理 三、软件工程专业就业前景之软件工程专业大学排名 1、南京大学 2、清华大学 3、复旦大学 4、武汉大学 5、浙江大学 6、上海交通大学7 、中国科学技术大学8、中山大学9、华中科技大学10、哈尔滨工业大学11、陕西师范大学12、吉林大学13、东北师范大学14、北京师范大学

山西大学商务学院学生学费收缴管理办法

山西大学商务学院学生学费收缴管理办法 一、我院是按新机制和新模式举办的一所高等学校,学费是学院办学经费的主要来源。为保证教学科研经费正常使用,促进学院教育事业健康发展,根据《中华人民共和国高等教育法》、《普通高等学校学生管理规定》和学院实际情况特制定本办法。 二、高等教育是非义务教育,学生应当按国家规定缴纳学费及有关费用。 三、学院必须按照政府物价部门批准的收费项目和收费标准向学生收取学费。学费标准实行“老生老办法,新生新办法”。学费由学院财会处统一收取,统一开具财政部门监制的票据。 四、学费按学年度收取。每学年开学两周内为学生缴费期,学生必须在学院规定的时间内将学费及其他有关费用交到财会处,凭交费票据到各系部注册。财会处要建立学生学费台帐,随时给学生提供查询、对帐服务,每学期要为各系及有关部门提供两次学生交、欠费名单。 五、教育和督促学生按时、足额缴纳学费是财会处、教务处、学工部和各系部的重要工作职责。学费收缴实行系责任制,和各系经费挂钩,以各系部为单位,学生综合实际缴费率达到98%是基本工作要求,因学生家庭困难等特殊原因,允许有2%范围内缓交。缓交期限不超过一个学期。 六、学院积极鼓励和资助经济困难学生顺利完成学业。由于国家政策原因,原则上学院不受理第三批本科学生的困难申请,其经济困难的学生应积极自筹,学院通过校内助学贷款、奖学金、困难补助和勤工助学等形式予以帮助。对于缓交学费的学生,要由本人提出申请,学生家庭地方政府证明,班主任签字,所在系部书记审查提出意见,由主管教学副院长批准。减免学费者须经院长批准。 七、学生应自觉履行按时足额缴纳学费的义务。对无故不能按时缴费的学生按以下规定办理: 1、各系部不准办理学籍注册,不准参加学院组织的各种考试,如强行参加考试成绩无效,缴纳学费以后可以参加重修。此项工作责任者为教务处和各系部负责注册的人员及教学干事。 2、督促学生按时交纳学费是系部学生管理人员的一项重要工作职责,并作为聘评职级的条件之一。对无故不交学费的学生不得列入入党培养对象,取消各种评优、评奖资格,不得享受学院困难补助,勤工助学等补助。辅导员应向欠缴学费的学生家长转达学院的有关规定,协商解决办法,仍坚持不交费的学生应劝其离校。此项工作责任者为学工部和各系部辅导员。 3、学生在毕业离校前未交清学费,缓发毕业证和学位证,不予办理派遣手续,不予办理户口迁移,此项工作的责任者为教务处、就业指导中心和保卫处。 4、各系部要将因特殊困难经批准缓交费学生名单,在开学后一个月内报财会处、

相关文档
相关文档 最新文档