文档库 最新最全的文档下载
当前位置:文档库 › Reduction of Non Deterministic Automata for Hidden Markov Model Based Pattern Recognition A

Reduction of Non Deterministic Automata for Hidden Markov Model Based Pattern Recognition A

Reduction of Non Deterministic Automata for Hidden Markov Model Based Pattern Recognition A
Reduction of Non Deterministic Automata for Hidden Markov Model Based Pattern Recognition A

Reduction of Non Deterministic Automata for Hidden Markov Model Based Pattern Recognition Applications Frederic Maire1, Frank Wathne1 and Alain Lifchitz2

1 Smart Devices Laboratory, Faculty of Information Technology, Queensland University of

Technology,

2 George Street, GPO Box 2434, Brisbane Q4001 Australia

f.maire@https://www.wendangku.net/doc/e7775358.html,.au, frankwathne@https://www.wendangku.net/doc/e7775358.html,

2 Laboratoire d'Informatique de Paris 6, Université P6 & CNRS (UMR 7606),

8, rue du Capitaine Scott, F-75015 Paris France

alain.lifchitz@lip6.fr

Abstract. Most on-line cursive handwriting recognition systems use a lexical

constraint to help improve the recognition performance. Traditionally, the vo-

cabulary lexicon is stored in a trie (automaton whose underlying graph is a

tree). In a previous paper, we showed that non-deterministic automata were

computationally more efficient than tries. In this paper, we propose a new

method for constructing incrementally small non-deterministic automata from

lexicons. We present experimental results demonstrating a significant reduction

in the number of labels in the automata. This reduction yields a proportional

speed-up in HMM based lexically constrained pattern recognition systems.

1 Introduction

Since the pioneering work of Vintsyuk [16] on automatic speech recognition systems, Hidden Markov Models (HMM) [12] and Dynamic Programming (DP) [3], [11], have provided a theoretical framework and practical algorithms for temporal pattern recog-nition with lexical constraints (even for large vocabularies). The techniques initially developed for speech recognition are also applicable to on-line handwriting recogni-tion (especially if auto-segmentation from word to letter is used). Most on-line cur-sive handwriting recognition systems use a lexical constraint to help improve the rec-ognition performance. Traditionally, the vocabulary lexicon is stored in a trie (automaton whose underlying graph is a tree). We have previously extended this idea with a solution based on a more compact data structure, the Directed Acyclic Word Graph (DAWG) [9]. In this paper, we propose a new construction algorithm that al-lows an incremental building of small non-deterministic automaton. Moreover, this new automaton is more compact than previously proposed automata. After recalling briefly the basics of lexically constrained pattern recognition problems in Section 2, we will describe taxonomy of automata in Section 3. In Sections 4 and 5, we review standard reduction techniques for automata. In Section 6, we propose new heuristics to reduce node-automata. Experimental results demonstrating significant improve-ments are presented in Section 7. Our notation is standard and follows [12].

2 Lexically Constrained Pattern Recognition

A number of pattern recognition problems like hand gesture recognition, on-line hand writing recognition and speech recognition can be solved by performing an elastic matching between an input pattern and a set of prototype patterns. In all these appli-cations, an a posteriori probability of a word given a sequence of frames (feature vec-tors) is computed using a HMM.

2.1 Word-HMM, Letter-HMM and Viterbi Algorithm

A word-HMM is made of the concatenation of the letter-HMM’s corresponding to each letter of the word. We can abstract each word-HMM as an automaton whose underlying graph is a chain. Each transition of the automaton is labelled with a letter (or variant, namely allograph) of the word. That is each transition corresponds to a letter-HMM. At the letter scale, HMM states correspond to feature stationarity of frames (subunits of letter, namely graphemes). The objective of the lexically con-strained pattern recognition problem is, given a sequence of frames and a lexicon, find the word with the largest a posteriori probability in this lexicon. The computation of this a posteriori probability of a word reduces to a matching of elastic patterns. In the framework of the so-called maximum approximation, an efficient DP algorithm, namely Viterbi Algorithm [17], [4], is used. A lexical constraint significantly helps to obtain better performance; practical experiments on a neuro-Markovian pattern rec-ognition software called REMUS [6], [18], [19], shows that the recognition of words increases from 20% to 90%-98%, depending on the size of the vocabulary, when a lexical constraint is applied. Practical applications use lexicons with sizes ranging from 10 (digits recognition) to some 106 words (e.g. postcode dictionary, vocal dicta-tion) [7]. Exhaustive application of Viterbi Algorithm to each word of the lexicon is only tractable for small and medium size lexicon, as the computational cost grows approximately linearly with the number of letters in lexicon.

2.2 Factorization of HMMs into Non-Deterministic Automata

If two words have a common prefix then the DP computations of the a posteriori probabilities can be factorized. Hence, a speed-up and reduction in storage can be obtained simply by using a trie (a well known tree-like data structure) [5]. Each edge/node in the trie corresponds to a letter. Thanks to the sharing of intermediate results, the running time has to improve dramatically compared to the trivial approach consisting in running Viterbi Algorithm independently on each word-HMM.

A trie eliminates the redundant computation/storage for common prefixes present in natural languages and is easy to implement. The trie structure is a good trade-off be-tween simplicity and efficiency, and is widely used in practice. Unfortunately we were disappointed [9] by the poor compression ratio, from 1.5 to 4.2, dependent on languages (English/French) and vocabularies size (103 – 105 words), we got experi-mentally. Since practical applications, with large vocabulary, require very efficient

processing, both in term of speed and storage, it is important to go further and extend the use of Viterbi Algorithm to more compact and complex lexicon structures, like DAWG. That is, use both prefix and suffix commonality [2], [14]. Lacouture et al.

[8], and more recently Mohri et al. [9], have worked on similar problems with Finite State Automata (FSA) for Automatic Speech Recognition.

The automata that we build are not traditional deterministic automata. This choice is motivated by the following observations; traditional automata are graphs whose arcs have labels. Each arc is labelled with a letter. The nodes/states of the automata are not labelled. The nodes correspond to languages. It is natural to wonder whether put-ting the labels in the nodes instead of in the arcs would improve the compactness of the automata. The main computational cost of running Viterbi algorithm on a graph is a function of the number of labels in the graph. Hence the importance of finding a representation that minimizes the number of labels. Moreover, Viterbi algorithm does not require a deterministic automaton. We call node-automaton a directed graph whose nodes can be labelled with letters. The arcs of a node-automaton are transi-tions with no label. A transition of a node-automaton is just a routing device. Node-automata are better for HMM factorization because in a node-automaton the process-ing is done in the node and the routing is done with the arcs. Whereas with traditional automata (that we call edge-automata ), these two tasks are not separated. Experimen-tal results demonstrate a clear superiority of node-automata over edge-automata with respect to the computational cost of running Viterbi Algorithm on a whole lexicon (see Section 7).

3 Automata Taxonomy

We have experimented with two types of acyclic automata. They differ only in that the edge automata labels are stored in the edges, whereas in node-automata the labels are stored in the nodes. In order to describe the reduction algorithms we recall here the standard definitions we need throughout the rest of the paper.

A finite state automaton is a quintuple ( where Q is a set of states (nodes), is an alphabet (a set of symbols), is a set of transitions (directed edges or arcs ), is a set of initial states and T is a set of terminal (accepting ) states. The automata discussed in this paper will have a single initial state called the root node. For some of the algorithms presented here, there will be a single terminal node re-

ferred to as the sink node. A quintuple will denote an automaton with a single root r and a single terminal node . A path of length is a sequence of nodes where each successive pair of nodes in the sequence is con-

nected by a transition. If

)s r E ,,,,Σ),,10T I E Q ,,,,ΣΣE I {}{

}()Q s k (k n n n ,K ()j i n n , is a transition, then we say that is a predecessor of , and a successor of . We will denote the set of successors of by . Similarly, will denote the set of predecessors of . The node

i n j n j n i n i n ()i n succ ()i n pred i n

j n is reachable from the node , if there exists a path from to . In this case, we also say that is a descendant of .

i n i n j n j n i n

Each ordered pair of nodes ()j

i n n , implicitly defines a language (a set of words) denoted by . Each sequence of labels encountered along a path from to makes up a word. is the language generated by all possible paths between to . More generally, will denote the language defined by . The language recognized by the automaton is

. ),(j i Q n n L i n j n ),(j i Q n n L i n j n ),(B A L Q U B A n n j i Q Q j i n n L B A L ×∈=

),(),(),(),(T I L Q 4 Automata Reduction

A key concept for automata minimization is the contraction (or merging ) of equiva-lent nodes. We will first characterize useful equivalence relations, and then explain how they allow the merging of nodes.

4.1 Equivalence Relation and Node Contraction

Many equivalence relations can be defined on . Recall that an equivalence relation on Q can be viewed as a partition of Q . Two nodes are equivalent with respect to if and only if they belong to the same part of the partition of Q . Obviously, to be of any interest, the reduction operation must preserve the language of the automa-ton. That is, the reduced automaton should generate the same language as the original automaton. A sufficient condition for this to happen is that any two equivalent nodes with respect to generate the same language. If an equivalence relation satisfies this sufficient condition, we will say that is admissible .

Q R R R R R

Formally, the contraction of two equivalent nodes and with respect to will preserve the language of the automaton provided that

i n j n R ),(),(T n L T n L n R n j Q i Q j i =?.

Whenever two nodes satisfy , we will use the standard ter-minology, and say that the nodes and are indistinguishable . Our NFA mini-mization algorithm computes an equivalence relation between nodes that entails in-distinguishability.

),(),(T n L T n L j Q i Q =i n j n

The contraction of a set of nodes is a new node obtained by merging all nodes of . The new automaton (after contraction of the set of nodes ) is obtained by removing all nodes belonging to , then inserting a new node , and connecting to all successors and predecessors of the nodes that were in . Formally, and . The merging of two nodes and is just a special case of set of nodes contraction where A 'a A A A 'a 'a A ()()U A n i i n a ∈=

succ 'succ ()()U A

n i i n a ∈=pred 'pred i n j n {}j

i n n A ,=.

We can extend the equivalence relation to sets of nodes. Two sets of nodes and are said to be equivalent if the two nodes and are equivalent.

A B 'a 'b 4.2 Other Relevant Relations defined on the Nodes

The type of equivalence relations we have defined so far is also referred to as down-equivalence because they only consider the descendants. We may also define up-equivalence and up-indistinguishability in a similar way by considering the reversed automaton. The reversed automaton is obtained by first swapping the set of initial states and the set of terminal states, then reversing all the transitions. That is, ()j i n n , is a transition in the reversed automaton if and only if ()

i j n n , is a transition in the original automaton. The reversed automaton generates the mirror language of the original automaton.

When two nodes have exactly the same successors (which implies that they are indis-tinguishable), we say that these nodes are similar . Subsumption is a relationship more general than similarity. The node subsumes the node if and only if i n j n ()()j i n n succ succ ?. That is, every successor of is also a successor of . For node-automata we add the requirement that and have the same label. Two nodes are said to be comparable if one subsumes the other.

j n i n i n j n

Automata minimization algorithms need sometimes to consider the height and the depth of a node. The height of a node is the length of the longest path from the node down to a leaf node. The depth of a node is the length of the longest path from the root to the node. A level is the set of all nodes of a given height. Levels are impor-tant because indistinguishable nodes must have the same height.

4.3 Contraction and Split Operators

In order to reduce the automata, we use mainly two node operators that work on pairs of nodes. The contraction operator merges two nodes and was defined in Section 4.1.

The split operator is used for splitting a node into two nodes to prepare the automaton for further reduction. The new automaton obtained by splitting a node is derived from the original automaton by replacing with two nodes and such that and .

n n 'n ''n ()()()''pred 'pred pred n n n ∪=()()()n n n succ ''succ 'succ ==

It is easy to see that

? Split operations do not change the language of the automaton,

? Contraction operations do not change the language of the automaton provided they are applied on equivalent nodes with respect to an admissible equivalence relation,

? After a split operation the new automaton will always be non deterministic.

5 Previous Works

We review in this section the main algorithms to minimize deterministic and non-deterministic automata.

5.1 Minimal Deterministic Automata

The classical algorithm for deterministic automata minimization [1] first computes the indistinguishable equivalence classes, and then contracts separately all these equiva-lence classes. In the special case of acyclic automata defined by a lexicon, a faster algorithm to build the minimal deterministic automaton was proposed by Revuz [13].

The algorithm of Revuz starts with the construction of the trie of the lexicon. Then the trie is traversed either level-by-level, starting with the leaves, or in a post order fashion. During the traversal the similarity classes are determined: the node currently considered is either equivalent to some other already visited node, or will become the representative of a new equivalence class. In the former case the current node is merged with the representative of that class. The bottom-up traversal ensures that all successor nodes of the current node have already been reduced. Therefore during the execution of the algorithm, two nodes on a same level will be indistinguishable if and only if they are similar (that is have the successors in the current automaton).

We have implemented and tested this algorithm for the classical edge-automata as well as for the node-automata.

5.2 Compact Non-Deterministic Automata

The algorithm proposed by Sgarbas, Fakotakis and Kokkinakis [15] incrementally build a small non-deterministic automaton. We will describe the main ideas of this algorithm. The original algorithm was created for edge-automata, but we have adapted it to node-automata. The automaton returned by the algorithm is called a

compact NFA (CNFA ). The main feature of a CNFA is that it does not contain similar nodes.

The algorithm expects as input a NFA with a single root and a single sink node. Words are inserted incrementally in the automaton. A word insertion is made in two phases. In the first phase, a chain of new nodes corresponding to the new word is added to the automaton. The chain starts at the root node and finishes at the sink node. All the intermediate nodes are new. In the second phase, similar nodes are detected then merged in order to keep the automata compact. This is done by first traversing the automaton starting from the sink node to identify nodes that are down-similar with nodes of the newly inserted word. When no more such nodes can be found the procedure is repeated from the root, this time looking for up-similar nodes. When no more up-similar nodes are found, we continue looking from the bottom again. This procedure is repeated while we find either down-similar or up-similar nodes. The resulting automaton does not contain any similar nodes.

The CNFA algorithm provides good compression results, but further reduction can be obtained with the heuristics that we will describe in the next section.

6 Compressed Non-Deterministic Automata

We propose a new heuristic, generalization of the one of [9], relying on the split and contraction operators, to further reduce NFAs. The equivalence relation that we use for the contraction operator is original. For deterministic automata, we have seen that we can determine easily whether two nodes are indistinguishable by comparing their successors. For non-deterministic automata, the situation is more complicated. Let denote the successors of node with the label . can be a large set whereas it contains at most one node for deterministic automata. Next, we define an admissible equivalence relation with a given look-ahead depth. Then, we will outline our NFA compression algorithm.

k R (x n ,succ ))n x (x n ,succ 6.1 The equivalence relation

k R We define recursively the following equivalence relations :

k R ? is the similarity relation between nodes (their successors are required to be the same),

0R ? Node and node are in relation with respect to if and only if all the fol-lowing conditions are satisfied

i n j n k R ? The nodes and have the same height,

i n j n ? The nodes and are both either terminal or non terminal.

i n j n

? The nodes and have the same set of labels for their outgoing transitions (but they are allowed to have a different number of transitions for a given label),

i n j n ? For each common transition label , is equivalent to x (x n i ,succ )()

x n j ,succ with respect to .

1?k R

The last condition concerns the equivalence between two sets of nodes. This was defined in Section 4.1.

6.2 The NFA compression heuristic

Our heuristic shuttles through the graph level-by-level starting at the deepest one. The skeleton of the heuristic is;

Loop until no change in the automaton

Compute the heights of all nodes

For each level

Contract all equivalent nodes

Separate all comparable nodes

End for

End loop

In the deterministic case, the above algorithm will produce the unique minimal DFA. For non-deterministic automata, we know that there may be several minimal auto-mata. Moreover the order in which we contract the nodes does matter. Blindly re-moving equivalent nodes in a NFA may lead to a sub-optimum automaton. The more reduced is level , the more difficult it will be to reduce level . To increase the likelihood of further contractions, we use the split operator to separate comparable nodes (see Section 4.2). Although splitting nodes increases the number of nodes on the current level, it makes more likely the creation of equivalent nodes in the prede-cessor level. Overall, there is a significant reduction in the number of nodes as dem-onstrated with the results of next section.

)1(+k k 7 Experimental Results

We have run the different reduction algorithms on two families of artificial lexicons that have a known minimal NFA and DFA. Another purpose of these lexicons was to validate the implementation of the algorithms. We have also tested the algorithms on edge and node automata with different size English and French lexicons. Table 1 gives some details on the lexicons used.

Lexicons

Name # words # letters Alphabet size Mean length Max length

Type DNA_4_8_1.txt 87380 669924 4 7.5 8 Artificial HWR_4_8_1.txt 13120 98416 4 7.7 8 Artificial

Lex1000.txt 1000 6966 26 7 13 English Lex10645.txt 10645 78197 26 7.3 21 English Lex20233.txt 20233 149129 26 7.4 22 English Lex65536f.txt 65536 631422 26 9.6 25 French Lex130499.txt 130499 1256938 28 9.6 25 French

Table 1 Features of the lexicons

DNA_4_8_1 is the language of all words from 1 to 8 letters, on a alphabet of 4 letters, consecutive letters being required to be distinct. The HWR language differs from the DNA language by relaxing the constraint on consecutive letters.

Edge Automata

Compact NFA (Edge Automata) Compressed NFA (Edge Automata) Minimal DFA (Edge Automata) Lexicon Nodes Transitions Nodes Transitions Nodes Transitions

DNA_4_8_1.txt 30 128 30 128 30 88

HWR_4_8_1.txt 9 60 9 60

9 32 lex1000.txt 1433 2433 1427 2424 1462 2459 lex10645.txt 7220 17864 7675 17119 9076 18294 lex20233.txt 9463 29523 10460 26867 13685 28741 lex65536f.txt 14102 68740 17157 60479 20949 44980

lex130499.txt 15331 99808 17237 68783 20928 47732

Table 2 Comparison of edge-automata

Table 2 shows that for edge-automata, compressed NFA have fewer labels (transi-

tions) than compact NFA. But for large lexicons minimal DFA contains fewer labels.

Node Automata

Compact NFA (Node Automata) Compressed NFA (Node Automata) Minimal DFA (Node Automata) Lexicon Nodes Transitions Nodes Transitions Nodes Transitions

DNA_4_8_1.txt 33 127 33 127 33 88 HWR_4_8_1.txt 33 162 33 162 33 116 lex1000.txt 2100 3077 2099 3076 2105 3081 lex10645.txt 10693 21309 10569 21174 11974 21248 lex20233.txt 14142 34229 13781 33825 17282 32579 lex65536f.txt 20559 72733 18251 65605 25075 50439 lex130499.txt 21932 102276 17476 81304 24968 53255

Table 3 Comparison of node-automata

Table 3 shows that for node-automata, compressed NFA have significantly fewer la-bels (nodes) than the other types of automata. With respect to the complexity of the compression algorithm, it is clear that the process of finding all indistinguishable states may sound computationally costly as the algorithm recursively checks nodes down the automaton. However, we discovered that if you are scanning an automaton with few indistinguishable states, the recursion rarely goes deeper than 2 or 3 levels. In fact, a practical solution consists in first building a compact NFA, then further re-ducing the NFA with our compression algorithm.

8 Conclusions

Figure 1 (below) illustrates clearly the benefit of using node-automata instead of edge-automata; the number of labels of the node-automata is a fraction of the number of labels of the edge-automata. Although our minimization method does not claim to return the optimal non-deterministic automaton, the heuristics proposed in this paper leads to a significant improvement for real-world vocabularies. Personal Digital As-sistants (PDA) and other smart handheld devices have too modest resources (a rela-tively small storage capacity and slow CPU) to allow features like advanced user in-terfaces (natural interactivity). Nevertheless efficient use of these limited resources will permit sophisticated speech or hand writing recognition. Some recognition sys-tems, especially for mobile computers, need the functionality of incremental updating of vocabulary (add/remove words). Our NFA construction allows such adaptive up-date, avoiding the recomputation from scratch of the minimized NFA of the slightly modified lexicon (so far, we have only implemented the addition of new words).

Figure 1 Comparison of the numbers of labels for

compressed real world lexicons

9 References

1. Aho A. V., Hopcroft J. E. and Ullman J. D., "The Design and Analysis of Computer Algo-

rithms", Addison-Wesley, Reading M.A., 1974.

2. Appel A. W. and Jacobson G. J., "The world’s fastest scrabble program", Communications

of the ACM, Vol. 31, No. 5, pp. 572-578 & 585, May 1988.

3. Bellman R., "Dynamic Programming", Princeton University Press, 1957.

4. Forney Jr D. G., "The Viterbi Algorithm", Proceedings of the IEEE, Vol. 61, No 3, pp. 268-

278, March 1973.

5. Fredkin E., "Trie Memory", Communications of the ACM, Vol. 3, No 9, pp. 490-499, Sep-

tember 1960.

6. Garcia-Salicetti S., "Une approche neuronale prédictive pour la reconnaissance en-ligne de

l'écriture cursive", Thèse de Doctorat Paris 6, Spécialité: Informatique, 17 décembre 1996.

7. Kosmala A., Willett D. and Rigoll G., "Advanced State Clustering for Very Large Vocabu-

lary HMM-based On-Line Handwriting Recognition", ICDAR’99, Bangalore (India), pp.

442-445, 20-22 September 1999.

8. Lacouture R. and De Mori R., "Lexical Tree Compression", Eurospeech’91, Genova (Italy),

pp. 581-584, September 1991.

9. Lifchitz, A. and Maire F., “A Fast Lexically Constrained Viterbi Algorithm For Online

Handwriting Recognition”, In: L.R.B. Schomaker and L.G. Vuurpijl (Eds.), Proceedings of the Seventh International Workshop on Frontiers in Handwriting Recognition, Amsterdam, ISBN 90-76942-01-3, Nijmegen: International Unipen Foundation, pp 313-322, September 11-13 2000.

10. Mohri M. and Riley M., "Network optimizations for large-vocabulary speech recognition",

Speech Communication, Vol. 28, pp. 1-12, 1999.

11. Ney H., "Dynamic programming as a technique for pattern recognition", ICPR’82, Munich

(Germany), pp. 1119-1125, October 1982.

12. Rabiner L. R. and Juang B.-H., "Fundamentals of Speech Recognition", Ed.Prentice Halls,

pp. 321-389, 1993.

13. Revuz D., "Minimization of acyclic deterministic automata in linear time"., Theoretical

Computer Science, Vol 92, pp. 181-189, 1992.

14. Ristov S. and Laporte E., "Ziv Lempel Compression of Huge Natural Language Data Tries

Using Suffix Arrays", Proceedings of Combinatorial Pattern Matching, 10th Annual Sym-posium, Warwick University, UK, M.Crochemore and M.Paterson (editors), Berlin: Springer, pp. 196-211, July 1999.

15. Sgarbas K. N., Fakotakis N. D. and Kokkinakis G. K., “Incremental Construction of Com-

pact Acyclic NFAs”. Proceedings ACL-2001, 39th Annual Meeting of the Association for Computational Linguistics, Toulouse (France), pp. 474-481, July 6-11 2001.

16. Vintsyuk T. K., "Recognition of words in spoken speech by dynamicprogramming meth-

ods", Kibernetika, Vol. 4, No 1, pp. 81-88, January 1968.

17. Viterbi A. J., "Error bounds for convolutional codes and an asymptotically optimum decod-

ing algorithm", IEEE Transactions on Information Theory, IT-13, pp. 260-269, April 1967.

18. Wimmer Z., "Contribution à la lecture de documents papiers manuscrits: reconnaissance

des champs numériques et cursifs par méthodes neuronales markoviennes", Thèse de Doc-teur-Ingénieur ENST de Paris, Spécialité: Informatique, 28 septembre 1998.

19. Wimmer Z., Garcia-Salicetti S., Lifchitz A., Dorizzi B., Gallinari P., Artières T.,"REMUS",

January 1999a

http://www-poleia.lip6.fr/~lifchitz/HWR/

汽车美容安全操作事项和预防措施标准范本

解决方案编号:LX-FS-A47909 汽车美容安全操作事项和预防措施 标准范本 In the daily work environment, plan the important work to be done in the future, and require the personnel to jointly abide by the corresponding procedures and code of conduct, so that the overall behavior or activity reaches the specified standard 编写:_________________________ 审批:_________________________ 时间:________年_____月_____日 A4打印/ 新修订/ 完整/ 内容可编辑

汽车美容安全操作事项和预防措施 标准范本 使用说明:本解决方案资料适用于日常工作环境中对未来要做的重要工作进行具有统筹性,导向性的规划,并要求相关人员共同遵守对应的办事规程与行动准则,使整体行为或活动达到或超越规定的标准。资料内容可按真实状况进行条款调整,套用时请仔细阅读。 【任务目标】 1.汽车美容安全操作事项 2.设备安全操作注意事项 3.预防措施 【任务分析】 汽车美容施工条件较差,操作者大多在充满溶剂气体的环境中作业,不安全因素较多,操作者应熟知本工种作业特点和所使用的工具设备的合理操作方法,保证安全施工。清洗剂、护理用品、涂料及溶剂

大部分都有毒,而在喷涂时所形成的喷雾、涂膜,在干燥程中所挥发出来的溶剂气体通过人的呼吸道或皮肤渗入人体,对人体神经系统和血液系统产生刺激破坏作用,会造成头昏、头痛、失眠、乏力和记忆力减退等症状,它还能造成人体血液系统的损害,引起白血球减少,出现血小板和红血球降低,以及皮肤干燥、瘙痒等症状。为防止发生中毒事故,应采取预防措施。 【知识准备】 为确保施工安全,人员和设备无损伤,施工人员必须遵守以下安全施工规则: ◆施工人员必须熟悉施工现场及周围环境,了解水、电、汽开关的位置及救护器材的位置,以备应急之用。 ◆施工人员必须熟悉施工安全技术,清洗剂的使

哪些因素影响二手车保值率

哪些因素影响二手车保值率 哪些因素影响着二手车的保值率?车主只有了解了这些因素,才能在车辆进行出售时尽量卖个高价,其实,影响车辆保值率的因素有很多,车公馆车漆快速修复中心总结了以下七个主要的因素,下面我们一起分析一下。 新车价格 如果一款车经常出现大幅度的降价促销,其新车的价格不断的浮动,那么二手车的保值率就不会太高。相反,如果一款车的新车价格一直很稳定,相应的其二手车的价格也会很坚挺,其保值率就高。 市场占有率 市场占有率越大,车型的认知度越高,它在二手车市场上的保值率也就越高。相反,一些小众品牌或者冷门车型,保值率就会受到一定的影响。如果车主不想一步到位,买车只是想使用一段时间之后再进行出售,那就最好不要选购冷门车型,以防止贬值较快,遭受较大的经济损失。 品牌美誉度 品牌美誉度和市场占有率,是影响二手车保值率的最重要因素。品牌口碑越好、市场影响力越大,车型被接受的程度就越高。俗话说“瘦死的骆驼比马大”就是这样的道理,品牌影响力大了,价格自然就会提高。 汽车的配置 在买二手车的消费者中,多半讲究的是实惠,汽车的配置也会或多或少的影响二手车的价格,一般来说,在低、中、高三种配置中,中配车最受欢迎,保值率最高。 有无出过事故 原车主在平日里对车辆的爱惜程度、有无出过事故,这些都会影响二手车的保值率,一旦发生过事故,不管车身有多新、车龄有多短,其价格都会大幅下滑。这也同时提醒了消费者,在购买二手车时,一定不要选购事故车。 油耗和养护成本 消费者在选购二手车时,关注较多的是品牌影响力、车况及价格,最容易忽略的就是车辆的油耗和养护成本,其实,在后期的使用中,汽车维修和养护才是最重要的,如果选购了排量大、油耗高的车型,其养车费用会大大增加。维修费用少、养护成本低、配件方便,在二手车市场自然就会很畅销,保值率就高。 车身颜色也很重要 在汽车市场上,主打色的价格一般会高过其他颜色,因此,在购买二手车时,不能一味的按照个人的喜好,如果购买了非常有个性的色彩,也会影响日后在二手车市的保值率。

智能车辆安全辅助驾驶技术研究近况

文章编号:1002O0268 (2007)07O0107O05 智能车辆安全辅助驾驶技术研究近况 基金项目: 国家自然科学基金资助项目 () 作者简介: 王荣本(1946-),男,教授,博士生导师, 研究方向为智能车辆、汽车安全辅助驾驶、物流自动化 xx,xx,xx,xx,余天xx (吉林大学交通学院,吉林长春130025) 摘要: 论述了安全辅助驾驶技术的研究现状、研究的必要性以及研究进展。安全辅助驾驶技术包括车道偏离预警与保持、前方车辆探测及安全车距保持、行人检测、驾驶员行为监测、车辆运动控制与通讯等。分析了各种传感器的优缺点及其在实际应用过程中存在的问题,基于单一传感器不能很好地解决安全辅助驾驶技术可靠性和环境适应能力的要求,应结合激光雷达技术解决图像模糊问题,利用红外传感器增强机器视觉识别的可靠性,未来的安全辅助驾驶技术应该采取多种传感器融合的技术,结合毫米波雷达和激光雷达系统具有深度测量精确的特点,将极大的推动汽车安全辅助驾驶系统的应用和推广。 关键词: 智能交通系统;安全辅助驾驶;车道偏离预警;行人检测;车间通讯中图分类 号:

U491文献标识 码:AReviewontheResearchofIntelligentVehicleSafetyDrivingAssistantTechnology WANGRongOben,GUOLie,JINLiOsheng,GUBaiOyuan,YUTianOhong (SchoolofTransportation,JilinUniversity,Jilin Changchun 130025,China) Abstract: Keywords: 引言 智能车辆是利用传感器技术、信号处理技术、通讯技术、计算机技术等,辨识车辆所处的环境和状态,根据各传感器所得到的信息做出分析和判断,或者给司机发出劝告和报警信息,提请司机注意规避危险;并能在紧急情况下,帮助司机操作车辆(即辅助驾驶),防止事故的发生。 早期智能车辆研究主要集中在如何采用各种传感器技术实现车辆全自动化无人驾驶,随着研究的深入,重点着眼于提高汽车的安全性、舒适性以及提供优良的人车交互界面,并努力向市场推广智能车辆相关技术的应用。 1998年美国运输部认为日益严重的交通事故是最迫切需要解决的问题,开始组织实施智能车辆先导IVI(IntelligentVehicleInitiative)计划。该计划的基本宗旨和目标是预防交通事故及其引起的人员伤亡,提高安全性,并以人为因素为基础,防止驾驶员精神分散,促进防撞系统的推广应用。 智能车辆技术研究重点的转移主要是日渐增长的交通事故以及对减少驾驶员操作强度的需求。根据美国运输部IVI计划,仅在美国,每年至少发生680万起交通事故,造成412万人死亡。 在一些发达国家,情况就更严重。如我国在2004年共发生道路交通事故517889起,造成1077人死亡,直接财产损失2319亿元,与2003年相比,死亡人数上升216%。1安全辅助驾驶技术的研究现状 安全辅助驾驶技术主要目的是提高汽车行驶的安全性,通过安装在车辆及道路上的各种传感器掌握本车、道路以及周围车辆的状况等信息,为驾驶员提供劝

汽车美容操作技术手册

汽车美容操作技术手册:工作技术流程操作标准 关于汽车护理美容部分的工作技术流程操作标准一共分为:漆面护理、轮胎护理、车内护理、发动机四大部分11个项目流程,具体划分为:漆面护理7个项目,底盘护理1个项目,车内室护理3个、轮胎护理1个,发动机护理1个,所有流程的操作技术能为目前已知的美容项目提供全面的技术支持。(玻璃修复除外) 一,洗车吸尘流程 二,打蜡流程 三,研磨流程 四,抛光还原流程 五,划痕修复流程 六,车内室干洗流程 七,车内消毒流程 八,底盘防锈流程 九,封釉流程 十,镀膜流程 十一,仪表盘护理流程 十二,发动机清洗流程 一,洗车服务流程及质量要求(十三个步骤) 设备工具:高压洗车机、吸尘机、吹气枪、空压机、泡沫机、吸尘器、绒毛手套、羊毛手套;水桶、刷子,小毛刷、大中小毛巾等,其中大毛巾为60-160cm或80-180cm, 用品:预洗液,高泡洗车液、水蜡或免划痕洗车液,驱水剂,电脑水蜡 时间要求:15—20分钟完成(2人) 1、操作步骤:洗车 第一步骤:接车 (1) 当看见有车打方向灯,将进入我中心时,应以最快的速度,把来车带到正确的洗车区位置上,注意带车安全和手势, 之后主动为车主开车门,另一只手侧扶在车门框顶,防止车主下车时头撞在车门框上,同时说道:“你好,欢迎光临。” (2)当客户下车后,抽出地毯,要防止地毯上的垃圾和灰尘掉到车,并在司机位放一张我中心指定的胶垫;待客户离开洗车区和确定车门窗被关好后,方可开始冲水, (3)咨询车主需要服务的项目,叫专人登记;在车主下时告知车主取走车上贵重物品,以免出现不必要的纠纷,并请车主将轮胎调正,最后请车主去客户休息中心休息,当客户离开我中心时,注意车匙是否已留在我中心;工作人员应迅速对来车检查一遍,若发现问题,要及时报告。 第二步骤:打预洗液。顺序由车顶——引擎盖——侧面——后尾箱——另一侧面 预洗液的作用是使漆面上污垢松动,产生悬浮层,减少在高压冲水的作用泥沙对车漆的伤害。(如果没有预洗步骤直接进入第四步骤) 第三步骤:第一遍高压冲车

轿车车身涂装的前处理工艺

轿车车身涂装的前处理工艺 轿车车身涂装的主要目的是提高车身的防护性和装饰性,增强车身防腐蚀能力,改善车身外观;另外国内外对环保的要求越来越高,为了更有效地减少汽车制造过程中造成的污染,更好地保护环境,汽车制造商致力于各种新工艺、新技术、新材料、新设备的研究与应用,不断提升轿车车身涂装质量。为了增强车身底材钢板与涂层间的附着力,提高车身底材的抗腐蚀能力,在涂漆之前要对白车身进行表面处理。本文就奇瑞汽车有限公司涂装二车间漆前表面处理的有关工艺、材料、设备、工艺管理等方面进行简要论述。 在各种金属表面处理方法中,磷化处理工艺已被广泛应用。奇瑞汽车有限公司涂装二车间车身漆前表面处理(简称前处理)的工艺流程见图1。 图1 前处理工艺流程 1脱脂 轿车车身材料一般是钢板,车身在进入涂装车间之前,经过贮藏、冲压拉延、焊接、修磨甚至烘烤等处理过程。在这些处理过程中,不可避免地带人大量的防锈油、拉延油等油脂类物质,而在压延和焊装过程中又产

生大量的铁粉、铁屑以及残胶等杂物,脱脂工序是清除这些油脂、杂物的重要工序。 车身进入前处理之前设置手工高压水枪冲洗,使用中性脱脂剂和工业水按一定比例混合,通过增压装置输送到两把高压水枪后进行冲洗。高压水枪的工作压力一般为50—100MPa,对车身内仓、夹缝、空腔结构等容易积聚灰粒的部位进行初步清洗。特别是车身内腔地板,影响电泳漆膜质量的灰粒有80%以上分布于车身内腔地板上。经过冲洗后的车身,灰粒大约可减少30%。有利于降低脱脂槽的污染,延长槽液的使用寿命。 脱脂工序采用浸洗和出槽喷洗相结合的处理工艺,可根据白车身质量和车间工艺水平状况设置两个或多个浸洗槽。槽液通过循环泵进行连续搅拌,增强对车身的冲刷清洗效果。除油装置有两种工作状态,生产过程中表面浮油和分散在槽液中的油污随槽液输送到油水分离器,在油水分离器内通过加热使油脂破乳分层,再经多级溢流将油污浓缩收集;停产期间通过补加少量工业水使表面静态浮油溢流到油水分离器,再经多级溢流将油污浓缩收集。使用的脱脂剂根据板材、油污的种类与性质选择,通常由硅酸盐、磷酸盐及表面活性剂等组成。但这些材料在一定程度上会对环境产生污染,环保成为新型脱脂剂的主要研究方向。奇瑞汽车有限公司涂装二车间使用的脱脂剂中表面活性剂是生物可降解材料,该种脱脂剂去油能力强,COD低,对环境的污染较传统脱脂剂小。

一汽丰田卡罗拉二手车残值率同级最高

一汽丰田卡罗拉二手车残值率同级最高 来源:汽车之家 在汽车消费十分成熟的欧美国家,保值率早已被视为选购汽车的重要因素之一,每年都有权威机构公布各品牌的二手车保值率排名,“在我国,汽车市场竞争日趋激烈,各大厂商的主力车型都给出了大幅度让价。消费者在考虑购买新车时,价格无疑是一个重要的考量因素。但二手车的保值率也是一个重要的参考指标。品牌残值率越高,就越能卖一个好价钱,也就等于节约了购车成本。面对市面上众多车型,到底应该选择哪一款车才更保值呢? 在二手车市场最成熟的美国,以卡罗拉为代表的丰田车也是以高保值率而著称的。在历年权威机构公布的二手车保值率排名中,卡罗拉不止一次被评为“最可靠的二手车”。丰田产品的高保值率优势,在中国市场上也开始受到消费者的重视。 二手车专家分析认为,均衡的性能、可靠的质量、稳定的价格、持续的畅销、优秀的服务,是卡罗拉保值率高的原因。卡罗拉被誉为紧凑车型市场的“全能冠军”,在外形设计、内部空间、动力表现、燃油经济性、操控性、安全保障等各方面,都拥有令人满意的表现,对于看重实用性的二手车购买者,无疑是非常具有吸引力的。同时,“丰田海外模范工厂”——一汽丰田严苛的品质管理体系为卡罗拉注入了卓越品质,使得这款车的质量和耐用性有口皆碑。一汽TOYOTA渠道口碑极佳的服务,则免除了顾客对二手车过户后售后服务的后顾之忧。 随着中国汽车市场进一步走向成熟,消费者对二手车认可度的提高以及二手车需求量的增加,汽车保值率认知度也将随之而提高,消费者购车越来越注重保值率,卡罗拉这样的高保值率车型受宠也是必然的。经过调查,《车天下》汽车专网给出了2011年市面上主流车型的二手车残值率排行榜,可以看到,A级车中,卡罗拉的残值率排行最高:

汽车美容店员工职责

汽车美容店员工职责 岗位责任制 (一)精品组 组长: 1、协调本组员工之间的工作,处理本组员工和客户之间的纠纷,带动各员工开展公司业务, 2、做好商品、配件的出库、入库、库存的管理和核销工作,严格执行出入库程序,准确掌握库存商品和配件的数量,做到及时补货保证不缺货; 3、及时了解各员工的业务进展状况,发现问题及时上报公司并提出解决方案; 4、监督、检查本组员工对公司制度的执行情况。对本组员工在工作中的失职、失误及违反公司规章制度等行为,有权提出批评并及时制止,同时督促其立即改正。对于屡教不改者有权填写罚款单,经店长审核同意后交财务 5、根据公司业务要求,制定本组工作计划。及时对本组员工进行业务培训,提高员工的业务能力,完成公司的考核指标 (二)机修组 组长 1、根据公司业务要求,制定本组工作计划,带领组员认真完成公司的考核指标。 2、认真执行公司的政策,恪守公司的各项规章制度,运用精湛的技

术和专业知识为客户解答有关汽车修理方面的各种问题,清除客户车辆的故障。 3、在维修过程中带领组员运用专用的设备、规范的操作流程及熟练的技术,高质量高效率的完成各项修理任务,100%达到客户满意。 4、监督本组工作人员正确、规范的使用各种维修用的设备及工具,做到安全施工、文明施工。不野蛮施工,不违规操作。 5、设备的定期养护、检查、工具的保管要落实到个人。 6、施工完毕的车辆需要路试的,必须指派有驾照的人员试车,并做到安全驾车。 7, 监督、检查本组员工对公司制度的执行情况。对本组员工在工作中的失职、失误及违反公司规章制度等行为,有权提出批评并及时制止,并督促其立即改正。对于屡教不改者有权填写罚款单,经店长审核同意后交财务. (三)装饰组 组长: 1、认真执行公司的政策及规章制度,根据公司业务要求,制定本部门工作计划。带领组员认真完成公司的考核指标。 2、经常保持施工车间干净整洁无尘。 3、组织组员运用熟练的技术、规范的操作流程做好各项的装饰任务。 4、节约用料,避免浪费。 5、施工过程中务必做好事故防范工作,坚决避免因施工而损坏车辆上的任何部件。

发动机燃料供给系统

第二节发动机燃料供给系统 一、燃料供给系统功能及结构概述 燃料供给系统(供油系统)的功能:对发动机的性能而言,燃料系统主要具有将不含有灰尘、水分和空气等杂质的干净燃料输送给发动机的功用。此系统与发动机的输出功率、排气烟度以及高压油泵、喷油器的正常工作等发动机故障现象也有着密切的关联。柴油机燃料供给系统的任务,是根据柴油机工作的需要,定时、定量、定压地将柴油按一定的供油规律成雾状喷入燃烧室内与空气迅速混合燃烧。 柴油机燃料供给系统由下列组成: 1.燃油系统工作流程图(图1-2-1) 图1-2-1 燃油系统工作流程图

燃油供给装置包括:燃油箱总成、燃油粗滤器、输油泵、进油管、燃油精滤器、高低压油管、喷油器和回油管。燃油供给装置的功能在于贮存、输送、清洁,提高柴油压力,通过喷油嘴呈物状喷入燃烧室与空气混合而成可燃混合气。 二、燃油供给系统的主要零部件 有关输油泵、燃油滤清器、调速器、角度自动提前器、喷油泵、喷油器的结构、原理、修理、保养请参看该发动机的使用维护说明书。1.带锁燃油箱总成(图1-2-2) 该车型的带锁燃油箱总成按容积共分3个系列,容量分别为400L、320L、270L。一般情况燃油箱总成放置在汽车前进方向的右侧,空滤总成的后部。该燃油箱总成采用钢板卷压成型,端盖咬接答焊,内表面防腐密封处理。具有耐腐蚀、防锈和不易泄漏,容积大等优点。 油箱的中上部是加油口,加油口直径为φ100mm,加油口高出燃油箱45mm,为了加油方便,加油管内带有可以拉出的延伸管,延伸管底部装有铜丝滤网。油箱盖由耐油橡胶垫密封,靠三爪弹簧片锁紧,在油箱盖上并设有通气孔,排出油箱内的蒸汽,保持内外气压一致。油箱盖上装有链索扣环,与加油管内的延伸管相连,以免盖子失落。

汽车车身涂装生产线工艺流程

卓科工业汽车车身涂装工艺流程 主要内容; 1涂料和涂装基本知识; 2汽车及零部件涂装工艺; 3涂装工艺方法; 4涂装三废处理;涂料和涂装基本知识 1.1涂料和涂装的概念;涂料:是以高分子材料为主体,以有机溶剂、水或空气; 涂装:将涂料均匀地涂布在基体表面并使之形成一层连;?§1涂料和涂装基本知识; 1.2涂料和涂装的作用;1.保护作用;主要是金属防腐蚀; 2.装饰作用;装饰产品表面,主要内容1涂料和涂装基本知识2汽车及零部件涂装工艺3涂装工艺方法4涂装三废处理涂料和涂装基本知识 1.1涂料和涂装的概念 涂料:是以高分子材料为主体,以有机溶剂、水或空气为分散介质的多种物质的混合物。 涂装:将涂料均匀地涂布在基体表面并使之形成一层连续、致密涂膜的操作工艺称为涂装。 1涂料和涂装基本知识 1.2涂料和涂装的作用 1?保护作用:主要是金属防腐蚀。 2.装饰作用:装饰产品表面,美化产品和生活环境。 3.标志作用:做色彩广告标志,起到警告、危险、安全、禁止等信号作用。 4.特殊作用:电气绝缘漆、船底防污漆、超温报警示温涂料、抗红外线涂料 1涂料和涂装基本知识1.3涂料的组成1涂料和涂装基本知识1.4涂料的分类和命名1.分类 一般可以下几种: 1.)根据组成形态分类(溶剂型、无溶剂型、粉末涂料、水性涂料、高固体 份等) 2.)按用途分类(建筑涂料、汽车涂料、飞机蒙皮漆、木器漆等) 3.)按涂装方法分类(喷漆、浸漆、烘漆、电泳漆等)

4.)按涂装工序分类(底漆、面漆、腻子、罩光漆) 5.)按效果分类(绝缘漆、防锈漆、防污漆等) 6.)按成膜物质分类 以涂料基料中主要成膜物质为基础。分为18类(17类成膜 物质,1类辅助材料)。 A氨基树脂涂料Q硝基涂料B丙烯酸树脂涂料C醇酸树 脂涂料 H环氧树脂涂料G过氯乙烯涂料L沥青树脂涂料 2?命名 全名=颜色或颜料名称+成膜物质+基本名称 (红醇酸磁漆锌黄酚醛防锈漆) 2涂装工艺 涂装是物体表面的最终修饰,涂装质量的好坏对物体的价值有直接的影响。影响涂装质量的好坏的三要素:涂料、涂装技术(方法、设备、环境)和涂装管理涂装类型根据被涂物对外观装饰性要求、涂层使用条件和涂层性能, 一般分下列五种类型: 1?高级装饰性涂层(一级涂层)

二手车开几年后卖掉最划算

二手车开几年后卖掉最划算 来源:我卖我车网编辑:Lara 买了车,欣喜过后,上手之后,开了几年,经济条件也富裕了,是不是想着卖掉它再换辆的?但是,你知道吗,想要卖车也是有策略的,开了一年跟开了两年、三年再卖,价格、行情可是不一样的,那么二手车开几年后卖掉最划算,是不是要好好考虑、借鉴一下? 二手车开几年后卖掉最划算?北京卓杰行资深评估专家告诉小编,买车卖车都需要注意的买车后的两个时间段,3年、5年!从汽车的寿命周期来说,新车在头两年贬值都比较快,而在5年之后维修保养等费用消耗会比较大。因此,新车在使用3年左右,不超过5年时卖掉是相对来说比较保值的。 二手车开几年后卖掉最划算?对于新车来说,汽车所有的零部件都是有一定使用寿命的,10万公里以上的车零部件已经老化,慢慢会有一些毛病出来。所以,一般10万公里就会经历一个大保周期的时间,例如刹车盘、刹车片、轮胎都要换了。这些零部件更换是笔不小的开销。所以这时候换车比较合理。私家车一般一年行驶里程在2万公里左右,3-5年正是大保周期的时候,换车是最划算的。 二手车开几年后卖掉最划算?如果你买的是3年左右的二手车,那么在手中保有2年的时间是比较合适的,在2年后二手车车主就可以把车卖掉,这样不但是最充分的利用了二手车的价值,而且还可以在保值率较高的时期将其卖出。 二手车开几年后卖掉最划算?消费者在卖车时还应该注意一个时间点就是每年的十月份。一般的二手车交易机构都会在10月份开始整理库存,为下一年的工作做计划。因此,从一整年的时间段来说,一般在10月份之前卖车比较合适。 二手车开几年后卖掉最划算?我卖我车网小编建议大家买的是新车,可以开了3-5年时就卖掉,如果买的的二手车,最好保有两年就可以将其出手了。当然,卖车时还要选择每年的十月份之前,这样不但出手快,而且卖价高,是相当划算的。

2015汽车保值率报告

2015汽车保值率报告 无论消费者出于何种目的买车,汽车的保值率始终是决定一款车子价值的重要因素。当然,也有消费者会说:“买车是拿来用的,又不是为了倒手卖钱的,为什么非要考虑保值率呢。”不过,一款车子之所以保值率高,是有很多因素决定的,一般来说,保值率高的车子可靠性、稳定性都更强,保养成本也会低。所以,无论您是买新车还是买二手车,保值率都是必须要考虑的因素。 由中国汽车保值率报告委员会发布的《2015中国汽车保值率报告》显示,在汽车市场中,B级车最保值,车龄3年B级车市场平均保值率为55.1%,车龄5年保值率44.0%,在七个细分市场中都是最高的。MPV市场新车销量近两年增速最快,根据本期保值率分析,相比其他细分市场,MPV贬值最快,车龄3年保值率49.2%。 相比去年,C级细分保值率平均保值率下降了5.9%,是降幅最大的细分市场,主要原因:第一,汽车反垄断调查带来新车售价和零配件价格下调;第二,公务差改革造成部分豪华车价格下滑;第三,平行进口车政策出台也促使部分豪华车市场价格调整。 A0级细分市场的保值率有所上升,同比上升了2.4%。主要原因是A0级小型车的需求比较旺盛,二手车价格呈上升趋势。 梳理本期报告可以看出,2015年乘用车市场的综合保值率呈下滑趋势,预计降幅为1%。而长期来看,随着中国二手车市场不断成熟化、规模化,二手车的价格和保值率呈下滑趋势。 《2015中国汽车保值率报告》还显示,车龄1-3年后,奥迪、宝马凭借在中国国内深厚的豪华车市场基础,其款式保值率竞争优势开始显现,占据了前10排名的较多位置,其中,在车龄3年保值率排行榜上,凯迪拉克xts夺冠,宝马5系排名第二、奥迪a6l紧随其后。这个结果在意料之外,却也在情理之中,只要我们稍加分析,便可理解其中缘由。凯迪拉克XTS在豪华车中具有科技配置领先、车辆性能优异、质量可靠等优势,而且作为多用于行政用途的豪华车,其二手车的车况较好,新车终端价格波动小,因此获得最保值豪华车型也就不足为奇了。 据悉,中国汽车保值率研究专业委员会于2014年发起成立,每年定期发布汽车保值率报告,为金融机构、汽车厂商、二手车经销商以及消费者评估车辆、买车卖车提供权威的数据参考建议。

(完整版)高级驾驶辅助系统ADAS各功能详解

ADAS(高级驾驶辅助系统)高级驾驶辅助系统(Advanced Driver Assistant System),简称ADAS,是利用安装于车上的各式各样的传感器,在第一时间收集车内外的环境数据,进行静、动态物体的辨识、侦测与追踪等技术上的处理,从而能够让驾驶者在最快的时间察觉可能发生的危险,以引起注意和提高安全性的主动安全技术。ADAS 采用的传感器主要有摄像头、雷达、激光和超声波等,可以探测光、热、压力或其它用于监测汽车状态的变量,通常位于车辆的前后保险杠、侧视镜、驾驶杆内部或者挡风玻璃上。早期的ADAS 技术主要以被动式报警为主,当车辆检测到潜在危险时,会发出警报提醒驾车者注意异常的车辆或道路情况。对于最新的ADAS 技术来说,主动式干预也很常见。ADAS通常包括以下17种用与汽车驾驶辅助的系统: 1、导航:导航是一个研究领域,重点是监测和控制工艺或车辆从一个地方移动到另一个地方的过程。导航领域包括四个一般类别:陆地导航,海洋导航,航空导航和空间导航。 2、时交通系统TMC:TMC是是欧洲的辅助GPS导航的功能系统。它是通过RDS方式发送实时交通信息和天气状况的一种开放式数据应用。借助于具有TMC功能的导航系统,数据信息可以被接收并解码,然后以用户语言或可视化的方式将和当前旅行路线相关的信息展现给。 3、电子警察系统ISA:我国道路交通管理系统中的“电子警察”是随着科技的发展而产生的,是一个时代的产物。它作为现代道路交通安全管理的有效手段,可以迅速地监控、抓拍、处理交通违章事件,迅速地获取违章证据,提供行之有效的监测手段,为改善城市交

通拥堵现象起到了重要的作用,已成为道路交通管理队伍中必不可少的一员,以充分发挥它准确、公正的执法作用。 4、车联网(Internet of Vehicles):车联网是由车辆位置、速度和路线等信息构成的巨大交互网络。通过、、、摄像头等装置,车辆可以完成自身环境和状态信息的采集;通过技术,所有的车辆可以将自身的各种信息传输汇聚到中央处理器;通过技术,这些大量车辆的信息可以被分析和处理,从而计算出不同车辆的最佳路线、及时汇报路况和安排信号灯周期 5、自适应巡航ACC(Adaptivecruise control):自适应巡航控制系统是一种智能化的自动控制系统,它是在早已存在的巡航控制技术的基础上发展而来的。在车辆行驶过程中,安装在车辆前部的车距传感器(雷达)持续扫描车辆前方道路,同时轮速传感器采集车速信号。当与前车之间的距离过小时,ACC控制单元可以通过与制动防抱死系统、发动机控制系统协调动作,使车轮适当制动,并使发动机的输出功率下降,以使车辆与前方车辆始终保持安全距离。自适应巡航控制系统在控制车辆制动时,通常会将制动减速度限制在不影响舒适的程度,当需要更大的减速度时,ACC控制单元会发出声光信号通知驾驶者主动采取制动操作。当与前车之间的距离增加到安全距离时,ACC控制单元控制车辆按照设定的车速行驶。 6、车道偏移预警系统(Lanedeparture warning system):车道偏离预警系统是一种通过报警的方式辅助驾驶员减少汽车因车道偏离而发生交通事故的系统。车道偏离预警系统由图像处理芯片、控制器、传感器等组成。

汽车自动采样操作手册

操 作 手 册 长沙通发高新技术开发有限公司

长沙通发汽车采样系统 操作手册 一.控制系统简介: 由上位机(工控机)+下位机(PLC)组成的两级计算机控制系统,上位机进行状态监视和命令发送,PLC根据上位机的指令和参数并结合从现场采集到的传感器信号,控制各执行器动作,完成采样过程。PLC 采用SIEMENS—S7-200系列,中心处理器采用CPU226 CN;上位机采用工控机,根据客户要求配置;开发软件采用VB6.0 简体中文版;数据库采用Access 2000中文版。 二.手动操作: 1.将“手动/自动”选择开关旋到“手动”。 2.按“左行”或“右行”控制大车左右行走;按“前进”或“后退”控制小车前后行走至目标点, 大小车行走到位后,按“采样”按钮控制采样杆下钻采样。 3.采样过程中根据电脑操作界面上显示的深度坐标值(Z)采到要求的深度。 4.按“取样”按钮使钻杆旋转上升到顶。 5.将大小车行走到卸煤点,按“卸样”按钮将样品卸到料斗中。 6.卸样完毕后将大小车开到原始停车位置。 三.自动操作: A.打开电脑: 1、打开控制电脑电源的空气开关(在电控柜里面或者在电源箱里面)。 2、打开插排的开关给电脑主机、显示器供电。 3、在电脑主机和显示器上按下的电源开关,等待电脑进入操作系统,直到显示器显示操作界面。。 B.系统登陆: 1、双击桌面图标进入启动界面。 2、自动进入登陆界面(如图:1.2),用户名:super , 默认口令是:123456(super)。

图1.2 登陆界面 3、在用户名中输入或选择用户,在口令输框中输入相应的口令,点<进入>按钮,进入主界面(如图: 1.3)。 图1.3 主界面 C.操作员管理: 功能:对本系操作员管理如:(增加新操作员、删除操作员、修改操作员信息)。 1、选择<信息维护>菜单——><操作员管理>打开操作员管理界面(如图:2.1)。

汽车发动机燃油供给系统教案

燃油供给系统 任务一汽油发动机燃料供给系统 学习目标 1.了解汽油机燃油系统的发展 2.掌握电控发动机燃油供给系统组成原理 3.掌握汽油机燃油供给系统组成部件作用 1.汽油机燃油系统的发展 上个世纪60年代,汽车用燃油输送系统绝大多数仍采用构造简化的化油器。随着汽车工业的发展,汽车尾气排放带来的空气污染日益严重,西方各国都制定了汽车排放法规法案。同时受能源危机的冲击以及电子技术、计算机等飞速发展,促进了电子控制汽油机喷射发动机的诞生。1953年美国奔第克斯(Bendix)首先开发了电子喷射器,1957年正式问世。 传统的化油器存在诸如发生气阻、结冰、节气门响应不灵敏等现象,在多缸发动机中供油不匀,引起工作不稳、不利于大功率设计。为了弥补这些缺陷,早在上世纪30年代,汽油喷射系统就已在开始航空发动机的研究中被作为研究对象,经过10多年的深入研发,在1945年开始应用于军用战斗机上。它充分的消除了浮子式化油器不能完全适用军用战斗机作战工况的缺点,汽油喷射技术应运而生。 尽管汽油喷射技术有诸多优势,但由于其生产受当时社会生产力、生产工艺、技术的制约,其制造成本非常高,因此汽车用汽油喷射装置最初只能应用在数量很少的赛车上,它能满足赛车所要求的大发动机输出功率和灵敏的油门响应性能。到50年代末期,大多数赛车都已经采用了汽油喷射作为燃油输送系统。 汽油喷射应用于民用批量生产的轿车发动机上,实在1950-1953年高利阿特与哥特勃罗特两公司首先在2缸2冲程发动机上安装了汽油喷射(缸内喷射)装置。1957年奔驰公司又在4冲程发动机上才用了它。 由于各发动机制造商强调发动机输出功率的提高,为了确保全负荷时大扭矩输出特性,空燃比控制必然偏小,以提高喷油量,因此,对空燃比的控制精度也比较低。但是随着电子控制技术的发展、应用,电子燃油控制的各种有点渐渐显现出来,包括各种精细的补偿功能和良好的空燃比控制性、灵敏的节气门响应性、高功率的从输出。 另外,在电子技术方面,晶体管早已发明,但是由于成本高,性能不稳定,还不能很好地应用于汽车上。故奔第克斯在开发阶段应用真空管开发了计算机。在1957年发表时,正式晶体管开始实用化时代,因此,她开发的电子控制汽油喷射装置只在美国三大汽车公司之一的克莱斯勒汽车上装用。 2.电控汽油机燃油喷射系统的优缺点 汽油喷射系统的实质就是一种新型的汽油供油系统。化油器利用空气流动时在节气门上方的喉管处产生负压,将浮子室的汽油连续吸出,经过雾化后输送给发动机。汽油喷射系统则是通过采用大量的传感器感受各种工况,根据直接或间接检测的进气信号,经过计算机判断和分析,计算出燃烧时所需的汽油量,然后将加有一定压力的汽油经过喷油器喷出,以供发动机使用。 电控发动机系统取消了化油器供油系中的喉管,喷油位置在节气门下方,直接在进气门

汽车辅助驾驶技术统计

汽车辅助驾驶统计 驾驶员辅助系统可以涵盖的功能有很多,包括:车道辅助、行车辅助、停车与操作辅助、避让辅助、转向与穿行辅助、照明与视野辅助等 博世驾驶员辅助系统涵盖了市场的需求与趋势,在必配功能方面包括自动紧急制动、车辆偏离警告等,标准功能包括自适应巡航、智能大灯控制等,除此之外还提供一些差异化功能如交通拥堵辅助、狭窄道路辅助等。 大陆集团的高级驾驶员辅助系统基于雷达、摄像机和红外传感器可以实现以下功能:紧急制动辅助;自适应巡航控制;车道偏离警告;智能前大灯控制;交通标志辅助;盲点探测和360度环绕检测(全景图)。 欧洲新车评价规程(EuroNCAP)规定,自2014年起,新车型必须装配相关驾驶员辅助系统才能获得五星安全评定。被列入配备选项的系统包括自动紧急制动、智能速度辅助、车道偏离警告或车道保持支持。

第一章浅析博世驾驶员辅助系统 ACC自适应巡航控制系统 ACC自适应巡航系统可以在道路中自动控制车速并保持与前车的距离。ACC使用雷达传感器发射电波并接收前方物体反射回的电波,根据反射回来的信号,ACC通过计算与相对距离、相对方位和相对速度来探测前方车辆,以作出加速或制动的判断。ACC可在车速约30km/h以上被激活,而停走型ACC可在静止时即可启用。 在ACC系统中,雷达传感器是最核心的部件。博世目前有两种雷达,一种为中距离雷达(MRR),可以探测160米的距离,可支持ACC最高巡航速度为150km/h,目前第七代高尔夫顶配车型上所使用的ACC系统就搭配了这款雷达,

性价比较高;博世长距离雷达(LRR)可以探测250米的距离,可支持ACC最高巡航速度为200km/h,如果该ACC系统搭配了多功能摄像头,最高巡航速度可达250km/h。奥迪A6L的停走型ACC在传统雾灯的位置装配了两部LRR,增加了探测的范围和距离。 ACC系统使用雷达传感器和多功能摄像机作为信息采集和输入端,可以在驾驶员不操作油门和刹车的情况下自动保持车距巡航,当前方车辆出现减速时随之刹停,而前方车辆离开时可自动加速至理想速度,在一定程度上接近了自动驾驶技术。不过,ACC并不能对车辆方向进行调整。 车道辅助系统/紧急制动系统 博世LDW车道偏离警告系统和LKS车道保持系统使用了一台多功能摄像头(MPC)进行车道线的识别,当系统识别到车道线时,自动进入工作状态。如果车辆在行驶中偏离了车道,且没有打转向灯,首先LDW会输出警告信号,而选择什么样的警告方式(如声音、仪表视觉符号以及方向盘振动等)由整车厂进行设定。如驾驶员没有回应,LKS系统将通过EPS电子转向系统在方向盘上施加大约3牛·米的力矩,以帮助车辆回到正确的车道上来。在这个过程中,如果驾驶员打方向灯或者大角度转动方向盘,则系统默认车辆由驾驶员接管而停止干预。

汽车美容心得体会

从事汽车漆面保养工作,如抛光、封铀、镀膜等,刚开始的时候由于对抛光机的使用不熟练,工作中好多问题都不会处理,后来在同时的帮助下慢慢的进步懂得了其中的使用技巧。工作中就显得轻松多了。其实汽车美容是一项比较简单的工作,技术含量并不高,最主要的就两个字“细心”。我们公司对汽车美容工还有以下几点原则: ?1、耐心细致:汽车美容是精细工作,类似工艺品的加工制作,必须有耐心,要精益求精。粗心大意容易出错,稍有疏忽就会留下边边角角的污点。如果工作干得不细、不清,就会失去顾客。 ?2、求稳避灾:车漆美容时,一旦研磨或抛光过度,会造成原有漆面的破坏、很难补救。因此,当出现难题时要停下来,规划好后再继续操作。 ?3、取轻避重:进行美容作业时,应根据部位及材料选用产品,并作好试验、试用工作。优先选用柔和型、稀释型或微切型的产品。尽量由低速档位、小力量开始试验操作,直至速度、用力大小满足要求为止。 ?4、先试后用:为了保证作业要求,应在全面作业之前,在隐蔽处小范围内进行试验,以便掌转载自百分网https://www.wendangku.net/doc/e7775358.html,,请保留此标记握情况正确使用产品和优化操作方法。 ?现在我已经申请调到汽车维修区去了,不过刚过去做了几天好多还是很陌生,我想在回公司的时候一定会好好努力做好工作,认真向那些经验丰富的师傅学习,以学到更多的专业技术知识,期待明天的到来。 ?十几年的学生生活,即将划上一个句号。在浙江正道车业服务有限公司实习的这段时间,我懂了不少东西。大人们都说刚毕业的学生身上总存在着许多让公司老板头痛的“特点”,现在我终于亲身体会到了。以前作为一名学生,主要的工作是学习;现在即将踏上社会,显然,自己的身份就有所变化,自然重心也随之而改变,现在我的主要任务应从学习逐步转移到工作上。这几个月,好比是一个过渡期——从学生过渡到上班族,是十分关键的阶段。回想自己在这期间的工作情况,不尽如意。对此我思考过,学习经验自然是一个因素,然而更重要的是心态的转变没有做到位。现在发现了这个不足之处,应该还算是及时吧,因为我明白了何谓工作。在接下来的日子里,我

汽车车身涂装生产线工艺流程

卓科工业汽车车身涂装工艺流程 主要内容; 1涂料与涂装基本知识; 2汽车及零部件涂装工艺; 3涂装工艺方法; 4涂装三废处理;涂料与涂装基本知识 1、1涂料与涂装的概念;涂料:就是以高分子材料为主体,以有机溶剂、水或空气;涂装:将涂料均匀地涂布在基体表面并使之形成一层连;?§1涂料与涂装基本知识; 1、2涂料与涂装的作用;1、保护作用;主要就是金属防腐蚀; 2、装饰作用;装饰产品表面,主要内容1 涂料与涂装基本知识2 汽车及零部件涂装工艺3 涂装工艺方法4 涂装三废处理涂料与涂装基本知识1、1 涂料与涂装的概念 涂料:就是以高分子材料为主体,以有机溶剂、水或空气为分散介质的多种物质的混合物。 涂装:将涂料均匀地涂布在基体表面并使之形成一层连续、致密涂膜的操作工艺称为涂装。 1 涂料与涂装基本知识 1、2 涂料与涂装的作用 1.保护作用:主要就是金属防腐蚀。 2.装饰作用:装饰产品表面,美化产品与生活环境。 3、标志作用:做色彩广告标志,起到警告、危险、安全、禁止等信号作用。 4、特殊作用:电气绝缘漆、船底防污漆、超温报警示温涂料、抗红外线涂料 1 涂料与涂装基本知识1、3 涂料的组成 1 涂料与涂装基本知识1、4 涂料的分类与命名 1、分类

一般可以下几种: 1、)根据组成形态分类(溶剂型、无溶剂型、粉末涂料、水性涂料、高固体份等) 2、)按用途分类(建筑涂料、汽车涂料、飞机蒙皮漆、木器漆等) 3、)按涂装方法分类(喷漆、浸漆、烘漆、电泳漆等) 4、)按涂装工序分类(底漆、面漆、腻子、罩光漆) 5、)按效果分类(绝缘漆、防锈漆、防污漆等) 6、)按成膜物质分类 以涂料基料中主要成膜物质为基础。分为18类(17类成膜 物质,1类辅助材料)。 A 氨基树脂涂料Q 硝基涂料 B 丙烯酸树脂涂料 C 醇酸树 脂涂料 H 环氧树脂涂料G 过氯乙烯涂料L 沥青树脂涂料 2、命名 全名=颜色或颜料名称+成膜物质+基本名称 (红醇酸磁漆锌黄酚醛防锈漆) 2 涂装工艺

ADAS智能驾驶辅助系统

ADAS智能驾驶辅助系统 一、ADAS技术发展现状: 未来科技进步趋势将从“互联网”向“物联网”发展,智能驾驶是“万物互联”的最好载体,“无人驾驶”是汽车智能的终极发展方向。智能驾驶将进入高速发展期,预计在2020-2025年智能汽车将进入量产阶段,结合移动互联网、大数据、云计算的智能驾驶服务预计会在十年后全面推广。ADAS 是智能驾驶汽车的关键落地点,模块化分类主要有以下几点:车道偏离预警LDW,车道保持辅助LKA,紧急自动刹车AEB,智能远光灯IHC,自动泊车AP 等等。目前ADAS在国内外都属于研究阶段,只有一些高端车有了部分的技术储备,例如:丰田的公路自动驾驶辅助AHAC,特斯拉的自动巡航Autopilot,通用的Super Cruise。 二、ADAS技术市场格局分析: 智能驾驶技术未来的空间格局呈现金字塔结构,主要分为三层: 传统车企掌握着汽车生产资质和整车控制集成的核心竞争,科技型企业或者研究所凭借在人工智能、人机交互方面的优势抢占一部分市场份额。 ADAS供应商利用掌握的感知识别算法等为车企和科技型公司提供ADAS 系统解决方案; 底层零部件供应商:雷达,摄像头,芯片,电子刹车等等。 分析可知:底层零部件都掌握在供应商的手上,比较分散,其核心价值在于市场份额占据比例;塔尖的传统车企与科技公司,一般都会以合作的方式,核心产品大多为无人驾驶汽车这种涉及汽车生产资质与人工智能高端、核心算法的结合领域;中间层的ADAS研究是衔接二者的一个关键落地点,底层零部件是ADAS实现的载体,无人驾驶汽车是ADAS的高度集成。 ADAS技术领域的研究不仅仅可以作为塔尖与塔底的结合点,还可以通过ADAS技术的逐步深入研究与系统化集成,逐渐成为屹立于塔尖的科技型企业,从而实现整个技术点在质上的飞越与创新。 三、ADAS技术介绍: 1.整体框图:

汽车美容店员工制度

洗车店员工制度范文_汽车美容店员工制度 二、服从分配服从管理、不得损毁公司形象、透露公司机密; 三、上班不得迟到、早退、矿工;上岗时不得嬉笑打闹、赌博喝酒、睡觉而影响本公司形象; 四、员工上钟实行轮牌制,不得抢牌、挑牌、跳牌;更不准拒客、挑客; 五、员工上钟操作必须按照技术流程完成,不得偷工减料; 六、工作时接听私人电话不得超过1分钟,卫生实行区域包干制,必须做到整洁清爽;在没有工作的时候不允许串岗和闲逛,必须在制 定的休息区域待岗。 七、认真听取每为客户的建议和投诉并及时的处理和回复、损坏公司财物者照价赔偿,偷盗公司财物者交于公安部门处理 八、本公司可以享受任何险种;(按照员工在本公司的表现)。 九、员工服务态度: 1、热情接待每位客户(先生!女士!您好!欢迎光临!请~!)。作好 积极、主动、热诚、微笑的服务; 2、了解各产品的性能,向客户合理的介绍;(工作中---请!不好 意思!请稍等!对不起!走路轻、说话轻) 十、员工奖罚规定: 1、全勤奖励60元,迟到、早退、每分钟扣罚1元;旷工一天扣 罚120元,工作时间不允许请假,请假一天扣除当日工资,未经批 准按旷工处理;病假必须出具医院证明,前三天扣除当日工资的30%,之后每天扣除当日的工资; 2、每三个月进行评选优秀员工,奖励200元;(条件:必须全勤 员工、业绩名列前

3、卫生区域不清洁扣罚5元/次,工作完毕后未整理干净者扣罚5元/次;各岗位 制定出卫生责任人。 4、上岗时不得嬉笑打闹、赌博喝酒、睡觉而影响本公司形象,违者扣罚50元/次;上钟时接听私人电话不得超过1分钟,违者扣罚10元/次; 6、透露公司机密(产品原价、客户档案、工资待遇)查明属实将扣除当月工资的60%; 十一、入职条件: 1、填写员工入职表,按入职须知执行规定; 2、甲乙双方签定劳务合同书,合同期最少为一年; 3、合同期间必须遵守本公司规章制度; 4、员工入职后前三个月将不定业绩任务,之后将按公司所定业绩任务完成业绩; 十二、辞职条件: 1、员工合同期满后方可离职,离职将发放所有工资与归还培训费和物杂费;合同期满后如继续续约者将当次奖励100元,并在原有底薪上加30工资; 3、未满3个月而要离职者只发放工资的40%,其余部分与物杂费、培训费作为违约金而予以扣除; 十三、辞退员工将不发放任何工资待遇,辞退条件如下: 1、连续矿工3次/月; 2、拒客5次/月; 3、泄露本公司机密3次/月; 4、偷盗本公司财物者;

相关文档
相关文档 最新文档