文档库 最新最全的文档下载
当前位置:文档库 › latent dynamic discriminative model for continuous gesture recognition

latent dynamic discriminative model for continuous gesture recognition

latent dynamic discriminative model for continuous gesture recognition
latent dynamic discriminative model for continuous gesture recognition

Latent-Dynamic Discriminative Models for Continuous Gesture Recognition Louis-Philippe Morency Ariadna Quattoni Trevor Darrell

MIT Computer Science and Arti?cial Intelligence Laboratory

{lmorency,ariadna,trevor}@https://www.wendangku.net/doc/ea11342090.html,

Abstract

Many problems in vision involve the prediction of a class label for each frame in an unsegmented sequence.In this paper,we develop a discriminative framework for simulta-neous sequence segmentation and labeling which can cap-ture both intrinsic and extrinsic class dynamics.Our ap-proach incorporates hidden state variables which model the sub-structure of a class sequence and learn dynamics be-tween class labels.Each class label has a disjoint set of associated hidden states,which enables ef?cient training and inference in our model.We evaluated our method on the task of recognizing human gestures from unsegmented video streams and performed experiments on three different datasets of head and eye gestures.Our results demonstrate that our model compares favorably to Support Vector Ma-chines,Hidden Markov Models,and Conditional Random Fields on visual gesture recognition tasks.

1.Introduction

Visual gesture sequences tend to have distinct inter-nal sub-structure and exhibit predictable dynamics between individual gestures.In this paper,we introduce a new visual gesture recognition algorithm which can capture both sub-gesture patterns and dynamics between gestures. Our Latent-Dynamic Conditional Random Field(LDCRF) model is a discriminative approach for gesture recognition. In contrast to generative approaches(e.g.,Hidden Markov Models[26,4]),our model discovers latent structure that best differentiates visual gestures and can distinguish sub-tle motion patterns such as natural head nods and eye gaze aversion[14].

An LDCRF offers several advantages over previous dis-criminative models.In contrast to Conditional Random Fields(CRFs)[11],our method incorporates hidden state variables which model the sub-structure of gesture se-quences.The CRF approach models the transitions be-tween gestures,thus capturing extrinsic dynamics,but lacks the ability to represent internal sub-structure.In contrast to Hidden-state Conditional Random Fields(HCRFs)[18],

our method can learn dynamics between gesture labels and can be directly applied to label unsegmented sequences.

The LDCRF model thus combines the strengths of CRFs and HCRFs by capturing both extrinsic dynamics and intrinsic sub-structure.It learns the extrinsic dynamics by modeling a continuous stream of class labels,and it learns internal sub-structure by utilizing intermediate hid-den states.Since LDCRF models include a class label per observation(see Figure1),they can be naturally used for recognition on un-segmented sequences,overcoming one of the main weaknesses of the HCRF model.By associating

a disjoint set of hidden states to each class label,inference

on LDCRF models can be ef?ciently computed using be-lief propagation during training and testing.Our results on visual gesture recognition demonstrate that LDCRF mod-els compare favorably to models based on Support Vector Machines(SVMs),HMMs,CRFs and HCRFs1.

2.Related Work

There is a wide range of related work for visual gesture recognition(see surveys[28]and[6]).Recognition of head gestures has been demonstrated by several authors,using generative models of eye and/or head position over time.

Kapoor and Picard presented a technique to recognize head nods and head shakes based on two Hidden Markov Models (HMMs)trained and tested on2D coordinate results from an eye gaze tracker[8].Kawato and Ohya developed a tech-nique for head gesture recognition using“between eyes”

templates[9].Fugie et al.also used HMMs to perform head nod recognition[4].They combined head gesture detection with prosodic recognition of Japanese spoken utterances to determine strongly positive,weak positive,and negative re-sponses to yes/no type utterances.HMMs[19]and related models have been used to recognize arm gestures[2]and sign language gestures[1,22].

Recently many researchers have worked on modeling eye gaze behavior for the purpose of synthesizing a real-istic Embodied Conversational Agent(ECA).Colburn et 1C++and Matlab implementations of our LDCRF model as well as CRF and HCRF models can be downloaded at https://www.wendangku.net/doc/ea11342090.html,/projects/hcrf.

1

1-4244-1180-7/07/$25.00 ?2007 IEEE

https://www.wendangku.net/doc/ea11342090.html,e hierarchical state machines to model eye gaze pat-

terns in the context of real-time verbal communication[3]. Fukayama et https://www.wendangku.net/doc/ea11342090.html,e a two-state Markov model based on amount of gaze,mean duration of gaze,and gaze points while averted[5].Lee et https://www.wendangku.net/doc/ea11342090.html,e an eye movement model based on empirical studies of saccade and statistical mod-els of eye-tracking data[12].Pelachaud and Bilvi pro-posed a model that embeds information on communicative functions as well as on statistical information of gaze pat-terns[17].

A signi?cant amount of recent work has shown the power of discriminative models for speci?c sequence la-beling tasks.In the speech and natural language process-ing community,Conditional Random Field(CRF)models have been used for tasks such as word recognition,part-of-speech tagging,text segmentation and information ex-traction[11].In the vision community,Sminchisescu et al.applied CRFs to classify human motion activities(i.e. walking,jumping,etc)and showed improvements over an HMM approach[21].Kumar et https://www.wendangku.net/doc/ea11342090.html,ed a CRF model for the task of image region labeling[10].Torralba et al.intro-duced Boosted Random Fields,a model that combines local and global image information for contextual object recogni-tion[24].An advantage of CRFs is that they can model ar-bitrary features of observation sequences and can therefore accommodate overlapping features.

When visual phenomena have distinct sub-structure, models that exploit hidden state are advantageous.Hidden-state conditional random?elds(HCRFs),which can esti-mate a class given a segmented sequence,have been pro-posed in both the vision and speech community.In the vision community,HCRFs have been used to model spa-tial dependencies for object recognition in cluttered im-ages[18]and for arm and head gesture recognition from segmented sequences[27].In the speech community,a sim-ilar model was applied to phone classi?cation[7].Since they are trained on sets of pre-segmented sequences,these HCRF models do not capture the dynamics between ges-ture labels,only the internal structure.In both[7]and[27], HCRFs were applied to segmented sequences,leaving seg-mentation as a pre-processing step.

Sutton et al.[23]presented a dynamic conditional ran-dom?eld(DCRF)model whose structure and parameters are repeated over a sequence.They showed results for sequence segmentation and labeling where the model was trained using loopy belief propagation on a fully-observed training set.As stated by the authors,training a DCRF model with unobserved nodes(hidden variables)makes their approach dif?cult to optimize.Our LDCRF incorpo-rates hidden state variables with an explicit partition;infer-ence can be ef?ciently computed using belief propagation during both training and testing.

CRF HCRF

LDCRF (our model)

https://www.wendangku.net/doc/ea11342090.html,parison of our LDCRF model with two previously published models:CRF[11]and HCRF[7,27].In these graph-ical models,x j represents the j th observation(corresponding to the j th frame of the video sequence),h j is a hidden state assigned to x j,and y j the class label of x j.Gray circles are observed variables.The LDCRF model combines the strengths of CRFs and HCRFs in that it captures both extrinsic dynamics and intrin-sic structure and can be naturally applied to predict labels over unsegmented sequences.Note that only the link with the current observation x j is shown,but for all three models,long range de-pendencies are possible.

https://www.wendangku.net/doc/ea11342090.html,tent-Dynamic Conditional Random

Fields

Several problems in vision can be thought of as discrete sequence labeling tasks over visual streams.We focus on problems where the goal is to predict a class label at each point in time for a given sequence of observations.In the case of human gesture recognition,a sequence of video frames is given and the goal is to predict a gesture label per frame.We are interested in visual sequences that ex-hibit both dynamics within each class label(i.e.intrinsic structure)and varied transitions between class labels(i.e. extrinsic structure).

Our task is to learn a mapping between a sequence of observations x={x1,x2,...,x m}and a sequence of labels y={y1,y2,...,y m}.Each y j is a class label for the j th frame of a video sequence and is a member of a set Y of pos-sible class labels.Each frame observation x j is represented by a feature vectorφ(x j)∈R d,for example,the head ve-locities at each frame.For each sequence,we also assume a vector of“sub-structure”variables h={h1,h2,...,h m}. These variables are not observed in the training examples and will therefore form a set of hidden variables in the model.

Given the above de?nitions,we de?ne a latent condi-tional model:

P(y|x,θ)=

h

P(y|h,x,θ)P(h|x,θ).(1)

whereθare the parameters of the model.

To keep training and inference tractable,we restrict our model to have disjoint sets of hidden states associated with each class label.Each h j is a member of a set H y

j

of pos-sible hidden states for the class label y j.We de?ne H,the set of all possible hidden states to be the union all H y sets.

Since sequences which have any h j /∈H y j will by de?ni-tion have P (y |h ,x ,θ)=0,we can express our model as:

P (y |x ,θ)=

h :?h j ∈H y j

P (h |x ,θ).(2)We de?ne P (h |x ,θ)using the usual conditional random

?eld formulation:

P (h |x ,θ)=1

Z (x ,θ)

exp k

θk ·F k (h ,x ) ,(3)

where the partition function Z is de?ned as

Z (x ,θ)=

h

exp k

θk ·F k (h ,x ) ,F k is de?ned as

F k (h ,x )=

m j =1

f k (h j ?1,h j ,x ,j ),

and each feature function f k (h j ?1,h j ,x ,j )is either

a state function s k (h j ,x ,j )or a transition function t k (h j ?1,h j ,x ,j ).State functions s k depend on a single hidden variable in the model while transition functions t k can depend on pairs of hidden variables.

3.1.Learning Model Parameters

Our training set consists of n labeled sequences (x i ,y i )for i =1...n .Following [10,11],we use the following objective function to learn the parameter θ?:

L (θ)=

n i =1

log P (y i |x i ,θ)?

1

2||θ||2(4)

The ?rst term in Eq.4is the conditional log-likelihood of

the training data.The second term is the log of a Gaussian prior with variance σ2,i.e.,P (θ)~exp 12σ2||θ||2 .

We use gradient ascent to search for the optimal parame-ter values,θ?=arg max θL (θ),under this criterion.Given Equations 2and 3,the gradient of log P (y i |x i ,θ)for one particular training sequence (x i ,y i )with respect to the parameters θk associated with a state function s k can be written as (details omitted for space):

j,a P (h j =a |y ,x ,θ)s k (j,a,x )? y ,j,a P (h j =a,y |x ,θ)s k (j,a,x )(5)where

P (h j =a |y ,x ,θ)=

h :h j =a ∧?h j ∈H y j

P (h |x ,θ)

h :?h j ∈H y j

P (h |x ,θ)

(6)

Notice that given our de?nition of P (h |x ,θ)in Equa-tion 3,the summations in Equation 6are simply constrained versions of the partition function Z over the conditional random ?eld for h .This can be easily shown to be com-putable in O (m )using belief propagation [16],where m is the length of the sequence.

The gradient of our objective function with respect to the parameters θk associated to a transition function t k can be derived the same way.The marginal probabilities on edges necessary for this gradient,P (h j =a,h k =b |y ,x ,θ),can also be computed ef?ciently using belief propagation.In our experiments,we performed gradient ascent with the BFGS optimization technique.All the models required fewer than 300iterations to converge.

We train our LDCRF model on data labeled with class labels (but not hidden states),yielding a classi?er which can be run directly on unsegmented visual sequences.We have found that assuming each class label has a disjoint set of hidden states signi?cantly simpli?es model training,but is still powerful enough to improve recognition performance over conventional discriminative sequence methods.Our LDCRF model has a similar computational complexity to a fully observable CRF.

3.2.Inference

For testing,given a new test sequence x ,we want to es-timate the most probable label sequence y ?that maximizes our conditional model:

y ?=arg max y

P (y |x ,θ?)

(7)

where the parameter values θ?are learned from training examples.Assuming each class label is associated with a disjoint set of hidden states,the previous equation can be rewritten as:

y ?=arg max

y

h :?h i ∈H y i

P (h |x ,θ?)(8)To estimate the label y ?

j

of frame j ,the marginal prob-abilities P (h j =a |x ,θ?

)are computed for all possi-ble hidden states a ∈H .Then the marginal probabilities are summed according to the disjoint sets of hidden states H y j and the label associated with the optimal set is cho-sen.As discussed in the previous subsection,the marginal probabilities can ef?ciently be computed using belief prop-agation.While another option would be to compute the Viterbi path,in our experiments we use the above maximal marginal probabilities approach to estimate the sequence of labels since it minimizes the error per frame.

3.3.Feature Functions

In our model,|H|×|H|transitions functions t k are de-?ned one for each hidden state pair (h ,h ).Each transition

function is expressed as,

t k(h j?1,h j,x,j)=

1if h j?1=h and h j=h 0otherwise

It is worth noticing that the weightsθk associated with the transition functions model both the intrinsic and extrin-sic dynamics.Weights associated with a transition function

for hidden states that are in the same subset H y

i will model

the substructure patterns,while weights associated with the transition functions for hidden states from different subsets

will model the external dynamic between gestures.

The number of state functions,s k,will be equal to the length of the feature vector,φ(x j),times the number of pos-sible hidden states,|H|.In the case of head gesture recog-

nition where the rotational velocity(yaw,roll and pitch)is used as input,the length of our feature vector,φ(x j),will be 3dimensions per frame.If our model has6hidden states(3 per label)then the total number of state functions,s k,(and

total number of associated weightsθk)will be3×6=18.

3.4.Synthetic Example

We illustrate how our LDCRF model can capture both

extrinsic dynamics and intrinsic structure using a simple ex-

ample.A synthetic dataset was constructed containing se-quences from a gesture class and a background class.Sub-

sequences belonging to the gesture class consisted of three sub-gesture samples simulating the beginning,middle and

end of a gesture and were created by sampling from three

Gaussian distributions in a deterministic order.The back-ground subsequences were generated by randomly selecting k samples from a mixture of seven Gaussians,where k is the length of the subsequence,picked at random between1and 10.Both the training and testing datasets consisted of200

1-dimensional sequences of variable length(30-50samples per sequence).Synthetic sequences were constructed by randomly concatenating subsequences sampled from ges-ture and background classes2

Given this dataset we trained both a LDCRF model with

three hidden states per labels and a CRF.The CRF model

was only able to recognize72%(equal error rate)of the test examples with this simple synthetic dataset,while our LD-CRF model has perfect performance.Figure2shows the sequence of hidden labels assigned by our LDCRF model for a sequence in the testing set.As this?gure suggests the model has learned the intrinsic structure of the class us-ing one of its hidden states to recognize each of the sub-structures.In the following section we present results com-paring LDCRF performance with?ve baseline models on natural gesture datasets.

2Source code of this synthetic example is part of the LDCRF distribu-tion.

Frame index

H

i

d

d

e

n

s

t

a

t

e

i

n

d

e

x

Figure2.This?gure shows assignment of hidden states given by the LDCRF model for a sample sequence from the synthetic dataset.As we can see the model has used the hidden states to learn internal sub-structure of the gesture class.

4.Experiments

We evaluate the performance of our LDCRF model for visual gesture recognition using head and eye motion datasets.Our datasets came from three user studies:(1) head gestures when interacting with a physical avatar[20], (2)head gesture-based widgets for a non-embodied inter-face[13],and(3)eye gestures for interaction with a virtual embodied agent[14].

In this section we describe the three datasets used in our experiments,present the baseline models used to evaluate the performance of our LDCRF model and describe our ex-perimental methodology.In the following section we report and discuss the results.

4.1.Datasets

M EL H EAD This dataset consisted of head velocities from 16human participants interacting with Mel,an interac-tive robot[20].Each interaction lasted between2to5 minutes.Head pose tracking was performed online using the adaptive view-based appearance model[15].At each frame(~25Hz),the tracker logged with timestamps the3D position and orientation of the head.

Human participants were video recorded while interact-ing with the robot to obtain ground truth labels including the start and end points of each head nod.From these ground truth labels,each frame was labeled as either being a head-nod or background gesture/motion.A total of274head nods were naturally performed by the participants while in-teracting with the robot.All other types of head gestures (e.g.head shakes,look away,no motion)were labeled as being in the background class.

W IDGETS H EAD This dataset consisted of head veloc-ities from12participants who interacted with gesture-based widgets[13].Similar to the?rst dataset,head pose was estimated using the adaptive view-based appearance model[15].The video sequences were manually annotated

for ground truth.Each frame was labeled as either being a

head-nod or background gesture/motion;from79minutes of interaction,269head nods were labeled.All other types of head gestures(e.g.head shakes,look away,no motion) were labeled as being in the background class.

A VATAR E YE This dataset consisted of eye gaze estimates from6human participants interacting with a virtual em-bodied agent[14].The goal is to recognize gaze aver-sion gestures—eye movements to empty or uninformative regions of space,re?ecting“look-away”or“thinking”—from unsegmented video sequences.Each video sequence lasted approximately10-12minutes,and was recorded at30 frames/sec.During these interactions,human participants would rotate their head up to+/-70degrees around the Y axis and+/-20degrees around the X axis,and would also occasionally translate their head,mostly along the Z axis.

For each video sequence,eye gaze was estimated using the view-based appearance model described in[14]and for each frame a2-dimensional eye gaze estimate was obtained. The dataset was labeled with the start and end points of each gaze aversion gesture as described in[14].Each frame was manually labeled as either a gaze-aversion gesture or a background gesture/motion;the latter included sections of video where people were looking at the avatar or perform-ing eye deictic gestures.

4.2.Models

In our experiments,the LDCRF model is compared with ?ve models:Conditional Random Field(CRF),Hidden-state Conditional Random Field(HCRF),Hidden Markov Model(HMM)and Support Vector Machine(SVM)meth-ods.Note that we tested two HMM con?gurations:an HMM with a sliding window(referred to as HMM-S in the results section)and an HMM that incorporates external dy-namic(referred to as HMM).

C ONDITIONAL R ANDOM F IEL

D As a?rst baseline,we trained a single CRF chain model where every gesture class has a corresponding state label.During evaluation,marginal probabilities were computed for each state label and each frame of the sequence using belief propagation.In our base-line implementation the optimal label for a speci?c frame is selected to be the label with the highest marginal prob-ability.In our case,to be able to plot ROC curves of our results,the marginal probability of the gesture was thresh-olded at each frame,and the frame was given a positive la-bel if the marginal probability was larger than the threshold. The objective function of the CRF model contains a regu-larization term similar to the regularization term shown in Equation4for the LDCRF model.During training and val-idation,this regularization term was validated with values 10k,k=?3..3.S UPPORT V ECTOR M ACHIN

E As a second baseline,a multi-class SVM was trained with one label per gesture us-ing a Radial Basis Function(RBF)kernel.Since the SVM does not encode the dynamics between frames,the training set was decomposed into frame-based samples,where the input to the SVM is the head velocity or eye gaze at a spe-ci?c frame.The output of the SVM is a margin for each class.This SVM margin measures how close a sample is to the SVM decision boundary[25].The margin was used to plot the ROC curves.During training and validation,two parameters were validated:C,the penalty parameter of the error term in the SVM objective function,andγ,the RB

F kernel parameter.Both parameters were validated with val-ues10k,k=?3..3.

H IDDEN M ARKOV M ODEL As a third baseline,an HMM was trained for each gesture class.We trained each HMM with segmented subsequences where the frames of each subsequence all belonged to the same gesture class.This training set contained the same number of frames as the one used for training the other models except frames were grouped into subsequences according to their label.As we stated earlier,we tested two con?gurations of Hidden Markov Models:an HMM evaluated over a sliding window (referred to as HMM-S in our experiments)and a concate-nated HMM that incorporates external dynamics(referred to as HMM).For the?rst con?guration,each trained HMM is tested separately on the new sequence using a sliding win-dow of?xed size(1.3seconds,which is equal to the average gesture length).The class label associated with the HMM with the highest likelihood is assigned to the frame at the center of the sliding window.

For the second con?guration,the HMMs trained on sub-sequences are concatenated into a single HMM with the number of hidden states equal to the sum of hidden states from each individual HMM.For example,in a binary recog-nition problem where each individual HMM is trained using 3hidden states,the concatenated HMM will have6hidden states.To estimate the transition matrix of the concatenated HMM,we compute the Viterbi path of each training sub-sequence,concatenate the subsequences into their original order,and then count the number of transitions between hid-den states.The resulting transition matrix is then normal-ized so that its rows sum to one.At testing,we apply the forward-backward algorithm on the new sequence,and then sum at each frame the hidden states associated with each class label.The resulting HMM can be seen as a generative version of our LDCRF model.During training and valida-tion,we varied the number of states from1to6and the number of Gaussians per mixture from1to3.

H IDDEN-S TATE C ONDITIONAL R ANDOM F IELD As a fourth baseline,we trained a HCRF model on all gesture classes as described in[27].Since HCRFs cannot model dynamics between gestures,we trained the HCRF on seg-mented sub-sequence(the same training set as the HMM-S model).At testing,the HCRF model is applied on the new sequence using a sliding window of?xed size(1.3seconds). The class label with the highest likelihood is assigned to the frame at the center of the sliding window.During train-ing and validation,we varied the number of hidden states (from2to6states)and the regularization term(with values 10k,k=?3..3).

L ATENT-D YNAMIC C ONDITIONAL R ANDOM F IELD Our LDCRF model was trained using the objective func-tion described in Section3.1.During evaluation,we com-pute ROC curves using the maximal marginal probabili-ties of Equation8.During training and validation,we varied the number of hidden states per label(from2to6 states per label)and the regularization term(with values 10k,k=?3..3).

4.3.Methodology

For all three datasets,the experiments were performed using a K-fold testing approach where K sequences were held out for testing while all other sequences were used for training and validation.This process was repeated N/K times,where N is the total number of sequences.For the MelHead,WidgetsHead and AvatarEye datasets,K was4,3and1respectively.For validation,we performed holdout cross-validation where a subset of the training set is kept for validation.The size of this validation set was equal to4,3and1for the MelHead,WidgetsHead and AvatarEye datasets respectively.The optimal validation parameters were chosen based on the equal error rates on the validation set.

All three datasets contained an unbalanced number of gesture frames compared to background frames.To have a balanced training set and to reduce the training time, the training dataset was preprocessed to create a smaller training dataset containing an equal number of gesture and background examples.The training set was a set of se-quences where each sequence either was uniformly back-ground class,or contained an example of the gesture class, with a buffer of background frames before and after the ges-ture.The size of the buffer before and after the gesture ran-domly varied between2and50frames.Background sub-sequences were randomly extracted from the original se-quences with length varying between30-60frames.

Each experiment was also repeated with different input feature window sizes.A window size equal to one means that only the feature vector at the current frame was used to

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

T

r

u

e

p

o

s

i

t

i

v

e

r

a

t

e

00.10.20.30.40.50.60.70.80.91

False positive rate

SVM

CRF

LDCRF

HMM-S

HMM

HCRF

0.5

0.55

0.6

0.65

0.7

0.75

0.8

0.85

0.9

161116212631

Window size

E

q

u

a

l

e

r

r

o

r

r

a

t

e

Figure3.Results with WidgetsHead dataset:(top)ROC curves for a window size of one(no long range dependencies);(bottom) Accuracy at equal error rates as a function of the window size.

create the input feature.A window size of?ve means that the input feature vector at each frame is a concatenation of the feature vectors from?ve frames:the current frame,the two preceding frames,and the two future frames.

5.Results and Discussion

In this section,the results of our experiments for head and eye gesture recognition are presented.We compared all six models(SVM,CRF,HMM,HMM-S,HCRF and LD-CRF)on three datasets.For the ROC curves shown in this section,the true positive rate is computed by dividing the number of recognized frames by the total number of ground truth frames.Similarly,the false positive rate is computed by dividing the number of falsely recognized frames by the total number of background frames.

Figure3compares the ROC curves from the six models for a window size of one for the WidgetsHead dataset.

A plot of the Equal Error Rate(EER)—recognition rate at which both the true positive rate and the true negative rate

00.10.20.30.40.50.60.70.80.91T r u e p o s i t i v e r a t e

0.1

0.2

0.3

0.40.50.60.7

0.8

0.9

1

False positive rate

SVM CRF LDCRF HMM-S

HMM HCRF 0.5

0.550.60.650.70.750.80.85

0.91

3

5

7

9

111315171921Window size

A c c u r a c y a t e q u a l e r r o r r a t e

Figure 4.Results with MelHead dataset:(top)ROC curves for a window size of one;(bottom)Accuracy at equal error rates as a function of the window size.

are equal —as a function of the window size is also shown for each model.As can be seen in the ?gure,the LDCRF model outperforms baseline methods.

For online gesture recognition,an important model prop-erty is the ability to perform accurate recognition with-out requiring future observations (corresponding to smaller window size).In both the ROC curves and the EER plots of Figure 3,the LDCRF model outperforms all the other models when using a small window size.This difference is statistically signi?cant according to a paired t-test on the EER accuracies per participant.

Figure 4shows the recognition results for the MelHead dataset and Figure 5shows results for the AvatarEye dataset.Similar to the WidgetsHead dataset,the LDCRF outperforms the other models when evalutated on these two datasets.It is particularly interesting to compare the CRF and HCRF performances in the EER plots of these two datasets.For the MelHead dataset,the HCRF per-forms better than the CRF model while for the AvatarEye dataset,the CRF model does better.This can be explained

00.1

0.20.30.40.50.60.70.8

0.91T r u e p o s i t i v e r a t e

0.10.20.3

0.40.50.60.70.80.91

False positive rate

SVM CRF LDCRF HMM-S

HMM HCRF 0.5

0.550.60.650.70.750.80.850.91234567891011

Window size

A c c u r a c y a t e q u a l e r r o r r a t e

Figure 5.Results with AvatarEye dataset:(top)ROC curves for a window size of one;(bottom)Accuracy at equal error rates as a function of the window size.

by the observation that transitions between gestures are well de?ned in the AvatarEye dataset while the internal sub-structure is the prominent factor in the MelHead dataset.The LDCRF model combines the strengths of CRFs and HCRFs by capturing both extrinsic dynamics and intrinsic sub-structure and as such exhibits the best performance on both datasets.

In the MelHead dataset,the human participants were standing in front of the robot,and were able to move freely about their environment,making the class of other-gesture quite diversi?ed and challenging for generative approaches such as HMMs.The AvatarEye dataset had only 6participants and 77eye gestures.We can see in Figure 5how this small dataset affects the LDCRF model when the window size increases.This effect was not as prominent for larger datasets,as observed in Figures 3and 4.Even with this small dataset,LDCRF outperforms the ?ve other models with a maximum accuracy of 85.1%for a window size of one.

6.Conclusion

In this paper we presented a discriminative framework for simultaneous sequence segmentation and labeling which can capture both intrinsic and extrinsic class dynamics.Our LDCRF model incorporates hidden state variables which model the sub-structure of a class sequence and learn dy-namics between class labels.We performed experiments on the task of recognizing human gestures from unseg-mented video streams and showed how our model outper-forms state-of-the-art generative and discriminative model-ing techniques on three different datasets.As future work we plan to evaluate our model on other visual sequence labeling problems that exhibit intrinsic and extrinsic se-quence dynamics,such as activity detection and audio-visual speech recognition.

References

[1]M.Assan and K.Groebel.Video-based sign language

recognition using hidden markov models.In Int’l Gest Wksp:Gest.and Sign Lang.,1997.

[2]M.Brand,N.Oliver,and A.Pentland.Coupled hid-

den markov models for complex action recognition.In CVPR,1996.

[3]R.A.Colburn,M.F.Cohen,and S.M.Ducker.The

role or eye gaze in avatar mediated conversational in-terfaces.Technical Report MSR-TR-2000-81,Mi-crosoft Research,July2000.

[4]S.Fujie,Y.Ejiri,K.Nakajima,Y.Matsusaka,and

T.Kobayashi.A conversation robot using head ges-ture recognition as para-linguistic information.In RO-MAN,pages159–164,September2004.

[5]A.Fukayama,T.Ohno,N.Mukawa,M.Sawaki,and

N.Hagita.Messages embedded in gaze of interface agents—impression management with agent’s gaze.

In CHI’02,pages41–48,2002.

[6]D.M.Gavrila.The visual analysis of human move-

ment:A survey.CVIU’,73(1):82–98,1999.

[7]A.Gunawardana,M.Mahajan,A.Acero,and J.C.

Platt.Hidden conditional random?elds for phone classi?cation.In INTERSPEECH,2005.

[8]A.Kapoor and R.Picard.A real-time head nod and

shake detector.In PUI,November2001.

[9]S.Kawato and J.Ohya.Real-time detection of nod-

ding and head-shaking by directly detecting and track-ing the between-eyes.In FG,pages40–45,2000. [10]S.Kumar and M.Herbert.Discriminative random

?elds:A framework for contextual interaction in clas-si?cation.In ICCV,2003.

[11]https://www.wendangku.net/doc/ea11342090.html,fferty,A.McCallum,and F.Pereira.Conditional

random?elds:probabilistic models for segmenting and labelling sequence data.In ICML,2001.[12]S.P.Lee,J.B.Badler,and N.I.Badler.Eyes alive.In

SIGGRAPH’02,pages637–644,2002.

[13]L.-P.Morency and T.Darrell.Head gesture recogni-

tion in intelligent interfaces:The role of context in improving recognition.In IUI,Australia,2006. [14]L.-P.Morency and T.Darrell.Recognizing gaze aver-

sion gestures in embodied conversational discourse.In ICMI,Banff,Canada,November2006.

[15]L.-P.Morency,A.Rahimi,and T.Darrell.Adaptive

view-based appearance model.In CVPR,volume1, pages803–810,2003.

[16]J.Pearl.Probabilistic Reasoning in Intelligent Sys-

tems:Networks of Plausible Inference.Morgan Kauf-mann,1988.

[17]C.Pelachaud and M.Bilvi.Modelling gaze behav-

ior for conversational agents.In IVA,pages15–17, September2003.

[18]A.Quattoni,M.Collins,and T.Darrell.Conditional

random?elds for object recognition.In NIPS,2004.

[19]L.R.Rabiner.A tutorial on hidden Markov models

and selected applications in speech recognition.Pro-ceedings of the IEEE,77(2):257–286,1989.

[20]C.Sidner,C.Lee,L.-P.Morency,and C.Forlines.The

effect of head-nod recognition in human-robot conver-sation.In Conference on Human-Robot Interaction, March2006.

[21]C.Sminchisescu,A.Kanaujia,Z.Li,and D.Metaxas.

Conditional models for contextual human motion recognition.In ICCV,2005.

[22]T.Starner and A.Pentland.Real-time asl recognition

from video using hidden markov models.In ISCV, 1995.

[23]C.Sutton,K.Rohanimanesh,and A.McCallum.Dy-

namic conditional random?elds:Factorized proba-bilistic models for labeling and segmenting sequence data.In ICML,2004.

[24]A.Torralba,K.Murphy,and W.Freeman.Contex-

tual models for object detection using boosted random ?elds.In NIPS,2004.

[25]V.Vapnik.The nature of statistical learning theory.

Springer,1995.

[26]S.Wang and D.Demirdjian.Inferring body pose from

speech content.In ICMI,2005.

[27]S.Wang,A.Quattoni,L.Morency,D.Demirdjian,and

T.Darrell.Hidden conditional random?elds for ges-ture recognition.In In CVPR,2006.

[28]Y.Wu and T.S.Huang.Vision-based gesture recogni-

tion:A review.LNCS,1739:103+,1999.

前台新进员工带教手册(V11)

前台新进员工带教手册 目录 一、海友酒店介绍 1.1品牌故事 1.2产品特征 1.3目标客户群 二、海友酒店前台交接班制度 2.1 交接班准备 2.2 交接事项 2.3 填写交接班本 2.4 接班事项 2.5 交接班签名 三、海友酒店前台员工带教计划 3.1 带教目的 3.2 带教内容 一、海友酒店介绍: 1.1品牌故事 海友酒店是华住酒店集团(原汉庭酒店集团)旗下的风格经济型酒店连锁品牌,致力于为有预算要求 的客人提供“欢乐、超值”的住宿产品。 我们全情投入,与顾客真诚沟通,分享快乐,为客人提供愉快、舒适的住宿体验。一切从我们的“HI”开始。。。。。。 2005年初,华住在中国正式创立,同年8月,第1家门店开业,2006年底,旗下的汉庭酒店第34 家开业。2007年7月,华住以股权融资8500万美元创下中国服务行业首轮融资的新纪录,2007年底,汉庭酒店第74家开业。2008年初,汉庭在全国签约门店数达到180家,完成了全国主要城市的布局,并重 点在长三角、环渤海湾、珠三角和中西部发达城市形成了密布的酒店网络,成为国内成长最快的连锁酒店品牌之一。2008年4月,汉庭已开业酒店超过100家,出租率、经营业绩各项指标均在业内处于领先地位。 2008年2月,华住酒店集团正式成立,是国内第一家多品牌的酒店集团。华住致力于实现“中国服务”的理想,即打造世界级的中国服务品牌。华住的愿景是“成为世界住宿业领先品牌集团”,为此,我们将不断追求精细化的管理,实施标准化的体系和流程,更全面、更迅速地推进集团化发展。华住酒店集团旗下目前拥有禧玥酒店、星程酒店、汉庭酒店、全季酒店、海友酒店五个系列品牌,我们将坚持时尚现代、便捷舒适、高性价比的优势特点,塑造中国酒店的典范。

中华淘金网商业计划书--商业计划书

中华淘金网商业计划书--商业计划书 第一部分网页提案 目录 1、策略综述 2、意念的引入 3、站点基本描述 4、功能的实现以及费用的预算 5、项目进度安排 6、维护与升级 7、未来扩展项目 8、附录 1、意念的引入 在当前的网络社会中,由于技术上的原因,当前网民在网络中的自由受到诸多的限制。我们不妨将当前的网络世界比做人类社会发展史上的原始社会,当中的网民犹如原始社会中的原始人,在他们力所能及的网络空间内进行一系列的采集-狩猎活动。面对这些原始人,我们只能以非常简单的思维模式去考虑他们在网络空间的行为。 如何吸引他们到我们的网站进行采集--狩猎活动? 人类的需要是多元化的。按马斯洛对人类需要的分层,结合当前网络社会的特点分析上网的人,他们在现实世界已解决了最基本生理需要,包括避免饥饿,逃避危险等,在网上虚拟的空间他们所追求,将是较高层次的多元化需求,如获得爱与尊重,实现自我价值。 如何才能满足网民高层次多元化需求的满足呢? 一方面是简单的思维与行为模式,一方面是高层次多元化需求的满足。如何把这两方面有效的结合起来将是我们的网站成功的关键。 2、策略综述 利而诱之是我们的第一个策略。 综观当前的各类网站,主要为网民提供了各种各样的服务,包括提供各类的新闻、图片资讯;让网民注册,申请电子邮箱,免费主页空间,进行聊天;有的甚至提供物品的拍卖,网上购物服务,归根结底,他们就是要吸引网民的注意力,让他们在网站进行采集--狩猎活动。我们也将采取这一策略,但侧重于网络派钱的概念。 强调商业操作是我们的第二个策略

考察各种大众媒体工具(mass media)的发展史,我们可以看到每一种大众媒体工具(如广播,报纸,电视广播)的背后都有一套完善的商业操作,以及有效的资金来源支撑着。网络营运也必须找到它的资金来源。 在当今网络原始时代,众人都希望在网络营运中找到那只会下金蛋的母鸡。我们也不例外,一系列的商业操作(那只会下金蛋的母鸡)将是我们网站生存的关键。 倡导创意将是我们的第三个策略。 人是一种狡猾的动物,在原始本能驱动下所产生的动机,往往要堂而皇之地掩饰一番。为扩大我们网站的受众,提高我们网站的品位,倡导创意将是必不可少的。创意正是根源人类具有不安守本份的本能冲动。满足了人类这一本能冲动的网站将是成功的。 倡导多元化是我们的第四个策略 世界在网络的联结下变得越来越小,网络空间所聚集的人来自不同的国家地区,有着不同的需求。我们并不幻想以单一的网站满足网民的所有需要,但我们会以一系列网群的策划来实现多元化。 3、站点基本描述 A、站点结构概念 多面体两层结构:固定的STATION WEB SITE与流动的TOPIC WEB SITE,最大限度地网罗资讯与网民。我们所重视不是单一网站的概念,我们的视线亦将不再是局限于单一网站的建设,我们倡导网站群的概念,从整体上来规划一系列的网站。 我们这些单独网站之间的有机连接将形成一个以中华淘金网为首的网站群。 我们的网站群分为两类: 一类是两个固定的STATION WEB SITE,特点是长期存在,规模大,交互功能强,是进行BtoC、BtoB的服务界面。我们将设置一个主要的网站:面对网民和面对企业的的淘金网。 一类是一系列流动的TOPIC WEB SITE。特点是主题鲜明,内容简洁,规模小,极具娱乐性、艺术性与时效性,存在时间根据其主题以及赞助商来定,一般不超过一年。 固定的网站在一系列小型流动的网站包围下,互相进行功能的互补,分工是十分明确的。我们的设想是以淘金网为主导,通过淘金网进行一系列的市场营销活动以及市场调研活动,另一方面,淘金网又以有偿定向投稿的方式为一系列的流动主题网站提供源源不断的资讯更新。而流动主题网站则通过鲜明的主体吸引广大的网民进行浏览,以及引导网民进入我们的淘金网,负起扩大淘金网与外界联系的功能。

基于因子分析法的我国2012年各类型商业银行的经营业绩及排名

理学院课程项目 课程名称: 数据分析 题 目: 基于因子分析法的我国2012年各类型 商业银行的经营业绩及排名 班 级: 信科112 姓名学号: 冯力 11480010242 指导教师: 梁方楚 2014年5月30日

目录 摘要 (1) 1 问题的提出 (1) 2 研究背景 (1) 3 因子分析法的数学模型 (2) 3.1因子分析法的概念 (2) 3.2因子分析的计算步骤 (2) 4 样本的选择和指标体系的建立 (4) 4.1 样本的选择 (4) 4.2 我国上市银行经营绩效评价的指标选取 (4) 5 各类银行因子分析及其结果 (5) 5.1 数据查找 (5) 5.2数据处理 (5) 6 结论 (10) 7 参考文献 (11) 8 课程小结体会 (12) 附录 (13)

摘要 报告选取了中国银行,工商银行,建设银行,交通银行,中国农业银行,中信银行,中国民生银行,招商银行,中国兴业银行等16家具有代表性的国内上市商业银行作为此次研究的样本,这16家商业银行中包括5家国有控股商业银行,11家大中小型股份制商业银行,然后通过借鉴我国现行的商业银行业绩评价体系,最终确定了总资产收益率、人均利润、成本收入比、营业收入利润率、资本充足率、不良贷款率、拨备覆盖率、流动比率、存贷比率、存款增长率和非利息收入增长率为评价的11个指标,从各个方面对商业银行的经营业绩进行评价。 关键词:商业银行评价指标经营业绩因子分析

1 问题的提出 商业银行是经营货币资金、授受信用的特殊企业,是现代金融体系的重要组成部分。高效健全的银行体系能够为社会提供方便快捷的服务,安全稳健的银行经营对国民经济发展具有重要意义,同时经营绩效的高低不但会关系到银行本身能否良好运作,而且对整个国家宏观经济运行有着重大影响。 2 研究背景 随着我国银行业的全面开放,国内银行将面临更大的挑战和考验,在日益激烈的竞争环境中,商业银行提高经营绩效,增强竞争力势在必行。在这种背景下,按照现代商业银行经营绩效管理的要求,对我国的商业银行进行科学全面的评价,发现现阶段商业银行经营管理中存在的不足并提出应对方法,从而提高商业银行经营的绩效,就不仅是商业银行自身发展的客观需要,更是商业银行应对国际挑战和竞争的现实需要。

新员工带教流程

新员工带教流程 第一天: 熟悉公司的作息时间,了解公司基本状况,基本服务礼仪与动作规范,学习做迎宾。 1、上班时间:10:00---19:30 12:00----21:00 (转正前) 10:00--16:00 14:30---21:00(转正后) 备注:时间根据季节调整。 2、管理手册:P1、江明商贸简介(了解即可,店长须以解说的方式进行); 3、服务礼仪:1)仪容仪表标准; 2)服务动作规范(站姿、蹲姿、距离、手势、角度); 3)学习做迎宾(声音、表情、语调、迎宾位置); 4)电话礼仪; 第二天: 了解公司的考勤制度,产品的风格分类及陈列 1、相关制度的了解:《考勤制度及请假报批程序》《离职程序》; 2、产品风格分类(①以鞋来区分:男鞋、女鞋、童鞋②以季节来区分:春秋单鞋、夏季凉鞋、冬靴③以鞋头区分:尖头、圆头、方头④以鞋跟来区分:平跟3CM以下、中跟3.1CM--5CM、高跟5.1CM---8CM、特高跟8.1CM 以上⑤以鞋帮来区分:凉(拖)鞋、中空鞋、浅口鞋、满帮(低腰)鞋、短靴(筒高14CM以下)、中靴(筒高15--22CM)、长靴(筒高23--36CM);(以店铺现有货品实物讲解方式进行带教) 3、了解什么是陈列,为什么做陈列、陈列标准及陈列原则。 第三天: 掌握《会员卡》的办理及使用规范,相关票据的填写及操作流程,鞋类产品从哪六个方面进行描述。 1、“会员卡”的申办标准及使用细则; 2、相关票据:《销售单、销售退货单》《调拨单》《会员单》正确填写; 3、鞋类产品从:楦型、皮料、底材、高度、风格、线条六方面描述(以实物操作讲解带教为标准); 4、服务1--2步:细节重点的掌握及实操应用。 第四天: 了解鞋类基本皮料、材质的特性及打理保养方法,所属品牌货号含义,FABE\法则应用,服务三、 四步,轮流做迎宾。 1、皮料特征及打理方法、皮料的分类(牛、羊、猪、打蜡、漆皮、磨砂皮);(以店铺现有货品实物讲解方式进行带教) 2、了解所属品牌货号的含义; 3、服务技巧之FABE、含义理解及应用; 4、服务三、四步的细节重点的掌握及实操应用。 第五天: 学习掌握公司销售技巧及服务规范流程和语言表达标准、掌握做报表及相关单据技能,初步了解库存及货品摆放位置,服务五、六步、协助做销售。 1、销售技巧:USP/AIDA的含义及实操应用(以场景模拟带教实操为主) AIDA A:注意(Attention) 1)商品陈列 2)导购员的仪容、仪表 3)精神奕奕热忱的招呼(三声) 4)卖场气氛 I:兴趣(Interest) 1)接近顾客了解顾客购物动机 2)让顾客触摸商品 3)有效介绍货品的特性及卖点 4)为顾客做参谋 5)邀请试穿 D:欲望(Desire) 1)介绍FAB及USB 2)强调物超所值不可代替 3)化解顾客疑虑及异议 A:行动(Action) 1)把握时机完成交易 2)介绍打理知识 3)介绍其他配成产品 4)付款过程快速 USP(Unique selling piont)独特销售点: 质料、设计款式、手工、处理方法、色彩、价钱 2、开放式与封闭式的语言技巧:产品推荐:O O C 促成销售: C O C 3、初步了解库存及货品的摆放位置、辅助老员工做销售 4、掌握报表的正确填写、各项单据的电脑操作

0027~0030-旅游投资的商业模式研究――3L坐标分析法

旅游投资的商业模式研究――3L坐标分析法 2005年12月5日第3506期2005年12月12日第3509期 2005年12月19日第3512期2005年12月26日第3515期 杨光林峰 一、3L坐标分析法 民间投资商,已经成为旅游产业发展的主力军。这些旅游投资人,对于如何锁定风景及土地资源、如何确定项目的主题与市场定位、如何建设出具有吸引力的产品、如何实施有效的营销,最为重要的是如何获取盈利,都在反复思考,并感到不易把握。 投资商最关心的,就是如何获取利润。 旅游产业的综合行太强,投入大而获利周期长,因此盈利方式很难用简单的算数进行计算。对盈利方式中的盈利时序、盈利大小、盈利结构没有搞明白时,投资的决心是很难下定的。如果此时投资进入运作,往往会形成“摸着石头过河”的局面,走一步看一步。结果一般都是:效率低下,大走弯路。 旅游开发所涉的层面很多,开发运作环节复杂,交叉联动行业多。明晰的商业模式可以让投资者透过错综复杂的表象,看清具体项目的关键问题所在,项目的风险和利润所在,在具体的运作中能够从容以对。 因此,借助专业机构的经验与技术,进行旅游项目开发的商业模式设计,是投资商借脑中最重要的一个环节。 旅游商业模式设计――全面综合的研究旅游项目开发,系统解决锁定资源、定位主题与市场、设计并成型产品、制定营销战略,清晰建构盈利模式。 设计合理的商业模式需要实用有效的技术工具,通过该工具可以将投资过程中可能涉及到的各个层面和问题加以考虑,找出最适合项目的解决方案。 我们为此长期研究旅游产业经济及具体投资项目,并逐步建立了一套旅游投资商业模式专用分析工具――3L坐标分析法(或三链坐标分析法)。 通过持续的具体项目实践和理论研究,我们发现,由三个角度出发的链条(旅游业价值链、旅游开发运作链、旅游产业联动链)构成的坐标系(如下图所示)。在旅游产业中所有可能的商业模式,都能在该坐标系中找到位置;而任何旅游产业的项目,都可以运用3L坐标进行分析,从而发现盈利点、盈利结构,并由此形成商业模式的构架;对于旅游企业或正在经营中的旅游景区,运用3L坐标进行分析,可以对企业或景区进行诊断,发现其原有商业模式的缺陷,找到新的盈利增长点,寻找出可持续扩展的盈利新模式。

前台新进员工带教手册

一、海友酒店介绍 1.1 品牌故事 1.2 产品特征 1.3目标客户群 二、海友酒店前台交接班制度 交接班准备 交接事项 填写交接班本 接班事项 交接班签名 海友酒店前台员工带教计划带教目的 带教内容 海友酒店介绍:前台新进员工带教手册 目录

1.1 品牌故事 海友酒店是华住酒店集团(原汉庭酒店集团)旗下的风格经济型酒店连锁品牌,致力于为有预算要求的客人提供“欢乐、超值”的住宿产品。 我们全情投入,与顾客真诚沟通,分享快乐,为客人提供愉快、舒适的住宿体验。一切从我们的“HI”开始。。。。。。 2005 年初,华住在中国正式创立,同年8 月,第1 家门店开业,2006 年底,旗下的汉庭酒店第34 家开业。2007 年7 月,华住以股权融资8500 万美元创下中国服务行业首轮融资的新纪录,2007 年底,汉庭酒店第74 家开业。2008 年初,汉庭在全国签约门店数达到180 家,完成了全国主要城市的布局,并重点在长三角、环渤海湾、珠三角和中西部发达城市形成了密布的酒店网络,成为国内成长最快的连锁酒店品牌之一。2008 年4 月,汉庭已 开业酒店超过100 家,出租率、经营业绩各项指标均在业内处于领先地位。 2008 年2 月,华住酒店集团正式成立,是国内第一家多品牌的酒店集团。华住致力于实现“中国服务”的理想,即打造世界级的中国服务品牌。华住的愿景是“成为世界住宿业领先品牌集团”,为此,我们将不断追求精细化的管理,实施标准化的体系和流程,更全面、更迅速地推进集团化发展。华住酒店集团旗下目前拥有禧玥酒店、 星程酒店、汉庭酒店、全季酒店、海友酒店五个系列品牌,我们将坚持时尚现代、便捷舒适、高性价比的优势特点,塑造中国酒店的典范。 1.2 产品特征 装饰风格简约时尚 公共区域提供免费网吧 全酒店无线覆盖 独立淋浴、写字桌、电视机 提供大毛巾 自助理念 1.3 目标客户群 有预算要求的商务客人、家庭型散客、青年群体、长住客、背包客二、海友酒店前台交接班制度:交班前准备整理前台物品; 检查必备品和表格;

营销六步法

营销六步法 区域市场的运作是一个公司整体营销战略规划的一个有机组成部份;也是营销战略规划在执行中的具体体现。可以说,区域市场的操作成败在很大程度上决定着公司的整体营销业绩。根据个人的实践经验和书籍的查阅我认为,可以采取以下六个步骤来开展区域市场的营销工作: 一、划分区域市场,确定策略目标 首先,确定范围,定位类型,区域营销策略具体化。 通常来讲,市场与销售的开拓,总是存在一个逐步扩展的过程,很少有哪一家公司一开始就齐头并进地开发全国范围的市场。这就要求不同规模、实力的企业,不同产品结构的企业,必须确定大小不同的目标区域市场的空间范围。 在具体确定了区域范围后,必须对区域市场进行分类定位,划分出不同的区域类型,如大本营区域、根据地区域、运动区域、游击区域。不同类型的区域,推行不同的营销策略: 1、大本营区域是公司绝对占领(市场占有率在60%以上)的区域,对这类区域公司必须确保投入,将营销分支机构建立到县级甚至乡镇市场层面进行深度分销,牢固地占领终端网络对区域市场进行精耕细作; 2、根据地区域是公司绝对控制(市场占有率在40%以上)的区域,对这类区域公司应该重点投入,采取经销商与终端相结合的渠道策略(30%投入花在经销商身上70%投入花在终端上),有重点、针对性地与竞争对手开展竞争; 3、运动区域是公司没有相应的投入在短期内不容易占据主导地位的区域,

因此,最好避实就虚与对手开展竞争,在渠道上以零售终端带动经销商上量为主(70%投入花在经销商身上30%投入花在终端上),力争将市场占有率控制在20%左右; 4、游击区域是公司还没有客户基础的市场,对这类区域公司没有必要投入人财物力,采取现款现货的营销模式即可。 其次,进行区域细分,确定每个分区的具体业务拓展目标。 在确定了区域范围后,再综合考虑行政区划、人口数量、消费水平、交通条件、客户分布、政策投入等相关因素,将该区域进一步细分为若干个分区。并具体确定每个分区的市场开发和产品推广进度、目标任务(含销售数量和销售金额)、目标市场占有率、目标经销商和零售终端等分销客户的名称。如某医药生产企业将全国分为华中、华南、华北、华东等大区;再进一步又将华中分为河南、江西、安徽、湖南、重庆、湖北六个分区;其中湖北分区以"九州通""新龙"等经销商、以"中联""马应龙""同济堂""三九"等零售终端为目标客户,力争在2004年年底前实现销售额500万元,市场份额达到50%以上。 二、深入实际调查,建立客户档案 虽然确定了分区内的目标经销商和零售终端等分销客户的名称,但此时我们可能对它还一无所知或知有不尽,这就要求我们的业务人员必须进一步开展深入实际的调查工作,详细、真实地了解它们的相关情况。通常的做法是建立目标客户档案。客户建档工作有三点值得注意: 第一,档案信息必须全面详细。客户档案所反应的客户信息,是我们对该客户确定一对一的具体销售政策的重要依据。因此,档案的建立,除了客户名称、地址、联系人、电话这些最基本的信息之外,还应包括它的经营特色、行业地位

旅游投资的商业模式研究:3L坐标分析法-绿维创景

旅游投资的商业模式研究 ——3L坐标分析法旅游与文化规划设计专家旅游与文化导向的区域综合开发服务商 北京绿维创景规划设计院 New Dimension Planning & Design Institute Ltd. 旅游运营网https://www.wendangku.net/doc/ea11342090.html,旅游景观设计网https://www.wendangku.net/doc/ea11342090.html, 创意建筑设计网https://www.wendangku.net/doc/ea11342090.html,旅游投融资网https://www.wendangku.net/doc/ea11342090.html, 版权声明:该报告知识产权归北京绿维创景规划设计院所有,未经允许,不得擅自篡改、挪用、从事盈利性宣传活动,违者将追究法律责任。

旅游运营网 https://www.wendangku.net/doc/ea11342090.html, 旅游投资的商业模式研究 ——3L 坐标分析法 北京绿维创景规划设计院 一、3L 坐标分析法 民间投资商,已经成为旅游产业发展的主力军。这些旅游投资人,对于如何锁定风景及土地资源、如何确定项目的主题与市场定位、如何建设出具有吸引力的产品、如何实施有效的营销,最为重要的是如何获取盈利,都在反复思考,并感到不易把握。 投资商最关心的,就是如何获取利润。 旅游产业的综合行太强,投入大而获利周期长,因此盈利方式很难用简单的算数进行计算。对盈利方式中的盈利时序、盈利大小、盈利结构没有搞明白时,投资的决心是很难下定的。如果此时投资进入运作,往往会形成“摸着石头过河”的局面,走一步看一步。结果一般都是:效率低下,大走弯路。 旅游开发所涉的层面很多,开发运作环节复杂,交叉联动行业多。明晰的商业模式可以让投资者透过错综复杂的表象,看清具体项目的关键问题所在,项目的风险和利润所在,在具体的运作中能够从容以对。 因此,借助专业机构的经验与技术,进行旅游项目开发的商业模式设计,是投资商借脑中最重要的一个环节。

商业项目招商的各种说法操作方法牢骚及案例

商业项目招商的各种说法操作方法牢骚及案例 Document serial number【UU89WT-UU98YT-UU8CB-UUUT-UUT108】

商业项目的各种说法、操作方法、牢骚及案例从本世纪初开始:许多做住宅产品好好的开发企业终于耐不住寂寞与诱惑一头扎进开发的汪洋大海之中,这其中有的开发商呛了多少盐水终于游到了彼岸,有的刚下水就不见身影,有的则还在波浪中垂死挣扎,有的早早举起求救的双手,只有少数开发商能一帆风顺…… 这是为什么呢笔者在担任上海文博堂不动产营销机构的首席策划的几年间,经历了数十个商业楼盘的,其中的酸甜苦辣和喜怒哀乐自然能就说几句闲话…… 一、成功与失败的原因在那里 成功者:根据笔者公司的分析:一定规模的成功商业楼盘大多集中地1—2线大都市:如北京的王府井边的东方新天地;上海的徐家汇商业区;无锡的崇安寺生活步行街区;南通的明都广场;苏州的左岸步行街等。我们发现上述商业楼盘只所以较为成功是因为:①大多在传统的商业街区。②大多开发商具备一定的实力,包括开发商一开始就有“放长线钓大鱼”的理念与目标③大多有合情合理的开发规模,合情合理的商业定位④大多有科学的规化,科学的、科学的售留比例。失败者:与上述相反:①大多规模过大,过多讲究所谓的后现代,在造这个城市10年后或若干年后的商业物业;②大多开发商以出售物业为终极手段与目的;③大多开发商盲目的在一些3—4线城市开发所谓“城市名片工程”;④大多开发商是先造建筑产品、先出售建筑产品,不讲究功能定位+先行+合理售留; ⑤最致命的是大多开发商不讲究合力打造,即专业的商业物业公司+良好心态与一定实力的开发商+一定支撑空壳的商户(商业品牌)

新员工带教方案V1.0

新员工带教方案 1、目的 (1)使新入职的员工尽快熟悉办公环境和公司员工,提高新员工对公司的满意度和认同度。(2)使新入职的员工初步了解工作内容和工作方式,尽快熟悉工作流程,更好的适应工作要求。 (3)评估新员工工作能力和工作态度,及时发现并解决工作中出现的问题。 2、方案周期 新员工带教方案分为两个阶段,总共六个月。第一个阶段:新入职到试用期结束的3个月;第二个阶段:新员工转正之后的三个月。 2.1第一阶段 第一个阶段主要是新员工的入职培训,使员工尽快适应工作环境和工作内容。具体实施如下: 2.1.1企业文化培训 新员工入职一周内,对新员工进行企业文化的带教,这个阶段主要由人力部门进行负责。主要涉及企业发展历史、企业文化、企业规章制度以及礼仪规范等,这个时期主要是提高新员工对公司的认知,增强员工对企业文化的认同度。在培训过程中,应与新员工建立一个友好的关系,让新员工以一种轻松的状态进入到公司环境中。 2.1.2岗位职责培训 在企业文化培训结束之后,新员工被安排到工作岗位上。从企业文化培训结束到实习期结束的这个时期,由部门主管,依据新员工的能力以及性格特点选择带教的人员,这个时期带教主要分为两个部分。 一是,对部门发展历史,工作内容,工作规范化以及工作流程的带教。帮助新员工更好了解工作流,尽快的适应新的工作内容,投入到工作中。具体流程如下: (1)制定带教计划 1)明确带教对象,针对带教对象的能力、性格等特点制定详细的带教工作计划 2)明确带教工作的内容,将工作内容分解到具体每日、每周以及每月,同时建立明确目标,考核标准以及激励奖惩办法。 (2)合理安排时间。避免出现见面就教的现状,合理利用不同时段进行教授与分享。(3)注重新员工的实践。俗话说:“授人以鱼不如授人以渔”。知识知道不等于能灵活运用,

商圈分析的内容和步骤

商圈分析的内容和步骤 在为店铺选址时,必须要明确商圈范围、了解商圈内人口因素、市场因素及一些非市场因素的有关资料,并由此评估经营效益,确定大致选址地点。经营者通过对商圈的调查分析,能够了解不同位置的商圈范围、构成及特点,并将之作为店铺选址的重要依据。 1、商圈形态 商业区:商业行为的集中区,其特色为商圈大,流动人口多、热闹、各种商店林立。其消费习性为快速、流行、娱乐、冲动购买及消费金额较高等。 住宅区:该区户数多,至少有1000户以上。住宅区的消费习性为消费者稳定,便利性、亲切感、家庭用品购买率高等。 文教区:该区附近有大、中、小学校等。文教区的消费习性为消费群以学生为多、消费金额普遍不高、休闲食品、文教用品购买率高等。 办公区:该区为办公大楼林立。办公区的消费习性为便利性、外食人口多、消费水准较高等。 混合区:住商混合、住教混合。混合区具备单一商圈形态的消费特色,属多元化的消费习性。 2、商圈的确定 对于一家尚未设立的连锁店铺而言,由于缺乏商圈统计的基本资料,当然更谈不上顾客的支持程度了。因此在从事商圈设定的考虑时,可以针对设店地区居民的生活形态及具有关联性的因素为出发点,并配合每天人口的流动情形,深入探讨该地区人口集中的原因,以及其流动的范围,以此作为基本资料来从事商圈的设定。 尤其是一家大规模的连锁经营企业,其商圈的设定并不像一般小型商店是徒步商店,可能顾客会利用各种交通工具前来,因此其商圈乃属于特性商圈,所以对于设店地区内工作、学习的人的流动性、购物者的流动性、城市规划、人口分布、公路建设、公共交通等均要加以观察,并配合各有关的调查资料,运用趋势分析以进行商圈设定。 3、商圈分析的内容与步骤 商圈分析主要包括以下九个部分内容组成: (1)人口规模及特征:人口总量和密度;年龄分布、平均教育水平;拥有住房的居民百分比;总的可支配收入;人均可支配收入;职业分布;人口变化趋势,以及到城市购买商品的近邻农村地区顾客数量和收入水平。 (2)劳动力保障:管理层的学历、工资水平;管理培训人员的学历、工资水平;普通员工的学历与工资水平。 (3)供货来源:运输成本;运输与供货时间;制造商和批发商数目;可获得性与可靠性。(4)促销:媒体的可获得性与传达频率;成本与经费情况。 (5)经济情况:主导产业;多角化程度;项目增长;免除经济和季节性波动的自由度。(6)竞争情况:现有竞争者的商业形式、位置、数量、规模、营业额、营业方针、经营风

六步搭建企业培训体系 课后测试

六步搭建企业培训体系课后测试 单选题 1、完备的培训制度的框架首先要设定()(10 分) ? A培训目标 B指导思想 C培训流程 D培训评估 正确答案:A 2、在培训效果评估中,对效果层最重要的衡量标准是什么(10 分)?A业绩提升与完成程度 B培训人员的满意度 C考试成绩 正确答案:A 多选题 1、建立企业培训制度重要的几个方面有(10 分) A制度是一系列培训活动的规则 B明确培训责任和操作程序 C明确培训工作规范化 D保证培训质量,提升培训效率 正确答案:A B C D

2、培训前,准备做需求调研,首先明确以下哪些内容(10 分)A培训的经费 B培训的目标、意义 C培训的内容 D培训的对象 正确答案:B C D 3、培训需求分析流程中包含哪些项目(10 分) A组织分析 B任务分析 C需求分析 D人员分析 正确答案:A B D 4、培训需求调研的方法有哪些(10 分) A问卷法 B访谈法 C绩效改进数据分析法 D行为观察法 E组织能力分析法 正确答案:A B C D E

5、完备的课程体系可以有效支撑企业战略发展,我们可以从哪几个维度考虑(10 分) A按照不同层级设计课程体系 B按照授课形式不同设计课程体系 C按照解决企业核心问题设计课程体系 正确答案:A B C 6、有效的线上课程体系建设方法有哪些(10 分) A线上课程按照企业不同业务部门模块化 B配套线上考试、测评 C每个业务部门模块化的知识,按照层级及知识点难易分类 D配套业务知识问答及在线专家解答 E配套工具表单 F内训师单独的功能模块 正确答案:A B C D E F 判断题 1、内训师是企业知识传承的重要纽带(10 分) ? A正确 B错误 正确答案:正确

商业模式分析步骤

商业模式设计分析步骤 关于商业模式构成,我们采用学者Ghosh(1997)提出的框架。具体步骤如下: 第一步价值主张 该步骤目的是为确定一家企业的产品或服务如何满足客户的需求。应分析: 1.企业满足了什么用户群体的什么需求; 2.用户为何选择在你这里购买,而非他处。 第二步盈利模式 该步骤主要描述企业如何获得收入、产生利润以及获得高额的投资回报。应分析: 1.企业收费对象; 2.企业向谁收费; 3.预期投入产出情况。 第三步市场机会 该步骤明确企业所预期的市场以及企业在该市场中有可能获得潜在财务收入的机会。应至少分析: 1.企业所服务的市场区域及市场的潜在规模如何。 第四步竞争环境 该阶段用于识别在同一市场中运作、销售相似产品的其它竞争对手。应至少分析: 1.企业的竞争对手是谁?应选出2-3家企业,从多个角度进行对比。这些企业可能是直接竞争对手、潜在进入对其有明显威胁者、上下游延伸企业等。 第五步竞争优势 该步骤用于找出企业能生产更好产品或比市场价格更低产品时获得的优势。应分析: 1.企业的竞争优势是什么?可从资源、能力方面阐述。第四步和第五步可结合,列表对比。第六步营销战略 该阶段主要阐述如何进入新市场、吸引新客户的详细计划。应至少: 1.可从产品、价格、渠道、促销方式等角度。 第七步组织发展 主要描述企业如何组织所要完成的工作。应至少分析: 1.对已有的知名企业而言,组织架构是否需要调整?如何调整; 2.对于创意或想法的实现,拟采用何种组织架构来配合商业模式的运行。 第八步管理团队 企业中负责商业模式运作的各类员工。应至少分析: 1.商业模式的具体操作方面,需要何种或拥有哪些专业背景或经验的人员; 注意: 1.要求有图、表以及数据,结合文字描述才有说服力。 2.所设计商业模式的对象可以为现有知名企业,也可以为创意或想法的拟实现。 3.若设计商业模式为现有企业,则需指出该企业现有商业模式存在的问题。 4.小四、固定值18磅,封面表明姓名、专业、班级以及商业计划名称。 5.无字数限制要求,以完整表达自身计划为准。

城市综合体(偏商办)操作模式全方位解析1天

城市综合体(偏商办)操作模式全方位解析 主要解决问题—— Q1:为什么大家都要开发城市综合体? Q2:城市综合体个物业类型操作逻辑是什么? Q3:城市综合体各物业类型如何落地操作? 第一章、城市综合体分类及意义 一、城市综合体概述及分类 1.综合体概念、特征 2.综合体分类——HM、ZL、YT、FL 综合体发展模式 3.开发综合体优劣势——拿地逻辑 4.ZL 集团城市综合体拿地过程——案例复盘 第二章、城市综合体各物业类型开发逻辑 二、各物业的开发逻辑 1.住宅开发逻辑——WK的逻辑、XHW的逻辑 2.商业开发逻辑——DYC的逻辑 3.写字楼开发逻辑——盈利模式 VS 产品配置 三、开发核心指标及高效工作流程 1. 极简的前期快速算账的工作体系 2. 各物业类型财务账决策指标 3. 里程碑开发计划 4. 项目监督管理运营机制

5. 城市地图工具手册 第三章、城市综合体整体定位 四、整体定位 1.综合体整体定位案例——大类业态指标确定 2.案例——青岛 DYC 整体定位案例 第四章、综合体各物业类型操作 五、商业MALL及商业操作 1、商业 MALL 持有型案例——西安 DYC 2、商业街销售案例——主题、运营、单铺面积、回报率等 3、杭州 DYC 悦街销售案例复盘 4、简述主要品牌品类产品硬件需求 六、住宅操作 1.市场解析——两大核心市场关键指标应用 2.产品定位——产品定位及户型定位步骤方法 3.营销解析 案场营销问题梳理 营销逻辑三步——RC 集团营销逻辑 逐条通病解决方法 七、写字楼操作 1.标准甲级写字楼产品硬件配置 2.写字楼盈利模式 盈利模式论证——持有\销售\租售并举模式分析 第2页共3页

新员工带教流程

新员工带教流程 -标准化文件发布号:(9456-EUATWK-MWUB-WUNN-INNUL-DDQTY-KII

新员工带教流程 第一天: 熟悉公司的作息时间,了解公司基本状况,基本服务礼仪与动作规范,学习做迎宾。 1、上班时间:10:00---19:30 12:00----21:00 (转正前) 10:00--16:00 14:30---21:00(转正后) 备注:时间根据季节调整。 2、管理手册:P1、江明商贸简介(了解即可,店长须以解说的方式进行); 3、服务礼仪:1)仪容仪表标准; 2)服务动作规范(站姿、蹲姿、距离、手势、角度); 3)学习做迎宾(声音、表情、语调、迎宾位置); 4)电话礼仪; 第二天: 了解公司的考勤制度,产品的风格分类及陈列 1、相关制度的了解:《考勤制度及请假报批程序》《离职程序》; 2、产品风格分类(①以鞋来区分:男鞋、女鞋、童鞋②以季节来区分:春秋单鞋、夏季凉鞋、冬靴③以鞋头区分:尖头、圆头、方头④以鞋跟来区分:平跟3CM以下、中跟3.1CM--5CM、高跟5.1CM---8CM、特高跟8.1CM 以上⑤以鞋帮来区分:凉(拖)鞋、中空鞋、浅口鞋、满帮(低腰)鞋、短靴(筒高14CM以下)、中靴(筒高15--22CM)、长靴(筒高23--36CM);(以店铺现有货品实物讲解方式进行带教) 3、了解什么是陈列,为什么做陈列、陈列标准及陈列原则。 第三天: 掌握《会员卡》的办理及使用规范,相关票据的填写及操作流程,鞋类产品从哪六个方面进行描述。 1、“会员卡”的申办标准及使用细则; 2、相关票据:《销售单、销售退货单》《调拨单》《会员单》正确填写; 3、鞋类产品从:楦型、皮料、底材、高度、风格、线条六方面描述(以实物操作讲解带教为标准); 4、服务1--2步:细节重点的掌握及实操应用。 第四天: 了解鞋类基本皮料、材质的特性及打理保养方法,所属品牌货号含义,FABE\法则应用,服务三、 四步,轮流做迎宾。 1、皮料特征及打理方法、皮料的分类(牛、羊、猪、打蜡、漆皮、磨砂皮);(以店铺现有货品实物讲解方式进行带教) 2、了解所属品牌货号的含义; 3、服务技巧之FABE、含义理解及应用; 4、服务三、四步的细节重点的掌握及实操应用。 第五天: 学习掌握公司销售技巧及服务规范流程和语言表达标准、掌握做报表及相关单据技能,初步了解库存及货品摆放位置,服务五、六步、协助做销售。 1、销售技巧:USP/AIDA的含义及实操应用(以场景模拟带教实操为主) AIDA A:注意(Attention) 1)商品陈列 2)导购员的仪容、仪表 3)精神奕奕热忱的招呼(三声) 4)卖场气氛 I:兴趣(Interest) 1)接近顾客了解顾客购物动机 2)让顾客触摸商品 3)有效介绍货品的特性及卖点 4)为顾客做参谋 5)邀请试穿 D:欲望(Desire) 1)介绍FAB及USB 2)强调物超所值不可代替 3)化解顾客疑虑及异议 A:行动(Action) 1)把握时机完成交易 2)介绍打理知识 3)介绍其他配成产品 4)付款过程快速 USP(Unique selling piont)独特销售点: 质料、设计款式、手工、处理方法、色彩、价钱 2、开放式与封闭式的语言技巧:产品推荐:O O C 促成销售: C O C 3、初步了解库存及货品的摆放位置、辅助老员工做销售 4、掌握报表的正确填写、各项单据的电脑操作

如何写商业方法手册(业务及前景 )

如何写商业计划书(业务及前景) 一般可以分为十一个部分,第一部分是概述,第二部分为,第三部分是经营管理,第四部分是拟用筹资,第五部分为风险控制(因素),第六部分是投资回报和退出,第七部分是营运及预测分析,第八部分是财务报表,第九部分是财务规划,第十部分是产品宣传:资料、小册子、报道和图片等,第十一部分为补充说明。 第二部分论及大量有助于投资者了解你的业务的关键话题。每一处都很重要,但总贯全局还要有一个综合概要,如果不是明确精细的话,尝试去展示你的业务是怎样的独特。向读者展示是什么使你的业务在世界上的业务中有独到之处。阅读这一章节时,投资者将尽力确定这个产业“成功的关键”。换句话说,他将尽力证明这两三件事是在你的业务情况下必须及时做好以达成功的。注意编号体系有一个单独的数字作为标题而副标题含有小数,比如 2.01。 2.01概要 开始的一段以这样的句子起头,“公司的注册地址为……”并列出公司办公地址、电话号码和需要接触的个人。 2.02业务的实质 在这一部分要给出你所从事的业务的纲要。举个例子,你可以说,“我公司设计、生产、销售、维修微机基础软件,这些软件控制用于监看门诊病人的医疗诊断设备”。用一个精练的句子阐述你公司是干什么的,这也许是最好的开头。接下来,你要以概括的语句来描述你的产品或是服务。你需要用尽可能少的话来让投资者了解你的产品或服务。 2.03业务的历史 你在这部分要说出公司何时组成,特别要说清楚第一件产品或服务始于何时,以及公司经历过的最重要的里程碑式的事情。报告的业务历史部分必须短小精要。如果报告多于一页,

或者最多,达到两页,你已经说了太多的历史了。要是公司有个特别精彩的经历,那也许可以作为一个特别的理由来囊括大段的历史,但无论如何都要简洁。 2.04业务的前景 说清楚公司的年次发展计划并指出其中的分界线。实际上,投资者需要了解你如何在五年内从现在所处的状况发展到你想要达到的状况。尽管计划书的这一部分必须要简洁,但在格式上有相当大的自由度。你可以简单地说明在接下来的五年里你打算继续生产你们的两种基本产品,到第三年的时候你将引入另一个类似的产品。依照这样的办法,你的业务的前景将会简洁而又切中要害。另外,如果你预料在达到稳定点前要经历许多变化,你应该指出会发生哪些变化。投资者需要准确地了解公司要获得成功必须做些什么。 2.05独特之处 给投资者的每份都应该有一些独特之处。管理层独特?产品或服务独特?生产过程独特?有独特的金融基础?所有的这些都可以囊括在内。重要的是要有一些东西使你的公司在和别的对投资者来说同样可得的投资机会的对比中凸现出来。投资者们不喜欢投资于“人云亦云”的公司。他们想要有独特的商业地位的公司。在一个像这样的单独的章节中,或是在整篇商业计划的各章节中,你要着重强调你公司的独特之处。如果你的业务里有一个新产品,一个生产的专利,或是别的特别不寻常的方面,那么应该像这样在单独一章里列出。除了要包括这部分之外,企业主还应在中间歇地突出公司。 2.06产品或服务 在这部分你要精确的描述你的产品或服务,要求是不给读者对于你所生产的或是计划生产的东西留下疑问。如果你有好几种产品或服务,用单独的段落来叙述其中的每一种。你应叙述产品的价格,价格如何确定以及毛利数目。企业主容易轻率地对待产品的定价。花足够的时间来考虑所有影响产品定价的因素,确信你能够用坦率而有逻辑的话来解释定价背后的道理。是因为竞争迫使价格趋向于那个方向吗?价格定得高是因为你能侥幸成功吗?你必须准备回答这些问题。

商业模式分析步骤

商业模式分析步骤 企业满足了什么用户群体的什么需求;2、用户为何选择在你这里购买,而非他处。第二步盈利模式该步骤主要描述企业如何获得收入、产生利润以及获得高额的投资回报。应分析:1、企业收费对象;2、企业向谁收费;3、预期投入产出情况。第三步市场机会该步骤明确企业所预期的市场以及企业在该市场中有可能获得潜在财务收入的机会。应分析:1、企业所服务的市场区域及市场的潜在规模如何。第四步竞争环境该阶段用于识别在同一市场中运作、销售相似产品的其它竞争对手。应分析:1、企业的竞争对手是谁?应选出2-3家企业。第五步竞争优势该步骤用于找出企业能生产更好产品或比市场价格更低产品时获得的优势。应分析:1、企业的竞争优势是什么?可从资源、能力方面阐述。第四步和第五步结合,列表对比。第六步营销战略该阶段主要阐述如何进入新市场、吸引新客户的详细计划。应分析:1、可从产品、价格、渠道、促销方式等角度。在渠道方面,线上渠道应着重阐述。第七步组织发展主要描述企业如何组织所要完成的工作。应分析:1、对已有的知名企业而言,组织架构是否需要调整?如何调整;2、对于创意或想法的实现,拟采用何种组织架构来配合商业模式的运行。第八步管理团队企业中负责商业模式运作的各类员工。应分析:1、商业模式的具体操作方面,需要何种或拥有哪些专业背景或经验的人员;注意:1、要求有图、表

以及数据,结合文字描述才有说服力。2、所设计商业模式的对象可以为现有知名企业,也可以为创意或想法的拟实现。3、若设计商业模式为现有企业,则需指出该企业现有商业模式存在的问题。4、商业计划以PPT呈现,并结合word,由班长打包发送给我。

新员工带教手册

新员工带教教程

第一天 一、团队融入(熟悉店铺、成员) 1、认识店铺成员、姓名、店铺各职能岗位成员介绍及主要负责工作阐述,如同事、店 长、大店长、主管等 2、店铺环境及商场环境简单介绍:高价值陈列区、闲杂物品摆放区、卫生间等。 3、靓妆上岗,妆容必须按公司规定执行,包括:粉底、眉毛、眼影、眼线、唇彩、指 甲、头发。 4、新员工的服装到店穿着规定服装,衣着干净整齐,无异味。 5、始终保持积极、热情的店铺氛围,主动和进入店的顾客及身边路过的人微笑招呼 二、品牌介绍(企业文化简介、品牌成长历程、品牌风格) 企业文化简介 企业愿景—— 成为书写文化的领导者。 企业使命—— 追求全体员工物质与精神两方面幸福的同时,传承书写文化。 企业价值观—— 第一:恪守正确的做人准则。 第二:付出不亚于任何人的努力。 品牌成长历程 三、店鋪运营店规店纪、仪容仪表、导购职责) 3-1店规店纪店(日常事务) 1. 工作纪律 1)员工自觉遵守公司及商场的规章制度 2)自觉遵守规定的上下班时间,不得迟到早退或擅自离岗,离岗时需填写《离岗登记表》 3)请假必须办理请假手续 4)店铺员工用餐时间为30分钟 5)工作时间不能闲坐聊天,要定位定岗 6)上班时应精神饱满不能打瞌睡、发呆 7)服从工作安排和调动,以及上级主管的合理工作指示,按时完成任务

8)公司的文件、资料要妥善保管,严守秘密 9)工作时间不得接访亲友、朋友,可在休息时间接待 10)店内工作中不得使用手机闲聊或阅览网页及游戏 11)未经主管同意不得私自调班,未经批准不得不参加公司会议 12)必须按规定将货款交至收银台,自行收银店铺必须在规定时间内将货款存入公司规定银行账号,不得用职务之便私扣营业款 13)不得私自占有顾客遗失物品或损坏顾客财务 14)不得在公司或店铺内吵闹、粗言秽语和打架 15)不得将公司设备、财务、货品挪为私用,更不得偷盗或占为己有 16)货物盘点时如发现货品不正常流失,应第一时间向上级汇报; 17)不得私自为顾客打折 18)未经主管同意不得擅自为顾客换货、挑货、退货 19)员工之间互相帮助,团结友爱,有团队合作精神 2.服务行为规定 1)店内接待客人时应充分展示自身形象,严格按照公司《服务标准》执行,向客人树立良好的公司形象 2)柜台迎宾站姿端正,销售人员面带微笑 3)客人到柜及喊宾时,身体微鞠躬示意,声音适中,用好礼貌用语,为顾客提供超一流的服务 4)销售人员应积极主动给予顾客提供帮助,用语言引导顾客。 5)接待顾客过程中,注意语言行为应用,不要给客人留下不好印象 6)充分展示个人魅力,推广宣传自身品牌 7)销售人员应严格约束、自律、礼貌的为客人提供最优质的售后服务 3.柜台形象及卫生清洁责任制 1)按公司要求标准化陈列 2)内务货品摆放整洁,归纳清晰 3)私人物品摆放整洁 4)柜台所需设备及物品(税控机、POS机、扫码枪、生财物品及柜台陈列设施等)不得丢失及损坏 5)销售柜台坚决执行公司规定的清洁标准(1、柜台清洁无死角,灯箱明亮无损坏,光影投射位置准确,玻璃及陈列物品清洁无指纹及灰尘)(详见品牌形象篇) 6)柜台卫生监管制度为-当班值日员工做好柜台清洁后,填写店铺每日形象自查表,由店长或对班在检查人一栏签字确认 备注:具体员工准则参照《员工管理制度及行为规范》 3-2仪容仪表

相关文档
相关文档 最新文档