国内精品久久久久_亚洲区手机在线中文无码播放_国内精品久久久久影院一蜜桃_日韩内射激情视频在线播放免费

      合約食堂典型做法?

      時(shí)間:2024-12-03 07:42 人氣:0 編輯:招聘街

      一、合約食堂典型做法?

      合約食堂是指由一家餐飲服務(wù)提供商與雇主簽訂合同,為員工提供餐飲服務(wù)。合約食堂的典型做法主要包括以下幾個(gè)方面:

      1. 食堂設(shè)計(jì):合約食堂需要根據(jù)員工的數(shù)量和日均就餐人數(shù)來確定食堂的設(shè)計(jì)和面積。同時(shí),還需要考慮就餐環(huán)境、開放時(shí)間、食品安全等因素。

      2. 食品采購:合約食堂需要采購原材料進(jìn)行加工和制作,通常采購量比較大,需要和供應(yīng)商達(dá)成長期合作協(xié)議來確保原材料的品質(zhì)和價(jià)格。

      3. 菜單設(shè)計(jì):合約食堂的菜單通常由供應(yīng)商的專業(yè)廚師團(tuán)隊(duì)設(shè)計(jì),根據(jù)員工的需求和口味制作出符合營養(yǎng)平衡和口感的菜肴。

      4. 食品加工和制作:合約食堂的廚師需要根據(jù)菜單要求精心制作每道菜品,確保營養(yǎng)和口感兼?zhèn)洹M瑫r(shí),還需要遵守衛(wèi)生和安全標(biāo)準(zhǔn)。

      5. 餐飲服務(wù)管理:合約食堂的供應(yīng)商需要管理食堂的餐飲服務(wù),包括服務(wù)質(zhì)量、用餐環(huán)境和衛(wèi)生等方面。此外,還需要定期收集員工的反饋意見,不斷改進(jìn)和提升服務(wù)質(zhì)量。

      總之,合約食堂的典型做法是通過科學(xué)規(guī)劃、專業(yè)管理、優(yōu)質(zhì)服務(wù)來滿足員工的餐飲需求,并為企業(yè)提供一個(gè)良好的企業(yè)文化氛圍。

      二、合約食堂是什么意思?

      說起寨子里的“合約食堂”,貴州省黔東南州天柱縣渡馬鎮(zhèn)共和村甘溪寨村民陶光敏贊不絕口。“合約食堂”,簡單來講,就是村里集資修建一個(gè)食堂,凡是要辦酒的都到這里,并約定參加酒席的人數(shù)、飯菜和煙酒價(jià)格、禮金標(biāo)準(zhǔn)等。

      共和村駐村干部陸承龍稱,“合約食堂”有規(guī)定,除了年末全寨村民聚餐,所有村民辦酒一律不得超過20桌,每桌九菜一湯,成本控制在200元以內(nèi),酒席用酒不得超過20元/斤,煙不得超過13元/包;村民之間送禮,不能超過100元。

      三、合約套餐解除合約辦法?

      解除合約在支付相應(yīng)的違約金后去營業(yè)廳就能辦理。

      四、電信合約怎么解除合約?

      電信合約卡一般都是需要用到合約結(jié)束的,如果強(qiáng)行注銷的話是需要交納違約金的。合約卡如果不繼續(xù)使用,要及時(shí)在營業(yè)廳辦理注銷,合約期內(nèi)注銷,需要繳納違約金。 如果不注銷又長期欠費(fèi),可能會被電信記錄進(jìn)入黑名單,影響個(gè)人信譽(yù)記錄 。 注銷合約卡方法:

      第一步、準(zhǔn)備個(gè)人資料和開號憑據(jù),若是實(shí)在找不到就攜帶本人身份證。

      第二步、想要注銷的號碼最好不要是欠費(fèi)狀態(tài),欠費(fèi)狀態(tài)注銷號碼是需要補(bǔ)交欠費(fèi)款項(xiàng)的,所以說有些手機(jī)的信用額度很高,最好不要使勁的去透支,透支過多想注銷最后還是要補(bǔ)還余款,不補(bǔ)還就會列入黑名單,影響個(gè)人信譽(yù)記錄。

      第三步、想注銷手機(jī)電話卡,一定要找到手機(jī)開戶點(diǎn)辦理注銷業(yè)務(wù)。

      第四步、帶上個(gè)人資料和開號憑證到指定營業(yè)廳直接找客服幫忙辦理注銷業(yè)務(wù)。

      五、合約機(jī)怎樣解除合約?

      1.一般來說,在合同期內(nèi),合約機(jī)是不能解除合同的,因?yàn)楹贤诋?dāng)時(shí)簽訂后就生效了,合同到期才自動解除。

      2.如果用戶強(qiáng)行取消,需要支付一定的違約金。用戶必須與中國移動簽訂兩年的合同。合同里有簽約承諾,這兩年每個(gè)月都要有最低消費(fèi)。

      3.在合約期內(nèi),用戶必須使用合約機(jī)的手機(jī)卡,同時(shí)手機(jī)卡必須保證賬戶不會被注銷或停機(jī)。

      4.因?yàn)槭謾C(jī)卡是和身份證綁定的,一旦發(fā)現(xiàn)手機(jī)卡停機(jī),會扣個(gè)人信用,情節(jié)嚴(yán)重的會上黑名單。

      六、合約機(jī)怎么解除合約?

      無法提早解約。

      合約用戶由于合約規(guī)定不能停機(jī)、銷戶,并且不能辦理提前解約,你扔了,它要照常扣費(fèi),直至欠費(fèi)停機(jī),如果欠費(fèi)停機(jī),屬于違約,還要收取違約金,欠費(fèi)停機(jī)3個(gè)月后有可能被銷號。實(shí)名制后付費(fèi)用戶產(chǎn)生欠費(fèi),如果要不用就要去營業(yè)廳辦理銷戶,不然最后一個(gè)月扣費(fèi)成功,欠費(fèi)了才停機(jī),這個(gè)欠費(fèi)就會掛在你的名下,身份證件就會被列入黑名單,影響以后辦理聯(lián)通業(yè)務(wù)。

      另外,欠費(fèi)每天還要收取千分之三的滯納金,積少成多,以后會有催繳信和電話,到時(shí)候就顯得很麻煩,也劃不來,在欠費(fèi)累積到一定額度后,聯(lián)通可以通過按照相關(guān)國家電信行業(yè)法規(guī)要求繳納欠費(fèi)的,這是符合法律程序的。所以建議如果有欠費(fèi),在方便的時(shí)候還是盡早繳納比較好的。然后等合約到期后再辦理銷戶。

      七、合約寬帶怎么解除合約?

      可以通過以下方式取消移動寬帶業(yè)務(wù):

      1、帶身份證原件到移動公司營業(yè)廳辦理銷戶,如安裝寬帶時(shí)候有付過光貓押金,需退還給移動公司,結(jié)算費(fèi)用,方可正式銷戶,如果是銷戶代辦:需要代辦人帶上戶主身份證原件及代辦人本人身份證原件到服務(wù)廳辦理。

      2、在移動官網(wǎng)溝通100營業(yè)廳辦理預(yù)銷戶。如客戶包年到期未使用(未產(chǎn)生流量),可以向營業(yè)人員提出減免當(dāng)月產(chǎn)生的費(fèi)用,營業(yè)人員待核實(shí)后將予以減免;如用戶對費(fèi)用有疑問,您可以至移動溝通100營業(yè)廳咨詢。寬帶包年到期當(dāng)月,您可以至移動溝通100營業(yè)廳辦理預(yù)銷戶,次月至移動溝通100營業(yè)廳辦理正式銷戶。

      八、合約機(jī)怎么查看合約?

      有三種辦法來查詢合約情況。

      第一種是打運(yùn)營商的客服電話來查詢。運(yùn)營商的客服電話是為用戶服務(wù)的渠道熱線,通過客服電話可以查詢具體的合約情況。

      第二種情況是登錄手機(jī)營業(yè)廳,在已訂業(yè)務(wù)里查看具體的合約情況。

      第三種是去線下營業(yè)廳查詢

      九、合約卡解除合約辦法?

      1.用戶可撥打10010人工臺,通過聯(lián)通客服代表核實(shí)其合約是否可在線取消。 如可以,可通過10010客服代表處在線取消該合約。

      2.用戶可帶身份證件和服務(wù)密碼,前往歸屬地自有營業(yè)廳取消合約。

      3、用戶可通過短信方式取消合約活動。如用戶所辦理合約活動有短信取消方式,可聯(lián)系10010客服代表獲取相關(guān)短信取消方式后,手動通過短信發(fā)送方式,取消該合約。

      4、溫馨提醒:在網(wǎng)類合約,一般為優(yōu)惠合約,在合約期間需在網(wǎng)使用,無法進(jìn)行取消合約、停機(jī)保號、過戶、銷戶等業(yè)務(wù)辦理。在辦理時(shí),人員或網(wǎng)頁均有相關(guān)說明,經(jīng)用戶同意后方才生效。故此類優(yōu)惠合約,無法提前取消。

      十、mahout面試題?

      之前看了Mahout官方示例 20news 的調(diào)用實(shí)現(xiàn);于是想根據(jù)示例的流程實(shí)現(xiàn)其他例子。網(wǎng)上看到了一個(gè)關(guān)于天氣適不適合打羽毛球的例子。

      訓(xùn)練數(shù)據(jù):

      Day Outlook Temperature Humidity Wind PlayTennis

      D1 Sunny Hot High Weak No

      D2 Sunny Hot High Strong No

      D3 Overcast Hot High Weak Yes

      D4 Rain Mild High Weak Yes

      D5 Rain Cool Normal Weak Yes

      D6 Rain Cool Normal Strong No

      D7 Overcast Cool Normal Strong Yes

      D8 Sunny Mild High Weak No

      D9 Sunny Cool Normal Weak Yes

      D10 Rain Mild Normal Weak Yes

      D11 Sunny Mild Normal Strong Yes

      D12 Overcast Mild High Strong Yes

      D13 Overcast Hot Normal Weak Yes

      D14 Rain Mild High Strong No

      檢測數(shù)據(jù):

      sunny,hot,high,weak

      結(jié)果:

      Yes=》 0.007039

      No=》 0.027418

      于是使用Java代碼調(diào)用Mahout的工具類實(shí)現(xiàn)分類。

      基本思想:

      1. 構(gòu)造分類數(shù)據(jù)。

      2. 使用Mahout工具類進(jìn)行訓(xùn)練,得到訓(xùn)練模型。

      3。將要檢測數(shù)據(jù)轉(zhuǎn)換成vector數(shù)據(jù)。

      4. 分類器對vector數(shù)據(jù)進(jìn)行分類。

      接下來貼下我的代碼實(shí)現(xiàn)=》

      1. 構(gòu)造分類數(shù)據(jù):

      在hdfs主要創(chuàng)建一個(gè)文件夾路徑 /zhoujainfeng/playtennis/input 并將分類文件夾 no 和 yes 的數(shù)據(jù)傳到hdfs上面。

      數(shù)據(jù)文件格式,如D1文件內(nèi)容: Sunny Hot High Weak

      2. 使用Mahout工具類進(jìn)行訓(xùn)練,得到訓(xùn)練模型。

      3。將要檢測數(shù)據(jù)轉(zhuǎn)換成vector數(shù)據(jù)。

      4. 分類器對vector數(shù)據(jù)進(jìn)行分類。

      這三步,代碼我就一次全貼出來;主要是兩個(gè)類 PlayTennis1 和 BayesCheckData = =》

      package myTesting.bayes;

      import org.apache.hadoop.conf.Configuration;

      import org.apache.hadoop.fs.FileSystem;

      import org.apache.hadoop.fs.Path;

      import org.apache.hadoop.util.ToolRunner;

      import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;

      import org.apache.mahout.text.SequenceFilesFromDirectory;

      import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;

      public class PlayTennis1 {

      private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";

      /*

      * 測試代碼

      */

      public static void main(String[] args) {

      //將訓(xùn)練數(shù)據(jù)轉(zhuǎn)換成 vector數(shù)據(jù)

      makeTrainVector();

      //產(chǎn)生訓(xùn)練模型

      makeModel(false);

      //測試檢測數(shù)據(jù)

      BayesCheckData.printResult();

      }

      public static void makeCheckVector(){

      //將測試數(shù)據(jù)轉(zhuǎn)換成序列化文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"testinput";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

      String[] params = new String[]{"-i",input,"-o",output,"-ow"};

      ToolRunner.run(sffd, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("文件序列化失敗!");

      System.exit(1);

      }

      //將序列化文件轉(zhuǎn)換成向量文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

      String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

      ToolRunner.run(svfsf, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("序列化文件轉(zhuǎn)換成向量失敗!");

      System.out.println(2);

      }

      }

      public static void makeTrainVector(){

      //將測試數(shù)據(jù)轉(zhuǎn)換成序列化文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"input";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

      String[] params = new String[]{"-i",input,"-o",output,"-ow"};

      ToolRunner.run(sffd, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("文件序列化失敗!");

      System.exit(1);

      }

      //將序列化文件轉(zhuǎn)換成向量文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

      String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

      ToolRunner.run(svfsf, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("序列化文件轉(zhuǎn)換成向量失敗!");

      System.out.println(2);

      }

      }

      public static void makeModel(boolean completelyNB){

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";

      String model = WORK_DIR+Path.SEPARATOR+"model";

      String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";

      Path in = new Path(input);

      Path out = new Path(model);

      Path label = new Path(labelindex);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      if(fs.exists(label)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(label, true);

      }

      TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();

      String[] params =null;

      if(completelyNB){

      params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};

      }else{

      params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};

      }

      ToolRunner.run(tnbj, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("生成訓(xùn)練模型失敗!");

      System.exit(3);

      }

      }

      }

      package myTesting.bayes;

      import java.io.IOException;

      import java.util.HashMap;

      import java.util.Map;

      import org.apache.commons.lang.StringUtils;

      import org.apache.hadoop.conf.Configuration;

      import org.apache.hadoop.fs.Path;

      import org.apache.hadoop.fs.PathFilter;

      import org.apache.hadoop.io.IntWritable;

      import org.apache.hadoop.io.LongWritable;

      import org.apache.hadoop.io.Text;

      import org.apache.mahout.classifier.naivebayes.BayesUtils;

      import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;

      import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;

      import org.apache.mahout.common.Pair;

      import org.apache.mahout.common.iterator.sequencefile.PathType;

      import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;

      import org.apache.mahout.math.RandomAccessSparseVector;

      import org.apache.mahout.math.Vector;

      import org.apache.mahout.math.Vector.Element;

      import org.apache.mahout.vectorizer.TFIDF;

      import com.google.common.collect.ConcurrentHashMultiset;

      import com.google.common.collect.Multiset;

      public class BayesCheckData {

      private static StandardNaiveBayesClassifier classifier;

      private static Map<String, Integer> dictionary;

      private static Map<Integer, Long> documentFrequency;

      private static Map<Integer, String> labelIndex;

      public void init(Configuration conf){

      try {

      String modelPath = "/zhoujianfeng/playtennis/model";

      String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";

      String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";

      String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";

      dictionary = readDictionnary(conf, new Path(dictionaryPath));

      documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));

      labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));

      NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);

      classifier = new StandardNaiveBayesClassifier(model);

      } catch (IOException e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("檢測數(shù)據(jù)構(gòu)造成vectors初始化時(shí)報(bào)錯(cuò)。。。。");

      System.exit(4);

      }

      }

      /**

      * 加載字典文件,Key: TermValue; Value:TermID

      * @param conf

      * @param dictionnaryDir

      * @return

      */

      private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {

      Map<String, Integer> dictionnary = new HashMap<String, Integer>();

      PathFilter filter = new PathFilter() {

      @Override

      public boolean accept(Path path) {

      String name = path.getName();

      return name.startsWith("dictionary.file");

      }

      };

      for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {

      dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());

      }

      return dictionnary;

      }

      /**

      * 加載df-count目錄下TermDoc頻率文件,Key: TermID; Value:DocFreq

      * @param conf

      * @param dictionnaryDir

      * @return

      */

      private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {

      Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();

      PathFilter filter = new PathFilter() {

      @Override

      public boolean accept(Path path) {

      return path.getName().startsWith("part-r");

      }

      };

      for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {

      documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());

      }

      return documentFrequency;

      }

      public static String getCheckResult(){

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String classify = "NaN";

      BayesCheckData cdv = new BayesCheckData();

      cdv.init(conf);

      System.out.println("init done...............");

      Vector vector = new RandomAccessSparseVector(10000);

      TFIDF tfidf = new TFIDF();

      //sunny,hot,high,weak

      Multiset<String> words = ConcurrentHashMultiset.create();

      words.add("sunny",1);

      words.add("hot",1);

      words.add("high",1);

      words.add("weak",1);

      int documentCount = documentFrequency.get(-1).intValue(); // key=-1時(shí)表示總文檔數(shù)

      for (Multiset.Entry<String> entry : words.entrySet()) {

      String word = entry.getElement();

      int count = entry.getCount();

      Integer wordId = dictionary.get(word); // 需要從dictionary.file-0文件(tf-vector)下得到wordID,

      if (StringUtils.isEmpty(wordId.toString())){

      continue;

      }

      if (documentFrequency.get(wordId) == null){

      continue;

      }

      Long freq = documentFrequency.get(wordId);

      double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);

      vector.setQuick(wordId, tfIdfValue);

      }

      // 利用貝葉斯算法開始分類,并提取得分最好的分類label

      Vector resultVector = classifier.classifyFull(vector);

      double bestScore = -Double.MAX_VALUE;

      int bestCategoryId = -1;

      for(Element element: resultVector.all()) {

      int categoryId = element.index();

      double score = element.get();

      System.out.println("categoryId:"+categoryId+" score:"+score);

      if (score > bestScore) {

      bestScore = score;

      bestCategoryId = categoryId;

      }

      }

      classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";

      return classify;

      }

      public static void printResult(){

      System.out.println("檢測所屬類別是:"+getCheckResult());

      }

      }

      相關(guān)資訊
      熱門頻道

      Copyright © 2024 招聘街 滇ICP備2024020316號-38

      国内精品久久久久_亚洲区手机在线中文无码播放_国内精品久久久久影院一蜜桃_日韩内射激情视频在线播放免费

        长白| 东海县| 墨竹工卡县| 漳平市| 临安市| 五家渠市| 韩城市| 沅江市| 南投县| 青岛市| 广宁县| 广丰县| 玛曲县| 咸阳市| 连江县| 平江县| 扎囊县| 巴东县| 扬州市| 石河子市| 饶平县| 景谷| 万年县| 绥阳县| 山丹县| 呈贡县| 太白县| 博兴县| 鄢陵县| 苍梧县| 望城县| 万源市| 沂水县| 莒南县| 秦安县| 齐齐哈尔市| 周口市| 会理县| 收藏| 新巴尔虎左旗| 淳化县|