国内精品久久久久_亚洲区手机在线中文无码播放_国内精品久久久久影院一蜜桃_日韩内射激情视频在线播放免费

      抖音蔣菲菲身高?

      時(shí)間:2024-11-20 08:42 人氣:0 編輯:招聘街

      一、抖音蔣菲菲身高?

             172cm蔣菲菲,內(nèi)地新銳女演員。憑借參演拉風(fēng)傳媒投資制作的全新青春校園科幻偶像劇《你好外星人》,飾演女主角林真。2014年參加樂(lè)視體育世界杯頭牌自制節(jié)目《32夜》真人秀,因黃金比例身材被網(wǎng)友封為“長(zhǎng)腿女神”。同年當(dāng)代都市電視《情謎睡美人之欲望的姐妹》也在火熱拍攝中。

      二、菲有幾個(gè)音?

      菲字有兩個(gè)讀音。

      “菲”,現(xiàn)代漢語(yǔ)規(guī)范一級(jí)字(常用字),普通話讀音為fěi、fēi,最早見(jiàn)于秦朝小篆時(shí)代,在六書(shū)中屬于形聲字。艸表意,篆書(shū)形體像草,表示菲是草本植物,非表聲。

      “菲”的基本含義為微,薄,如菲才、菲儀;引申含義為草茂盛,香氣濃郁,如菲菲、芳菲。

      三、廣州菲音 怎么樣

      廣州菲音——讓您的音樂(lè)之旅更美妙

      廣州菲音——讓您的音樂(lè)之旅更美妙

      廣州菲音是一家致力于音樂(lè)教育的專業(yè)機(jī)構(gòu),為學(xué)習(xí)者提供全方位的音樂(lè)培訓(xùn)服務(wù)。無(wú)論您是零基礎(chǔ)小白還是有一定音樂(lè)基礎(chǔ)的高手,我們都能根據(jù)您的需求和目標(biāo)量身定制最適合您的課程。下面我們來(lái)了解一下廣州菲音的特點(diǎn)和優(yōu)勢(shì),以及它給學(xué)員帶來(lái)的實(shí)際效果。

      廣州菲音的特點(diǎn)

      專業(yè)團(tuán)隊(duì):廣州菲音擁有一支經(jīng)驗(yàn)豐富、富有創(chuàng)造力的專業(yè)團(tuán)隊(duì)。我們的老師都來(lái)自音樂(lè)專業(yè)背景,具備豐富的教學(xué)經(jīng)驗(yàn)和敏銳的藝術(shù)洞察力,能夠?yàn)閷W(xué)員提供專業(yè)、系統(tǒng)的音樂(lè)培訓(xùn)。

      多樣課程:廣州菲音提供豐富多樣的課程,涵蓋鋼琴、吉他、聲樂(lè)等多個(gè)音樂(lè)學(xué)科。不論您對(duì)何種音樂(lè)樂(lè)器或聲音感興趣,我們都能夠?yàn)槟峁﹤€(gè)性化的教學(xué)方案,幫助您快速提升音樂(lè)技能。

      先進(jìn)設(shè)施:廣州菲音的教學(xué)環(huán)境一流,配備了先進(jìn)的音樂(lè)設(shè)備和樂(lè)器。我們致力于為學(xué)員創(chuàng)造一個(gè)舒適、良好的學(xué)習(xí)氛圍,使他們?cè)谟鋹偟沫h(huán)境中更好地學(xué)習(xí)音樂(lè)。

      廣州菲音的優(yōu)勢(shì)

      廣州菲音在音樂(lè)教育行業(yè)有著諸多獨(dú)特的優(yōu)勢(shì),以下是我們的部分優(yōu)勢(shì):

      • 個(gè)性化教學(xué):廣州菲音注重學(xué)員的個(gè)性化需求和差異化發(fā)展,我們的老師會(huì)根據(jù)學(xué)員的音樂(lè)目標(biāo)和特長(zhǎng)制定個(gè)性化的教學(xué)計(jì)劃,確保每位學(xué)員都能夠獲得有效的學(xué)習(xí)成果。
      • 豐富的演出機(jī)會(huì):廣州菲音為有演奏愿望的學(xué)員提供了豐富的演出機(jī)會(huì)。我們定期組織學(xué)員音樂(lè)會(huì)和演出活動(dòng),讓學(xué)員能夠展示自己的才華,增強(qiáng)舞臺(tái)表演能力。
      • 系統(tǒng)化教學(xué)體系:廣州菲音擁有嚴(yán)謹(jǐn)?shù)慕虒W(xué)體系和教材體系,幫助學(xué)員建立起系統(tǒng)、全面的音樂(lè)知識(shí)結(jié)構(gòu)和技能體系。
      • 優(yōu)質(zhì)服務(wù):廣州菲音注重服務(wù)質(zhì)量,我們的工作人員和老師都以誠(chéng)信、耐心的態(tài)度對(duì)待每一位學(xué)員,為他們提供幫助和支持。
      • 良好的口碑:廣州菲音憑借多年來(lái)積累的口碑和良好的教學(xué)效果,贏得了學(xué)員和家長(zhǎng)的一致好評(píng)。我們始終堅(jiān)持以學(xué)員為中心,努力為他們提供最好的教育體驗(yàn)。

      廣州菲音給學(xué)員帶來(lái)的實(shí)際效果

      廣州菲音的教學(xué)方法和專業(yè)團(tuán)隊(duì)的輔導(dǎo)下,學(xué)員們?cè)谝魳?lè)技能和音樂(lè)理論方面都取得了顯著的進(jìn)步。很多學(xué)員在參加我們的培訓(xùn)后,成功參加了音樂(lè)考級(jí)或音樂(lè)比賽,并取得了優(yōu)異的成績(jī)。

      更重要的是,廣州菲音的培訓(xùn)不僅培養(yǎng)了學(xué)員的音樂(lè)技能,還培養(yǎng)了他們對(duì)音樂(lè)的熱愛(ài)和藝術(shù)追求。學(xué)員們通過(guò)廣州菲音的培訓(xùn),更深入地理解了音樂(lè)的內(nèi)涵,提升了自己的音樂(lè)修養(yǎng),拓展了自己的藝術(shù)視野。

      廣州菲音以其卓越的教學(xué)水平和卓越的教育成果,贏得了廣大學(xué)員的信任和推崇。無(wú)論您是孩子還是成人,只要您對(duì)音樂(lè)有熱愛(ài)和追求,廣州菲音都將是您實(shí)現(xiàn)音樂(lè)夢(mèng)想的理想選擇。

      四、早教產(chǎn)品抖音運(yùn)營(yíng)面試題

      在今天的競(jìng)爭(zhēng)激烈的市場(chǎng)中,早教產(chǎn)品行業(yè)成為了眾多家長(zhǎng)關(guān)注的焦點(diǎn)。作為一名抖音運(yùn)營(yíng)人員,了解早教產(chǎn)品抖音運(yùn)營(yíng)面試題是非常重要的。本文將為大家介紹一些與早教產(chǎn)品抖音運(yùn)營(yíng)相關(guān)的面試題,供大家參考和準(zhǔn)備。

      問(wèn)題一:請(qǐng)簡(jiǎn)要介紹一下你對(duì)早教產(chǎn)品抖音運(yùn)營(yíng)的了解。

      回答這個(gè)問(wèn)題時(shí),你可以從以下幾個(gè)方面進(jìn)行回答:

      1. 抖音是什么,它在早教產(chǎn)品行業(yè)中的地位和作用。
      2. 早教產(chǎn)品抖音運(yùn)營(yíng)的具體內(nèi)容和方法。
      3. 抖音用戶群體特點(diǎn),如何根據(jù)用戶需求進(jìn)行運(yùn)營(yíng)。
      4. 早教產(chǎn)品抖音運(yùn)營(yíng)的目標(biāo),如何實(shí)現(xiàn)并評(píng)估。

      問(wèn)題二:請(qǐng)分享一些你過(guò)去成功的抖音運(yùn)營(yíng)案例。

      這個(gè)問(wèn)題將考察你的實(shí)際操作經(jīng)驗(yàn)和抖音運(yùn)營(yíng)策略。在回答時(shí),可以選擇一個(gè)成功的案例進(jìn)行詳細(xì)講解,包括以下內(nèi)容:

      • 選擇的早教產(chǎn)品和目標(biāo)用戶群體。
      • 通過(guò)哪些運(yùn)營(yíng)手段和策略實(shí)現(xiàn)了用戶增長(zhǎng)和用戶參與度的提升。
      • 達(dá)到的效果和收益。

      問(wèn)題三:如何根據(jù)用戶的需求制定早教產(chǎn)品抖音內(nèi)容策略?

      這個(gè)問(wèn)題考察的是你的用戶洞察和市場(chǎng)分析能力。你可以回答以下幾點(diǎn):

      • 調(diào)查研究用戶的年齡、興趣愛(ài)好、用抖音的目的等基本信息。
      • 根據(jù)用戶需求和熱點(diǎn)話題,制定符合他們關(guān)注點(diǎn)的內(nèi)容。
      • 采用不同形式的內(nèi)容,如教育文章、互動(dòng)活動(dòng)、產(chǎn)品介紹等,以滿足不同用戶需求。
      • 定期分析用戶反饋和數(shù)據(jù),不斷優(yōu)化內(nèi)容策略。

      問(wèn)題四:如何提高早教產(chǎn)品抖音賬號(hào)的粉絲數(shù)量和活躍度?

      這個(gè)問(wèn)題考察的是你的用戶運(yùn)營(yíng)能力和增長(zhǎng)策略。你可以回答以下幾點(diǎn):

      • 制定用戶增長(zhǎng)目標(biāo),設(shè)定合理的指標(biāo)。
      • 運(yùn)用抖音的特點(diǎn),提供有價(jià)值和有趣的內(nèi)容,吸引用戶關(guān)注和參與。
      • 通過(guò)合作和跨平臺(tái)推廣,擴(kuò)大品牌影響力。
      • 定期分析用戶行為和數(shù)據(jù),根據(jù)數(shù)據(jù)優(yōu)化運(yùn)營(yíng)策略。

      問(wèn)題五:你認(rèn)為早教產(chǎn)品抖音運(yùn)營(yíng)面臨的主要挑戰(zhàn)是什么?如何應(yīng)對(duì)?

      這個(gè)問(wèn)題考察的是你的分析和解決問(wèn)題的能力。你可以回答以下幾點(diǎn):

      • 市場(chǎng)競(jìng)爭(zhēng)激烈,如何在眾多早教產(chǎn)品中脫穎而出。
      • 用戶需求多樣化,如何根據(jù)不同用戶需求和特點(diǎn)進(jìn)行運(yùn)營(yíng)。
      • 如何應(yīng)對(duì)平臺(tái)算法的變化和調(diào)整,保持賬號(hào)的穩(wěn)定增長(zhǎng)。
      • 定期關(guān)注競(jìng)爭(zhēng)對(duì)手和行業(yè)趨勢(shì),及時(shí)調(diào)整運(yùn)營(yíng)策略。

      以上就是一些與早教產(chǎn)品抖音運(yùn)營(yíng)相關(guān)的面試題。希望通過(guò)這些問(wèn)題的了解和準(zhǔn)備,能夠更好地應(yīng)對(duì)早教產(chǎn)品抖音運(yùn)營(yíng)面試,展現(xiàn)出自己的實(shí)際操作經(jīng)驗(yàn)和專業(yè)能力。

      五、比音菲勒什么檔次?

      比音勒芬是高檔次品牌,著名高爾夫服飾品牌它擅長(zhǎng)吸納當(dāng)前服裝界的潮流元素,提倡以高品位的時(shí)尚、生活舒適便利為依據(jù),將各種輕柔的紗線、纖薄的素材及高科技功能新材巧妙地揉合在一起,創(chuàng)造出一系列經(jīng)典服裝。

      適合18歲以上的人群。比音勒芬服飾股份有限公司成立于2003年,是一家集設(shè)計(jì)、產(chǎn)品開(kāi)發(fā)及營(yíng)銷于一體的國(guó)內(nèi)領(lǐng)先的高爾夫服飾品牌企業(yè)。公司于2007年在廣州建立總部基地,辦公面積達(dá)15000平方米。專注設(shè)計(jì)、研發(fā)和銷售男、女高爾夫服飾。

      六、比音勒菲什么檔次?

      比音勒芬是高端檔次。比音勒芬,有名高爾夫服飾知名品牌它的優(yōu)點(diǎn)便是吸收目前時(shí)裝界的時(shí)尚潮流要素,大力提倡以高品質(zhì)的時(shí)尚潮流、在日常生活舒服簡(jiǎn)便為主要,將很各種柔和的棉紗、輕薄的材料及新科技功能新材精妙地融為一體,打造出多種傳統(tǒng)服裝款式。

      七、王菲抖音號(hào)多少?

      王菲沒(méi)有開(kāi)播抖音,她直播的音樂(lè)會(huì)是在抖音官方直播的!

      八、抖音女主播菲兒陽(yáng)了嗎?

      陽(yáng)了。因?yàn)樯眢w原因停播了。菲兒是YY上的才藝主播,她也是主播中的直播勞模,不過(guò)為了能更好地給網(wǎng)友們直播,她宣布停播。因?yàn)榉苾合胍菹⒁幌律ぷ?只有休息好了才會(huì)拿出狀態(tài)直播。

      九、音菲梵女裝是幾線品牌?

      音菲梵女裝是廣東廣州市著名的女裝品牌,屬于禾煜國(guó)際品牌管理(廣州)有限公司旗下經(jīng)營(yíng)的三線時(shí)尚女裝品牌。該品牌以優(yōu)雅、經(jīng)典的花卉及藝術(shù)圖形為設(shè)計(jì)理念,巧妙地將中西方文化有機(jī)融合,形成了獨(dú)特的設(shè)計(jì)風(fēng)格。音菲梵女裝主要針對(duì)18-35歲的市場(chǎng),初期投資約為5萬(wàn)元人民幣。

      十、mahout面試題?

      之前看了Mahout官方示例 20news 的調(diào)用實(shí)現(xiàn);于是想根據(jù)示例的流程實(shí)現(xiàn)其他例子。網(wǎng)上看到了一個(gè)關(guān)于天氣適不適合打羽毛球的例子。

      訓(xùn)練數(shù)據(jù):

      Day Outlook Temperature Humidity Wind PlayTennis

      D1 Sunny Hot High Weak No

      D2 Sunny Hot High Strong No

      D3 Overcast Hot High Weak Yes

      D4 Rain Mild High Weak Yes

      D5 Rain Cool Normal Weak Yes

      D6 Rain Cool Normal Strong No

      D7 Overcast Cool Normal Strong Yes

      D8 Sunny Mild High Weak No

      D9 Sunny Cool Normal Weak Yes

      D10 Rain Mild Normal Weak Yes

      D11 Sunny Mild Normal Strong Yes

      D12 Overcast Mild High Strong Yes

      D13 Overcast Hot Normal Weak Yes

      D14 Rain Mild High Strong No

      檢測(cè)數(shù)據(jù):

      sunny,hot,high,weak

      結(jié)果:

      Yes=》 0.007039

      No=》 0.027418

      于是使用Java代碼調(diào)用Mahout的工具類實(shí)現(xiàn)分類。

      基本思想:

      1. 構(gòu)造分類數(shù)據(jù)。

      2. 使用Mahout工具類進(jìn)行訓(xùn)練,得到訓(xùn)練模型。

      3。將要檢測(cè)數(shù)據(jù)轉(zhuǎn)換成vector數(shù)據(jù)。

      4. 分類器對(duì)vector數(shù)據(jù)進(jìn)行分類。

      接下來(lái)貼下我的代碼實(shí)現(xiàn)=》

      1. 構(gòu)造分類數(shù)據(jù):

      在hdfs主要?jiǎng)?chuàng)建一個(gè)文件夾路徑 /zhoujainfeng/playtennis/input 并將分類文件夾 no 和 yes 的數(shù)據(jù)傳到hdfs上面。

      數(shù)據(jù)文件格式,如D1文件內(nèi)容: Sunny Hot High Weak

      2. 使用Mahout工具類進(jìn)行訓(xùn)練,得到訓(xùn)練模型。

      3。將要檢測(cè)數(shù)據(jù)轉(zhuǎn)換成vector數(shù)據(jù)。

      4. 分類器對(duì)vector數(shù)據(jù)進(jìn)行分類。

      這三步,代碼我就一次全貼出來(lái);主要是兩個(gè)類 PlayTennis1 和 BayesCheckData = =》

      package myTesting.bayes;

      import org.apache.hadoop.conf.Configuration;

      import org.apache.hadoop.fs.FileSystem;

      import org.apache.hadoop.fs.Path;

      import org.apache.hadoop.util.ToolRunner;

      import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;

      import org.apache.mahout.text.SequenceFilesFromDirectory;

      import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;

      public class PlayTennis1 {

      private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";

      /*

      * 測(cè)試代碼

      */

      public static void main(String[] args) {

      //將訓(xùn)練數(shù)據(jù)轉(zhuǎn)換成 vector數(shù)據(jù)

      makeTrainVector();

      //產(chǎn)生訓(xùn)練模型

      makeModel(false);

      //測(cè)試檢測(cè)數(shù)據(jù)

      BayesCheckData.printResult();

      }

      public static void makeCheckVector(){

      //將測(cè)試數(shù)據(jù)轉(zhuǎn)換成序列化文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"testinput";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

      String[] params = new String[]{"-i",input,"-o",output,"-ow"};

      ToolRunner.run(sffd, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("文件序列化失敗!");

      System.exit(1);

      }

      //將序列化文件轉(zhuǎn)換成向量文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

      String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

      ToolRunner.run(svfsf, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("序列化文件轉(zhuǎn)換成向量失敗!");

      System.out.println(2);

      }

      }

      public static void makeTrainVector(){

      //將測(cè)試數(shù)據(jù)轉(zhuǎn)換成序列化文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"input";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

      String[] params = new String[]{"-i",input,"-o",output,"-ow"};

      ToolRunner.run(sffd, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("文件序列化失敗!");

      System.exit(1);

      }

      //將序列化文件轉(zhuǎn)換成向量文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

      String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

      ToolRunner.run(svfsf, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("序列化文件轉(zhuǎn)換成向量失敗!");

      System.out.println(2);

      }

      }

      public static void makeModel(boolean completelyNB){

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";

      String model = WORK_DIR+Path.SEPARATOR+"model";

      String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";

      Path in = new Path(input);

      Path out = new Path(model);

      Path label = new Path(labelindex);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      if(fs.exists(label)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(label, true);

      }

      TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();

      String[] params =null;

      if(completelyNB){

      params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};

      }else{

      params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};

      }

      ToolRunner.run(tnbj, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("生成訓(xùn)練模型失敗!");

      System.exit(3);

      }

      }

      }

      package myTesting.bayes;

      import java.io.IOException;

      import java.util.HashMap;

      import java.util.Map;

      import org.apache.commons.lang.StringUtils;

      import org.apache.hadoop.conf.Configuration;

      import org.apache.hadoop.fs.Path;

      import org.apache.hadoop.fs.PathFilter;

      import org.apache.hadoop.io.IntWritable;

      import org.apache.hadoop.io.LongWritable;

      import org.apache.hadoop.io.Text;

      import org.apache.mahout.classifier.naivebayes.BayesUtils;

      import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;

      import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;

      import org.apache.mahout.common.Pair;

      import org.apache.mahout.common.iterator.sequencefile.PathType;

      import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;

      import org.apache.mahout.math.RandomAccessSparseVector;

      import org.apache.mahout.math.Vector;

      import org.apache.mahout.math.Vector.Element;

      import org.apache.mahout.vectorizer.TFIDF;

      import com.google.common.collect.ConcurrentHashMultiset;

      import com.google.common.collect.Multiset;

      public class BayesCheckData {

      private static StandardNaiveBayesClassifier classifier;

      private static Map<String, Integer> dictionary;

      private static Map<Integer, Long> documentFrequency;

      private static Map<Integer, String> labelIndex;

      public void init(Configuration conf){

      try {

      String modelPath = "/zhoujianfeng/playtennis/model";

      String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";

      String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";

      String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";

      dictionary = readDictionnary(conf, new Path(dictionaryPath));

      documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));

      labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));

      NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);

      classifier = new StandardNaiveBayesClassifier(model);

      } catch (IOException e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("檢測(cè)數(shù)據(jù)構(gòu)造成vectors初始化時(shí)報(bào)錯(cuò)。。。。");

      System.exit(4);

      }

      }

      /**

      * 加載字典文件,Key: TermValue; Value:TermID

      * @param conf

      * @param dictionnaryDir

      * @return

      */

      private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {

      Map<String, Integer> dictionnary = new HashMap<String, Integer>();

      PathFilter filter = new PathFilter() {

      @Override

      public boolean accept(Path path) {

      String name = path.getName();

      return name.startsWith("dictionary.file");

      }

      };

      for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {

      dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());

      }

      return dictionnary;

      }

      /**

      * 加載df-count目錄下TermDoc頻率文件,Key: TermID; Value:DocFreq

      * @param conf

      * @param dictionnaryDir

      * @return

      */

      private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {

      Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();

      PathFilter filter = new PathFilter() {

      @Override

      public boolean accept(Path path) {

      return path.getName().startsWith("part-r");

      }

      };

      for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {

      documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());

      }

      return documentFrequency;

      }

      public static String getCheckResult(){

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String classify = "NaN";

      BayesCheckData cdv = new BayesCheckData();

      cdv.init(conf);

      System.out.println("init done...............");

      Vector vector = new RandomAccessSparseVector(10000);

      TFIDF tfidf = new TFIDF();

      //sunny,hot,high,weak

      Multiset<String> words = ConcurrentHashMultiset.create();

      words.add("sunny",1);

      words.add("hot",1);

      words.add("high",1);

      words.add("weak",1);

      int documentCount = documentFrequency.get(-1).intValue(); // key=-1時(shí)表示總文檔數(shù)

      for (Multiset.Entry<String> entry : words.entrySet()) {

      String word = entry.getElement();

      int count = entry.getCount();

      Integer wordId = dictionary.get(word); // 需要從dictionary.file-0文件(tf-vector)下得到wordID,

      if (StringUtils.isEmpty(wordId.toString())){

      continue;

      }

      if (documentFrequency.get(wordId) == null){

      continue;

      }

      Long freq = documentFrequency.get(wordId);

      double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);

      vector.setQuick(wordId, tfIdfValue);

      }

      // 利用貝葉斯算法開(kāi)始分類,并提取得分最好的分類label

      Vector resultVector = classifier.classifyFull(vector);

      double bestScore = -Double.MAX_VALUE;

      int bestCategoryId = -1;

      for(Element element: resultVector.all()) {

      int categoryId = element.index();

      double score = element.get();

      System.out.println("categoryId:"+categoryId+" score:"+score);

      if (score > bestScore) {

      bestScore = score;

      bestCategoryId = categoryId;

      }

      }

      classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";

      return classify;

      }

      public static void printResult(){

      System.out.println("檢測(cè)所屬類別是:"+getCheckResult());

      }

      }

      相關(guān)資訊
      熱門(mén)頻道

      Copyright © 2024 招聘街 滇ICP備2024020316號(hào)-38

      国内精品久久久久_亚洲区手机在线中文无码播放_国内精品久久久久影院一蜜桃_日韩内射激情视频在线播放免费

        门源| 西城区| 偃师市| 江川县| 延寿县| 镇平县| 武鸣县| 伽师县| 赣榆县| 财经| 阜城县| 岳阳市| 保亭| 抚顺市| 封丘县| 微博| 邹平县| 永清县| 连山| 安西县| 五常市| 南澳县| 应城市| 镇安县| 龙江县| 贡山| 闵行区| 湖北省| 托克逊县| 孝感市| 舟曲县| 乌拉特后旗| 八宿县| 昭觉县| 玉环县| 德惠市| 鄂伦春自治旗| 临湘市| 五大连池市| 嘉黎县| 华宁县|