延安家居建材市場(chǎng)的地址如下:
1、延安圣明宮建材市場(chǎng)地址:延安市寶塔區(qū)尹家溝2、建材市場(chǎng)地址:延安市吳起縣303省道附近3、家具市場(chǎng)地址:延安市安塞縣二零六省道喜洋洋超市附近雖然可能沒(méi)解決你的實(shí)際問(wèn)題,但是我還是很高興能為你解答問(wèn)題。
138路公交線建材城東站選址在建材城大門東側(cè)50米。
成都的建材市場(chǎng)有:百姓家裝、博美、金府裝飾、512建材、大西南建材等等。
成都百姓家裝市場(chǎng):成都市玉沙路123號(hào);
成都博美裝飾城:成都市花牌坊街319號(hào) ;
成都金府裝飾城:成都市沙灣路北延線與金府路交匯處 ;
成都512建材市場(chǎng):成都市二環(huán)路北四段3號(hào) ;
成都大西南建材城 :成都市外北洞子口貯木場(chǎng) ;
成都府河市場(chǎng)地址:成都二環(huán)路北二段 ;
成都交大裝飾城地址:成都市二環(huán)路北一段(西南交大東南角);
成都東泰建材市場(chǎng)地址:成都市二環(huán)路西一段紅牌樓東泰商城有限公司 ;
成都西南建材中心地址:成都市二環(huán)路北三段 ;
成都錦繡家園市場(chǎng) 地址:成都市火車南站 ;
新世紀(jì)裝飾廣場(chǎng):高升橋路16號(hào);
華科國(guó)際家居生活廣場(chǎng)位于陽(yáng)江市陽(yáng)東區(qū),項(xiàng)目規(guī)劃面積約22萬(wàn)平方米,建筑面積約為52萬(wàn)平方米,
居然之家陽(yáng)江店位于陽(yáng)江市陽(yáng)東區(qū),項(xiàng)目于2013年9月28日開(kāi)業(yè),總規(guī)劃面積約8萬(wàn)平方米,
東門的鋼材大市場(chǎng),火車站建材裝飾城,火車站美居建材裝飾城,靠近汽車城的匯美家居建材廣場(chǎng),還有興隆裝飾城.大概就這些吧
榕城建材綜合市場(chǎng)
美順建材城
興榮建材城
河源建材城是一個(gè)較大的建材市場(chǎng),有很多供應(yīng)商和品牌可以選擇。以下是一些建議的建材城供應(yīng)商:
1. 河源建材城一期:這是河源建材城最早建立的部分,有各類建材供應(yīng)商,包括瓷磚、衛(wèi)浴、地板等。
2. 河源建材城二期:二期相對(duì)較新,也有很多供應(yīng)商提供各種建材產(chǎn)品,包括裝修材料、門窗、燈具等。
3. 建材城周邊:河源建材城附近還有一些獨(dú)立的建材商鋪,也可以考慮去這些地方尋找需要的建材產(chǎn)品。
在選擇建材供應(yīng)商時(shí),可以根據(jù)自己的需求和預(yù)算進(jìn)行比較,了解各個(gè)供應(yīng)商的產(chǎn)品質(zhì)量、價(jià)格和售后服務(wù)等方面。此外,建議提前做好準(zhǔn)備工作,比如了解自己的裝修需求,測(cè)量尺寸,帶好相關(guān)的圖紙和樣品,以便更好地選擇和購(gòu)買合適的建材產(chǎn)品。
國(guó)際建材港
建材港劃分陶瓷、五金電料水暖、板材油漆、木地板、櫥柜、燈飾、門業(yè)、玻璃石材型材等,是信陽(yáng)種類與品牌都多且全的建材市場(chǎng)。
地址:位于鄂豫皖三省交界的信陽(yáng)市羊山新區(qū)東北部南京路146號(hào)金達(dá)裝飾材料大市場(chǎng)
金達(dá)裝飾市場(chǎng)是信陽(yáng)規(guī)模大、檔次高、設(shè)施全的專業(yè)建材市場(chǎng)市場(chǎng)。包括陶瓷地板、衛(wèi)生潔具、木制地板、裝飾用器、淋浴房、櫥柜、裝飾石材等。2004年被評(píng)為河南省文明誠(chéng)信建材市場(chǎng)。
地址:信陽(yáng)市浉河區(qū)工區(qū)路223號(hào)金達(dá)建材市場(chǎng)
主營(yíng)裝修材料,細(xì)木板、扣板、免漆板、鎖具和五金等,比較全面。
地址:信陽(yáng)市浉河區(qū)湖東大道2號(hào)
海口金鹿裝飾大世界
金鹿裝飾大世界在海口開(kāi)業(yè)。由金鹿實(shí)業(yè)創(chuàng)建的燈具裝飾大世界是海口市重點(diǎn)項(xiàng)目,位于海府路,主要銷售:燈具燈飾、電料、吊頂、門業(yè)、板材裝飾等,市場(chǎng)規(guī)模8萬(wàn)平方米,匯集了數(shù)百個(gè)品種的商品。
海口塔光陶瓷市場(chǎng)
塔光陶瓷城是海南省“十佳”專業(yè)市場(chǎng),多年的市場(chǎng)培育、優(yōu)越的地理位置,以及注重品牌、崇尚精品、恪守誠(chéng)信的經(jīng)營(yíng)理念,使這里成為省內(nèi)陶瓷交易的首選地之一,目前塔光已發(fā)展成占地18.8畝,擁有陶瓷鋪面228家的大型專業(yè)市場(chǎng),共有來(lái)自全國(guó)各地的經(jīng)營(yíng)業(yè)主85家,從業(yè)人員800人以上。
海口萬(wàn)佳家居裝飾廣場(chǎng)
海南萬(wàn)佳家居裝飾廣場(chǎng)于 2004 年 10 月 18 日火爆開(kāi)業(yè), 它的開(kāi)業(yè)創(chuàng)下海南家居建材零售行業(yè)多個(gè)之最:規(guī)模最大、品牌最多、品種最齊、購(gòu)物環(huán)境最好、配套設(shè)施最齊、裝修檔次最高、現(xiàn)代化程度最高和管理最專業(yè),同時(shí),它的開(kāi)業(yè)也標(biāo)志著海南家居建材零售行業(yè)走向規(guī)模化、現(xiàn)代化和檔次化的發(fā)展之路。
海口亞豪建材城
作為本土大型建材商城,亞豪建材城一直致力于打造椰城最好的建材賣場(chǎng),讓消費(fèi)者享受到最實(shí)在的好建材產(chǎn)品。不少消費(fèi)者因?yàn)橘u場(chǎng)硬件環(huán)境而感嘆,理所當(dāng)然地認(rèn)為好就是貴的代名詞,其實(shí)不然。而亞豪建材城的優(yōu)惠力度一直是行業(yè)內(nèi)的佼佼者,不管是何種促銷方式,每次帶給消費(fèi)者的都是實(shí)實(shí)在在的優(yōu)惠。因此也獲得了消費(fèi)者的肯定和信任,亞豪建材城也一直在努力為消費(fèi)者打造最驚爆的特價(jià)和最超值的折扣,一路走來(lái),亞豪建材城給消費(fèi)者帶來(lái)了一個(gè)又一個(gè)的驚喜。
海口居然之家
居然之家海口店位于海口市濱海大道96號(hào),西鄰美麗的西海岸旅游度假區(qū),是海口最具消費(fèi)潛力的地區(qū)之一;東鄰海口秀英港碼頭,交通便利。海口店全部建成后經(jīng)營(yíng)面積約60000平方米,匯集了十余萬(wàn)種國(guó)內(nèi)外知名優(yōu)產(chǎn)品,一期家具家飾館已于2010年8月開(kāi)業(yè)。
海口城西建材市場(chǎng)
城西建材交易市場(chǎng)主要由新華建筑陶瓷交易市場(chǎng)和城西路兩側(cè)沿街的建材批零鋪面組成,目前,該市場(chǎng)共有300間鋪面,經(jīng)營(yíng)面積為34000平方米,已成為省內(nèi)主要的 建材批發(fā)、零售集散地。該交易市場(chǎng)每年?duì)I業(yè)額已達(dá)5個(gè)億,稅收每年約3000萬(wàn)元,提供就業(yè)崗位3500個(gè),且?guī)?dòng)了運(yùn)輸、裝修、飲食、房屋出租、零售、農(nóng)貿(mào)市場(chǎng)等行業(yè)的發(fā)展。
海口克耐爾廚柜
克耐爾廚柜是一家匯集設(shè)計(jì)、施工、管理、售后服務(wù)等一條龍的專業(yè)室內(nèi)裝飾有限公司。在中國(guó)獨(dú)家代理銷售“克耐爾櫥柜系列”,品質(zhì)來(lái)源于法國(guó)。“克耐爾櫥柜”服務(wù)宗旨:整體設(shè)計(jì),跟蹤服務(wù)。克耐爾憑借成功的品牌策略及規(guī)范化、專業(yè)化的管理模式,以其專業(yè)技術(shù)、嚴(yán)格的管理優(yōu)質(zhì)服務(wù)成就了無(wú)數(shù)佳品,贏得了廣大客戶的信賴。
海口和風(fēng)彩陶廠
海南和風(fēng)彩陶廠位于海南省中部的海榆中線公路80.5公里處,是專業(yè)生產(chǎn)裝飾磚瓦的建材企業(yè),主要產(chǎn)品有陶瓷彩釉瓦、劈開(kāi)磚、廣場(chǎng)磚等。
海口新發(fā)石材市場(chǎng)
海口新發(fā)石材有限公司自成立以來(lái),在全體員工的勤勤懇懇、艱苦奮斗的敬業(yè)精神下,腳踏“石”地,始終以質(zhì)量、信譽(yù)、效率、價(jià)廉為宗旨和原則,日益發(fā)展成今日規(guī)模較大,實(shí)力雄厚的石材專業(yè)公司。
海口金鹿裝飾大世界
大自然地板(中國(guó))有限公司為中國(guó)地板控股有限公司全資擁有附屬公司,以銷售大自然實(shí)木地板、實(shí)木復(fù)合地板、生態(tài)地板、強(qiáng)化地板為主營(yíng)業(yè)務(wù)。自 2001年以來(lái),大自然地板產(chǎn)品銷量持續(xù)強(qiáng)勁增長(zhǎng),產(chǎn)品市場(chǎng)占有率在同行業(yè)中名列前茅,已成為亞洲最大的木地板骨干企業(yè)之一,在與中國(guó)地板行業(yè)一起發(fā)展壯大的歷程中,大自然地板積極助推中國(guó)地板行業(yè)發(fā)展,為振興民族工業(yè)品牌奉獻(xiàn)著自己的力量。大自然地板以前瞻性眼光和全球化視野,致力于打造全球一流地板企業(yè),一個(gè)全球化發(fā)展戰(zhàn)略的國(guó)際化品牌已經(jīng)崛起。
之前看了Mahout官方示例 20news 的調(diào)用實(shí)現(xiàn);于是想根據(jù)示例的流程實(shí)現(xiàn)其他例子。網(wǎng)上看到了一個(gè)關(guān)于天氣適不適合打羽毛球的例子。
訓(xùn)練數(shù)據(jù):
Day Outlook Temperature Humidity Wind PlayTennis
D1 Sunny Hot High Weak No
D2 Sunny Hot High Strong No
D3 Overcast Hot High Weak Yes
D4 Rain Mild High Weak Yes
D5 Rain Cool Normal Weak Yes
D6 Rain Cool Normal Strong No
D7 Overcast Cool Normal Strong Yes
D8 Sunny Mild High Weak No
D9 Sunny Cool Normal Weak Yes
D10 Rain Mild Normal Weak Yes
D11 Sunny Mild Normal Strong Yes
D12 Overcast Mild High Strong Yes
D13 Overcast Hot Normal Weak Yes
D14 Rain Mild High Strong No
檢測(cè)數(shù)據(jù):
sunny,hot,high,weak
結(jié)果:
Yes=》 0.007039
No=》 0.027418
于是使用Java代碼調(diào)用Mahout的工具類實(shí)現(xiàn)分類。
基本思想:
1. 構(gòu)造分類數(shù)據(jù)。
2. 使用Mahout工具類進(jìn)行訓(xùn)練,得到訓(xùn)練模型。
3。將要檢測(cè)數(shù)據(jù)轉(zhuǎn)換成vector數(shù)據(jù)。
4. 分類器對(duì)vector數(shù)據(jù)進(jìn)行分類。
接下來(lái)貼下我的代碼實(shí)現(xiàn)=》
1. 構(gòu)造分類數(shù)據(jù):
在hdfs主要?jiǎng)?chuàng)建一個(gè)文件夾路徑 /zhoujainfeng/playtennis/input 并將分類文件夾 no 和 yes 的數(shù)據(jù)傳到hdfs上面。
數(shù)據(jù)文件格式,如D1文件內(nèi)容: Sunny Hot High Weak
2. 使用Mahout工具類進(jìn)行訓(xùn)練,得到訓(xùn)練模型。
3。將要檢測(cè)數(shù)據(jù)轉(zhuǎn)換成vector數(shù)據(jù)。
4. 分類器對(duì)vector數(shù)據(jù)進(jìn)行分類。
這三步,代碼我就一次全貼出來(lái);主要是兩個(gè)類 PlayTennis1 和 BayesCheckData = =》
package myTesting.bayes;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.util.ToolRunner;
import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;
import org.apache.mahout.text.SequenceFilesFromDirectory;
import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;
public class PlayTennis1 {
private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";
/*
* 測(cè)試代碼
*/
public static void main(String[] args) {
//將訓(xùn)練數(shù)據(jù)轉(zhuǎn)換成 vector數(shù)據(jù)
makeTrainVector();
//產(chǎn)生訓(xùn)練模型
makeModel(false);
//測(cè)試檢測(cè)數(shù)據(jù)
BayesCheckData.printResult();
}
public static void makeCheckVector(){
//將測(cè)試數(shù)據(jù)轉(zhuǎn)換成序列化文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"testinput";
String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean參數(shù)是,是否遞歸刪除的意思
fs.delete(out, true);
}
SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();
String[] params = new String[]{"-i",input,"-o",output,"-ow"};
ToolRunner.run(sffd, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("文件序列化失敗!");
System.exit(1);
}
//將序列化文件轉(zhuǎn)換成向量文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";
String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean參數(shù)是,是否遞歸刪除的意思
fs.delete(out, true);
}
SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();
String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};
ToolRunner.run(svfsf, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("序列化文件轉(zhuǎn)換成向量失敗!");
System.out.println(2);
}
}
public static void makeTrainVector(){
//將測(cè)試數(shù)據(jù)轉(zhuǎn)換成序列化文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"input";
String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean參數(shù)是,是否遞歸刪除的意思
fs.delete(out, true);
}
SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();
String[] params = new String[]{"-i",input,"-o",output,"-ow"};
ToolRunner.run(sffd, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("文件序列化失敗!");
System.exit(1);
}
//將序列化文件轉(zhuǎn)換成向量文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";
String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean參數(shù)是,是否遞歸刪除的意思
fs.delete(out, true);
}
SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();
String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};
ToolRunner.run(svfsf, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("序列化文件轉(zhuǎn)換成向量失敗!");
System.out.println(2);
}
}
public static void makeModel(boolean completelyNB){
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";
String model = WORK_DIR+Path.SEPARATOR+"model";
String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";
Path in = new Path(input);
Path out = new Path(model);
Path label = new Path(labelindex);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean參數(shù)是,是否遞歸刪除的意思
fs.delete(out, true);
}
if(fs.exists(label)){
//boolean參數(shù)是,是否遞歸刪除的意思
fs.delete(label, true);
}
TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();
String[] params =null;
if(completelyNB){
params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};
}else{
params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};
}
ToolRunner.run(tnbj, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("生成訓(xùn)練模型失敗!");
System.exit(3);
}
}
}
package myTesting.bayes;
import java.io.IOException;
import java.util.HashMap;
import java.util.Map;
import org.apache.commons.lang.StringUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.PathFilter;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.mahout.classifier.naivebayes.BayesUtils;
import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;
import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;
import org.apache.mahout.common.Pair;
import org.apache.mahout.common.iterator.sequencefile.PathType;
import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;
import org.apache.mahout.math.RandomAccessSparseVector;
import org.apache.mahout.math.Vector;
import org.apache.mahout.math.Vector.Element;
import org.apache.mahout.vectorizer.TFIDF;
import com.google.common.collect.ConcurrentHashMultiset;
import com.google.common.collect.Multiset;
public class BayesCheckData {
private static StandardNaiveBayesClassifier classifier;
private static Map<String, Integer> dictionary;
private static Map<Integer, Long> documentFrequency;
private static Map<Integer, String> labelIndex;
public void init(Configuration conf){
try {
String modelPath = "/zhoujianfeng/playtennis/model";
String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";
String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";
String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";
dictionary = readDictionnary(conf, new Path(dictionaryPath));
documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));
labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));
NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);
classifier = new StandardNaiveBayesClassifier(model);
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("檢測(cè)數(shù)據(jù)構(gòu)造成vectors初始化時(shí)報(bào)錯(cuò)。。。。");
System.exit(4);
}
}
/**
* 加載字典文件,Key: TermValue; Value:TermID
* @param conf
* @param dictionnaryDir
* @return
*/
private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {
Map<String, Integer> dictionnary = new HashMap<String, Integer>();
PathFilter filter = new PathFilter() {
@Override
public boolean accept(Path path) {
String name = path.getName();
return name.startsWith("dictionary.file");
}
};
for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {
dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());
}
return dictionnary;
}
/**
* 加載df-count目錄下TermDoc頻率文件,Key: TermID; Value:DocFreq
* @param conf
* @param dictionnaryDir
* @return
*/
private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {
Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();
PathFilter filter = new PathFilter() {
@Override
public boolean accept(Path path) {
return path.getName().startsWith("part-r");
}
};
for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {
documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());
}
return documentFrequency;
}
public static String getCheckResult(){
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String classify = "NaN";
BayesCheckData cdv = new BayesCheckData();
cdv.init(conf);
System.out.println("init done...............");
Vector vector = new RandomAccessSparseVector(10000);
TFIDF tfidf = new TFIDF();
//sunny,hot,high,weak
Multiset<String> words = ConcurrentHashMultiset.create();
words.add("sunny",1);
words.add("hot",1);
words.add("high",1);
words.add("weak",1);
int documentCount = documentFrequency.get(-1).intValue(); // key=-1時(shí)表示總文檔數(shù)
for (Multiset.Entry<String> entry : words.entrySet()) {
String word = entry.getElement();
int count = entry.getCount();
Integer wordId = dictionary.get(word); // 需要從dictionary.file-0文件(tf-vector)下得到wordID,
if (StringUtils.isEmpty(wordId.toString())){
continue;
}
if (documentFrequency.get(wordId) == null){
continue;
}
Long freq = documentFrequency.get(wordId);
double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);
vector.setQuick(wordId, tfIdfValue);
}
// 利用貝葉斯算法開(kāi)始分類,并提取得分最好的分類label
Vector resultVector = classifier.classifyFull(vector);
double bestScore = -Double.MAX_VALUE;
int bestCategoryId = -1;
for(Element element: resultVector.all()) {
int categoryId = element.index();
double score = element.get();
System.out.println("categoryId:"+categoryId+" score:"+score);
if (score > bestScore) {
bestScore = score;
bestCategoryId = categoryId;
}
}
classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";
return classify;
}
public static void printResult(){
System.out.println("檢測(cè)所屬類別是:"+getCheckResult());
}
}