城市治理是現(xiàn)代社會(huì)中一個(gè)重要的議題,特別是城市管理部門的行為常常受到公眾關(guān)注。城市管理者在維護(hù)城市秩序、改善市容市貌的過程中,不可避免地會(huì)涉及到一些爭議性事件,其中包括城管暴力執(zhí)法問題。城管暴力執(zhí)法是指城市管理執(zhí)法人員在執(zhí)法過程中使用暴力手段的行為,這不僅損害了城市管理部門的形象,也侵犯了市民的合法權(quán)益。
城管暴力執(zhí)法是城市管理中的一個(gè)突出問題,近年來頻頻發(fā)生的城管暴力事件引起了社會(huì)各界的廣泛關(guān)注。在一些地方,城管執(zhí)法人員為了達(dá)到管理目的,往往采取過激手段,導(dǎo)致了一些不良后果。城管暴力執(zhí)法事件多發(fā)生在城市街道、集貿(mào)市場等公共場所,媒體和社會(huì)公眾也經(jīng)常報(bào)道此類事件,引起輿論熱議。
城管暴力執(zhí)法行為的出現(xiàn),既反映了城市管理部門在執(zhí)法工作中存在的問題,也反映了一些城管執(zhí)法人員執(zhí)法意識(shí)不強(qiáng)、執(zhí)法素質(zhì)不高的現(xiàn)狀。城市管理部門和城管執(zhí)法人員需要加強(qiáng)執(zhí)法規(guī)范化建設(shè),嚴(yán)格執(zhí)行執(zhí)法程序,依法行政,服務(wù)市民,切實(shí)保障市民的合法權(quán)益。
要解決城管暴力執(zhí)法問題,需要從源頭入手,從體制機(jī)制、管理方法、執(zhí)法文化等多方面進(jìn)行改革和完善。首先,城市管理部門需要建立健全執(zhí)法制度,明確執(zhí)法權(quán)限和程序,規(guī)范執(zhí)法行為。其次,要加強(qiáng)城管執(zhí)法人員隊(duì)伍建設(shè),提高執(zhí)法隊(duì)伍的素質(zhì)和能力,注重職業(yè)道德和法律知識(shí)的培訓(xùn)。再次,要加強(qiáng)對城管暴力執(zhí)法行為的監(jiān)督和檢查,建立健全舉報(bào)機(jī)制和監(jiān)督機(jī)制,對違法執(zhí)法行為及時(shí)查處。
同時(shí),要加強(qiáng)社會(huì)宣傳教育,提高市民對法律法規(guī)的認(rèn)識(shí)和遵守意識(shí),增強(qiáng)市民對城市管理工作的理解和支持。只有通過全社會(huì)的共同努力,才能有效解決城管暴力執(zhí)法問題,建設(shè)和諧宜居的城市環(huán)境。
城管暴力執(zhí)法事件不僅影響市民的生活和安全,也對記者的采訪和報(bào)道工作造成一定的影響。記者作為第四權(quán)力,履行監(jiān)督城市管理部門的職責(zé),報(bào)道城市管理工作中的不正之風(fēng),是維護(hù)社會(huì)公平正義的重要力量。
然而,在城管暴力執(zhí)法事件中,記者往往成為城管執(zhí)法人員的“受害者”。一些城管執(zhí)法人員對記者進(jìn)行阻撓、限制采訪,甚至出現(xiàn)暴力對待記者的情況。這不僅影響了記者的采訪工作,也侵犯了記者的采訪權(quán)利,妨礙了新聞自由和輿論監(jiān)督的正常進(jìn)行。
城管暴力執(zhí)法事件對記者的影響不僅體現(xiàn)在采訪過程中的阻礙,也體現(xiàn)在記者在報(bào)道中面臨的困難和壓力。一些記者在報(bào)道城管暴力事件時(shí),由于涉及的是執(zhí)法部門,受到了種種阻力和打壓,甚至遭受到暴力威脅。這給記者的采訪工作增加了一定的風(fēng)險(xiǎn)和困難。
在面對城管暴力執(zhí)法事件時(shí),記者需要保持冷靜和理性,堅(jiān)守新聞職業(yè)操守,堅(jiān)持報(bào)道事實(shí)真相。記者在采訪城管暴力事件時(shí),應(yīng)加強(qiáng)與相關(guān)部門的溝通,堅(jiān)持依法采訪,行使新聞監(jiān)督的職責(zé),維護(hù)自身的合法權(quán)益。
同時(shí),記者們也需要加強(qiáng)自身的安全意識(shí)和保護(hù)措施,在采訪過程中應(yīng)注意自身安全,避免陷入不必要的風(fēng)險(xiǎn)和危險(xiǎn)之中。在報(bào)道城管暴力事件時(shí),記者們要保持中立客觀的態(tài)度,客觀真實(shí)地報(bào)道事件的經(jīng)過和結(jié)果,不偏不倚地向公眾傳遞信息。
記者作為社會(huì)輿論監(jiān)督的重要力量,應(yīng)當(dāng)敢于挑戰(zhàn)不合理的權(quán)力行使,堅(jiān)決維護(hù)新聞自由和言論權(quán)利。只有記者們勇敢地站出來,揭露城管暴力執(zhí)法事件的真相,才能促使城市管理部門改正錯(cuò)誤,避免類似事件再次發(fā)生,為社會(huì)的公平正義發(fā)聲。
被暴力執(zhí)法反擊是犯法的,正常情況下反擊不屬于正當(dāng)防衛(wèi)。正當(dāng)防衛(wèi)(又稱自我防衛(wèi),簡稱自衛(wèi)),是大陸法系刑法上的一種概念。為了使國家、公共利益、本人或者他人的人身、財(cái)產(chǎn)和其他權(quán)利免受正在進(jìn)行的不法侵害,而采取的制止不法侵害的行為,對不法侵害人造成損害的,屬于正當(dāng)防衛(wèi),不負(fù)刑事責(zé)任。
對于執(zhí)法人員暴力執(zhí)法人員,你可以采取收集證據(jù),向執(zhí)法單位上級部門進(jìn)行投訴。
不可以,因?yàn)楸0仓荒軓氖乱恍┤粘5墓ぷ鳌H缇S護(hù)秩序,安全巡查等,保安不具有執(zhí)法的權(quán)利。如果保安在日常的工作中出現(xiàn)了暴力執(zhí)法的行為屬于嚴(yán)重的違法違紀(jì)的行為,是絕對不可以的。所以做為保安員在日常的工作當(dāng)中時(shí)刻要求自己,認(rèn)真工作堅(jiān)決不做違法亂紀(jì)的行為。
依據(jù)《行政強(qiáng)制法》的規(guī)定上級行政機(jī)關(guān)可以對相關(guān)責(zé)任人給予處罰,造成了被執(zhí)行人人身、財(cái)產(chǎn)的損害,應(yīng)當(dāng)依法給予賠償。同時(shí)我國《刑法》第243條規(guī)定:“故意傷害他人身體的,處三年以下有期徒刑、拘役或者管制。”
如被執(zhí)行人經(jīng)鑒定構(gòu)成輕傷或者以上,依法應(yīng)當(dāng)追究傷人城管故意傷害罪的刑事責(zé)任。
行政執(zhí)法人員不能通過暴力抗法來解決問題,因?yàn)楸┝狗ㄊ且环N違法行為,行政執(zhí)法人員應(yīng)該依法行動(dòng)。如果遇到暴力抗法,應(yīng)該通過法律手段來維護(hù)秩序和捍衛(wèi)法律尊嚴(yán)。行政執(zhí)法人員可以適當(dāng)采取正當(dāng)防衛(wèi)措施,但是需要在必要性、合理性和適度性的原則下進(jìn)行,并且必須符合法律規(guī)定。正當(dāng)防衛(wèi)的原則是在法律框架下保護(hù)自己和他人的合法權(quán)益,不得超過必要的限度和范圍。在實(shí)際執(zhí)法中,如果遇到暴力抗法,行政執(zhí)法人員應(yīng)該按照法定程序進(jìn)行,遵守法律的要求,減少合法權(quán)益的損失。同時(shí),在開展執(zhí)法活動(dòng)之前,應(yīng)該加強(qiáng)與當(dāng)?shù)鼐用竦臏贤ǎ鰪?qiáng)居民的法律意識(shí),避免發(fā)生暴力事件。
網(wǎng)絡(luò)執(zhí)法通常通過監(jiān)控、調(diào)查和打擊違法行為來維護(hù)網(wǎng)絡(luò)秩序和安全。執(zhí)法部門會(huì)利用技術(shù)手段對網(wǎng)絡(luò)進(jìn)行跟蹤和監(jiān)視,收集證據(jù)并對違法行為進(jìn)行調(diào)查。一旦發(fā)現(xiàn)違法行為,執(zhí)法部門會(huì)采取相應(yīng)的行動(dòng),比如對違法人員進(jìn)行逮捕、起訴或罰款。此外,執(zhí)法部門還會(huì)加強(qiáng)對網(wǎng)絡(luò)安全的監(jiān)督,防范網(wǎng)絡(luò)犯罪活動(dòng)。總之,網(wǎng)絡(luò)執(zhí)法需要高度的技術(shù)和專業(yè)知識(shí),以及法律的支持和合作來維護(hù)網(wǎng)絡(luò)秩序和社會(huì)安全。
川崎和鈴木都是知名的摩托車品牌,但是它們有著不同的車型和發(fā)動(dòng)機(jī)配置,所以很難一概而論哪個(gè)更暴力。
一般來說,川崎的發(fā)動(dòng)機(jī)功率和扭矩輸出較大,加速性能和極速表現(xiàn)也更優(yōu)秀,所以有人認(rèn)為川崎比較暴力。但是,鈴木也有一些車型具有不錯(cuò)的性能和加速能力,例如GSX-R系列。因此,川崎和鈴木各有各的特點(diǎn),需要根據(jù)具體的車型和發(fā)動(dòng)機(jī)配置來評估哪個(gè)更暴力。
作為執(zhí)法人員。應(yīng)該積極的認(rèn)真的學(xué)習(xí)國家的法律法規(guī)。并且積極的做到文明執(zhí)法。堅(jiān)決不越權(quán)執(zhí)法或者是暴力執(zhí)法的違法執(zhí)法行為。并且在執(zhí)法的時(shí)候要依法依規(guī)的按照國家的法律法規(guī)。絕對要做到公平公正的執(zhí)法,絕對不能選擇性的執(zhí)法。并且執(zhí)法的時(shí)候一定要向被執(zhí)法人出示執(zhí)法證。并且說明自己所在的執(zhí)法單位和此次前來執(zhí)行的法律任務(wù)。
暴力講什么基本法則
弱肉強(qiáng)食就是暴力的根本法則
之前看了Mahout官方示例 20news 的調(diào)用實(shí)現(xiàn);于是想根據(jù)示例的流程實(shí)現(xiàn)其他例子。網(wǎng)上看到了一個(gè)關(guān)于天氣適不適合打羽毛球的例子。
訓(xùn)練數(shù)據(jù):
Day Outlook Temperature Humidity Wind PlayTennis
D1 Sunny Hot High Weak No
D2 Sunny Hot High Strong No
D3 Overcast Hot High Weak Yes
D4 Rain Mild High Weak Yes
D5 Rain Cool Normal Weak Yes
D6 Rain Cool Normal Strong No
D7 Overcast Cool Normal Strong Yes
D8 Sunny Mild High Weak No
D9 Sunny Cool Normal Weak Yes
D10 Rain Mild Normal Weak Yes
D11 Sunny Mild Normal Strong Yes
D12 Overcast Mild High Strong Yes
D13 Overcast Hot Normal Weak Yes
D14 Rain Mild High Strong No
檢測數(shù)據(jù):
sunny,hot,high,weak
結(jié)果:
Yes=》 0.007039
No=》 0.027418
于是使用Java代碼調(diào)用Mahout的工具類實(shí)現(xiàn)分類。
基本思想:
1. 構(gòu)造分類數(shù)據(jù)。
2. 使用Mahout工具類進(jìn)行訓(xùn)練,得到訓(xùn)練模型。
3。將要檢測數(shù)據(jù)轉(zhuǎn)換成vector數(shù)據(jù)。
4. 分類器對vector數(shù)據(jù)進(jìn)行分類。
接下來貼下我的代碼實(shí)現(xiàn)=》
1. 構(gòu)造分類數(shù)據(jù):
在hdfs主要?jiǎng)?chuàng)建一個(gè)文件夾路徑 /zhoujainfeng/playtennis/input 并將分類文件夾 no 和 yes 的數(shù)據(jù)傳到hdfs上面。
數(shù)據(jù)文件格式,如D1文件內(nèi)容: Sunny Hot High Weak
2. 使用Mahout工具類進(jìn)行訓(xùn)練,得到訓(xùn)練模型。
3。將要檢測數(shù)據(jù)轉(zhuǎn)換成vector數(shù)據(jù)。
4. 分類器對vector數(shù)據(jù)進(jìn)行分類。
這三步,代碼我就一次全貼出來;主要是兩個(gè)類 PlayTennis1 和 BayesCheckData = =》
package myTesting.bayes;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.util.ToolRunner;
import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;
import org.apache.mahout.text.SequenceFilesFromDirectory;
import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;
public class PlayTennis1 {
private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";
/*
* 測試代碼
*/
public static void main(String[] args) {
//將訓(xùn)練數(shù)據(jù)轉(zhuǎn)換成 vector數(shù)據(jù)
makeTrainVector();
//產(chǎn)生訓(xùn)練模型
makeModel(false);
//測試檢測數(shù)據(jù)
BayesCheckData.printResult();
}
public static void makeCheckVector(){
//將測試數(shù)據(jù)轉(zhuǎn)換成序列化文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"testinput";
String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean參數(shù)是,是否遞歸刪除的意思
fs.delete(out, true);
}
SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();
String[] params = new String[]{"-i",input,"-o",output,"-ow"};
ToolRunner.run(sffd, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("文件序列化失敗!");
System.exit(1);
}
//將序列化文件轉(zhuǎn)換成向量文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";
String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean參數(shù)是,是否遞歸刪除的意思
fs.delete(out, true);
}
SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();
String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};
ToolRunner.run(svfsf, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("序列化文件轉(zhuǎn)換成向量失敗!");
System.out.println(2);
}
}
public static void makeTrainVector(){
//將測試數(shù)據(jù)轉(zhuǎn)換成序列化文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"input";
String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean參數(shù)是,是否遞歸刪除的意思
fs.delete(out, true);
}
SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();
String[] params = new String[]{"-i",input,"-o",output,"-ow"};
ToolRunner.run(sffd, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("文件序列化失敗!");
System.exit(1);
}
//將序列化文件轉(zhuǎn)換成向量文件
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";
String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";
Path in = new Path(input);
Path out = new Path(output);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean參數(shù)是,是否遞歸刪除的意思
fs.delete(out, true);
}
SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();
String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};
ToolRunner.run(svfsf, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("序列化文件轉(zhuǎn)換成向量失敗!");
System.out.println(2);
}
}
public static void makeModel(boolean completelyNB){
try {
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";
String model = WORK_DIR+Path.SEPARATOR+"model";
String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";
Path in = new Path(input);
Path out = new Path(model);
Path label = new Path(labelindex);
FileSystem fs = FileSystem.get(conf);
if(fs.exists(in)){
if(fs.exists(out)){
//boolean參數(shù)是,是否遞歸刪除的意思
fs.delete(out, true);
}
if(fs.exists(label)){
//boolean參數(shù)是,是否遞歸刪除的意思
fs.delete(label, true);
}
TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();
String[] params =null;
if(completelyNB){
params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};
}else{
params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};
}
ToolRunner.run(tnbj, params);
}
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("生成訓(xùn)練模型失敗!");
System.exit(3);
}
}
}
package myTesting.bayes;
import java.io.IOException;
import java.util.HashMap;
import java.util.Map;
import org.apache.commons.lang.StringUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.PathFilter;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.mahout.classifier.naivebayes.BayesUtils;
import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;
import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;
import org.apache.mahout.common.Pair;
import org.apache.mahout.common.iterator.sequencefile.PathType;
import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;
import org.apache.mahout.math.RandomAccessSparseVector;
import org.apache.mahout.math.Vector;
import org.apache.mahout.math.Vector.Element;
import org.apache.mahout.vectorizer.TFIDF;
import com.google.common.collect.ConcurrentHashMultiset;
import com.google.common.collect.Multiset;
public class BayesCheckData {
private static StandardNaiveBayesClassifier classifier;
private static Map<String, Integer> dictionary;
private static Map<Integer, Long> documentFrequency;
private static Map<Integer, String> labelIndex;
public void init(Configuration conf){
try {
String modelPath = "/zhoujianfeng/playtennis/model";
String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";
String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";
String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";
dictionary = readDictionnary(conf, new Path(dictionaryPath));
documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));
labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));
NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);
classifier = new StandardNaiveBayesClassifier(model);
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
System.out.println("檢測數(shù)據(jù)構(gòu)造成vectors初始化時(shí)報(bào)錯(cuò)。。。。");
System.exit(4);
}
}
/**
* 加載字典文件,Key: TermValue; Value:TermID
* @param conf
* @param dictionnaryDir
* @return
*/
private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {
Map<String, Integer> dictionnary = new HashMap<String, Integer>();
PathFilter filter = new PathFilter() {
@Override
public boolean accept(Path path) {
String name = path.getName();
return name.startsWith("dictionary.file");
}
};
for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {
dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());
}
return dictionnary;
}
/**
* 加載df-count目錄下TermDoc頻率文件,Key: TermID; Value:DocFreq
* @param conf
* @param dictionnaryDir
* @return
*/
private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {
Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();
PathFilter filter = new PathFilter() {
@Override
public boolean accept(Path path) {
return path.getName().startsWith("part-r");
}
};
for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {
documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());
}
return documentFrequency;
}
public static String getCheckResult(){
Configuration conf = new Configuration();
conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));
String classify = "NaN";
BayesCheckData cdv = new BayesCheckData();
cdv.init(conf);
System.out.println("init done...............");
Vector vector = new RandomAccessSparseVector(10000);
TFIDF tfidf = new TFIDF();
//sunny,hot,high,weak
Multiset<String> words = ConcurrentHashMultiset.create();
words.add("sunny",1);
words.add("hot",1);
words.add("high",1);
words.add("weak",1);
int documentCount = documentFrequency.get(-1).intValue(); // key=-1時(shí)表示總文檔數(shù)
for (Multiset.Entry<String> entry : words.entrySet()) {
String word = entry.getElement();
int count = entry.getCount();
Integer wordId = dictionary.get(word); // 需要從dictionary.file-0文件(tf-vector)下得到wordID,
if (StringUtils.isEmpty(wordId.toString())){
continue;
}
if (documentFrequency.get(wordId) == null){
continue;
}
Long freq = documentFrequency.get(wordId);
double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);
vector.setQuick(wordId, tfIdfValue);
}
// 利用貝葉斯算法開始分類,并提取得分最好的分類label
Vector resultVector = classifier.classifyFull(vector);
double bestScore = -Double.MAX_VALUE;
int bestCategoryId = -1;
for(Element element: resultVector.all()) {
int categoryId = element.index();
double score = element.get();
System.out.println("categoryId:"+categoryId+" score:"+score);
if (score > bestScore) {
bestScore = score;
bestCategoryId = categoryId;
}
}
classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";
return classify;
}
public static void printResult(){
System.out.println("檢測所屬類別是:"+getCheckResult());
}
}