热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

海量数据分类liblinear使用总结

liblinear使用总结liblinear是libsvm的线性核的改进版本,专门适用于百万数据量的分类。正好适用于我这次数据挖掘的实验。liblinear用法和li



liblinear使用总结

liblinear是libsvm的线性核的改进版本,专门适用于百万数据量的分类。正好适用于我这次数据挖掘的实验。

 

liblinear用法和libsvm很相似,我是用的是.exe文件,利用python的subprocess向控制台发送命令即可完成本次试验。

 

其中核心两句即

train train.txt

predict test.txt train.txt.model output.txt

 

由于是线性核,没有设置参数c、g

 

对于50W篇文章模型训练仅需340秒,50W篇文章的预测仅需6秒

 

1 from subprocess import *
2 import time
3
4 time = time.time
5
6 start_time = time()
7 print("训练")
8 cmd = "train train.txt"
9 Popen(cmd, shell = True, stdout = PIPE).communicate()
10 print("训练结束",str(time() - start_time))
11
12
13 start_time = time()
14 print("预测")
15 cmd = "predict test.txt train.txt.model output.txt"
16 Popen(cmd, shell = True).communicate()
17 print("预测结束",str(time() - start_time))
18
19
20 #进行统计
21 #读测试集真实label
22 start_time = time()
23 print("统计")
24 test_filename = "test.txt"
25 f = open(test_filename,"r",encoding = "utf-8")
26 real_class = []
27 for line in f:
28 real_class.append(line[0])
29
30 #总样本
31 total_sample = len(real_class)
32
33 #读预测结果label
34 predict_filename = "output.txt"
35 f_predict = open(predict_filename,"r",encoding = "utf-8")
36 s = f_predict.read()
37 predict_class = s.split()
38
39 #对预测正确的文章进行计数
40 T = 0
41 for real, predict in zip(real_class,predict_class):
42 if int(real) == int(predict):
43 T += 1
44 accuracy = T / total_sample * 100
45 print("正确率 为", str(accuracy) + "%")
46
47
48 # class_label = ["0","1","2","3","4","5","6","7","8","9"]
49 num_to_cate = {0:"it",1:"体育",2:"军事",3:"金融",4:"健康",5:"汽车",6:"房产",7:"文化",8:"教育",9:"娱乐"}
50
51 class_label = ["it","体育","军事","金融","健康","汽车","房产","文化","教育","娱乐"]
52
53 predict_precision = dict.fromkeys(class_label,1.0)
54 predict_true = dict.fromkeys(class_label,1.0)
55
56 predict_recall = dict.fromkeys(class_label,1.0)
57 predict_F = dict.fromkeys(class_label,0.0)
58 # print(str(predict_precision))
59 # print(str(predict_precision))
60 # print(str(predict_recall))
61 # print(str(predict_true))
62 mat = dict.fromkeys(class_label,{})
63 for k,v in mat.items():
64 mat[k] = dict.fromkeys(class_label,0)
65
66 # print(str(mat))
67
68 for real, predict in zip(real_class,predict_class):
69 real = int(real)
70 predict = int(predict)
71 # print(num_to_cate[real])
72 # print(num_to_cate[predict])
73 mat[num_to_cate[real]][num_to_cate[predict]] += 1
74 predict_precision[num_to_cate[predict]] += 1
75 predict_recall[num_to_cate[real]] += 1
76
77 if int(real) == int(predict):
78 predict_true[num_to_cate[predict]] += 1
79
80 # print(str(predict_precision))
81 # print(str(predict_recall))
82 # print(str(predict_true))
83
84 #输出混淆矩阵
85 for k, v in mat.items():
86 print(k + ":" + str(v))
87
88 #计算精确率和召回率
89 for x in range(len(class_label)):
90 # x = str(x)
91 predict_precision[num_to_cate[x]] = predict_true[num_to_cate[x]] / predict_precision[num_to_cate[x]]
92 predict_recall[num_to_cate[x]] = predict_true[num_to_cate[x]] / predict_recall[num_to_cate[x]]
93
94 # print(str(predict_precision))
95 # print(str(predict_recall))
96 # print(str(predict_true))
97
98 #计算F测度
99 for x in range(len(class_label)):
100 # x = str(x)
101 predict_F[num_to_cate[x]] = 2 * predict_recall[num_to_cate[x]] * predict_precision[num_to_cate[x]] / (predict_precision[num_to_cate[x]] + predict_recall[num_to_cate[x]])
102
103 print("统计结束",str(time() - start_time))
104 print("精确率为",str(predict_precision))
105 print("召回率为",str(predict_recall))
106 print("F测度为",str(predict_F))
107
108 print("保存结果")
109 final_result_filename = "./finalresult.txt"
110 f = open(final_result_filename,"w",encoding = "utf-8")
111 for k, v in mat.items():
112 f.write(k + ":" + str(v) + "\n")
113
114 f.write("\n")
115 f.write("正确率为" + str(accuracy) + "%" + "\n\n")
116 f.write("精确率为" + str(predict_precision) + "\n\n")
117 f.write("召回率为" + str(predict_recall) + "\n\n")
118 f.write("F测度为" + str(predict_F) + "\n\n")
119 print("保存结果结束")
120
121
122 # cate_to_num = {"it":0,"体育":1,"军事":2,"华人":3,"国内":4,"国际":5,"房产":6,"文娱":7,"社会":8,"财经":9}
123 # num_to_cate = {0:"it",1:"体育",2:"军事",3:"华人",4:"国内",5:"国际",6:"房产",7:"文娱",8:"社会",9:"财经"}


原文:https://www.cnblogs.com/anqiang1995/p/7955672.html


liblinear是一个适用于大规模数据集的线性分类器,可处理多分类问题。

参考:使用教程英文版:点击打开链接

          使用案例(代码):点击打开链接

          libsvm使用:点击打开链接

介绍:

        关于参数以及什么时候该使用:点击打开链接

        github地址:点击打开链接

        readme翻译:点击打开链接

 建议的训练步骤(来源于libSVM,感觉对这个也有帮助,所以也标记在这):

1)将我们的训练数据和测试数据转换为该SVM软件包支持的格式;

2)对数据进行简单的尺度化scale;

3)先考虑用RBF核;

4)使用交叉检验方法去寻找最优的参数C和γ;

5)使用找到的最好的参数C和γ来训练整个训练集;

6)在测试集上测试。



需要注意的是,一定要先把数据处理成要求的格式,即如下这种格式:

标签 1:特征1值 2:特征2值

一个简单的例子:

1 from liblinearutil import *

2 读取数据

  y,x  =  svm_read_problem('data_path')

3 训练

  m = train(y,x,'option')#option为设置 比如: -s 2 -c 5 -q

3 也可以做交叉验证

  CV_ACC = train(y, x, '-v 3')
  # -v 3 是指进行3-fold的交叉验证
  # 返回的是交叉验证的准确率

4 预测并输出准确率

  frbs, p_acc, p_vals = predict(y, x, m, '-b 0')

其中:

# y是testing data的真实标签,用于计算准确率
# x是待预测样本
# p_labs: 预测出来的标签
# p_acc: tuple类型,包括准确率,MSE,Squared correlation coefficient(平方相关系数)
# p_vals: list, 直接由模型计算出来的值,没有转化成1,0的值,也可以看做是概率估计值



备注:

在结果中,#iter表示迭代次数,Objective value 为SVM文件转换为的二次规划求解得到的最小值,nSV 为标准支持向量个数(0






推荐阅读
  • 基于dlib的人脸68特征点提取(眨眼张嘴检测)python版本
    文章目录引言开发环境和库流程设计张嘴和闭眼的检测引言(1)利用Dlib官方训练好的模型“shape_predictor_68_face_landmarks.dat”进行68个点标定 ... [详细]
  • 超级简单加解密工具的方案和功能
    本文介绍了一个超级简单的加解密工具的方案和功能。该工具可以读取文件头,并根据特定长度进行加密,加密后将加密部分写入源文件。同时,该工具也支持解密操作。加密和解密过程是可逆的。本文还提到了一些相关的功能和使用方法,并给出了Python代码示例。 ... [详细]
  • 本文介绍了Python爬虫技术基础篇面向对象高级编程(中)中的多重继承概念。通过继承,子类可以扩展父类的功能。文章以动物类层次的设计为例,讨论了按照不同分类方式设计类层次的复杂性和多重继承的优势。最后给出了哺乳动物和鸟类的设计示例,以及能跑、能飞、宠物类和非宠物类的增加对类数量的影响。 ... [详细]
  • 第四章高阶函数(参数传递、高阶函数、lambda表达式)(python进阶)的讲解和应用
    本文主要讲解了第四章高阶函数(参数传递、高阶函数、lambda表达式)的相关知识,包括函数参数传递机制和赋值机制、引用传递的概念和应用、默认参数的定义和使用等内容。同时介绍了高阶函数和lambda表达式的概念,并给出了一些实例代码进行演示。对于想要进一步提升python编程能力的读者来说,本文将是一个不错的学习资料。 ... [详细]
  • 颜色迁移(reinhard VS welsh)
    不要谈什么天分,运气,你需要的是一个截稿日,以及一个不交稿就能打爆你狗头的人,然后你就会被自己的才华吓到。------ ... [详细]
  • 本文介绍了在处理不规则数据时如何使用Python自动提取文本中的时间日期,包括使用dateutil.parser模块统一日期字符串格式和使用datefinder模块提取日期。同时,还介绍了一段使用正则表达式的代码,可以支持中文日期和一些特殊的时间识别,例如'2012年12月12日'、'3小时前'、'在2012/12/13哈哈'等。 ... [详细]
  • Python爬虫中使用正则表达式的方法和注意事项
    本文介绍了在Python爬虫中使用正则表达式的方法和注意事项。首先解释了爬虫的四个主要步骤,并强调了正则表达式在数据处理中的重要性。然后详细介绍了正则表达式的概念和用法,包括检索、替换和过滤文本的功能。同时提到了re模块是Python内置的用于处理正则表达式的模块,并给出了使用正则表达式时需要注意的特殊字符转义和原始字符串的用法。通过本文的学习,读者可以掌握在Python爬虫中使用正则表达式的技巧和方法。 ... [详细]
  • Hibernate延迟加载深入分析-集合属性的延迟加载策略
    本文深入分析了Hibernate延迟加载的机制,特别是集合属性的延迟加载策略。通过延迟加载,可以降低系统的内存开销,提高Hibernate的运行性能。对于集合属性,推荐使用延迟加载策略,即在系统需要使用集合属性时才从数据库装载关联的数据,避免一次加载所有集合属性导致性能下降。 ... [详细]
  • 本文介绍了一个Python函数same_set,用于判断两个相等长度的数组是否包含相同的元素。函数会忽略元素的顺序和重复次数,如果两个数组包含相同的元素,则返回1,否则返回0。文章还提供了函数的具体实现代码和样例输入输出。 ... [详细]
  • 本文讨论了如何使用GStreamer来删除H264格式视频文件中的中间部分,而不需要进行重编码。作者提出了使用gst_element_seek(...)函数来实现这个目标的思路,并提到遇到了一个解决不了的BUG。文章还列举了8个解决方案,希望能够得到更好的思路。 ... [详细]
  • Python的参数解析argparse模块的学习
    本文介绍了Python中参数解析的重要模块argparse的学习内容。包括位置参数和可选参数的定义和使用方式,以及add_argument()函数的详细参数关键字解释。同时还介绍了命令行参数的操作和可接受数量的设置,其中包括整数类型的参数。通过学习本文内容,可以更好地理解和使用argparse模块进行参数解析。 ... [详细]
  • python中安装并使用redis相关的知识
    本文介绍了在python中安装并使用redis的相关知识,包括redis的数据缓存系统和支持的数据类型,以及在pycharm中安装redis模块和常用的字符串操作。 ... [详细]
  • Python中的PyInputPlus模块原文:https ... [详细]
  • 在本教程中,我们将看到如何使用FLASK制作第一个用于机器学习模型的RESTAPI。我们将从创建机器学习模型开始。然后,我们将看到使用Flask创建AP ... [详细]
  • 很多时候在注册一些比较重要的帐号,或者使用一些比较重要的接口的时候,需要使用到随机字符串,为了方便,我们设计这个脚本需要注意 ... [详细]
author-avatar
dcwzyb_271
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有