时光荏苒,这个故事发生在4年前,那时候我头发可真厚,坐地铁也不用戴口罩。
友圈一位要做毕设的小姐姐在求助postman怎么用,我就帮她解答了一下。
我知道她并非计算机相关专业,所以很奇怪为什么要用postman。
原来她的毕设是要基于微博上最近10年关于房价的话题数据,来做分析,做未来房价的走势预测,训练模型。
她经过一番调研之后决定用某平台的「语言处理技术」,实现基础数据的语义分析,即:情感极性分类结果,0负向、1中性、2正向。
官方提供的是基于postman的演示demo,虽然对咱们专业人士来讲很简答,但是对学文科的小姐姐还是有一定门槛的。
我教会小姐姐怎么用postman之后,问了她一个问题:
你虽然知道了postman怎么用,能查询每条数据的语义分析结果。
但是微博关于房价的数据有几十万条,你总不能用postman一条一条来操作吧!?
小姐姐蒙了
我告诉小姐姐不用担心,可以用编程轻松解决,比如Go、Python、Java、PHP都是可以的。
但是沟通下来发现小姐姐对编程并不感冒,虽然之前有学过,但是短时间内实现需求恐怕很困难。
是时候展示真正的技术了:
于是,我帮她搭建了基于某平台AI开放平台的批量语义识别的系统,也算进行了某平台【语言处理技术】的开箱测试。
为了方便小姐姐理解,于是,我整理了下面的内容:
考虑到小姐姐并不是很懂编程,所以要以最简单的方式来实现需求:
(别问我为啥没用Go,毕竟这个故事起码3年前,哈哈哈)
说干就干,马上开始搞
小姐姐已经通过某宝拿到了20W+关于房价的微博数据,现在需要做的就是基于语义分析来获得这20W+数据集对房价走势的判断。
小姐姐也是思路广啊~
注意:要做好表格源字段和目标字段的匹配
考虑到小姐姐最终目的是训练模型,而非学习编程,所以搭建开发环境就怎么简单怎么来了。
所以我就推荐她使用「LNMP一键安装包」,10几分钟左右就把LNMP环境搭建好了
mysql语句中 liuXX 是数据库名 semantic_analysis是表名
使用do while循环,批量循环请求某平台AI语义分析接口,查询positive_prob=0的数据(即未进行语义分析的数据)。
当查询不到数据时,说明所有数据已经成功请求某平台语义分析接口,且将返回结果更新到数据表中。
每次查询之后都会休眠1秒,因为免费版的某平台语义分析接口有QPS限制,避免出现无效请求
文件名:batchProcessing.php
<?php
ini_set('memory_limit', '256M'); //内存管理
include '../include/ConfigLiuxx.php'; //引入数据配置文件
include '../include/Db.php';//引入db数据库
include '../include/Logger.php';//引入log文件
include '../include/Request.php';//引入 http请求文件
define('Index_table', 'semantic_analysis'); //设置数据表名 语义分析
$db_liuxx = new Db($db_liuxx); //引入db配置文件
/**
* 某平台语义分析脚本
*/
$access_token = "xxxxxxxxxxx"; //某平台提供的token
$url = 'https://aip.baidubce.com/rpc/2.0/nlp/v1/sentiment_classify?charset=UTF-8&access_token=' . $access_token; //按某平台要求拼接请求url
$limit = 10;
$offset = 0;
do {
$datas = $db_liuxx->get_all('select * from liuxx.semantic_analysis WHERE positive_prob = 0 order by id desc limit ' . $offset . ',' . $limit);
foreach ($datas as $key => $value) {
$id = $value['id'];
$text = $value['text'];
$params = ['text' => $text];
$bodys = json_encode($params);
$response = request_post($url, $bodys);
$res_data = json_decode($response, true);
if ($res_data['error_code'] == 282131) {
$db_liuxx->query('delete from liuxx.semantic_analysis WHERE id = ' . $id);
var_dump($id . ' 文本过长 删除');
}
echo 'id:';
var_dump('某平台返回:');
var_dump($res_data);
$data = [
'positive_prob' => $res_data['items'][0]['positive_prob'],
'confidence' => $res_data['items'][0]['confidence'],
'negative_prob' => $res_data['items'][0]['negative_prob'],
'sentiment' => $res_data['items'][0]['sentiment'],
'ctime' => time(),
];
if ($data['positive_prob']) {
var_dump($data);
//更新条件
$condition = 'id = ' . $id;
$res = $db_liuxx->query('update liuxx.semantic_analysis set positive_prob = ' . $data['positive_prob'] . ', confidence = ' . $data['confidence'] . ', negative_prob = ' . $data['negative_prob'] . ', sentiment = ' . $data['sentiment'] . ' where id = ' . $id);
var_dump($res);
} else {
var_dump('某平台未返回结果');
};
}
sleep(1);
} while (!empty($datas)); //能查到数据就一直循环
?>
/**
* 发起http post请求(REST API), 并获取REST请求的结果
* @param string $url
* @param string $param
* @return - http response body if succeeds, else false.
*/
function request_post($url = '', $param = '')
{
if (empty($url) || empty($param)) {
return false;
}
$postUrl = $url;
$curlPost = $param;
// 初始化curl
$curl = curl_init();
// 抓取指定网页
curl_setopt($curl, CURLOPT_URL, $postUrl);
// 设置header
curl_setopt($curl, CURLOPT_HEADER, 0);
// 要求结果为字符串且输出到屏幕上
curl_setopt($curl, CURLOPT_RETURNTRANSFER, 1);
curl_setopt($curl, CURLOPT_SSL_VERIFYPEER, false);
// post提交方式
curl_setopt($curl, CURLOPT_POST, 1);
curl_setopt($curl, CURLOPT_POSTFIELDS, $curlPost);
// 运行curl
$data = curl_exec($curl);
curl_close($curl);
return $data;
}
nohup:表示脚本生成的log日志和打印信息输出到nohup.log文件中
&:表示脚本后台运行
nohup php batchProcessing.php &
脚本运行完毕后,即可在mysql中查询到经某平台语义分析接口处理过的数据,结果示例如下图:
通过Navcat工具,小姐姐就可以方便的将mysql数据结果导出到Excel。
以上骚操作,大概花了2个小时搞定,成就感爆棚。
当年的总结是:编程真的太有用了,帮了小姐姐大忙,收到了一大波赞,这种精神鼓励和涨工资差不多吧,怎么有舔狗嫌疑呢,哈哈哈。
今天的总结是:不管是用PHP还是Java、GO,更不用管什么框架。
“黑猫白猫,能抓耗子才是好猫”
“这个语言好,那个框架low,这些都不重要”
能帮你解决实际问题的编程语言才是好工具!
这篇文章也算回应一下最近有意和我讨论语言高下、框架优劣的朋友。
我确实无意在这类事情上花时间。
想起了“霍元甲”说的一句话:天下武功没有高下之分,只是习武之人有强弱之别。
如果一定要来个对比,大家投票吧。
所以开篇先设置了投票环节。
好了,今天的内容就到这里,感谢大家的观看。