最近两篇文章的增粉数量,比我过去一年都多,感谢各位朋友的转发和推荐,无以为报,只能加快更新干货的速度。
顺祝各位朋友圣诞快乐!
传统的ASO流程,大致分为以下几步:
1、挖词。
按照品牌词-关联词-竞品词-竞品关键词的思路发掘理想的高相关性关键词。
2、选词。
选择低竞争度,高搜索量的搜索词作为核心,比如搜索量为4605(iOS中4605相当于百度的搜索量为1)到5500。
3、筛词,上传。
根据以上关键词,手工筛选出ASO所需300个关键词字符,每个本地化渠道可以上传100字符(简体中文、英文(英国)、英文(澳大利亚)),以上3个渠道是对中文ASO覆盖数有效的本地化渠道。
流程上没什么问题,但是效率很慢,曾经看过一篇文章叫8小时完成ASO优化,如果会一点点python,可能这个时间,会缩短到1小时。
使用python后的ASO流程:
1、挖词。
以教育榜为例,导出七麦数据中top10 APP所有ASO关键词数据,如图所示,比如驾考、小说、彩票、吉他其实不属于目标APP,予以排除,优先处理其他APP的ASO数据。
2、词频统计。
以英语流利说APP为例,导出词库数据。
利用词频脚本进行词频筛选和导出,结果如下:
3、筛词。
词频进行排列组合和去重操作,组成最终关键字符。
4、重复以上导词动作,聚合到一个xlsx格式的文件中,统一进行词频统计操作。
5、上传到App Store,过程,略。
本篇词频统计python脚本分享:
注意:
1>需要通过pip命令安装xlrd、jieba、pandas三个库。
2>需要手动建立“原始词库.xlsx”这个文件,并且只将关键词这一列数据放入文件中,保存后关闭,再执行python脚本,才能正常生成“输出词频.xlsx”文件。
3>此脚本除了用于做ASO以外,还可以用作各种词频分析,是一个宝藏级的脚本。
#! /usr/bin/env python
# -*- coding: utf-8 -*-
importxlrd
importjieba
importpandasaspd
# ### 写入文件地址
# * 创建一个空字典
file_path='原始词库.xlsx'
word_dict={}
# ### 打开文件
# * 按照index进行读取数据
book = xlrd.open_workbook(file_path)
sheet= book.sheet_by_index()
rows = sheet.nrows
# ### 按行读取数据,并使用jieba进行分词
# * 将分词结果通过循环写入字典
forrowinrange(1,rows):
values = sheet.row_values(row)
jieba_texts=list(jieba.cut_for_search(values[]))
foriteminjieba_texts:
ifitemnot inword_dict:
word_dict[item]=1
else:
word_dict[item]+=1
# ### 将字典转化为dataframe并进行行列转置
# * 最后利用pandas写入excel
df=pd.DataFrame(word_dict,index=[1])
df=df.stack()
df.to_excel('输出词频.xlsx')
END
薄荷SEO
ID:boheseo
领取专属 10元无门槛券
私享最新 技术干货