前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >第二代身份证 验证

第二代身份证 验证

作者头像
全栈程序员站长
发布于 2022-09-14 06:43:17
发布于 2022-09-14 06:43:17
97600
代码可运行
举报
运行总次数:0
代码可运行

大家好,又见面了,我是你们的朋友全栈君。

今天,在盛大某网站注册的时候,身份证必填,但我又不想填真实身份证号码,于是随便编了串自认为合法的身份证号码,但是却马上被提示号码错误,由于响应速度极快,可以肯定不是联机校验正确性的,那也就是说第二代身份证除了大家都知道的几位表示生日和性别的规则以外,还有另外的自我校验规则。于是翻开页面源码查看,发现这段js没有被压缩,所以规则也很好懂。 就在这里给大家科普下,不知道是不是火星了,呵呵。 以下代码来自 这里,版权归盛大。当然,你也可以在 维基百科找到更详细的介绍和算法。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
iW = new Array(7,9,10,5,8,4,2,1,6,3,7,9,10,5,8,4,2,1);
iSum = 0;
for( i=0;i<17;i++){
    iC = v_card.charAt(i) ;
    iVal = parseInt(iC);
    iSum += iVal * iW[i];
}
iJYM = iSum % 11;
var sJYM = '';
if(iJYM == 0) sJYM = "1";
else if(iJYM == 1 ) sJYM = "0";
else if(iJYM == 2 ) sJYM = "x";
else if(iJYM == 3 ) sJYM = "9";
else if(iJYM == 4 ) sJYM = "8";
else if(iJYM == 5 ) sJYM = "7";
else if(iJYM == 6 ) sJYM = "6";
else if(iJYM == 7 ) sJYM = "5";
else if(iJYM == 8 ) sJYM = "4";
else if(iJYM == 9) sJYM = "3";
else if(iJYM == 10) sJYM = "2";
var cCheck = v_card.charAt(17).toLowerCase();
if( cCheck != sJYM ){
    return false; //对不上就是假号码
}
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
文章链接:http://luy.li/2011/01/01/sfzhm/

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/153637.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
BERT+PET方式数据处理
示例中 {MASK} 代表 [MASK] token 的位置,{textA} 代表评论数据的位置。
@小森
2024/06/07
980
Pytorch版本的BERT
BERT地址:https://github.com/google-research/bert
玖柒的小窝
2021/10/22
1.6K0
BERT+PET方式模型训练
@小森
2024/06/08
1410
BERT+PET方式模型训练
Huggingface🤗NLP笔记8:使用PyTorch来微调模型「初级教程完结撒花ヽ(°▽°)ノ」
在Huggingface官方教程里提到,在使用pytorch的dataloader之前,我们需要做一些事情:
beyondGuo
2021/10/20
2.1K0
BERT+P-Tuning文本分类模型
@小森
2024/06/09
1730
Huggingface🤗NLP笔记6:数据集预处理,使用dynamic padding构造batch
从这一集,我们就正式开始使用Transformer来训练模型了。今天的部分是关于数据集预处理。
beyondGuo
2021/10/08
5K2
Huawei Nezha实践指南
华为的哪吒模型已经面世有一阵子了,而网上一直没有关于哪吒模型的实践文章,所以我打算通过这份指南教会你如何使用nezha进行文本分类。(官网上有一份文本分类的示例代码,但是上千行的代码实在是不利用快速上手)
luxuantao
2021/03/28
1.2K0
BERT文本分类
本文使用的是RoBERTa-wwm-ext,模型导入方式参见https://github.com/ymcui/Chinese-BERT-wwm。由于做了全词遮罩(Whole Word Masking),效果相较于裸的BERT会有所提升。
luxuantao
2021/02/24
1.9K0
如何微调BERT模型进行文本分类
BERT(Bidirectional Encoder Representations from Transformers)在各种自然语言处理任务中提供了最前沿的结果在深度学习社区引起了轰动。德夫林等人。2018 年在 Google 使用英文维基百科和 BookCorpus 开发了 BERT,从那时起,类似的架构被修改并用于各种 NLP 应用程序。XL.net 是建立在 BERT 之上的示例之一,它在 20 种不同任务上的表现优于 BERT。在理解基于 BERT 构建的不同模型之前,我们需要更好地了解 Transformer 和注意力模型。
deephub
2022/01/21
2.6K0
如何微调BERT模型进行文本分类
“瘦身成功”的ALBERT,能取代BERT吗?
模型的创新点集中在了预训练过程,采用Masked LM和Next Sentence Prediction两种方法,分别捕捉词语和句子级别的表示。
量子位
2020/03/31
9590
“瘦身成功”的ALBERT,能取代BERT吗?
【关系抽取-R-BERT】加载数据集
该数据是SemEval2010 Task8数据集,数据,具体介绍可以参考:https://blog.csdn.net/qq_29883591/article/details/88567561
西西嘛呦
2021/03/16
1.5K0
Paddle 使用预训练模型 实现快递单信息抽取
填写快递单据可以直接把所有信息直接粘贴进客户端,客户端自动识别 省市、人名、电话等信息,分类填入,然后打印出来粘贴。无须人工填写,加快了作业效率。
Michael阿明
2021/09/06
5930
实体识别(4) -基于Bert进行商品标题实体识别[很详细]
比赛数据下载地址:商品标题实体识别 https://www.heywhale.com/home/competition/620b34ed28270b0017b823ad
致Great
2023/08/25
3500
BERT源码分析(二)
BERT的使用可以分为两个步骤:pre-training和fine-tuning。pre-training的话可以很好地适用于自己特定的任务,但是训练成本很高(four days on 4 to 16 Cloud TPUs),对于大对数从业者而言不太好实现从零开始(from scratch)。不过Google已经发布了各种预训练好的模型可供选择,只需要进行对特定任务的Fine-tuning即可。
zenRRan
2019/08/14
8770
NLP实战 | BERT文本分类及其魔改(附代码)
每天给你送来NLP技术干货! ---- 写在前面 本文主要介绍了两种文本分类模型:BERT文本分类基础模型,及基于Bert和TextCNN的魔改模型。在作者实际的有关文本分类的工作中取得了F1值超越Bert基础模型近4%的效果。 1. Baseline:Bert文本分类器 Bert模型是Google在2018年10月发布的语言模型,一经问世就横扫NLP领域11项任务的最优结果,可谓风头一时无二。 有关于Bert中transformer的模型细节,我们在此就不赘述了。感兴趣的朋友,可以看看《The Illus
zenRRan
2022/10/10
6.2K0
NLP实战 | BERT文本分类及其魔改(附代码)
​从零开始训练BERT模型
对于那些之前可能没有使用过 Transformer 模型(例如 BERT 是什么)的人,这个过程看起来有点像这样:
deephub
2021/07/23
1.8K0
​从零开始训练BERT模型
使用BERT进行文本分类
准备数据阶段主要需要用到的是datasets.Dataset 和transformers.AutoTokenizer。
lyhue1991
2023/09/05
7150
使用BERT进行文本分类
hugging face-基于pytorch-bert的中文文本分类
wget http://52.216.242.246/models.huggingface.co/bert/bert-base-uncased-vocab.txt
西西嘛呦
2020/12/22
3.9K0
hugging face-基于pytorch-bert的中文文本分类
通过Python实现ChatGPT4模型的微调来提高生成文本的质量
ChatGPT4是目前最先进的基于Transformer的语言模型之一,其在自然语言处理任务中表现良好。但是,由于如此之高的复杂性和大量的参数,ChatGPT4对于一些具体应用场景的优化可能达不到我们的预期。因此,微调(Fine-tune)是一种常用的技术,可以根据特定任务使用实际数据集进一步优化模型。
华科云商小彭
2023/10/13
7270
通过Python实现ChatGPT4模型的微调来提高生成文本的质量
用BERT做命名实体识别任务
本质上NER是一个token classification任务, 需要把文本中的每一个token做一个分类。
lyhue1991
2023/09/05
7400
用BERT做命名实体识别任务
推荐阅读
相关推荐
BERT+PET方式数据处理
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验