首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
首页标签自然语言处理

#自然语言处理

自然语言处理(Natural Language Processing,简称NLP)是一种人工智能技术,它是指让计算机能够理解、处理和生成自然语言的能力

中国90%关键技术研究全球领先?警惕恶意“捧杀”

芯智讯

近日,国外一家智库基于“Tech Tracker”网站数据发布的一项“2003-2023年间关键技术跟踪报告”显示,在追踪的64项关键技术研究当中,中国已经有9...

2100

【NPL自然语言处理】带你迅速了解传统RNN模型

小言从不摸鱼

5710

【NLP自然语言处理】基于PyTorch深度学习框架构建RNN经典案例:构建人名分类器

小言从不摸鱼

数据下载地址: https://download.pytorch.org/tutorial/data.zip

13510

【NLP自然语言处理】文本特征处理与数据增强

小言从不摸鱼

10210

【NLP自然语言处理】文本的数据分析------迅速掌握常用的文本数据分析方法~

小言从不摸鱼

8110

【NLP自然语言处理】文本张量表示方法

小言从不摸鱼

数据来源:http://mattmahoney.net/dc/enwik9.zip

11710

【NLP自然语言处理】文本处理的基本方法

小言从不摸鱼

jieba是一个流行的中文分词工具,它能够将一段中文文本切分成有意义的词语。jieba是目前Python中最常用的中文分词库之一,具有简单易用、高效准确的特点。

9910

互联网十万个为什么之什么是自然语言处理?

linus_lin

自然语言处理通过对人类日常语言进行理解和响应,为人类带来更多的便利和创新。随着人工智能的不断发展,自然语言处理也逐渐融入到电商、文娱、公安、医疗、电力等各大行业...

5210

【机器学习】深度学习的现实应用——从图像识别到自然语言处理

空白诗

深度学习(Deep Learning)是一种基于人工神经网络的机器学习技术,通过构建多层神经网络模型来模拟人类大脑的思维方式。

6810

【机器学习】自然语言处理中的Transformer模型:深度解析与前沿发展

用户11173787

在自然语言处理(NLP)领域,随着数据量的爆炸性增长和计算能力的不断提升,模型的复杂度和性能也在持续演进。传统的循环神经网络(RNN)和卷积神经网络(CNN)在...

10110

【人工智能】Transformers之Pipeline(十五):总结(summarization)

LDG_AGI

pipeline(管道)是huggingface transformers库中一种极简方式使用大模型推理的抽象,将所有大模型分为音频(Audio)、计算机视觉(...

9910

【人工智能】Transformers之Pipeline(十三):填充蒙版(fill-mask)

LDG_AGI

‌Transformer‌是一种基于注意力的神经网络架构,而‌BERT‌是Transformer的一个具体应用实例,专注于自然语言处理任务。BERT利用了Tra...

16710

学习心得体会:深入探讨大语言模型的世界——读《自然语言处理:大模型理论与实践》(预览版)有感

用户11257536

《自然语言处理:大模型理论与实践》教材官网:https://nlp-book.swufenlp.group/

5800

【机器学习】神经网络的无限可能:从基础到前沿

用户11173787

在当今人工智能的浪潮中,神经网络作为其核心驱动力之一,正以前所未有的速度改变着我们的世界。从图像识别到自然语言处理,从自动驾驶到医疗诊断,神经网络的应用无处不在...

15810

大模型备案指导|最新生成式人工智能服务安全要求

众森企服

杭州众森企服科技有限公司 · 总经理 (已认证)

近日《生成式人工智能服务安全基本要求》正式发布,文件包括遵守法律法规、尊重社会公德、保护个人信息和隐私等,为人工智能开发者们设立明确的合规标准,也给与AI生成式...

16510

AI技术如何助力科技公司提升用户体验

hide

⑴ 信息总结:利用AI进行信息摘要,通过自然语言处理(NLP)和机器学习算法分析和浓缩文本数据,帮助用户快速获取关键信息。

13510

Transformer_ 现代自然语言处理的基石

DevKevin

在自然语言处理(NLP)的领域中,Transformer 模型因其卓越的性能和广泛的应用而备受关注。自 2017 年被引入以来,Transformer 已经成为...

8110

【AI大模型】Transformers大模型库(一):Tokenizer

LDG_AGI

这里的Transformers指的是huggingface开发的大模型库,为huggingface上数以万计的预训练大模型提供预测、训练等服务。

19210

同等参数中最强,在苹果15Pro上也能运行!谷歌又“卷”出了端侧小模型 Gemma 2 2B...

Coding X

在 AI 技术的快速发展下,语言模型的规模和能力也在不断壮大。从最初的几百万参数发展到如今动辄数十亿甚至数百亿参数的模型,每一次技术革新都伴随着巨大的计算资源需...

10410

大语言模型评测方法全面总结!

算法进阶

自2017年Transformer模型提出以来,自然语言处理研究逐步转向基于该框架的预训练模型,如BERT、GPT、BART和T5等。这些预训练模型与下游任务适...

14010
领券