首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    J. Phys. Chem. C | 基于自然语言处理的材料化学文本数据库

    今天为大家介绍的是来自Kamal Choudhary团队的一篇论文。在这项工作中,作者介绍了ChemNLP库,它可用于以下方面:(1)整理材料和化学文献的开放访问数据集,开发和比较传统机器学习、transformer和图神经网络模型,用于(2)对文本进行分类和聚类,(3)进行大规模文本挖掘的命名实体识别,(4)生成摘要以从摘要中生成文章标题,(5)通过标题生成文本以建议摘要,(6)与密度泛函理论数据集集成,以识别潜在的候选材料,如超导体,以及(7)开发用于文本和参考查询的网络界面。作者主要使用公开可用的arXiv和PubChem数据集,但这些工具也可以用于其他数据集。此外,随着新模型的开发,它们可以轻松集成到该库中。

    03

    MatSci-NLP: 释放自然语言处理在材料科学中的力量

    今天我们介绍由蒙特利尔大学MILA - Quebec人工智能机构的Yu Song发表在arXiv上的工作,该工作提出了MatSci-NLP,用于评估自然语言处理(NLP)模型在材料科学文本上的性能的自然语言基准。该工作从公开可用的材料科学文本数据构建基准,以涵盖七个不同的NLP任务,包括传统的NLP任务(如命名实体识别和关系分类)以及特定于材料科学的NLP任务(如合成动作检索以及涉及创建材料的合成程序)。研究了在不同科学文本语料库上预训练的基于BERT的模型,以了解预训练策略对理解材料科学文本的影响。在低资源训练设置下的实验表明,在科学文本上预训练的语言模型优于在一般文本上训练的BERT。此外,该工作提出了一种统一的文本到模式的MatSci-NLP多任务学习方法,并将其性能与专门针对材料科学期刊进行预训练的模型MatBERT进行了比较。在对不同训练方法的分析中,发现提出的受问答启发的文本到图式方法始终优于单任务和多任务NLP微调方法。

    02

    CMU邢波教授:基于双向语言模型的生物医学命名实体识别,无标签数据提升NER效果

    【导读】生物医学文本挖掘领域近年来受到越来越多的关注,这得益于,科学文章,报告,医疗记录的电子化,使医疗数据更容易得到。这些生物医学数据包含许多生物和医学实体,如化学成分,基因,蛋白质,药物,疾病,症状等。在文本集合中准确识别这些实体是生物医学文本挖掘领域信息抽取系统的一个非常重要的任务,因为它有助于将文本中的非结构化信息转换为结构化数据。搜索引擎可以使用这种识别的实体来索引,组织和链接医学文档,这可以改善医疗信息检索效率。 实体的标识也可以用于数据挖掘和从医学研究文献中提取。例如,可以提取存储在关系数据库

    07

    Chem. Sci. | 微调语言大模型,深挖化学数据矿

    化学文献中蕴含着丰富信息,通过“化学文本挖掘技术”提取关键数据,从而构建庞大的数据库,不仅能够为实验化学家提供详尽的物理化学性质和合成路线指引,还能够为计算化学家提供丰富的数据和洞见用于模型构建和预测。然而,由于化学语言的复杂性和论文风格的多样性,从化学文献中提取结构化数据是一项极具挑战性的任务。因此,许多文本挖掘工具应运而生,旨在解决这一棘手难题,助力科学研究迈向新的高峰。然而,这些针对特定数据集和语法规则构建的文本提取模型往往缺乏灵活的迁移能力。近两年,以ChatGPT为代表的大语言模型(LLMs)风靡全球,引领了人工智能和自然语言处理领域的快速发展。能否利用通用大语言模型强大的文本理解和文字处理能力,从复杂化学文本中灵活准确地提取信息,解放数据标注工人的劳动力,加速领域数据的收集呢?

    01

    LLMs大模型在金融投资领域的15个具体应用场景

    传统的股票时间序列预测主要依赖统计和计量经济学方法,如自回归滑动平均模型(ARMA-GARCH)、向量自回归模型(VAR)、状态空间模型、扩散模型和误差修正向量模型(VECM)。这些模型通过识别金融系列中的模式和波动性,对市场进行分析和预测。随着机器学习的发展,决策树、支持向量机(SVM)等方法逐渐受到重视。近年来,深度学习技术如循环神经网络(RNN)、卷积神经网络(CNN)和Transformer模型的应用显著提升了股票时间序列预测的精度和效率。GPT-3、GPT-4和LLaMA等大型语言模型在解析复杂数据关系方面表现出色,推动了时间序列数据转化为文本序列的创新。

    01
    领券