首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

Bioinformatics | BERT4Bitter:改进苦味肽预测的基于Transformer(BERT)模型的双向编码器

今天给大家介绍的是玛希多大学数据挖掘和生物医学信息学中心发表在Bioinformatics上的文章“BERT4Bitter: a bidirectional encoder representations from transformers (BERT)-based model for improving the prediction of bitter peptides”众所周知,许多药物固有地具有苦味,并且强烈的努力旨在淡化苦味以改善味道,从而改善药物摄入的依从性,因此,开发用于预测肽苦味的快速和准确的鉴定工具是药物开发和营养研究中的重要组成部分。目前只有一种计算方法,即iBitter-SCM,交互验证和独立测试集的准确率分别为0.871和0.844。虽然iBitter-SCM产生了相当高的预测精度,但它的整体预测性能仍有改进的空间,因此非常希望开发一种新的基于机器学习的预测器。本研究提出BERT苦味方法作为第一个基于Transformer(BERT)的预测苦味肽的双向编码器表示。在本研究中,每个肽序列被视为基于自然语言处理技术的句子,其中20个氨基酸中的每一个都被视为单词DSDFF自动生成特征描述符,而不需要特征编码的系统设计和选择。

02

将句子表示为向量(上):无监督句子表示学习(sentence embedding)

word embedding技术如word2vec,glove等已经广泛应用于NLP,极大地推动了NLP的发展。既然词可以embedding,句子也应该可以(其实,万物皆可embedding,Embedding is All You Need ^_^)。近年来(2014-2018),许多研究者在研究如何进行句子表示学习,从而获得质量较高的句子向量(sentence embedding)。事实上,sentence embedding在信息检索,句子匹配,句子分类等任务上均有广泛应用,并且上述任务往往作为下游任务来评测sentence embedding的好坏。本文将介绍如何用无监督学习方法来获取sentence embedding,是对近期阅读的sentence embedding论文笔记的总结(https://github.com/llhthinker/NLP-Papers#distributed-sentence-representations)。欢迎转载,请保留原文链接https://www.cnblogs.com/llhthinker/p/10335164.html

02
领券