本项目重点在于,实际上我们是可以通过非常非常简单的几行代码,就能实现一个几乎达到SOTA的模型的。...import tensorflow as tf
import tensorflow_hub as hub
x = [
['我爱你'],
['我恨你'],
['爱你'],...['恨你'],
['爱'],
['恨'],
]
y = [
1, 0, 1, 0, 1, 0
]
tx = tf.constant(x)
ty = tf.constant(tf.keras.utils.to_categorical...爱, 你, [SEP],所以一共5个符号
y = model([['我爱你']])
BERT预测模型(PRED)
例如使用mask预测缺字
import tensorflow_hub as hub...MASK]你']])
index2word = {k: v.strip() for k, v in enumerate(open('vocab.txt'))}
# 我 爱 你
r = [index2word