下面是我的代码:
import sklearn
#features = [[140,"smooth"],[130,"smooth"],[150,"bumpy"],[170,"bumpy"]]
#labels = ["apple","apple","orange","orange"]
# Now replace 1 for smooth & 0 for bumpy and 0 for apple & 1 for orange
features = [[
我想找一个句子的观点,无论是积极的还是消极的。例如,只谈一句。
The play was awesome
如果将其更改为向量形式
[0,0,0,0]
在搜索了一袋文字之后
bad
naughty
awesome
向量形式变成
[0,0,0,1]
其他句子也一样。现在我想把它传递给机器学习算法来训练它。,我怎么能用这些多向量来训练网络呢?(为了找出看不见的句子的观点)显然不行!因为输入在神经网络中是固定的。有办法吗?以上的程序就是我的想法。如果我错了,请纠正我。提前谢谢。
我有一个关于朴素贝叶斯分类器的理论问题。假设我已经用以下训练数据训练了分类器:
class word count
-----------------
pos good 1
sun 1
neu tree 1
neg bad 1
sad 1
假设我现在将其归类为“好太阳”。现在有两个选项:
1)根据训练数据进行分类,训练数据保持静态。意思是“好的”和“太阳”都来自积极的类别,将这个字符串分类为积极的。分类后,训练表保持不变。因此,根据训练数据的静态集合对所有字符串进行分类。
2)对字符串进行分类,然后更新训练数据,如下表所示。因此,下一个字符串
我在两台不同的机器上训练相同的模型,但训练的模型并不相同。我已采取下列措施确保再现性:
# set random number
random.seed(0)
torch.cuda.manual_seed(0)
np.random.seed(0)
# set the cudnn
torch.backends.cudnn.benchmark=False
torch.backends.cudnn.deterministic=True
# set data loader work threads to be 0
DataLoader(dataset, num_works=0)
当我在同一台机器上多次