], inds.iter().flat_map(|i| vals[*i].drain(..))
} 因为(据我所知)排出迭代器持有一个被FnMut捕获的可变引用(vals),你可以使用can't return that from the FnMut。但这看起来应该是可能的,因为直到排出迭代器被删除,闭包才会被再次调
我正在尝试实现AdaBoost算法,并将决策树桩作为弱学习器,尽管我不能完全理解此算法的结构。我正在学习维基百科页面上的算法- 由于算法是迭代的,我们从't in 1...T‘开始迭代,但是这个T到底是什么呢?它是数据集中样本的总数,还是可以拆分决策树桩的可能特征的数量?如果这是样本的数量,那么这是否意味着我们可能会在