我对Scala比较陌生,以前一直使用R和MATLAB。我用Scala编写了以下代码。我用R和MATLAB编写了相同的代码,这两种代码都运行得很好,但由于我对Scala缺乏经验,下面的代码无法工作。
import breeze.linalg._
import breeze.numerics.exp
import scala.math.log
val data = breeze.stats.distributions.Uniform(0, 1)
val ep: DenseMatrix[Double] = DenseMatrix.rand(39, 3, data).t
val a = D
我正在尝试实现逻辑回归模型,但仍然将'nan‘值作为成本。我用多个数据集尝试了它,但它给出了相同的结果。不同的源给出的梯度下降的实现略有不同,所以我不确定这里的梯度实现是否正确。下面是完整的代码: import numpy as np
import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.model_selection import train_test_split
class LogisticRegression:
def __init__(self, lr=0.001, n_i
我正在调整逻辑回归的现有实现,但我不知道我做错了什么。
下面是我的实现:
from scipy.optimize import fmin_bfgs
import numpy as np
import pandas as pd
# With help from http://stackoverflow.com/questions/13794754/logistic-regression-using-scipy
# as well as https://bryantravissmith.com/2015/12/29/implementing-logistic-regression-from-scr
我正在构建一个tensorflow模型,在某些参数或特性被超过时,应该将输出作为0或1。我有训练数据集,我训练过模型,但是给出的一组数据预测是错误的。模型的精度仍为94%,预测是错误的。提前谢谢你的帮助。以下是代码:
import tensorflow as tf
import pandas as pd
import numpy as np
import os
import itertools
import tempfile
from tensorflow.python.framework import graph_util
#tf.logging.set_verbosity(tf.l
我正在使用以下tf.function修饰培训步骤:
@tf.function
def train_step(inputs, labels):
with tf.GradientTape(persistent=True) as tape:
predictions = model([X, F], training=True)
losses = [l_f(tf.expand_dims(labels[:,i], axis=-1), predictions[i]) for i, l_f in enumerate(loss_functions)]
gradie
我有一个特性列,它使用星火的VectorAssembler打包成向量向量,如下所示。data是输入DataFrame (类型为spark.sql.DataFrame)。
val featureCols = Array("feature_1","feature_2","feature_3")
val featureAssembler = new VectorAssembler().setInputCols(featureCols).setOutputCol("features")
val dataWithFeatures = fea
我试图在Logistic回归中找到系数
代码:
def fit(self, X, Y):
# number of data points in the dataset (number of rows) --> m
# number of input features in the dataset (number of columns) --> n
self.m, self.n = X.shape
self.no_of_iterations=1000
#initiating weight & bias value
我正在处理一个简单的逻辑回归问题。每个样本包含7423个特征。共4000个训练样本和1000个测试样本。Sklearn训练模型需要0.01秒,准确率达到97%,但Keras (TensorFlow后端)在50个时期后需要10秒才能达到同样的精度(即使一个时期也比sklearn慢20倍)。有人能解释这个巨大的鸿沟吗?
示例:
X_train: matrix of 4000*7423, 0.0 <= value <= 1.0
y_train: matrix of 4000*1, value = 0.0 or 1.0
X_test: matrix of 1000