tl;博士我想在Python中部署"live“模型的结果,尽管Salesforce爱因斯坦为R和做广告,但我只找到了对的支持。对于我们有限的R语言要求来说,Shiny太贵了。爱因斯坦R支持真的存在吗?
更新: Tableau有一个独立的解决方案,该解决方案来自爱因斯坦分析,它包含R和Python -参见下面的答案。不是一个功能丰富的直接竞争对手,但这不是我们的用例。
根据Salesforce Einstein Analytics Plus (又名Tableau CRM AI Analytics)的文档,数据科学家可以上传(操作)他们的Python、R和Matlab代码,如下所述:
(
因此,我将使用预先训练好的权重许可我的深度学习模型,以便部署给客户。此深度学习模型的使用将在此客户的服务器上完成。出于安全原因,我想知道我可以做些什么来混淆我的Python代码和模型,以使它更难,如果有人想要对其进行反向工程。 到目前为止,我已经使用Cython将我的Python脚本(用于处理数据和调用模型)编译成C语言。我还使用Making an executable in Cython制作了一个可执行文件。我还能做些什么来更好或更有效地进行模糊处理? 此外,我更关心的是混淆我的预训练模型的权重。我有ONNX和Tensorflow Lite格式的模型。保护我的模型(适用于ONNX和Tens
我正在尝试将一个.tflite部署到Firebase,以便从那里分发它。
我在上使用了迁移学习。然后,我遵循来转换模型.tflite格式。
这个模型在python解释器中给出了很好的效果,如果我和应用程序一起打包的话,它可以在Android上使用。
但是,我希望通过Firebase为模型提供服务,因此我使用将.tflite文件部署到Firebase。使用本教程,我得到了一个错误firebase_admin.exceptions.FailedPreconditionError: Cannot publish a model that is not verified.。
我在任何地方都找不到关于这
我在Azure DevOps中构建了一个持续集成/部署管道,以训练机器学习模型并将其部署到生产环境中。它使用Python中的Azure机器学习服务来设置一切,即训练模型,在机器学习工作空间中注册它,并将其部署为set服务。其中一个要求是,我需要在部署的the服务中使用多个模型。从Azure门户查看工作区时,将模型包含在已部署的when服务中是没有问题的。我的问题在于,在不知道模型名称的情况下,我不知道如何访问它们。 通常发生的情况如下所示: score.py from azureml.core.model import Model
from sklearn.externals import
我用keras (用于情感语音识别的LSTM分类器)与python一起构建了一个深度学习模型,它在本地工作得很好,但是当我加载模型或传递音频分类时,我得到了很高的内存使用量(到目前为止没有问题,因为我的机器中有16 in )。我试图在一个烧瓶web应用程序中将我的模型部署到Azure中,我的问题是:我需要一个云中的“超级机器”来运行我的模型,或者还有其他方法来部署它,以降低成本?