我刚刚在GooglevertexAI上部署了一个ML模型,它可以使用vertexAI网络界面进行预测。但是,例如,是否可以从浏览器向该部署的模型发送请求。就像这样 http://myapp.cloud.google.com/input="features of an example" 并将预测结果作为输出。谢谢
AI 。现在,如何向特定模型发送请求?使用python,我们调用端点,如下所示:endpoint = aiplatform.Endpoint(endpoint_id)我可以使用在中指定的参数字段来指定模型,然后在自定义预测容器中相应地处理请求,但是仍然有一些调用最终会转到它无法处理的模型(因为顶点AI不会将所有请求发送到所有模型,否则流量分割就没有意义了)。然后
问题是,每当我向POST请求http://localhost:49950/connect/token请求令牌时,就会得到一个400 Bad Request。在IdentityServer4日志中,我看到:
请求启动HTTP/1.1 POST 应用程序/x-www-窗体-urlencode 166 请求启动HTTP/1.1 POST 应用程序/x-www-窗体与端点类型令牌匹