该站点提供了一些python代码。
我在试着让代码正常工作。
到目前为止,这是我的代码。
“”“
from azure.storage.blob import ContainerClient
from azure.storage.blob import BlobServiceClient
import pandas as pd
containerName = "output"
storageAccountURL= "<URL to my storage account>"
storageKey= "<storage key >"
# Establish connection with the blob storage account
blob_service_client = BlobServiceClient(account_url=storageAccountURL,
credential=storageKey
# Load iris dataset from the task node
df = pd.read_csv('iris.csv')
# Subset records
df = df[df['Species'] == "setosa"]
# Save the subset of the iris dataframe locally in task node
df.to_csv("iris_setosa.csv", index = False)
# Upload iris dataset
container_client = blob_service_client.get_container_client(containerName)
with open("iris_setosa.csv", "rb") as data:
blob_client = container_client.upload_blob(name="iris_setosa.csv", data=data)
'''当我在我的笔记本电脑上运行上面的代码(在visual studio 2019中)时,df = pd.read_csv('iris.csv')行导致以下错误;- errno 2没有这样的文件或目录:'iris.csv‘
现在,我已经检查了blob容器输入是否确实包含该文件。我可以看到它,甚至可以下载它,打开它,等等。
我已经尝试了对代码进行各种更改;-将containerName从输出更改为输入(因为在编写代码之前,web上的说明提到了输入文件夹。没有改进。
我尝试了对文件名进行各种更改。。。
df = pd.read_csv('/iris.csv')
df = pd.read_csv('input/iris.csv')
df = pd.read_csv(<the files hyper-link >) 不走运
我已经阅读了关于修复依赖于不同azure python sdk和库版本的导入命令的各种帖子,并且导入工作正常,但我无法解决上面的pd.read_cvs问题。
为了补充上面的信息...
我使用的是python 3.7,
和以下python库;-
azure-batch==10.0.0
azure-cognitiveservices-vision-customvision==3.1.0
azure-common==1.1.26
azure-core==1.10.0
pandas==1.2.1和其他软件包。
你能告诉我如何让这段python代码工作吗?
非常感谢
发布于 2021-02-10 22:41:53
从逻辑上讲,如果您确定文件在那里,并且基于您似乎正在通过Azure运行Python的事实,那么这里的问题是您的当前工作目录(cwd)与本教程期望的“默认”工作目录不匹配。考虑到教程是如何编写的,他们希望您从输入容器开始工作。因此,要解决此问题,您需要正确找到文件的路径或更改cwd。
在Python中,您可以检查cwd正在使用的内容:
import os
os.getcwd()
我建议您这样做,从那里您应该能够找到您的文件的路径。您还可以使用os.chdir(path)更改您的工作目录,其中将path替换为存储数据集的输入文件夹的路径。
https://stackoverflow.com/questions/66136478
复制相似问题