我在databricks notebook中有以下命令,它是python格式的。 batdf = spark.sql(f"""select cast((from_unixtime((timestamp/1000), 'yyyy-MM-dd HH:mm:ss')) as date) as event_date,(from_unixtime((timestamp/1000), 'yyyy-MM-dd HH:mm:ss')) as event_datetime, * from testable """)
s
我已经成功地将blob存储安装到Databricks,并且在运行dbutils.fs.ls("/mnt/")时可以看到定义的挂载点。这里有size=0 --还不清楚这是否是预期的。
当我尝试运行dbutils.fs.ls("/mnt/<mount-name>")时,会得到以下错误:java.io.FileNotFoundException: / is not found
当我尝试用dbutils.fs.put("/mnt/<mount-name>/1.txt", "Hello, World!", True)
我正在尝试在Databricks中的Python-Notebook中将我自己的日志文件写入Azure Datalake Gen 2。我正试图通过使用Python日志记录模块来实现这一点。 不幸的是,我不能让它工作。不会引发错误,会创建文件夹,但不会创建包含日志记录内容的文件。即使文件存在,也不会向其中写入任何内容。 本地python脚本运行得很好,但我无法在Databricks中运行它。 下面是我的代码: # mount
if not any(mount.mountPoint == '/mnt/log' for mount in dbutils.fs.mounts()):