使用databricks spark,能够使用connector(spark-snowflake_2.11-2.3.0.jar,spark雪花-JDBC2.8.1.jar将数据写入雪花中,而不是使用JDBC我面临的错误是classNotFoundExceptoion for snowflake.DefaultSource。但是能够使用JDBC连接从本地安装spark的本地机器写入雪花。
(假设在#符号之后,由于文本的注释变成灰色)我知道在snowflake中没有用于注释的官方文档。但我们在snowflake中使用//或--表示注释。任何人都知道# symbol在snowflake中的用法/含义/等价性。
附言:我问这个是因为我来自SQL Server backround,其中#用于创建临时表。
通过基于主键插入/更新记录来更新Snowflake数据库时遇到一些问题。获取以下错误: enter image description here 我的设置: 我已经在Snowflake DB "PRIMARY_KEY“中设置了一个主键,使用以下语句: ALTER TABLE表名称添加主键(PRIMARY_KEY); enter image description here 我在Alteryx DB中有相同的字段"PRIMARY_KEY“,用于写入Snowflake表。ente