我正在嘗試在 ADW 更新表,但到目前為止我找到的唯一途徑是通過 scala,我不太熟悉它,我希望與 PySpark 具有相同的功能。這是 Scala 代碼,但我被困在試圖翻譯它import java.util.Propertiesimport java.sql.DriverManagerval jdbcUsername = "xxxxx"val jdbcPassword = "xxxxx"val driverClass = "com.microsoft.sqlserver.jdbc.SQLServerDriver"val jdbcUrl = s"xxxx"val connectionProperties = new Properties()connectionProperties.put("user", s"${jdbcUsername}")connectionProperties.put("password", s"${jdbcPassword}")connectionProperties.setProperty("Driver", driverClass)val connection = DriverManager.getConnection(jdbcUrl, jdbcUsername, jdbcPassword)val stmt = connection.createStatement()val sql = "delete from table where condition"stmt.execute(sql)connection.close()我認為必須有一種使用 PySpark 在 Azure SQL 上執行命令的通用方法,但我還沒有找到。
1 回答

偶然的你
TA貢獻1841條經驗 獲得超3個贊
聽起來你想直接對Azure Databricks的Python中的Azure SQL數據庫表進行刪除操作,但我試圖意識到它失敗了,因為沒有辦法為pyodbc
和安裝linux odbc驅動程序pymssql
。
這是有關我的測試的一些屏幕截圖。
圖 1. 成功安裝pymssql
,pypyodbc
在集群上,但失敗pyodbc
圖 2. 嘗試連接我的 Azure SQL 數據庫時遇到有關缺少 linux odbc 驅動程序的問題
所以除了使用官方教程介紹的Scala/Java之外Use HDInsight Spark cluster to read and write data to Azure SQL database
,使用Python的唯一變通方法是調用一個webhook url來實現其他Azure服務的功能,比如Python中的Azure Function。
添加回答
舉報
0/150
提交
取消