Spark sql在讀取Azure數據塊中啟用CDF的DELTA表時拋出錯誤

我正試圖在azure數據塊內的python筆記本中運行以下查詢

tab ='db.t1'

df =spark.sql(f"SELECT MAX(_commit_version) as max_version FROM table_changes({tab},0)")

df.first()["max_version"]

但它拋出的錯誤如下

AnalysisException: [UNRESOLVED_COLUMN.WITHOUT_SUGGESTION] A column or function parameter with name `t1` cannot be resolved. ; line 1 pos 62;
'Project ['MAX('_commit_version) AS max_version#5374]
+- 'UnresolvedTableValuedFunction [table_changes], ['db.t1, 0]

有人能幫我嗎

? 最佳回答:

表名稱參數應在引號中(請參閱文檔)。嘗試:

df =spark.sql(f"SELECT MAX(_commit_version) as max_version FROM table_changes('{tab}',0)")
主站蜘蛛池模板: 日韩AV片无码一区二区不卡| 蜜臀Av午夜一区二区三区| 一区二区三区在线播放| 欧美激情国产精品视频一区二区| 中文字幕一区二区三区5566| 亚洲色精品三区二区一区| 日本精品啪啪一区二区三区| 亚洲第一区精品观看| 亚洲一区免费观看| 无码中文人妻在线一区二区三区| 国产在线一区二区杨幂| 久久久91精品国产一区二区三区| 中文字幕日韩丝袜一区| 无码人妻AⅤ一区二区三区水密桃| 红桃AV一区二区三区在线无码AV | 国产精品揄拍一区二区久久| 亚洲av无码一区二区三区天堂| 日韩av片无码一区二区三区不卡| 国产自产V一区二区三区C| 伊人久久精品无码麻豆一区| www亚洲精品少妇裸乳一区二区| 午夜福利一区二区三区高清视频| 国模精品一区二区三区视频| 国产一区二区三区小向美奈子| 亚洲韩国精品无码一区二区三区| 亚洲乱码一区二区三区国产精品| 天天看高清无码一区二区三区| 无码精品人妻一区二区三区人妻斩| 最新中文字幕一区二区乱码 | 狠狠色成人一区二区三区| 日本无卡码一区二区三区| 中文字幕在线一区| 日韩AV无码一区二区三区不卡| 国产成人精品视频一区二区不卡| 欧洲精品免费一区二区三区| 亚洲码一区二区三区| 天堂Aⅴ无码一区二区三区| 天天躁日日躁狠狠躁一区| 激情内射亚洲一区二区三区爱妻| 熟女少妇丰满一区二区| 高清一区二区在线观看|