亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

具有復雜條件的Spark SQL窗口函數

具有復雜條件的Spark SQL窗口函數

收到一只叮咚 2019-09-03 15:57:44
這可能是最容易通過示例解釋的。假設我有一個用戶登錄網站的DataFrame,例如:scala> df.show(5)+----------------+----------+|       user_name|login_date|+----------------+----------+|SirChillingtonIV|2012-01-04||Booooooo99900098|2012-01-04||Booooooo99900098|2012-01-06||  OprahWinfreyJr|2012-01-10||SirChillingtonIV|2012-01-11|+----------------+----------+only showing top 5 rows我想在此列添加一個列,指示他們何時成為網站上的活躍用戶。但有一點需要注意:有一段時間用戶被認為是活動的,在此期間之后,如果他們再次登錄,他們的became_active日期會重置。假設這段時間是5天。然后從上表派生的所需表將是這樣的:+----------------+----------+-------------+|       user_name|login_date|became_active|+----------------+----------+-------------+|SirChillingtonIV|2012-01-04|   2012-01-04||Booooooo99900098|2012-01-04|   2012-01-04||Booooooo99900098|2012-01-06|   2012-01-04||  OprahWinfreyJr|2012-01-10|   2012-01-10||SirChillingtonIV|2012-01-11|   2012-01-11|+----------------+----------+-------------+因此,特別是,SirChillingtonIV的became_active日期被重置,因為他們的第二次登錄是在活動期過期之后,但是Booooooo99900098的became_active日期沒有在他/她登錄的第二次重置,因為它落在活動期間。我最初的想法是使用窗口函數lag,然后使用lagged值填充became_active列; 例如,大致類似于:import org.apache.spark.sql.expressions.Windowimport org.apache.spark.sql.functions._val window = Window.partitionBy("user_name").orderBy("login_date")val df2 = df.withColumn("tmp", lag("login_date", 1).over(window))然后,規則填寫became_active日期會是這樣,如果tmp是null(即,如果它是第一次登錄),或者如果login_date - tmp >= 5再became_active = login_date; 否則,轉到下一個最近的值tmp并應用相同的規則。這表明了一種遞歸方法,我無法想象實現的方法。我的問題:這是一種可行的方法,如果是這樣的話,我怎么能“回頭”看看早期的價值觀,tmp直到我找到一個停止的地方?據我所知,我無法迭代Spark SQL的值Column。還有另一種方法來實現這個結果嗎?
查看完整描述

2 回答

?
呼啦一陣風

TA貢獻1802條經驗 獲得超6個贊

重構對方的回答 與工作Pyspark


在Pyspark你可以像下面。


create data frame


df = sqlContext.createDataFrame(

[

("SirChillingtonIV", "2012-01-04"), 

("Booooooo99900098", "2012-01-04"), 

("Booooooo99900098", "2012-01-06"), 

("OprahWinfreyJr", "2012-01-10"), 

("SirChillingtonIV", "2012-01-11"), 

("SirChillingtonIV", "2012-01-14"), 

("SirChillingtonIV", "2012-08-11")

], 

("user_name", "login_date"))

上面的代碼創建了一個如下所示的數據框


+----------------+----------+

|       user_name|login_date|

+----------------+----------+

|SirChillingtonIV|2012-01-04|

|Booooooo99900098|2012-01-04|

|Booooooo99900098|2012-01-06|

|  OprahWinfreyJr|2012-01-10|

|SirChillingtonIV|2012-01-11|

|SirChillingtonIV|2012-01-14|

|SirChillingtonIV|2012-08-11|

+----------------+----------+

現在我們要先發現它們之間的區別login_date是多于5幾天。


對于這個,如下所示。


必要的進口


from pyspark.sql import functions as f

from pyspark.sql import Window



# defining window partitions  

login_window = Window.partitionBy("user_name").orderBy("login_date")

session_window = Window.partitionBy("user_name", "session")


session_df = df.withColumn("session", f.sum((f.coalesce(f.datediff("login_date", f.lag("login_date", 1).over(login_window)), f.lit(0)) > 5).cast("int")).over(login_window))

當我們運行上面的代碼行時,如果date_diff是,NULL則coalesce函數將替換NULL為0。


+----------------+----------+-------+

|       user_name|login_date|session|

+----------------+----------+-------+

|  OprahWinfreyJr|2012-01-10|      0|

|SirChillingtonIV|2012-01-04|      0|

|SirChillingtonIV|2012-01-11|      1|

|SirChillingtonIV|2012-01-14|      1|

|SirChillingtonIV|2012-08-11|      2|

|Booooooo99900098|2012-01-04|      0|

|Booooooo99900098|2012-01-06|      0|

+----------------+----------+-------+



# add became_active column by finding the `min login_date` for each window partitionBy `user_name` and `session` created in above step

final_df = session_df.withColumn("became_active", f.min("login_date").over(session_window)).drop("session")


+----------------+----------+-------------+

|       user_name|login_date|became_active|

+----------------+----------+-------------+

|  OprahWinfreyJr|2012-01-10|   2012-01-10|

|SirChillingtonIV|2012-01-04|   2012-01-04|

|SirChillingtonIV|2012-01-11|   2012-01-11|

|SirChillingtonIV|2012-01-14|   2012-01-11|

|SirChillingtonIV|2012-08-11|   2012-08-11|

|Booooooo99900098|2012-01-04|   2012-01-04|

|Booooooo99900098|2012-01-06|   2012-01-04|

+----------------+----------+-------------+


查看完整回答
反對 回復 2019-09-03
  • 2 回答
  • 0 關注
  • 789 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號