pyspark의udf에 어떻게 데이터 파라미터를 전송합니까
2353 단어 spark
pyspark에서 withColumn 함수를 사용하여 데이터 프레임의 어떤 열에 대해udf 작업을 하고 싶습니다. 예를 들어 다음과 같은 사전을 전송해야 합니다.
def func_is_holiday(holiday_dict,date):
return holiday_dict[date]
df = df.withColumn("is_holiday", func_is_holiday(holiday_dict,df['date'] )
그런데 결과가 잘못 나왔어요.
솔루션
def func_is_holiday(holiday_dict):
return udf( lambda x: holiday_dict[x])
df = df.withColumn("is_holiday", func_is_holiday(holiday_dict)(df['date']) )
패키지 구조를 사용하여funcis_holiday(holiday dict)의 함수만 있으면 됩니다.
솔루션 참조: 참조
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Spark 팁: 컴퓨팅 집약적인 작업을 위해 병합 후 셔플 파티션 비활성화작은 입력에서 UDAF(사용자 정의 집계 함수) 내에서 컴퓨팅 집약적인 작업을 수행할 때 spark.sql.adaptive.coalescePartitions.enabled를 false로 설정합니다. Apache Sp...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.