如何将C编译模块(例如,python-Levenshtein)发送到Spark集群中的每个节点?
我知道我可以使用独立的Python脚本在Spark中发布Python文件(下面的示例代码):
from pyspark import SparkContext sc = SparkContext("local", "App Name", pyFiles=['MyFile.py', 'MyOtherFile.py'])
但是在没有".py"的情况下,我该如何运送模块?