我有时看到运行Spark作业时看到以下错误消息:
13/10/21 21:27:35 INFO cluster.ClusterTaskSetManager:丢失是由于spark.SparkException:文件./someJar.jar存在且与...的内容不匹配
这是什么意思?我该如何诊断和解决这个问题?