我的Spark使用者失败,出现“记录”错误。我在浏览时发现错误是由于jar的不兼容。我正在使用Spark 1.6.3,并且所有依赖项都在pom,xml中使用了1.6.3。我仍然遇到相同的错误。下面是我的Maven结构和执行时抛出的错误。 Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/internal/Logging at java.lang.ClassLoader.defineClass1(Native Met…

2020年8月14日 0条评论 51点热度 阅读全文