欢迎关注大数据技术架构与案例微信公众号:过往记忆大数据
过往记忆博客公众号iteblog_hadoop
欢迎关注微信公众号:
过往记忆大数据

怎么在Idea IDE里面打开Spark源码而不报错

  我们在学习或者使用Spark的时候都会选择下载Spark的源码包来加强Spark的学习。但是在导入Spark代码的时候,我们会发现yarn模块的相关代码总是有相关类依赖找不到的错误(如下图),而且搜索(快捷键Ctrl+N)里面的类时会搜索不到!这给我们带来了很多不遍。。

  本文就是来解决这个问题的。我使用的是Idea IDE工具阅读代码的,操作系统是window,其他的系统和IDE我没试过。我们先点击这个工程的Project Structure菜单,这时候会弹出一个对话框,部分截图如下:

  仔细的用户肯定会发现里面列出来的模块(Module)居然没有yarn!就是这个原因导致yarn模块相关的代码老是报错!我们只需要将yarn模块加入到这里即可。步骤依次选择 Add->Import Module->选择pom.xml,然后一步一步点击确定,这时候会在对话框里面多了spark-yarn_2.10模块,如下:

  然后点击Maven Projects里面的Reimport All Maven Projects,等yarn模块里面的所有依赖全部下载完的时候,我们就可以看到这个模块里面的代码终于不再报错了!!

  甚至你都可以在这里面编译和调试Spark代码了,终于不用担心出错了。。现在赶紧去学习Spark的代码吧。。

本博客文章除特别声明,全部都是原创!
原创文章版权归过往记忆大数据(过往记忆)所有,未经许可不得转载。
本文链接: 【怎么在Idea IDE里面打开Spark源码而不报错】(https://www.iteblog.com/archives/1523.html)
喜欢 (11)
分享 (0)
发表我的评论
取消评论

表情
本博客评论系统带有自动识别垃圾评论功能,请写一些有意义的评论,谢谢!
(4)个小伙伴在吐槽
  1. 请教一下,使用sbt编译spark源码时,使用的仓库是? 我的怎么都下载失败呢?

    Colonel.Hou2015-11-09 20:03 回复
    • 默认的仓库在Spark项目的pom.xml文件里面有,你可以直接修改。

      w3970907702015-11-10 08:20 回复
      • 使用sbt/sbt gen-idea下载时,Hadoop的一些jar老是下载失败,日志如下:
        [error] Server access Error: Connection timed out url=http://maven.twttr.com/ org/apache/hadoop/hadoop-yarn-server/2.2.0/hadoop-yarn-server-2.2.0.jar
        这个可以使用啥远程仓库可以下载到的?

        Colonel.Hou2015-11-11 09:47 回复
        • 可以使用https://repo1.maven.org/maven2。

          w3970907702015-11-11 19:47 回复