飞道的博客

Win10环境下的IDEA2019.3配置Spark环境的两种方法

309人阅读  评论(0)

IDEA是一个非常完美的编译器,在IDEA搭建本地Spark环境需要提前配置好Scala和Java环境(看我之前的文章,有详细介绍)下面我将介绍两种方法搭建Spark环境。

方法一:更改pom.xml,添加Maven依赖

(1)首先,需要创建一个maven项目:File—New—Project

           

(2)检测JDK环境是否正确,并创建

            

(3)设置文件存储位置、Name(Artifactld)、GroupId等

        

(4)在该项目下的src—mian文件下创建一个新的文件夹,命名为Scala,并按回车

         

                                           

(5)将Scala设置为源码文件夹:右键点击Scala—Mark Directory as—Sources Root

            

(6)修改pom.xml文件,添加所需要的Spark依赖,并点击右下角的Enable Auto-Import 等待下载(如果是第一是导入依赖,下载时间会很长),底栏会有进度条提示,完成后可以看到右上角的绿色对勾。

       注意:   在下载过程中,代码中间可能会出现红色,不代表报错,下载完成后红色会消失

                      Scala和Spark版本要对应,可以去Spark官网或者Maven官网查看  

                      <build>里的东西是构建器和插件,原封不动复制就可以,不同的人代码不相同,都无所谓。

         


  
  1. <dependencies>
  2. <dependency>
  3. <groupId>org.apache.spark </groupId>
  4. <artifactId>spark-core_2.12 </artifactId>
  5. <version>2.4.4 </version>
  6. </dependency>
  7. <dependency>
  8. <groupId>org.apache.spark </groupId>
  9. <artifactId>spark-sql_2.12 </artifactId>
  10. <version>2.4.4 </version>
  11. </dependency>
  12. </dependencies>
  13. <build>
  14. <finalName>WordCount </finalName>
  15. <plugins>
  16. <plugin>
  17. <groupId>net.alchim31.maven </groupId>
  18. <artifactId>scala-maven-plugin </artifactId>
  19. <version>3.2.2 </version>
  20. <executions>
  21. <execution>
  22. <goals>
  23. <goal>compile </goal>
  24. <goal>testCompile </goal>
  25. </goals>
  26. </execution>
  27. </executions>
  28. </plugin>
  29. </plugins>
  30. </build>

(7)创建Scala文件,点击Obiect类,命名

          

(8)测试程序

           


  
  1. import org.apache.spark.{SparkConf, SparkContext}
  2. object Hello {
  3. def main(args: Array[String]): Unit = {
  4. System.setProperty( "hadoop.home.dir", "E:\\Hadoop\\hadoop-common-2.2.0-bin-master")
  5. val config = new SparkConf().setMaster( "local[*]").setAppName( "WordCount")
  6. val sc = new SparkContext(config)
  7. val lines = sc.textFile( "in")
  8. val words = lines.flatMap(_.split( " "))
  9. val wordToOne = words.map((_, 1))
  10. val wordToSum = wordToOne.reduceByKey(_ + _)
  11. val result = wordToSum.collect()
  12. result.foreach(println)
  13. }
  14. }

(9)测试成功

方法一:导入Spark的jars包

先创建Maven文件(和方法一相同)

(1)点击File—Project Structure

                                                    

(2)点击Global Libraries,点击“+”,添加Spark包

(3)点击Java

                                                                              

(4)找到jars包,点击OK

      

(5)点击OK

                             

(6)出现了新的jars,点击右下角的Apply

(7)添加Scala框架支持

(8)点击 Enable Auto-import(激活自动导入)

(9)创建Scala文件并测试程序,结果和方法一是相同的。


转载:https://blog.csdn.net/mango_ZZY/article/details/104637744
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场