飞道的博客

大数据hadoop学习-----ubuntu16.04上eclipse的安装及相应的hadoop环境中的java配置

270人阅读  评论(0)


在进行hadoop的学习时候,利用Java API与HDFS进行交互是学习hadoop的重要步骤,既然需要用到java API与HDFS的交互,那么我们就需要java的集成环境,eclisp当然是我们的首选啦,本次博客,林君学长主要向大家介绍如何在ubuntu16.04上面安装eclisp以及进行相应的hadoop配置

一、eclisp的下载及安装

1、打开我们的ubuntu16.04的软件商店UK

2、搜索eclipse进行安装


由于我的已经安装,所以显示已安装,小伙伴们没有安装,可以点击安装,然后进行等待就好了,他会自动为你安装的!

二、创建我们hadoop的java项目

1、打开eclipse

2、选择我的的工作空间(workspace)


自己选择一个空间,不一定要用默认的,为了后续不用再次进行选择,我们将上面的小方框中打钩,然后OK

3、创建java项目

1)、选择“File->New->Java Project”菜单,开始创建一个Java工程,会弹出下图界面:

2)、点击next后会出现以下界面,选择库,进行添加hadoop所需要的库

3)、选择后如下所示:

需要在这个界面中加载该Java工程所需要用到的JAR包,这些JAR包中包含了可以访问HDFS的Java API。这些JAR包都位于Linux系统的Hadoop安装目录下,对于本教程而言,就是在“/usr/local/hadoop/share/hadoop”目录下。点击界面中的“Libraries”选项卡,然后,点击界面右侧的“Add External JARs…”按钮

4、hadoop相关库的添加

1)、添加 /usr/local/hadoop/share/hadoop/common目录下的hadoop-common-2.7.1.jar和haoop-nfs-2.7.1.jar

2)、添加 /usr/local/hadoop/share/hadoop/common/lib目录下的所有JAR包
1.进入目录,ctrl+A进行全选,然后点击确认!

3)、添加 /usr/local/hadoop/share/hadoop/hdfs目录下的haoop-hdfs-2.7.1.jar和haoop-hdfs-nfs-2.7.1.jar

4)、添加 /usr/local/hadoop/share/hadoop/hdfs/lib目录下的所有JAR包

以上步骤,我们所需要的hadoop的包就完全导入了
5)、添加完后,点击finsh,我们的项目就创建完成啦!

三、添加hadoop的java类

1、点击项目右键选择new,然后选择class进行创建

2、输入包名、类名完成创建

3、将下列代码写入类中进行测试

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class Hdfs {
	public static void main(String[] args){
        try{
            String fileName = "test";
            Configuration conf = new Configuration();
            conf.set("fs.defaultFS", "hdfs://localhost:9000");
            conf.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem");
            FileSystem fs = FileSystem.get(conf);
            if(fs.exists(new Path(fileName))){
                System.out.println("文件存在");
            }else{
                System.out.println("文件不存在");
            }
 
        }catch (Exception e){
            e.printStackTrace();
        }
    }
}


注意class的类名是你创建的类名!
上面的代码只是hadoop环境下的测试代码,测试文件是否存在的,具体不用管哦!

四、配置运行环境并运行

1、打开终端,切换到hadoop用户,运行hadoop

su - hadoop
cd /usr/local/hadoop
./sbin/start-dfs.sh
jps

2、鼠标点击运行按钮旁边的小三角,选择【Run As】进行配置


在弹出的页面选择刚刚创建的项目名,然后点击OK就好,如下所示:

1)、会看到控制台如下所示:

如上所示,出现文件不存在,我们就完美运行了,警告那些不用管,到这里,我们的hadoop的java程序就介绍了,接下来,介绍如何把Java应用程序生成JAR包,部署到Hadoop平台上运行

五、将hadoop的java项目导入到hadoop平台进行运行

1、在刚才的终端创建文件夹,放我们的java程序

1)、创建myapp文件夹,并赋予权限

mkdir myapp
chmod 777 myapp
ls

2、将java项目导入我们的hadoop平台

1)、右击项目、选择导出

2)、选择java---->Runable JAR file

3)、按照下图选择,浏览,选择我们创建的myapp文件夹

点击Browse出现如下界面:

在接下来的界面一直点击OK就好,如下所示:

3、回到刚刚终端查看是否导入进去了

cd /usr/local/hadoop/myapp
ls

4、终端运行我们的jar的java文件

1)、进入hadoop环境

cd /usr/local/hadoop

2)、运行

./bin/hadoop jar ./myapp/hdfs.jar

3)、或者用运行方式2

java -jar ./myapp/HDFSExample.jar

4)、运行结果如下所示:

和我们在eclipse上面运行的结果一样,本次实验就完美结束啦!
以上就是本次博客的全部内容哦,希望对小伙伴学习hadoop上面的java环境有所帮助,遇到问题的小伙伴,记得评论区留言,我看到会给大家解答的!
陈一月的又一天编程岁月^ _ ^


转载:https://blog.csdn.net/qq_42451251/article/details/105118021
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场