大数据技术与应用HADOOP之HDFS文件操作.docx
《大数据技术与应用HADOOP之HDFS文件操作.docx》由会员分享,可在线阅读,更多相关《大数据技术与应用HADOOP之HDFS文件操作.docx(14页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、大数据技术与应用实验报告22.23.24.JavaHDFSFilelfExist.java 笈= 5 II g Task List 眼 I. .一 . . 一 . ,一 . import org.apacneTnadoopTfs.Files import orgapachehadoopfsPath; public class HDFSFilelfExist public static void main(Strinc Outline 典 try( String fileName tes 一 一 I l! Problems Javadoc 燃 Declaration 曰 Console 区、 H
2、DFSFilelfExist Java Application /usr/lib/jvm/java-8-openjdl B X 彘他图画E log4):WARN See :loggi叫卸冰30皿log4)/L2/faqMuil和)(onfig for more info. Createitest2)判断文件是否存在1.2.3.4.5.6.7.8.9.10.n.11.12.13.14.15.16.17.18.19.20.n.import org. apache, hadoop. conf. Configuration;import org. apache, hadoop. fs. FileSys
3、tem;import org.apache, hadoop. fs. Path;public class Chapter3 public static void main(String args) try String filename 二 test;Configuration conf = new Configuration();conf, set (fs. defaultFS,/, /zhdfs: /localhost: 9000/z);12. conf, set (fs hdfs. impl, org apache, hadoop. hdfs. DistributedFileSystem
4、,z);13. FileSystem fs = FileSystem. get(conf);14. if(fs. exists(new Path(filename)15. System, out. printin (文件存在);16. ) else 17. System, out. printin(文件不存在);18. )19. fs. close ();20.21.22.23.24.JavaLZ-I catch (Exception e) e.printStackTrace();臣 Outline 区1.2.3.4.5.6.7.8.9.10.11.12.13.14.public class
5、HDFSFilelfExist public static void main(Strim try(String fileName = Mtes Configuration conf = r conf.set(fs.defaultFSEi Problems Javadoc 凰 Declaration JS Console 区 HDFSFilelfExist Java Application /usr/lib/jvm/jav cermina(eainaperjjava Appucaoonj /时/UD/jvm/javMopenjoK而 om/d 叫阳3)读取文件import java. io.
6、BufferedReader;import java. io. InputStreamReader;import org. apache, hadoop. conf. Configuration;import org. apache, hadoop. fs. FileSystem;import org. apache, hadoop. fs. Path;import org. apache, hadoop. fs. FSDatalnputStream;public class Chapters public static void main(String args) try Configura
7、tion conf 二 new Configuration();conf, set (z,fs. defaultFS”, hdfs:/localhost: 9000);conf, set (fs hdfs. impl, org apache, hadoop. hdfs. DistributedFileSystem,/);15. FileSystem fs = FileSystem. get(conf);16. Path file = new Path(test);17. FSDatalnputStream getlt = fs. open(file);18. BufferedReader d
8、= new BufferedReader(newInputStreamReader(getlt);19.20.21.22.23.24.25.26.27.String content = d. readLine () ; /读取文件一行 System, out. printin(content);d. close (); 关闭文件fs. close (); 关闭 hdfs catch (Exception e) e.printStackTrace();Javalog4j:WARN Please initialize the log4j system properly.log4j:WARN See
9、 :/logging.apache.Org/log4j/l.2/faq.html#noconfig for more info. Hello world实验总结:(心得体会、遇到的问题及解决过程)成功的安装了 eclipse软件,能够运用eclipse软件,对代码进行编译操作得出运行结果,实现了 hadoop与eclipse的联合操作。实验5ECLIPSE+HADOOP 之 HDFS 文件操作实验目的:通过JAVA API和HADOOP的HDFS系统进行交互操作。实验环境:WIN7,virsual box,Ubuntu 16.04, hadoop2.7.1, eclipse.实验步骤:利用Ja
10、va API进行交互,需要利用软件Eclipse编写Java程序。1 .在 Ubuntu 中安装 Eclipse.在Eclipse创立工程第一次翻开Eclipse,需要填写workspace(工作空间),用来保存程序所在的位置,这里按照默认,不 需要改动。点击“0K”按钮,进入Eclipse软件。可以看出,由于当前是采用hadoop用户登录了 Linux系统,因此,默认的工作空间目录位于hadoop 用户目录“/home/hadoop”下。Eclipse启动以后,会呈现如下图的界面。选择File-New-Java Project”菜单,开始创立一个Java工程。在 “Project name”
11、 后面输入工程名称 在DFSExample”,选中 “Use default location”,让这个 Java工程的所有文件都保存到“/home/hadoop/workspace/HDFSExample”目录下。在JRE”这个选 项卡中,可以选择当前的Linux系统中已经安装好的JDK,比方java-8-openjdk-amd64。然后,点击 界面底部的“Next”按钮,进入下一步的设置。2 .为工程添加需要用到的JAR包进入下一步的设置以后需要在界面中加载该Java工程所需要用到的JAR包,这些JAR包中包含了可以访问HDFS的Java API。这些JAR包都位于Linux系统的Hado
12、op安装目录下,对于本教程而言,就是在a/usr/local/hadoop/share/hadoop目录下。点击界面中的“Libraries”选项卡,然后,点击界 面右侧的“Add External JARs”按钮。在该界面中,上面的一排目录按钮(即 “usr”、“local、“hadoop、“share、“hadoop”、 “mapreduce”和“lib”),当点击某个目录按钮时,就会在下面列出该目录的内容。为了编写一个能够与HDFS交互的Java应用程序,一般需要向Java工程中添加以下JAR包:(1) ” /usr/local/hadoop/share/hadoop/commonn 目
13、录下的 hadoop-common_2. 7. 1. jar 和 haoop-nfs-2. 7. 1. jar;(2) /usr/local/hadoop/share/hadoop/common/libv 目录下的所有 JAR 包;(3) u/usr/local/hadoop/share/hadoop/hdfs 目录下的 haoop-hdfs2. 7. 1. jar 和 haoop-hdfs-nfs-2. 7. 1. jar;(4) /usr/local/hadoop/share/hadoop/hdfs/1 ib” 目录下的所有 JAR 包。比方,如果要把 /usr/local/hadoop/
14、share/hadoop/commonn 目录下的 hadoop-common-2. 7. 1. jar 和haoop-nfs-2. 7. 1. jar添加到当前的Java工程中,可以在界面中点击目录按钮,进入到common 目录,然后,界面会显示出common目录下的所有内容。请在界面中用鼠标点击选中hadoop-common-2. 7. 1. jar和haoop-nfs-2. 7. 1. jar,然后点击界面右下 角的“确定”按钮,就可以把这两个JAR包增加到当前Java工程中。hadoop-common-2. 7. 1. jar和haoop-nfs-2. 7. 1. jar已经被添加到当
15、前Java工程中。然后,按照类 似的操作方法,可以再次点击“Add External JARs”按钮,把剩余的其他JAR包都添加进来。需 要注意的是,当需要选中某个目录下的所有JAR包时,可以使用“Ctrl+A”组合键进行全选操作。全 部添加完毕以后,就可以点击界面右下角的“Finish”按钮,完成Java工程HDFSExample的创立。3 .编写Java应用程序代码下面编写一个Java应用程序,用来检测HDFS中是否存在一个文件。请在Eclipse工作界面左侧的“Package Explorer”面板中(如图4-9所示),找到刚才创立好的工 程名称HDFSExample,然后在该工程名称上
16、点击鼠标右键,在弹出的菜单中选择“New-Class” 菜单。X _ E3 File Edit Source RefactorHDFSExample选择“New-Class”菜单以后会出现如下图界面。选择“New-Class”菜单以后会出现如下图界面。在该界面中,只需要在“Name”后面输入新建的Java类文件的名称,这里采用名称“HDFSFilelfExist,其他都可以采用默认设置,然后,点击界面右下角“Finish”按钮。import import import public1.2.3.4.5.6.7.8.9.10.11.12.13.14.可以看出,Eclipse自动创立了一个名为“HD
17、FSFilelfExist. java”的源代码文件,请在该文件中输 入以下代码: org. apache, hadoop. conf. Configuration;org. apache, hadoop. fs. FileSystem;org. apache, hadoop. fs. Path;class HDFSFilelfExist public static void main(String args)try String fileName 二 test;Configuration conf = new Configuration();conf, set (z/fs. defaultF
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据 技术 应用 HADOOP HDFS 文件 操作
限制150内