博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Ubuntu14.04下安装Hadoop2.5.1 (单机模式)
阅读量:6412 次
发布时间:2019-06-23

本文共 1980 字,大约阅读时间需要 6 分钟。

一.在Ubuntu下创建hadoop组和hadoop用户

1、创建hadoop用户组

sudo addgroup hadoop

2、创建hadoop用户

sudo adduser -ingroup hadoop hadoop

回车后会提示输入新的UNIX密码,这是新建用户hadoop的密码,输入回车即可。如果不输入密码,回车后会重新提示输入密码,即密码不能为空。最后确认信息是否正确,如果没问题,输入 Y,回车即可。

3、为hadoop用户添加权限

输入:

sudo gedit /etc/sudoers

回车,打开sudoers文件,给hadoop用户赋予和root用户同样的权限

二.用新增加的hadoop用户登录Ubuntu系统

三.安装ssh

sudo apt-get install openssh-server

安装完成后,启动服务

sudo /etc/init.d/ssh start

查看服务是否正确启动:

ps -e | grep ssh

设置免密码登录,生成私钥和公钥

ssh-keygen -t rsa -P ""

四、安装Java环境

参考《》一文

五、安装hadoop2.5.1

 1、官网下载 

 2、安装

解压

sudo tar xzf hadoop-2.5.1.tar.gz

假如我们要把hadoop安装到/usr/local下,文件夹为hadoop

sudo mv hadoop-2.5.1 /usr/local/hadoop

赋予用户对该文件夹的读写权限

sudo chmod 774 /usr/local/hadoop

3、配置

1)配置~/.bashrc      

配置该文件前需要知道Java的安装路径,用来设置JAVA_HOME环境变量,可以使用下面命令行查看安装路径

update-alternatives - -config java

 配置.bashrc文件

sudo gedit ~/.bashrc

注意:输入这一条命令的时候,有可能出现以下提示:

Gtk-WARNING **: cannot open display: 

这时候只需要关掉终端,然后重启即可

该命令会打开该文件的编辑窗口,在文件末尾追加下面内容,然后保存,关闭编辑窗口。

#HADOOP VARIABLES START

export JAVA_HOME=/opt/jdk1.8.0_20/

export HADOOP_INSTALL=/usr/local/hadoop

export PATH=PATH:

HADOOP_INSTALL/bin

export PATH=PATH:

HADOOP_INSTALL/sbin

export HADOOP_MAPRED_HOME=$HADOOP_INSTALL

export HADOOP_COMMON_HOME=$HADOOP_INSTALL

export HADOOP_HDFS_HOME=$HADOOP_INSTALL

export YARN_HOME=$HADOOP_INSTALL

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib"

#HADOOP VARIABLES END

执行下面命,使添加的环境变量生效:

source ~/.bashrc

2)编辑/usr/local/hadoop/etc/hadoop/hadoop-env.sh

执行下面命令,打开该文件的编辑窗口

sudo gedit /usr/local/hadoop/etc/hadoop/hadoop-env.sh

找到JAVA_HOME变量,修改此变量如下

export JAVA_HOME=/opt/jdk1.8.0_20    

修改后的hadoop-env.sh文件如下所示:

 

 显示hadoop的一些有用的文档:

bin/hadoop

例如,你可以使用下面的命令查看hadoop的版本信息:

hadoop version

六.WordCount测试

 单机模式安装完成,下面通过执行hadoop自带实例WordCount验证是否安装成功

 /usr/local/hadoop路径下创建input文件夹    

mkdir input

拷贝到input    

cp etc/hadoop/*.xml input

执行

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.1.jar grep input output 'dfs[a-z.]+'

 执行结果:

 查看output:

转载地址:http://fwura.baihongyu.com/

你可能感兴趣的文章
也可以使用如下命令更改您的默认 Shell
查看>>
Windows系统中IIS 6.0+Tomcat服务器环境的整合配置过程
查看>>
2015-03-15
查看>>
Node.js HTTP Server对象及GET、POST请求
查看>>
Android开发面试经——5.常见面试官提问Android题①
查看>>
linux下添加PATH环境变量
查看>>
RabbitMQ集群、镜像部署配置
查看>>
"npm ERR! Error: EPERM: operation not permitted"问题解决
查看>>
EntityFramework(EF)贪婪加载和延迟加载的选择和使用
查看>>
linux tar包追加问题【转】
查看>>
Git_忽略特殊文件
查看>>
Leetcode: Largest Number
查看>>
Autofac 解释第一个例子 《第一篇》
查看>>
使用ssh密钥登录虚拟主机里的另一台主机报警的解决方案
查看>>
从字符串数组中寻找数字的元素
查看>>
spring 手动添加 bean 到容器,例子 :多数据源配置
查看>>
ASP.NET的URL过滤
查看>>
动态规划——最长公共子序列(LCS)
查看>>
Hystrix已经停止开发,官方推荐替代项目Resilience4j简介
查看>>
华为mate10pro为全家福准备了各种姿势 你get到了吗
查看>>