Hadoop学习 1 LINUX环境熟悉

发布 2022-09-20 18:43:28 阅读 2513

hadoop_1_linux环境熟悉。

实验目的。hadoop生产环境都是依赖于linux环境,而部分学习人员只有windows平台使用经验,为保证后续各环节的顺利执行,需要让使用者熟悉linux环境的主要操作命令,理解分布式并行计算的核心。熟悉vim编辑器的使用方式,能够通过它来创建修改文件。

如果学习者对linux平台很熟悉,对实验过程中的各个命令很了解,可以跳过本环节。

先决条件。实验人员需要对文件、目录、命令行命令、可读、可写有基本的了解。

linux操作系统已经就绪。

实验过程。进入各级目录 cd

跳转到/home/hadoop目录:

cd /home/hadoop

文件查看 ls ll

1. 查看当前目录下所有文件:

ls -la

2. 查看某个目录下所有文件:

ls –la /home/hadoop/

文本编辑器vim使用。

打开文本 /home/hadoop/

开启文本编辑模式:键盘键入i

退出文本编辑模式:键盘esc

保存并退出编辑的文本::wq

不保存退出编辑的文本::q或者:q!

文件复制 cp

在/home/hadoop/目录下新建和workspace文件夹(mkdir workspace),将文件从/home/hadoop/复制到/home/hadoop/workspace:

cp /home/hadoop/ /home/hadoop/workspace/

文件删除 rm

1. 删除一个文件:/home/hadoop/workspace/

rm /home/hadoop/workspace/

2. 删除一个文件夹:/home/hadoop/workspace/

rm -rf /home/hadoop/workspace/

登录其他机器 ssh

从电脑a(20.20.20.110)链接到电脑b(20.20.20.111)

sshhadoop@20.20.20.111输入密码(think4pai)即可登陆。

机器之间复制 scp

将a机器上的文件:/home/hadoop/workspace/拷贝到b的/home/hadoop目录下:

scp/home/hadoop/workspace/

压缩、解压 tar

1. 新建 将文件打包成。tar包:

tar -cvf

2. 将一个已存在的文件压缩成。gz包:

tar -zcvf

3. 将一个已存在的压缩包,或解压缩:

tar –xvf

tar -zxvf

实验1Linux入门

实验类型 验证性实验。1 了解linux运行环境。2 熟悉linux的常用基本命令。3 熟悉和掌握linux下常用编辑工具vi。1 登录linux。2 熟悉linux的常用基本命令如ls who pwd ps等。3 通过windows操作系统中的ftp程序,练习windows和linux之间的文件交...

实验1Linux入门

实验类型 验证性实验。1 了解linux运行环境。2 熟悉linux的常用基本命令。3 熟悉和掌握linux下常用编辑工具vi。1 登录linux。2 熟悉linux的常用基本命令如ls who pwd ps等。3 通过windows操作系统中的ftp程序,练习windows和linux之间的文件交...

实验1Linux入门

实验类型 验证性实验。1.熟悉linux环境。2.熟悉linux的常用命令。3.掌握在linux下运行一个简单c程序。4.掌握linux与windows之间文件共享。1.linux的登陆。实验环境 虚拟机 redhat 9.0 图形界面 用户名 root 密码 123456 2.在操作命令前,新建一...