hadoop_1_linux环境熟悉。
实验目的。hadoop生产环境都是依赖于linux环境,而部分学习人员只有windows平台使用经验,为保证后续各环节的顺利执行,需要让使用者熟悉linux环境的主要操作命令,理解分布式并行计算的核心。熟悉vim编辑器的使用方式,能够通过它来创建修改文件。
如果学习者对linux平台很熟悉,对实验过程中的各个命令很了解,可以跳过本环节。
先决条件。实验人员需要对文件、目录、命令行命令、可读、可写有基本的了解。
linux操作系统已经就绪。
实验过程。进入各级目录 cd
跳转到/home/hadoop目录:
cd /home/hadoop
文件查看 ls ll
1. 查看当前目录下所有文件:
ls -la
2. 查看某个目录下所有文件:
ls –la /home/hadoop/
文本编辑器vim使用。
打开文本 /home/hadoop/
开启文本编辑模式:键盘键入i
退出文本编辑模式:键盘esc
保存并退出编辑的文本::wq
不保存退出编辑的文本::q或者:q!
文件复制 cp
在/home/hadoop/目录下新建和workspace文件夹(mkdir workspace),将文件从/home/hadoop/复制到/home/hadoop/workspace:
cp /home/hadoop/ /home/hadoop/workspace/
文件删除 rm
1. 删除一个文件:/home/hadoop/workspace/
rm /home/hadoop/workspace/
2. 删除一个文件夹:/home/hadoop/workspace/
rm -rf /home/hadoop/workspace/
登录其他机器 ssh
从电脑a(20.20.20.110)链接到电脑b(20.20.20.111)
sshhadoop@20.20.20.111输入密码(think4pai)即可登陆。
机器之间复制 scp
将a机器上的文件:/home/hadoop/workspace/拷贝到b的/home/hadoop目录下:
scp/home/hadoop/workspace/
压缩、解压 tar
1. 新建 将文件打包成。tar包:
tar -cvf
2. 将一个已存在的文件压缩成。gz包:
tar -zcvf
3. 将一个已存在的压缩包,或解压缩:
tar –xvf
tar -zxvf
实验1Linux入门
实验类型 验证性实验。1 了解linux运行环境。2 熟悉linux的常用基本命令。3 熟悉和掌握linux下常用编辑工具vi。1 登录linux。2 熟悉linux的常用基本命令如ls who pwd ps等。3 通过windows操作系统中的ftp程序,练习windows和linux之间的文件交...
实验1Linux入门
实验类型 验证性实验。1 了解linux运行环境。2 熟悉linux的常用基本命令。3 熟悉和掌握linux下常用编辑工具vi。1 登录linux。2 熟悉linux的常用基本命令如ls who pwd ps等。3 通过windows操作系统中的ftp程序,练习windows和linux之间的文件交...
实验1Linux入门
实验类型 验证性实验。1.熟悉linux环境。2.熟悉linux的常用命令。3.掌握在linux下运行一个简单c程序。4.掌握linux与windows之间文件共享。1.linux的登陆。实验环境 虚拟机 redhat 9.0 图形界面 用户名 root 密码 123456 2.在操作命令前,新建一...