信息安全导论实验八

发布 2022-08-27 17:27:28 阅读 6061

实验名称基于windows2003的vpn连接实验。

一.实验目的。

通过实验加深理解vpn的原理与实现,掌握在windows2003中建立vpn网络连接的步骤与方法。

二.实验原理。

路由功能属于开放式的连接,若加了路由,则该网段的所有用户都能实现访问。

vpn则是用户在拥有合法身份的前提下,通过虚拟拨号连入内部网络,并在管理员的分配下使用资源。因此远程用户必须先获取内部网络的合法身份(用户名、密码),再在自己的机器中建立vpn拨号连接,才能成功访问。

三.实验环境与器材。

每组至少3台(一台为网关计算机,需要配置双ip地址,另两台分属不同网段,当然应分别与网关计算机中的两个ip地址同网段!)单机环境中也可通过虚拟系统完成。

四.实验内容及步骤。

1)小组中各计算机ip地址设置。

每3台机器为一个工作组,选择其中的一台机器为做路由的网关主机,其余机器分别设为不同ip地址段的工作站。建议:

机器1:192.168.*0.1代表第几组机器,下同。

机器2:192.168.*1.1

网关计算机:双ip地址,分别为192.168.*0.254和192.168.*1.254。

2)实验环境准备。

在机器1(192.168.*0.1)的d盘中新建一个文件夹abc,里面新建一个最简单的网页用文本编辑器建立并改名为内容是“这是 * 的个人**”)。

将机器1(192.168.*0.1)的d:\abc设为共享:所有人只读。利用以前做过的iis实验将该网页发布在网络中。

本机的虚拟机里并没有d盘符,所以在c盘中建立相关文件夹。

在文件夹中建立文件并写入相关内容:

设置abc文件夹的共享权限,所有人只读:

1)请在网关计算机和另一台计算机中访问该网页,并记录结果(能否访问?)。

2)访问共享资源 \\192.168.*0.1\,记录显示结果。

3)vpn服务器的建立。

1)根据上面规划,添加双ip地址192.168.*0.254和192.168.*1.254。

2)关闭原“路由与远程访问”功能:进入路由与远程访问,停止原来建立的“路由与远程访问”功能。

3)建立vpn服务器。重新配置“路由与远程访问”,选择“vpn服务器”。注意操作时不要选择“radius认证”,自己为拨入用户分配ip地址段,其他按提示操作即可。

设拨入网络为192.168.*0.?

,可分配的ip地址范围为100-130。

重置路由和远程访问服务器:

操作时不要选择“radius认证”

选择vpn。

选择外网网卡,可把复选框取消勾选,以防止在测试过程**现问题。

选择地址池100~130.共有31个地址可用。

选择默认选项:

完成:4)设置拨入用户属性。

进入服务器的“管理工具”“计算机管理”“用户和组”,建立拨入用户及密码。完成后右击该用户,进入“属性”设置,设置为“允许拨入”。

此处规定,用户名统一为testvpn,密码为1234。

属性设置:5)建立客户端拨号连接。

在需要拨入的客户计算机中进行操作。右击“网上邻居”,选择“属性”。在窗口中双击“新建连接”。

选择“连接至vpn网络”。根据提示输入,目标ip地址设为vpn服务器的ip地址(192.168.

*0.254),用户名及密码应使用刚才建立的用户!

完成后即可连接到vpn服务器,并且自动获取刚才设定的ip地址段中的一个ip地址。

用户拨号连接:

6)客户端访问测试。

在拨入的客户计算机中进行操作。

1)访问原先发布的网页,并记录结果(能否访问?)。

2)访问共享资源 \\192.168.*0.1\,记录显示结果。

五.实验小结。

;vpn的作用是组件一个虚拟局域网;vpn作用的对象是处于不同局域网的主机;vpn作用的手段是加密封装需要传输的信息。vpn技术在子网互访中的应用是隐藏双方ip真实地址,实现网络上安全通信。

信息安全导论实验二

public key cryptography and pki 一 实验目的。通过对openssl的熟练应用来完成一系列关于证书的操作,包括公 私钥对的申请 分离公钥 加密 解密 数字签名 测速 计算hash值 安全通信等,加深对于公钥加密 私钥解密的过程和公钥设施 ca等概念的理解。二 实验结果。...

信息安全导论实验一

实验编号 四川师范大学信息安全导论实验报告 2016 年 3 月 30 日。级班实验名称 信息安全导论实验。姓名学号指导老师 谭良实验成绩。实验 1 古典密码算法。一 实验目的及要求。二 实验内容。caesar密码。单表置换密码。仿射密码。维吉尼亚密码。三 实验主要流程 基本操作或核心 算法片段 该...

信息安全导论作业

19 网络爬虫是如何工作的?答 在互联网中,网页之间的链接关系是无规律的,它们的关系非常复杂。如果一个爬虫从一个起点开始爬行,那么它将会遇到无数的分支,由此生成无数条的爬行路径,如果任期爬行,就有可能永远也爬不到头,因此要对它加以控制,制定其爬行的规则。世界上没有一种爬虫能够抓取到互联网所有的网页,...