第一篇:网络存储实验报告
湖北文理学院
《
网络存储
》
实验报告
专业班级:
计科 1211
姓
名:
***
学
号:
***
任课教师:
李学峰
2014 年 11 月 16 日
实验 01Windows 2003 的磁盘阵列技术
一、实验目的
1.掌握在 Windows 2003 环境下做磁盘阵列的条件和方法。
2.掌握在 Windows 2003 环境下实现 RAID0 的方法。
3.掌握在 Windows 2003 环境下实现 RAID1 的方法。
4.掌握在 Windows 2003 环境下实现 RAID5 的方法。
5.掌握在 Windows 2003 环境下实现恢复磁盘阵列数据的方法。
二、实验要求
1. 在 Windows 2003 环境下实现 RAID0
2. 在 Windows 2003 环境下实现 RAID1
3. 在 Windows 2003 环境下实现 RAID5
4. 在 Windows 2003 环境下实现恢复磁盘阵列数据
三、实验原理
(一)磁盘阵列 RAID 技术的概述
RAID 是一种磁盘容错技术,由两块以上的硬盘构成冗余,当某一块硬盘出现物理损坏时,换一块同型号的硬盘即可自行恢复数据。RAID 有 RAID0、RAID1、RAID5 等。RAID 技术是要有硬件来支持的,即常说的 RAID 卡,如果没 RAID 卡或 RAID 芯片,还想做 RAID,那就要使用软件 RAID 技术,微软 Windows 系统只有服务器版本才支持软件 RAID 技术,如 Windows Server 2003 等。
(二)带区卷(RAID0)
带区卷是将多个(2-32 个)物理磁盘上的容量相同的空余空间组合成一个卷。需要注意的是,带区卷中的所有成员,其容量必须相同,而且是来自不同的物理磁盘。带区卷是 Windows 2003 所有磁盘管理
功能中,运行速度最快的卷,但带区卷不具有扩展容量的功能。它在保存数据时将所有的数据按照 64KB 分成一块,这些大小为 64KB 的数据块被分散存放于组成带区卷的各个硬盘中。
(三)镜像卷(RAID1)
镜像卷是单一卷的两份相同的拷贝,每一份在一个硬盘上。它提供容错能力,又称为 RAID1 技术。
RAID1 的原理是在两个硬盘之间建立完全的镜像,即所有数据会被同时存放到两个物理硬盘上,当一个磁盘出现故障时,系统仍然可以使用另一个磁盘内的数据,因此,它具备容错的功能。但它的磁盘利用率不高,只有 50%。
四、实验设备
1.一台装有 Windows Server 2003 系统的虚拟机。
2.虚拟网卡一块,类型为“网桥模式”。
3.虚拟硬盘五块。
五、实验步骤
(一)组建 RAID 实验的环境
(二)初始化新添加的硬盘
(三)带区卷(RAID0 的实现)
(四)磁盘阵列(RAID1 的实现)
(五)带奇偶校验的带区卷(RAID5 的实现)
(六)磁盘阵列数据的恢复
六、实验体会
在这次试验中我知道了磁盘阵列有两种方式可以实现,那就是 “软件阵列”与 “硬件阵列”。
软件阵列是指通过网络操作系统自身提供的磁盘管理功能将连接的普通 SCSI 卡上的多块硬盘配置成逻辑盘,组成阵列。如微软的Windows NT/2000Server/Server2003 和 NetVoll 的 NetWare 两种操作系统都可以提供软件
阵列功能,其中 Windows NT/2000 Server/Server 2003 可以提供 RAID 0、RAID1、RAID5; NetWare 操作系统可以实现 RAID1 功能。软件阵列可以提供数据冗余功能,但是磁盘子系统的性能会有所降低,有的降代还比较大,达 30%左右。硬件阵列是使用专门的磁盘阵列卡来实现的,这就是本文要介绍的对象。现在的非入门级服务器几乎都提供磁盘阵列卡,不管是集成在主板上或非集成的都能轻松实现阵列功能。
硬件阵列能够提供在线扩容、动态修改阵列级别、自动数据恢复、驱动器漫游、超高速缓冲等功能。它能提供性能、数据保护、可靠性、可用性和可管理性的解决方案。磁盘阵列卡拥有一个专门的处理器,如 Intel的 I960 芯片,HPT370A/372、Silicon Image SIL3112A 等,还拥有专门的存贮器,用于高速缓冲数据。这样一来,服务器对磁盘的操作就直接通过磁盘阵列卡来进行处理,因此不需要大量的 CPU 及系统内存资源,不会降低磁盘子系统的性能。阵列卡专用的处理单元来进行操作,它的性能要远远高于常规非阵列硬盘,并且更安全更稳定。
实验 02
x Linux 下实现 D RAID 磁盘阵列 列 一、实验目的1.掌握在 Linux 环境下做磁盘阵列的条件和方法。
2.掌握在 Linux 环境下实现 RAID0、RAID 1、RAID 5 的方法。
3.掌握在 Linux 环境下实现恢复磁盘阵列数据的方法。
二、实验要求
1. 在 Linux 环境下实现 RAID0、RAID 1、RAID 5
2. 在 Linux 环境下实现恢复磁盘阵列数据
三、实验过程
1.在 VM 中新建了三块 200M 的硬盘.用于实验.2.安装 mdadm 软件包.3.用 fdisk 命令初始化三块新硬盘
4.RAID1 磁盘阵列的硬盘使用情况.5.开始创建磁盘阵列.
6.格式化阵列磁盘.
7.下面新建目录.用于实验.
8.下面可以基本验证 RAID1 配置是否成功.9.下面编辑 mdadm.conf 配置文件.10.编辑 rc.local 文件,添加命令使 RAID1 能开机自动运行.11.下面将第三块磁盘删除,模拟磁盘阵列出现故障.
12.开机重新启动 linux.挂载阵列设备
13.到此 RAID1 磁盘阵列配置成功.四、实验体会
在这次试验中我知道了在 Linux 系统中目前以 MD(Multiple Devices)虚拟块设备的方式实现软件 RAID,利用多个底层的块设备虚拟出一个新的虚拟块设备,并且利用条带化(stripping)技术将数据块均匀分布到多个磁盘上来提高虚拟设备的读写性能,利用不同的数据冗余算法来保护用户数据不会因为某个块设备的故障而完全丢失,而且还能在设备被替换后将丢失的数据恢复到新的设备上。
实验 M 03
LVM 逻辑卷管理 一、实验目的1、掌握利用 LVM 创建磁盘分区的方法。
2、掌握利用 Disk Druid 中的 LVM 创建磁盘分区的方法。
二、项目背景
某企业在 Linux 服务器中新增了一块硬盘/dev/sdb,要求 Linux 系统的分区能自动调整磁盘容量。请使用 fdisk 命令在新建/dev/sdb1、/dev/sdb2、/dev/sdb3 和/dev/sdb4 为 LVM 类型,并在这四个分区上创建物理卷、卷组和逻辑卷。最后将逻辑卷挂载。
三、实验内容
1.物理卷、卷组、逻辑卷的创建;卷组、逻辑卷的管理。
2.LVM 命令
四、实验步骤
1.创建 LVM 分区
(1)在虚拟机上添加 4 块硬盘;(假设这 4 块硬盘分别是 sdc、sdd、ade、sdf)
(2)利用 fdisk 命令对硬盘进行初始化在/dev/sdc,(可以参考上一个实验)如下所示:
(3)建立物理卷
(4)建立卷组
(5)建立逻辑卷
2. LVM 逻辑卷的管理
(1)增加新的物理卷到卷组
(2)逻辑卷容量的动态调整
(3)删除逻辑卷-卷组-物理卷(必需按照先后顺序来执行删除)
3.物理卷、卷组和逻辑卷的检查
(1)物理卷的检查
(2)卷组的检查
(3)逻辑卷的检查
五、实验体会
在这次试验中我知道了 LVM 是逻辑卷管理(Logical Volume Manager)的简称,它是 Linux 环境下对磁盘分区进行管理的一种机制,LVM 是建立在硬盘和分区之上,文件系统之下的一个逻辑层,来提高磁盘分区管理的灵活性。通过 LVM 系统管理员可以轻松管理磁盘分区,如:将若干个磁盘分区连接为一个整块的卷组(volume group),形成一个存储池。管理员可以在卷组上随意创建逻辑卷组(logical volumes),并进一步在逻辑卷组上创建文件系统。管理员通过 LVM 可以方便的调整存储卷组的大小,并且可以对磁盘存储按照组的方式进行命名、管理和分配,例如按照使用用途进行定义:
“ development ” 和 “ sales ”,而不是使用物理磁盘名“ sda ”和“sdb”。而且当系统添加了新的磁盘,通过 LVM 管理员就不必将磁盘的文件移动到新的磁盘上以充分利用新的存储空间,而是直接扩展文件系统跨越磁盘即可。
实验 0 04 4
配置磁盘配额 一、实验目的1、掌握磁盘配额的工作原理
2、掌握 Windows 环境下磁盘配额的配置方法。
3、掌握 Linux 环境下磁盘配额的配置方法。
二、实验内容
1.在 Windows 环境下,设置磁盘配额,并验证;具体操作步骤请参考“实验 04 磁盘配额-Windows”。
1.启用磁盘配额
2.设置默认的的配额
3.设置个人配额项
2.在 Linux 环境下,设置磁盘配额,并验证。
1.创建 myquota 用户,对此用户设置磁盘配额。
2.创建一个逻辑分区,对此分区设置配额。
3.创建文件 sda6 的挂载点
4.使用 quotacheck 命令生成配置磁盘配置的数据库文件,若selinux 开启的话会提示权限不够,通过 setenforce 0 临时关掉selinux 就可以了,quotacheck 执行成功可以看到/quota/下面多了两个文件。然后通过 quotaon /quota/启动对应文件系统上的磁盘配额功能。
5.通过 edquota-u myquota 配置用户 myquota 对这个磁盘分区的使用配额。还可以通过
edquota-g groupname 对 groupname 这个组设定配额
验证:
1.测试之前要给 myquota 这个用户对/quota 目录写权限。
对文件的个数进行测试:
对可以使用的容量大小测试:
2.切换 root 用户使用 repquota-a 可以查看当前各磁盘配额的使用情况。从下图可以看出 myquota 用户已经达到了磁盘使用的最大容量限制。
3.需要注意的是,当用户触发软限制时,grace time 就会倒计时,在这个时间(默认是 7 天)没有耗尽之前,若用户还不清理磁盘使之符合软限制的要求,则软限制就会变成硬限制,这个时间叫宽限期。可以通过 edquota-t 设置这个时间,分别设置容量和文件数量的宽限期。
三、实验体会
在这次试验中我知道了磁盘配额就是管理员可以为用户所能使用的磁盘空间进行配额限制,每一用户只能使用最大配额范围内的磁盘空间。设置磁盘配额后,可以对每一个用户的磁盘使用情况进行跟踪和控制,通过监测可以标识出超过配额报警阈值和配额限制的用户,从而采取相应的措施。磁盘配额管理功能的提供,使得管理员可以方便合理地为用户分配存储资源,可以限制指定账户能够使用的磁盘空间,这样可以避免因某个用户的过度使用磁盘空间造成其他用户无法正常工作甚至影响系统运行避免由于磁盘空间使用的失控可能造成的系统崩溃,提高了系统的安全性。
实验 05
S linuxNFS 服务器配置与管理 一、实验目的1.掌握 NFS 的工作机制;
2.掌握 Linux 下,NFS 的安装、配置、状态查看等基本操作;
3.掌握使用 NFS 实现文件共享的基本方法及操作。
二、实验基本操作1 .S NFS 服务器的启动与停止
1、查询服务器状态
2、启动服务器
3、停止服务器
4、设置服务器的开机启动状态
t 2.showmount 命令
1、showmount 命令的帮助信息
2、显示主机的 NFS 服务器信息
3、显示 NFS 服务器的输入目录列表
4、显示 NFS 服务器中被挂载的共享目录
5、显示 NFS 服务器的客户机与被挂载的目录
3.
expos rtfs 命令
1、重新输出共享目录
2、停止输出所有目录
3、输入(启用)所有目录
4.
在 在 x Linux 中配置使用 S NFS 客户端
1、显示 NFS 服务器的输出
2、挂载 NFS 服务器中的共享目录
3、显示当前主机挂载的 NFS 共享目录
4、卸载系统中已挂载的 NFS 共享目录
5、系统启动时自动挂在 NFS 文件系统
三、实验体会
在这次试验中我知道了 NFS 的配置都保存在/etc/exports文件中,它是共享资源的访问控制列表,不仅可以在此新建共享资源,同时也能对访问共享资源的客户端进行权限管理。在/etc/exports 文件中,特别要注意“空格”的使用,除了共享目录和共享主机,以及多台共享主机之间,用到空格,其余地方都不可使用空格。客户端 client 对/home 目录具有读、写权限。client 对/home 目录只具有读权限(这是系统对所有客户端的默认值)。而除 client 之外的其他客户端对/home 目录具有读、写权限。
实验 x 06 Linux 和 和 s Windows 互访----a Samba 服务器配置
一、实验目的
1.了解 Samba 配置文件的基本构成。
2.掌握在 Linux 中利用 Samba 进行资源共享的方法。
3.学会 Samba 配置文件的构建方法。
4.掌握从 Windows 访问 Linux 中共享文件的配置方法;
5.掌握从 Linux 访问 Windows 中共享文件的配置方法;
二、实验原理
Samba 是一个工具套件,可以让用户在 UNIX 系统上实现 SMB(Session Message Block)协议,或者称之为 NETBIOS/LanManager协议。
SMB 协议通常被 Windows 系列用来实现磁盘和打印机共享。
在 Linux 上安装 Samba 服务,可以实现 Linux 与 Windows 系统的文件共享和打印机共享。
三、实验内容
(一)
从 Windows 访问 Linux
1、安装 Samba 服务
(1)检测本地是否安装 Samba 服务,从图中可以看出本机已经安装了 samba 服务。
(2)如果没有安装,请放入第二张光盘,然后进行安装
2、配置共享型 Samba 服务器
所谓共享型 Samba 服务器就是无需身份验证,类似匿名的 FTP。
(1)备份 samba 配置文件,养成一个好习惯,配置任何服务的时候最好将原配置文件做一下备份
(2)创建共享目录及修改访问权限
(3)编辑配置文件 vi /etc/samba/smb.conf,在文件底部复制[myshare]内容,然后修改如下
(4)启动 samba 服务
(5)查看本机 Linux 的 IP 地址
(6)打开 Windows 客户端搜索 192.168.140.134 地址
(7)测试写入权限,新建一个写入成功啦!!!.txt
3、配置用户型 samba 服务器
所谓用户型 samba 服务器,就是用户登陆时提供身份验证,未经允许的用户是不能进行访问的。
(1)还原 smb 配置文件,停止 smb 服务
(2)编辑 smb.conf,设置安全级别为 user 级别
(3)启用 samba 验证密码
(4)设置一个只允许 user1 访问的共享
(5)添加系统用户
(6)添加 samba 用户
(7)启动 samba 服务器
(8)客户端搜索 samba 服务器,以 user1 身份登陆
(9)可以看到 user1 目录与 myshare 目录,并可以访问 myshare目录
(10)删除刚才默认的链接(在 Windows 命令窗口)
(11)以 user2 身份登陆,无法访问 myshare 共享
(二)
从 Linux 访问 Windows
1、Windows 共享 ABC 目录,并开启 guest 用户
2、列出 Windows 服务器里的所有共享目录
3、查看 Windows 服务器的 ABC 目录里的文件
4、将 Windows 服务器的 ABC 共享目录挂载到mnt 目录下
四、实验体会
在这次试验中我知道了 samba 包括两个服务器守护进程,smbd 和nmbd。这两个进程各司其职,功用不同:smbd 是 samba 服务的内核,是建立对话、验证用户、提供文件系统和打印服务的基础,负责硬盘驱动器和打印机的共享。用户通过客户端访问这个进程来进行文件和打印机共享;nmbd 实现的是网络浏览,使得 samba 服务器显示在windows 的网络邻居中,同时允许用户浏览可用资源。它负责 NETBIOS信息的管理和传递,使得 windows 的用户可以在 Explorer 中使用“serverip”来访问 samba 的共享文件。
第二篇:网络信息存储论文
网络信息存储技术
[摘要]当我们进入互联网时代时,便也开始了大数据时代之旅。网络信息的快速传递,多媒体技术的高速发展,使得信息存储技术尤为重要,而网络存储技术因其结构灵活,性能较好,可扩展性强等优势在各类存储技术中占有重要的地位。网络存储大致分为三类:直接连接存储,网络附加存储,存储区域网。三类存储方式各有不同,也各有优劣,但都给我们的学习,生活带来了很大的便利。下面将对这三种存储方式优劣性及未来发展进行分析。[关键字]直接连接存储 网络附加存储 存储区域网
一、直接连接存储
直接连接存储技术(DAS:Direct Attached Storage):这是一种直接与与主机系统相连接的存储设备,应用程序发送块级别I∕O请求直接从DAS访问数据,如作为服务器的计算机内部硬件驱动。DAS是计算机系统最常用的数据存储方法。因此这项存储技术时刻存在于我们的学习生活中,体现了其重要的价值。1.DAS的分类
DAS可以分为内直连式存储和外直连式存储。内直连式存储系统是指存储设备与服务器通过串行或并行SCSI总接线口电缆直接集成在一起,但SCSI总线自身有传输距离和挂载设备的限制。外直连式存储通过SCSI或光纤通道将服务器和外部的存储设备直接连接。内直连式存储与外直连式存储相比,后者可通过光纤通道克服传输距离和挂载设备的限制。更多时候,外直连式存储更方便我们的使用。
2.DAS技术的安全评估
我们在利用DAS去解决问题或者方案时,需要意识到DAS本身就具有一些问题,这可能导致做出的对应方案是不太适当的。如若想把方案做出更好的效果,就应该在DAS本身下功夫。然而这并没有想像之中那么容易,因为想把DAS 技术建设得更为安全和实用,这将会涉及很多方面问题: 2.1数据分类
数据安全是DAS很重要的一个方面,因此,如果能建立一个良好的数据分类机制,并根据我们的分类对数据进行分析,将会给存储技术带来一个良好的开端。2.2采用标准
我们应当选择一个安全方法学作为安全工作的指导。2.3制定规划
我们要制定一套完整的安全规划,从数据分类开始,对不同的DAS技术进行安全分析,并建立与数据间的关系,确保能提供最佳的数据安全性能。2.4利用评估矩阵
评估矩阵的方法可以消除人们的偏见。当安全选件,安全指标或DAS技术发生变化时,我们应当及时对评估矩阵作出修订,以确保评估的准确性。2.5绘制评估结果
将评估结果绘制成图表的形式并利用这些图表来保证性能指标与安全指标间的协调。
2.6寻求最安全的技术 尽可能选用最安全的DAS技术,当被选用的DAS技术是可靠的,便可以事半功倍了。
2.7尽可能回避主流产品
一项技术所占用的市场份额越大,就越容易成为黑客的攻击目标。所以如果可以找到价格适宜并且性能适合就可以了。2.8容错选件
要了解数据安全与容错之间的关系。2.9强调身份管理
对于关键的信息进行身份管理有利于信息追踪,保证安全。2.10灾害恢复选项
数据的重要性不言而喻,在注重“活动数据”的同时也要高度重视备份数据。2.11限制
对于评估过程中遇到的任何安全限制都要有记录。3.DAS的优缺点
对于少量PC机或服务器,使用直连式存储连接简单,易于配置和管理,费用较低,但在这种连接方式下,每台计算机单独拥有自己的存储磁盘,所以不利于存储器的充分利用,以及和服务器之间的联系。存储系统没有集中统一的管理方案,也不利于数据的维护,因此直连式存储不适合作为企业级的存储解决方案。
二.网络附加存储
NAS(NetworkAttachedStorage:网络附属存储)是一种将分布、独立的数据整合为大型、集中化管理的数据中心,以便于对不同主机和应用服务器进行访问的技术。同时NAS被定义为一种特殊的专用数据存储服务器,包括存储器件(例如磁盘阵列、CD/DVD驱动器、磁带驱动器或可移动的存储介质)和内嵌系统软件,可提供跨平台文件共享功能。1.NAS的构成
NAS网络存储的构成一:除CPU关键外,存储模块主要是提供对IDE/EIDE,SCSI,总线技术的支持,提供工业标准EIDE 控制器,SCSI控制器,阵列控制器,使得系统可以任意连接各种设备,如光盘塔,磁盘阵列等。
NAS网络存储的构成二:网络控制模块,实际上是实现网络适配器的功能,用于进行数据帧的生成,识别与传输,数据编译,地址译码,数据传输的出错检测和硬件故障的检测等。2.NAS技术的安全评估
因为NAS设备是网络结构的一个重要的组成部分,所以它的数据和设备保护非常关键。然而其实企业中经常使用的如CD-ROM,CD-RM等设备已经采用NAS技术多年了,因此会被安全规划所遗漏。企业和组织因为每天都会收到大量的新的数据,为了节省存储空间,他们可能只保存了短时间内的数据。因此设备的安全很重要。
3.NAS的优与劣 3.1优势
优点方面:
NAS的部署非常简单,只须与传统交换机连接即可;它的成本较低,因为NAS的投资仅限于一台NAS服务器;并且NAS服务器的管理非常简单,它一般都支持Web的客户端管理,对熟悉操作系统的网络管理人员来说,其设置既熟悉又简单。3.2缺点:
从性能上看,由于与应用使用同一网络,NAS会增加网络拥塞,反过来,NAS性能也严重受制于网络传输数据能力其次,它的扩展性是一个问题。增加一个NAS设备相对简单,但我们很难按应用来做存储的动态分配,也很难在NAS内部进行存储扩展;从数据安全性看,NAS一般只提供两级用户安全机制,虽然这能简化使用,但还需要用户额外增加适当级别的文件安全手段。然而,当发生硬件性或软件故障时,整个系统处于瘫痪状态,短时间内很难恢复。
三:存储区域网
SAN(Storage Area Network)。是用来在计算机系统和存储单元以及存储单元之间进行数据传输的网络系统,SAN包含一个通信系统基础结构,包括物理连接、管理层、存储单元和计算机系统,以确保数据传输的安全性和稳定性,是计算机技术的一种。SAN可以被看作是存储总线概念的一个扩展,它使用局域网(LAN)和广域网(WAN)中类似的单元,实现存储设备和服务器之间的互连。这些单元包括:路由器、集线器、交换机和网关。1.SAN的构成
SAN是由各个不同的技术组成,其中包括了光纤通道技术、磁盘阵列系统、主机平台技术及应用技术,在SAN中,传输数据采用的都是光纤通道协议(FCP)。根据设备功能的不同可以将其中的设备大致分为如下几种:cable和连接器(connector)光纤路径线缆;机适配器(HBA)主机适配卡(HBA);纤通道仲裁环路(FC-AL)HUB;光纤通道switch以及他的储存设备。2.SAN的安全基础
主动出击会把自己置于比较主动的地位,比较有利于事态的发展,掌握主动性。当然在SAN安全方面也如此。如果我们可以找出SAN存储技术上的不足或劣势,有针对性地找出解决方案,来确保掌握在自己手中的SAN计划是可靠有用的。要彻底地解决安全问题,就需要从多个方面去研究,如:设备的可管理性,访问控制管理,行政管理,身份验证,客户的伸缩性和灵活性,安全区域划分及安全控制和安全统计等。
3.SAN的优与劣 3.1优点
SAN可实现大容量存储设备数据共享;实现高速计算机与高速存储设备的高速互联;可实现灵活的存储设备配置要求;可实现数据快速备份同时也提高了数据的可靠性和安全性。3.2缺点
SAN有两个较大的缺陷:成本和复杂性,特别是在光纤信道中这些缺陷尤其明显。使用光纤信道的情况下,合理的成本大约是1千兆或者两千兆大概需要五万到六万美金。从另一个角度来看,虽然新推出的基于iSCSI的SAN解决方案大约只需要两万到三万美金,但是其性能却无法和光纤信道相比较。在价格上的差别主要是由于iSCSI技术使用的是现在已经大量生产的吉比特以太网硬件,而光纤通道技术要求特定的价格昂贵的设备。
四:结束语
在信息高速发展的时代里,我们需要紧跟时代的脚步,在大数据时代里,网络存储占有重要的一席之地。不管哪门技术都皆有利弊,但利弊权衡之间,必是利大于弊的事物才能真正地给人们带来便利,带领着创新者们在时代的康庄大道上越走越远。因此,我们可以预见到网络信息存储技术美好及长远的未来:存储技术本身越来越人性化,给人们带来的便利也越来越多。
参考文献:
[1]John Chirillo,Scott Blaul 著 存储安全技术[M].北京:电子工业出版社,2004 [2]刘凯,刘博.存储技术基础[M].陕西:西安电子科技大学出版社,2011 [3]刘洋.信息存储技术原理分析[M].北京:经济管理出版社,2014 [4]张建谢.基于网络的信息存储技术[J].河西学院学报,2008 第24卷第2期 [5]刘兰.网络信息资源长期保存的问题与挑战[J].图书馆杂志,2009年3期 [6]石亮军.网络环境下信息存储与检索技术的发展[J].电子制作,2013年7期 [7]百度百科http://baike.baidu.com/link? [8]http://
[9]http://wenku.baidu.com/view/aad2390952ea551810a687d6.html
第三篇:线性表的链式存储结构实验报告
实验报告
课程名称:数据结构与算法分析 实验名称:链表的实现与应用
实验日期:2015.01.30 班级: 数媒1401 姓名: 范业嘉 学号 1030514108
一、实验目的
掌握线性表的链式存储结构设计与基本操作的实现。
二、实验内容与要求
⑴定义线性表的链式存储表示;
⑵基于所设计的存储结构实现线性表的基本操作;
⑶编写一个主程序对所实现的线性表进行测试;
⑷线性表的应用:①设线性表L1和L2分别代表集合A和B,试设计算法求A和B的并集C,并用
线性表L3代表集合C;②(选做)设线性表L1和L2中的数据元素为整数,且均已按值非递减有序排列,试设计算法对L1和L2进行合并,用线性表L3保存合并结果,要求L3中的数据元素也按值非递减有序排列。
⑸设计一个一元多项式计算器,要求能够:①输入并建立多项式;②输出多项式;③执行两个多项式相加;④执行两个多项式相减;⑤(选做)执行两个多项式相乘。
三、数据结构设计
1.按所用指针的类型、个数、方法等的不同,又可分为:
线性链表(单链表)
静态链表
循环链表
双向链表
双向循环链表
2.用一组任意的存储单元存储线性表中数据元素,用指针来表示数据元素间的逻辑关系。
四、算法设计
1.定义一个链表
void creatlist(Linklist &L,int n){ int i;Linklist p,s;L=(Linklist)malloc(sizeof(Lnode));p=L;L->next=NULL;for(i=0;i s=(Linklist)malloc(sizeof(Lnode)); scanf(“%d”,&s->data); s->next=NULL; p->next=s; p=s; / 8 } } 2.(1)两个链表的合并 void Mergelist(Linklist &La,Linklist &Lb,Linklist &Lc){ Linklist pa,pb,pc;pa=La->next;pb=Lb->next;Lc=pc=La;while(pa&&pb){ if(pa->data<=pb->data) {pc->next=pa;pc=pa;pa=pa->next;} else {pc->next=pb;pc=pb;pb=pb->next;} } pc->next=pa?pa:pb;free(Lb);}(2)两个链表的并集 Linklist unionlist(Linklist &La,Linklist &Lb){ Linklist p1,p2,head,q,s;int flag;head=q=(Linklist)malloc(sizeof(Lnode));p1=La->next;while(p1){ flag=0; p2=Lb->next; while(p2) { if(p1->data==p2->data) { flag=1; break; } p2=p2->next; } if(flag==0) { s=(Linklist)malloc(sizeof(Lnode)); s->data=p1->data; q->next=s; q=s; } p1=p1->next;/ 8 } q->next=Lb->next;return head; } 3.(1)一元多项式的加法 List addpoly(List pa,List pb) //一元多项式的加法 { int n;List pc,s,p;pa=pa->next;pb=pb->next;pc=(List)malloc(sizeof(struct Linklist));pc->next=NULL;p=pc;while(pa!=NULL&&pb!=NULL){ if(pa->expn>pb->expn) { s=(List)malloc(sizeof(struct Linklist)); s->expn=pa->expn; s->coef=pa->coef; s->next=NULL; p->next=s; p=s; pa=pa->next; } else if(pa->expn expn) { s=(List)malloc(sizeof(struct Linklist)); s->expn=pb->expn; s->coef=pb->coef; s->next=NULL; p->next=s; p=s; pb=pb->next; } else { n=pa->coef+pb->coef; if(n!=0) { s=(List)malloc(sizeof(struct Linklist)); s->expn=pa->expn;/ 8 s->coef=n; s->next=NULL; p->next=s; p=s; } pb=pb->next; pa=pa->next; } } while(pa!=NULL){ s=(List)malloc(sizeof(struct Linklist)); s->expn=pa->expn; s->coef=pa->coef; s->next=NULL; p->next=s; p=s; pa=pa->next;} while(pb!=NULL){ s=(List)malloc(sizeof(struct Linklist)); s->expn=pb->expn; s->coef=pb->coef; s->next=NULL; p->next=s; p=s; pb=pb->next;} return pc;} (2)一元多项式的减法 List subpoly(List pa,List pb) //一元多项式的减法 { int n;List pc,s,p;pa=pa->next;pb=pb->next;pc=(List)malloc(sizeof(struct Linklist));pc->next=NULL;p=pc;while(pa!=NULL&&pb!=NULL){ if(pa->expn>pb->expn) / 8 { s=(List)malloc(sizeof(struct Linklist)); s->expn=pa->expn; s->coef=pa->coef; s->next=NULL; p->next=s; p=s; pa=pa->next;} else if(pa->expn expn){ s=(List)malloc(sizeof(struct Linklist)); s->expn=pb->expn; s->coef=-pb->coef; s->next=NULL; p->next=s; p=s; pb=pb->next;} else { n=pa->coef-pb->coef; if(n!=0) { s=(List)malloc(sizeof(struct Linklist)); s->expn=pa->expn; s->coef=n; s->next=NULL; p->next=s; p=s; } pb=pb->next; pa=pa->next;} } while(pa!=NULL){ s=(List)malloc(sizeof(struct Linklist));s->expn=pa->expn;s->coef=pa->coef;s->next=NULL;p->next=s;p=s;pa=pa->next;} / 8 while(pb!=NULL){ s=(List)malloc(sizeof(struct Linklist)); s->expn=pb->expn; s->coef=-pb->coef; s->next=NULL; p->next=s; p=s; pb=pb->next;} return pc;}(3)一元多项式的乘法 void mulpolyn(polynomail pa,polynomail pb,polynomail &pc){ LNode *p,*q,*s,*hc;p=pa->next;q=pb->next;hc=pc;while(p!=NULL){ while(q!=NULL) { s=(polynomail)malloc(sizeof(LNode)); hc->next=s; hc=hc->next; hc->coef=q->coef*p->coef; hc->expn=q->expn+p->expn; q=q->next; } p=p->next; q=pb->next;} hc->next=NULL;} / 8 五、测试结果 2.3.7 / 8 六、心得体会(包括对于本次实验的小结,实验过程中碰到的问题等) 1.首先书上给的链表输入是倒序的,写的时候想都没想就抄上去了,结果运行时发现问题,可是上网百度依然没有把问题解决,导致最后输出链表倒序的,并且链表的合并并集依旧是倒序的。 2.当写一元多项式的加减时,前提是弄清楚各种情况,系数相同时就相加减,系数不同就保留原有多项式;当系数相加减为0时,就free这个节点。在做减法时,我考虑到了减数与被减数之间的关系。 3.在做多项式时,我准备按照书上的算法一个一个写小函数,结果到最后发现写不下去了,就去问问同学和上网看看,结果感觉写这个数据结构的程序其实不必想麻烦了,只是指针,数组的高级运用。 / 8 通信网络实验报告 实验一 隐终端和暴露终端问题分析 一、实验目的1、2、3、4、了解无线网络中的载波检测机制; 熟悉节点的传输范围、冲突干扰范围、载波检测范围和噪声干扰范围的概念; 了解载波检测接入体制中存在的隐终端问题和暴露终端问题; 结合仿真实验分析载波检测无线网络中的隐终端问题和暴露终端问题。 二、实验结果 Node: 1, Layer: AppCbrClient,(0)Server address: 2 Node: 1, Layer: AppCbrClient,(0)First packet sent at [s]: 0.000000000 Node: 1, Layer: AppCbrClient,(0)Last packet sent at [s]: 99.990000000 Node: 1, Layer: AppCbrClient,(0)Session status: Not closed Node: 1, Layer: AppCbrClient,(0)Total number of bytes sent: 5120000 Node: 1, Layer: AppCbrClient,(0)Total number of packets sent: 10000 Node: 1, Layer: AppCbrClient,(0)Throughput(bits per second): 409600 Node: 2, Layer: AppCbrServer,(0)Client address: 1 Node: 2, Layer: AppCbrServer,(0)First packet received at [s]: 0.007438001 Node: 2, Layer: AppCbrServer,(0)Last packet received at [s]: 99.999922073 Node: 2, Layer: AppCbrServer,(0)Average end-to-end delay [s]: 0.739902205 Node: 2, Layer: AppCbrServer,(0)Session status: Not closed Node: 2, Layer: AppCbrServer,(0)Total number of bytes received: 4975616 Node: 2, Layer: AppCbrServer,(0)Total number of packets received: 9718 Node: 2, Layer: AppCbrServer,(0)Throughput(bits per second): 398078 Node: 3, Layer: AppCbrClient,(0)Server address: 4 Node: 3, Layer: AppCbrClient,(0)First packet sent at [s]: 0.000000000 Node: 3, Layer: AppCbrClient,(0)Last packet sent at [s]: 99.990000000 Node: 3, Layer: AppCbrClient,(0)Session status: Not closed Node: 3, Layer: AppCbrClient,(0)Total number of bytes sent: 5120000 Node: 3, Layer: AppCbrClient,(0)Total number of packets sent: 10000 Node: 3, Layer: AppCbrClient,(0)Throughput(bits per second): 409600 Node: 4, Layer: AppCbrServer,(0)Client address: 3 Node: 4, Layer: AppCbrServer,(0)First packet received at [s]: 0.003058001 Node: 4, Layer: AppCbrServer,(0)Last packet received at [s]: 99.993058001 Node: 4, Layer: AppCbrServer,(0)Average end-to-end delay [s]: 0.003119031 Node: 4, Layer: AppCbrServer,(0)Session status: Not closed Node: 4, Layer: AppCbrServer,(0)Total number of bytes received: 5120000 Node: 4, Layer: AppCbrServer,(0)Total number of packets received: 10000 Node: 4, Layer: AppCbrServer,(0)Throughput(bits per second): 409612 三、实验结果分析 通过仿真结果可以看出,节点2无法收到数据。由于节点3是节点1的一个隐终端,节点1无法通过物理载波检测侦听到节点3的发送,且节点3在节点2的传输范围外,节点3无法通过虚拟载波检测延迟发送,所以在节点1传输数据的过程中,节点3完成退避发送时将引起冲突。 四、思考题 1、RTS/CTS能完全解决隐终端问题吗?如果不能,请说明理由。 从理论分析上看,RTS/CTS协议似乎可以完全解决数据链隐藏终端问题,然而在实际网络中并非如此,尤其是在AdHoc 网络中。以节点为中心,存在发送区域和干扰区域。在发送区域内,在没有干扰的情况下,数据包可正常收发;该区域的大小由站点的功率等参数确定,可视为定值。干扰区域是相对于接受节点而言的,在该区域内,节点可以受到来自非相关节点发送的数据的干扰,造成冲突、丢包。RTS/CTS对隐藏终端问题的屏蔽实际上是建立在两区域相等的基础上的,即所有的隐藏终端都位于接受节点发送范围内。此中假设并不成立,干扰区域与收发节点间距有关。 实验二 无线局域网DCF协议饱和吞吐量验证 一、实验目的 1、了解IEEE 802.11 DCF 协议的基本原理。 2、理解网络饱和吞吐量的概念。 3、通过仿真对DCF协议饱和吞吐量的二维马尔可夫链模型进行验证。 二、实验结果 Node: 1, Layer: AppCbrClient,(4)Server address: 55 Node: 1, Layer: AppCbrClient,(4)First packet sent at [s]: 0.000000000 Node: 1, Layer: AppCbrClient,(4)Last packet sent at [s]: 99.990000000 Node: 1, Layer: AppCbrClient,(4)Session status: Not closed Node: 1, Layer: AppCbrClient,(4)Total number of bytes sent: 5120000 Node: 1, Layer: AppCbrClient,(4)Total number of packets sent: 10000 Node: 1, Layer: AppCbrClient,(4)Throughput(bits per second): 409600 Node: 1, Layer: AppCbrClient,(3)Server address: 54 Node: 1, Layer: AppCbrClient,(3)First packet sent at [s]: 0.000000000 Node: 1, Layer: AppCbrClient,(3)Last packet sent at [s]: 99.990000000 Node: 1, Layer: AppCbrClient,(3)Session status: Not closed Node: 1, Layer: AppCbrClient,(3)Total number of bytes sent: 5120000 Node: 1, Layer: AppCbrClient,(3)Total number of packets sent: 10000 Node: 1, Layer: AppCbrClient,(3)Throughput(bits per second): 409600 Node: 1, Layer: AppCbrClient,(2)Server address: 53 Node: 1, Layer: AppCbrClient,(2)First packet sent at [s]: 0.000000000 Node: 1, Layer: AppCbrClient,(2)Last packet sent at [s]: 99.990000000 Node: 1, Layer: AppCbrClient,(2)Session status: Not closed Node: 1, Layer: AppCbrClient,(2)Total number of bytes sent: 5120000 Node: 1, Layer: AppCbrClient,(2)Total number of packets sent: 10000 Node: 1, Layer: AppCbrClient,(2)Throughput(bits per second): 409600 Node: 1, Layer: AppCbrClient,(1)Server address: 52 Node: 1, Layer: AppCbrClient,(1)First packet sent at [s]: 0.000000000 Node: 1, Layer: AppCbrClient,(1)Last packet sent at [s]: 99.990000000 Node: 1, Layer: AppCbrClient,(1)Session status: Not closed Node: 1, Layer: AppCbrClient,(1)Total number of bytes sent: 5120000 Node: 1, Layer: AppCbrClient,(1)Total number of packets sent: 10000 Node: 1, Layer: AppCbrClient,(1)Throughput(bits per second): 409600 Node: 1, Layer: AppCbrClient,(0)Server address: 51 Node: 1, Layer: AppCbrClient,(0)First packet sent at [s]: 0.000000000 Node: 1, Layer: AppCbrClient,(0)Last packet sent at [s]: 99.990000000 Node: 1, Layer: AppCbrClient,(0)Session status: Not closed Node: 1, Layer: AppCbrClient,(0)Total number of bytes sent: 5120000 Node: 1, Layer: AppCbrClient,(0)Total number of packets sent: 10000 Node: 1, Layer: AppCbrClient,(0)Throughput(bits per second): 409600 Node: 51, Layer: AppCbrServer,(0)Client address: 1 Node: 51, Layer: AppCbrServer,(0)First packet received at [s]: 0.003056858 Node: 51, Layer: AppCbrServer,(0)Last packet received at [s]: 99.995493030 Node: 51, Layer: AppCbrServer,(0)Average end-to-end delay [s]: 0.351972641 Node: 51, Layer: AppCbrServer,(0)Session status: Not closed Node: 51, Layer: AppCbrServer,(0)Total number of bytes received: 5102592 Node: 51, Layer: AppCbrServer,(0)Total number of packets received: 9966 Node: 51, Layer: AppCbrServer,(0)Throughput(bits per second): 408219 Node: 52, Layer: AppCbrServer,(1)Client address: 1 Node: 52, Layer: AppCbrServer,(1)First packet received at [s]: 0.006449537 Node: 52, Layer: AppCbrServer,(1)Last packet received at [s]: 99.998965709 Node: 52, Layer: AppCbrServer,(1)Average end-to-end delay [s]: 0.355584451 Node: 52, Layer: AppCbrServer,(1)Session status: Not closed Node: 52, Layer: AppCbrServer,(1)Total number of bytes received: 5102592 Node: 52, Layer: AppCbrServer,(1)Total number of packets received: 9966 Node: 52, Layer: AppCbrServer,(1)Throughput(bits per second): 408233 Node: 53, Layer: AppCbrServer,(2)Client address: 1 Node: 53, Layer: AppCbrServer,(2)First packet received at [s]: 0.010001809 Node: 53, Layer: AppCbrServer,(2)Last packet received at [s]: 99.992000125 Node: 53, Layer: AppCbrServer,(2)Average end-to-end delay [s]: 0.358534977 Node: 53, Layer: AppCbrServer,(2)Session status: Not closed Node: 53, Layer: AppCbrServer,(2)Total number of bytes received: 3926016 Node: 53, Layer: AppCbrServer,(2)Total number of packets received: 7668 Node: 53, Layer: AppCbrServer,(2)Throughput(bits per second): 314112 Node: 54, Layer: AppCbrServer,(3)Client address: 1 Node: 54, Layer: AppCbrServer,(3)First packet received at [s]: 0.013774900 Node: 54, Layer: AppCbrServer,(3)Last packet received at [s]: 0.773715844 Node: 54, Layer: AppCbrServer,(3)Average end-to-end delay [s]: 0.184107930 Node: 54, Layer: AppCbrServer,(3)Session status: Not closed Node: 54, Layer: AppCbrServer,(3)Total number of bytes received: 22016 Node: 54, Layer: AppCbrServer,(3)Total number of packets received: 43 Node: 54, Layer: AppCbrServer,(3)Throughput(bits per second): 1761 Node: 55, Layer: AppCbrServer,(4)Client address: 1 Node: 55, Layer: AppCbrServer,(4)First packet received at [s]: 0.017127686 Node: 55, Layer: AppCbrServer,(4)Last packet received at [s]: 0.777148630 Node: 55, Layer: AppCbrServer,(4)Average end-to-end delay [s]: 0.187729553 Node: 55, Layer: AppCbrServer,(4)Session status: Not closed Node: 55, Layer: AppCbrServer,(4)Total number of bytes received: 22016 Node: 55, Layer: AppCbrServer,(4)Total number of packets received: 43 Node: 55, Layer: AppCbrServer,(4)Throughput(bits per second): 1761 三、实验结果分析 各发送节点发包间隔较大,当网络中发送节点较少时,网络还未饱和。逐渐往网络中增加负载,网络总吞吐量逐渐增大,之后,网络吞吐量逐渐趋向于平稳,此时,网络即达到了饱和状态。 四、思考题 1、总结IEEE 802.11DCF协议饱和吞吐量和哪些因素有关。 任选一个时隙,网络中有节点在发送数据的概率 当有节点在发送数据包时,数据包发送成功的概率 数据包发送成功和发送失败所需的时间 2、为什么在数据包长度较长时,采用RTS/CTS模式更合理? “隐藏终端”多发生在大型单元中(一般在室外环境),这将带来效率损失,并且需要错误恢复机制。当需要传送大容量文件时,尤其需要杜绝“隐藏终端”现象的发生。 实验三 动态源路由协议路由选择验证 一、实验目的1、2、了解DSR路由协议的优缺点。 理解DSR路由协议中路由发现过程和路由维护过程。 3、掌握DSR路由协议性能的仿真分析方法。 二、实验结果 Time(s): 1.000001000, Node: 1, Route path: 2 Time(s): 2.000001000, Node: 1, Route path: 2 Time(s): 3.000001000, Node: 1, Route path: 2 Time(s): 4.000001000, Node: 1, Route path: 2 Time(s): 5.000001000, Node: 1, Route path: 2 Time(s): 6.000001000, Node: 1, Route path: 2 Time(s): 7.000001000, Node: 1, Route path: 2 Time(s): 8.000001000, Node: 1, Route path: 4-2 Time(s): 9.000001000, Node: 1, Route path: 4-2 Time(s): 10.000001000, Node: 1, Route path: 4-2 Time(s): 11.000001000, Node: 1, Route path: 4-2 Time(s): 12.000001000, Node: 1, Route path: 4-2 Time(s): 13.000001000, Node: 1, Route path: 4-2 Time(s): 14.000001000, Node: 1, Route path: 4-2 Time(s): ***0, Node: 1, Route path: 4-2 Time(s): 16.000001000, Node: 1, Route path: 4-2 Time(s): 17.000001000, Node: 1, Route path: 4-2 Time(s): 18.000001000, Node: 1, Route path: 4-2 Time(s): 19.000001000, Node: 1, Route path: 4-2 Time(s): 20.000001000, Node: 1, Route path: 4-2 Time(s): 21.000001000, Node: 1, Route path: 4-2 Time(s): 22.000001000, Node: 1, Route path: 4-2 Time(s): 23.000001000, Node: 1, Route path: 4-2 Time(s): 24.000001000, Node: 1, Route path: 4-2 Time(s): 25.000001000, Node: 1, Route path: 4-2 Time(s): 26.000001000, Node: 1, Route path: 4-2 Time(s): 27.000001000, Node: 1, Route path: 4-2 Time(s): 28.000001000, Node: 1, Route path: 4-2 Time(s): 29.000001000, Node: 1, Route path: 4-2 Time(s): 30.000001000, Node: 1, Route path: 4-2 Time(s): 31.000001000, Node: 1, Route path: 4-2 Time(s): 32.000001000, Node: 1, Route path: 4-2 Time(s): 33.000001000, Node: 1, Route path: 4-2 Time(s): 34.000001000, Node: 1, Route path: 4-2 Time(s): 35.000001000, Node: 1, Route path: 4-2 Time(s): 36.000001000, Node: 1, Route path: 4-2 Time(s): 37.000001000, Node: 1, Route path: 4-2 Time(s): 38.000001000, Node: 1, Route path: 5-4-2 Time(s): 39.000001000, Node: 1, Route path: 5-4-2 Time(s): 40.000001000, Node: 1, Route path: 5-4-2 Time(s): 41.000001000, Node: 1, Route path: 5-4-2 Time(s): 42.000001000, Node: 1, Route path: 5-4-2 Time(s): 43.000001000, Node: 1, Route path: 5-4-2 Time(s): 44.000001000, Node: 1, Route path: 5-4-2 Time(s): 45.000001000, Node: 1, Route path: 5-4-2 Time(s): 46.000001000, Node: 1, Route path: 5-4-2 Time(s): 47.000001000, Node: 1, Route path: 5-4-2 Time(s): 48.000001000, Node: 1, Route path: 5-4-2 Time(s): 49.000001000, Node: 1, Route path: 5-4-2 Time(s): 50.000001000, Node: 1, Route path: 5-4-2 Time(s): 51.000001000, Node: 1, Route path: 5-4-2 Time(s): 52.000001000, Node: 1, Route path: 5-4-2 Time(s): 53.000001000, Node: 1, Route path: 5-4-2 Time(s): 54.000001000, Node: 1, Route path: 5-4-2 Time(s): 55.000001000, Node: 1, Route path: 5-4-2 Time(s): 56.000001000, Node: 1, Route path: 5-4-2 Time(s): 57.000001000, Node: 1, Route path: 5-4-2 Time(s): 58.000001000, Node: 1, Route path: 5-4-2 Time(s): 59.000001000, Node: 1, Route path: 5-4-2 Time(s): 60.000001000, Node: 1, Route path: 5-4-2 Time(s): 61.000001000, Node: 1, Route path: 5-4-2 Time(s): 62.000001000, Node: 1, Route path: 5-4-2 Time(s): 63.000001000, Node: 1, Route path: 5-4-2 Time(s): 64.000001000, Node: 1, Route path: 5-4-2 Time(s): 65.000001000, Node: 1, Route path: 5-4-2 Time(s): 66.000001000, Node: 1, Route path: 5-4-2 Time(s): 67.000001000, Node: 1, Route path: 5-4-2 Time(s): 68.000001000, Node: 1, Route path: 3-2 Time(s): 69.000001000, Node: 1, Route path: 3-2 Time(s): 70.000001000, Node: 1, Route path: 3-2 Time(s): 71.000001000, Node: 1, Route path: 3-2 Time(s): 72.000001000, Node: 1, Route path: 3-2 Time(s): 73.000001000, Node: 1, Route path: 3-2 Time(s): 74.000001000, Node: 1, Route path: 3-2 Time(s): 75.000001000, Node: 1, Route path: 3-2 Time(s): 76.000001000, Node: 1, Route path: 3-2 Time(s): 77.000001000, Node: 1, Route path: 3-2 Time(s): 78.000001000, Node: 1, Route path: 3-2 Time(s): 79.000001000, Node: 1, Route path: 3-2 Time(s): 80.000001000, Node: 1, Route path: 3-2 Time(s): 81.000001000, Node: 1, Route path: 3-2 Time(s): 82.000001000, Node: 1, Route path: 3-2 Time(s): 83.000001000, Node: 1, Route path: 3-2 Time(s): 84.000001000, Node: 1, Route path: 3-2 Time(s): 85.000001000, Node: 1, Route path: 3-2 Time(s): 86.000001000, Node: 1, Route path: 3-2 Time(s): 87.000001000, Node: 1, Route path: 3-2 Time(s): 88.000001000, Node: 1, Route path: 3-2 Time(s): 89.000001000, Node: 1, Route path: 3-2 Time(s): 90.000001000, Node: 1, Route path: 3-2 Time(s): 91.000001000, Node: 1, Route path: 3-2 Time(s): 92.000001000, Node: 1, Route path: 3-2 Time(s): 93.000001000, Node: 1, Route path: 2 Time(s): 94.000001000, Node: 1, Route path: 2 Time(s): 95.000001000, Node: 1, Route path: 2 Time(s): 96.000001000, Node: 1, Route path: 2 Time(s): 97.000001000, Node: 1, Route path: 2 Time(s): 98.000001000, Node: 1, Route path: 2 Time(s): 99.000001000, Node: 1, Route path: 2 三、实验结果分析 仿真过程中路由表变化:2,4-2,5-4-2,3-2,2。当节点[1]在节点[2]的传输范围内时,节点[1]和[2]之间直接通信,不需要中间节点。随着节点[1]的移动,节点[1]离开节点[2]的传输范围并渐渐远离,最后又逐渐靠近。在节点[1]离开节点[2]的传输范围,节点[1]和[2]需要通过中间节点来通信,而且节点[1]离节点[2]越远,需要的中间节点越多。 山东建筑大学 商学院·实验报告 课程名称: 网络经济学 班 级: 电子商务111 学生姓名: 学 号: 成 绩: 指导教师: 吴 学 霞 所属学期: 2013 - 2014 学年第 1 学期 实验一 网络外部性原理运用 实验目的 理解网络条件下外部性的新特点。实验内容 搜集资料,选取网络经济下的一个企业案例,分析网络外部性对网络产品供给和需求的影响。 实验过程 1.网络正外部性分析 由于此时网络经济的社会价值大于个人价值,社会价值曲线在个人价值曲线之上。此时的最适量体现在社会价值需求曲线与个人成本供给曲线的交叉点并大于供需曲线一般的均衡量(市场量)。由此可见,网络的正外部性使得微软公司的股东们在获得较高个人收益的同时,扩散了相应的生产率效益,并取得利他的社会效果———体现为:在互联网中的经济单位所采取的生产或消费行为,使得整个行业或社会上某些群体无需更多的付出,以极低的成本就能得到好处,共享资源。 2.网络负外部性分析 但是,网络的负外部性也同时并存,不可忽视。如互联网的通用标准及微软等在市场上占主导地位的公司所带来的一些负面垄断效应,以及由于互联网的蝶状领结结构(见图2),信息在互联网中多向流动、大容量文件的频繁上传和下载所出身的网络拥堵,都体现为负外部性的特征。 同时,负外部性还体现在:由于互联网信息的快速传递,不需要太高的技术要求,黑客(Hacker)借助现成的软件就可以肆意进攻互联网,甚至局域网。木马和病毒更新速度极快,使得杀毒软件防不胜防,屡屡造成巨大的经济损失。仍以微软为例,微软公司发布的第六期“微软安全研究报告”显示,随着软件公司改善了操作系统的安全性,目前第三方应用软件已成为恶意软件的主要攻击目标,2008年下半年发现的漏洞中有90 %涉及到应用软件[10 ]。 图3 表示了网络负外部性造成社会成本曲线在供给成本曲线之上,这两条曲线的差别反映了由于网络垄断、网络拥堵以及黑客的存在所带来的外部成本。此时网络的最适量同样体现在社会价值需求曲线与个人成本供给曲线的交叉点,但小于供需曲线一般的均衡量(市场量)。网络负外部性的存在,使得网络经济的社会成本大于个人成本。 实验二 正反馈原理运用 实验目的 了解正反馈原理在网络经济中的运用。实验内容 上网查找网站,以具体行业发展举例说明正反馈原理的具体应用。实验过程 应用正反馈机制理论分析我国风险投资业初期发展模式中的机制性问题 总体而言,我国风险投资整个行业运作存在不规范的特点。目前,行业仍处于继续探索的初期发展阶段。自1985年9月我国第一家专营高技术风险投资的全国性金融公司--中国新技术创业投资公司(简称“中创”)成立至今,我国风险投资业经历了二十世纪80年代的早期探索阶段、90年代的风险基金创立阶段、90年代末本世纪初的加速发展阶段。1998年3月“政协一号”提案激起了国内发展风险投资的热潮。据中国科技金融协会1999年7月统计,中国的风险投资公司已有九十二家,有七十四亿元的投资能力。据维欣风险投资发展研究中心1999年12月调查[文献4],我国风险投资机构已超过200家,运营资本超过200亿元。但是,我国风险资本的80%来源于政府财政拨款,政府出资创建风险投资基金或公司支持国内风险投资公司的生存和发展,这种主导模式本质上是以政府行为代替市场行为,构成当前我国风险投资业发展的最大弊端。 经验证明,风险投资业初期发展的关键问题应当是如何正确引导风险投资业沿着适宜的轨道逐渐发展壮大。从15年发展历程看,我国风险投资业这一步走得很累。按照生命周期理论,风险投资业的发展要经历起步、发展、成熟、衰退或者进入高一层次的生命周期循环。新事物的起步和发展阶段需要有一种很好的动力机制能够保证它从微小逐渐壮大发展,否则,新事物就会消失,或者即使勉强存在也会处于混乱状态。 从系统动力学的角度看,就是要找到一种起自我强化作用的正反馈机制,使风险投资业在这种正反馈中完成起步和发展。因此,国内风险投资业发展缓慢的根本原因是我们没有找 到合适的正反馈动力机制。所以,目前的任务就是尽快找到这种正反馈动力机制。事实证明,我国风险投资业在发展之初,存在概念性的错误理念,建立的机制不能形成有效的正反馈,相反,在组建之后陷入了一种恶性循环中。这可以用图3-1说明。各级政府直接进入风险投资业,提供风险资本,这在我国会产生什么结果呢?参照图3-1,a阶段--政府作为风险资本的第一提供者参与风险投资,以此为基本出发点,对我国现行的风险投资方式进行深入分析。 由于保险公司、民间资金、大企业大财团等仍不敢贸然进入风险投资业,各级地方政府只好用财政拨款组建第一批风险基金(图3-1中的b阶段),地方政府成为基金的股东代表(实际股东应为纳税人)。风险基金的管理和经营又由谁负责呢?仍然是由政府指定人选掌管基金。正是这种政府具有最高决策权的模式为今后风险投资的顺利运行埋下了隐患,根本体现在它提供了寻租机会。 实验三 网络产品市场结构分析 实验目的 掌握市场结构类型,学会判断具体行业的市场结构。实验内容 选取市场集中度指标,针对具体网络行业搜集资料,进行市场结构类型分析。实验过程 视频网站是指依靠网络视频播放技术,让用户在互联网上在线浏览、发布和分享视频作品的网站。目前国内的视频网站还处在成长期,网站的盈利模式较为单一,绝大多数利润来自广告收入,这是将网站流量转化为收入的最直接有效的方式。广告收入的高低基本由网站流量所决定,这导致了视频网站的收视份额与该网站的广告市场份额高度一致。即使未来有更多的盈利模式出现,广告收入仍然会是视频网站综合收入的主力军。因此,视频网站广告市场集中度能够间接地反映出整个行业的竞争状况。 视频网站广告市场集中度测度分析 市场集中度是用于表示在特定产业或市场中,卖者和买者具有怎样的相对的规模结构的指标。由于市场集中度是反映特定市场的集中程度的指标,所以它与市场中垄断力量的形成密切相关。产业组织理论把市场集中度作为考察市场结构的首要因素。 根据搜集到的数据测算出2010年第一和第三季度、2011年第一和第三季度以及2012年第一和第三季度这6个季度里中国视频网站广告市场集中度CR1、CR4、CR8和CR10,以此分析在我国视频网站广告市场集中度的状况以及发展变化趋势。 从2010到2012年的6个季度里,中国网络视频广告市场集中度表现出如下特征: 第一,从整体来看,我国的视频网站广告市场集中度较高,属于寡占型的市场结构。从2010到2012年,我国视频网站广告市场集中度CR4、CR8和CR10的最小值分别为48.8%、71.0%、79.3%,最大值分别为61.6%、83.5%、89.4%,极差分别为12.8%、12.5%、10.1%。数值整体偏高,表明我国视频网站广告市场集中度较高。按照贝恩的市场结构分类标准,属于寡占Ⅲ型的市场结构,这是处于产业发展初期的媒介的共性。 第二,从变化来看,我国的视频网站行业市场集中度变化幅度不大。从2010到2012年,CR4、CR8和CR10的最小值和最大值的极差分别为12.8%、12.5%、10.1%。虽有一定变化,但变化幅度并不大。其中2010年第一季度到2011年第一季度的市场集中度呈现上升趋势,在2011年第一季度达到最高,从2011年第一季度到2012年第三季度又呈现出下降的趋势。 由此可见,自2011年第一季度视频网站行业发生了一系列变化,明显地影响了视频网站广告市场集中度。 第三,排名靠前的几家视频网站的广告市场集中度较高。在统计的6个季度中CR4平均大于50%,表明排名前4的视频网站实力较为雄厚且市场份额较为稳定。排名第一的优酷网,除了2010年第一季度外,CR1一直保持在20%以上。虽然近两年来行业竞争加剧,优酷网的优势稍有减弱,但仍然保持着业界“领头羊”的位置。 视频网站广告市场集中度的影响因素分析 “内容为王”是传媒界熟知的理念之一。这一理念也适用于视频网站行业,网络视频的内容是决定视频网站广告市场集中度的最主要的因素。在国内视频网站发展的初期,因为最早发展起来的几个视频网站主要是借鉴YouTube的运营模式,内容以原创为主,所以原创内容的数量一度成为各大视频网站竞相追逐的对象。以优酷网、土豆网为代表的建立较早的视频网站,在发展初期就积累了数量庞大的原创内容,因此它们在后来的竞争中拥有先发制人的优势。 随着视频网站行业这几年来的发展,原创的视频已经不能满足用户的需求,影视剧资源越来越成为各大视频网站竞争的“王牌”。影视剧版权争夺战一度出现混乱的局面,版权价格经历了单集售价在一年多之间从1万元到150万元疯狂暴涨的情况,一时间各大视频网站纷纷“砸钱”高价购买首播权。这种恶性竞争把电视剧的版权价格越抬越高,导致只有市场份额排名靠前的视频网站才有经济能力购买影视剧版权。这一状况导致视频网站之间的流量差距进一步拉大,广告收入也随之拉大。网络视频广告市场集中度越来越高,并在2011年达到了顶峰。 2012年以来,随着视频播放技术的不断发展和创新,也有一些中小型的视频网站以及个别大型视频网站依靠技术升级赢得部分广告市场份额,使网络视频广告集中度进一步降低。例如部分视频网站推出的高清模式,以视频质量的高低寻求产品的差异化,既满足了带宽不够的用户,又满足了喜欢高清晰度视频的用户。 实验四 网络经济下的企业竞争策略分析 实验目的 掌握网络经济下的企业竞争策略分析。实验内容 要求学生在学习网络经济中企业竞争策略理论的基础上,选取一定的案例进行详细的分析,进一步理解网络经济下企业竞争策略的新特点。 实验过程 公路客运企业应对铁路竞争的策略 公路运输与铁路作为两种重要的运输形式,两者间的竞争是必然的、不可避免的。与铁路相比,公路运输成本高,舒适性、安全性、及时性不够。国际金融危机暴发后,国家为拉动经济加大了铁路建设的投入力度,这对本来就处于竞争劣势的公路运输企业而言可谓是雪上加霜。公路运输企业如何应对铁路的竞争? 一、公路客运面临的机遇与困难 机遇:由于现有铁路承载能力有限,铁路提速又给道路客运班线带来了转机,概括起来有几个有利因素:一是铁路班次少,加上铁路速度上去了,中途站点停靠减少,这就给公路客运带来了商机。二是在管理上,铁路每个站的配客量在年初制定,不可变更。客流低时成本高,客流高时运不完。三是铁路提速后,一些车站不能停靠。 困难:(1)经营主体散。自运输市场全面放开后,由于市场准入标准太低,经营主体较多,经营者素质参差不齐,运输市场呈现混乱、分散的无序竞争状态。 (2)硬件投入不足。由于多种原因,不少公路运输企业对站场改造、车辆更新步伐缓慢,导致旅客乘、候车条件不佳,服务质量难以保证,使公路运输竞争力下降。 (3)软环境建设滞后。由于种种原因,不少运输企业人员素质不高、职工队伍老化,管理水平低下制约了公路运输企业的发展。 二、公路客运业发展的对策 对于挑战与机遇并存的公路客运市场,应该对经营策略进行理性的选择,把握机遇,勇于应对挑战,努力做强做优公路客运业。1.实施品牌战略,提高服务水平 (1)全力推进道路客运班车公司化改造工作,从根本上杜绝承包经营服务质量不高,安全营运缺少保障的弊端。 (2)必须制定规范的服务标准,以旅客满意为宗旨,在实践中不断总结、修正管理制度,使其日趋完善。 (3)要不断丰富服务内涵,增设售票网点、与邮政网点联网售票,实行电话订票、送票上门、网上售票、自助购票等,让旅客在最短的时间内购买到车票。 (4)要建立一支高素质的职工队伍。必须重视对驾驶员和服务人员的教育和培训。2.采用差异化竞争策略,拓展经营空间 要充分发挥公路客运的优势,适度发展火车未开通或与火车不同线的长途、超长途班线,稳步发展和巩固中长途班线,大力发展短途班线。按不同线路情况努力提高车辆档次,提高企业信誉,提升企业形象。3.近靠铁路站点,巧借东风分流 应采取积极措施,巧借东风,向铁路站点靠近,公路和铁路客运站的距离越短越好,既方便长途列车下车旅客的中转换乘,也有利于发挥公路客运班次密度高的优势,争取与铁路复线班次的客源。同时也方便短途旅客换乘长途列车,形成与铁路良性、互补的竞争,共同创造良好的客运环境。 4.整合资源,推动公路客运行业发生质的转变 客运企业间可通过线路置换、出资收购、兼并、资产重组或多元参股组建跨企业的客运专线公司,以消除恶性竞争和内耗,提升服务,创树客运品牌,提升道路客运业综合竞争力和公共服务能力。 5.狠抓管理,提升核心竞争力 一是加强网络和信息化建设,掌握第一手客源信息,合理调度,不断提高工作质量和效率。二是运输企业应积极实施科学管理,建设节约型企业,减少消耗,降低成本,努力做到增收节支。三是围绕运输主业,拉长产业链,发展壮大汽车燃润料和配件供应、修理业、驾培业等产业。 6.重视发挥行业管理部门和行业协会作用,努力营造公平、公正的竞争环境 行业管理部门应认真履行职责,在市场准入、市场监管等方面发挥应有的作用,积极维护运输市场秩序,打击非法营运,规范业户经营行为,超前做好站点的规划布局,使公路运输市场管而不死、活而不乱、竞争有序,并在客运企业资产重组、资源整合等工作方面,做好政策引导、牵线搭桥工作。第四篇:通信网络实验报告
第五篇:网络经济学实验报告