第一篇:erp高级计划6-aps算法分析之基本概念(二)
《 ERP高级计划》书的解读-APS算法分析之基本概念
(二)(蔡颖)
文档号:00.050.466 时间:05-11-2004
2,功能约束
-市场需求
-物料的可用性
-资源能力 -物流的顺序
通常资源约束包括:
(1),市场需求 – 市场需求完全的决定公司的产出。市场决定生产线和生产计划。销售的损失是由没有能力满足客户在需要的时间的,需要的价格,需要的质量的需求造成的。例如这些约束是客户的订单.在许多客户订单,有时有不同的优先级。APS严格的强化处理优先级高的订单。也可以建立软约束,根据优先级来报警惩罚延迟
(2),物料可用量 – 这是基本的需求。如果供应商交货延迟,或物料有缺陷,生产过程就会中断。
(3),资源能力 – 机器, 工具,人力必须同步来保证一个平滑的,及时的生产过程流。能力和物料可以是软约束。额外的能力和物料可以在中期计划中增加成本可以采购到。然而在短期详细排程这些约束就是硬约束。瓶颈资源可以改变供应的时间或改变需求的时间
(4),物流顺序 – 在工艺路径中,这些包括短暂的约束和顺序约束。如在热处理后,零件必须等待一段时间,才能到下一步。或按先后次序约束:先加工订单1的中间产品,因为,它在订单2用到。然后在加工订单 2。
什么是约束?它是一个关系,在一个约束变量或约束变量之间。这个关系可以数字化,符号的,布尔(逻辑),等。例如: - X=1 - X < Y - 2X + 4Y + Z = 2 -(X = 绿)或(Y = 蓝)-(X < Y)=>(X < Z)目标函数就是目标的定义 ;决策变量就是影响的定义 ;约束就是 决策空间的限制。
一般数学规划原理:
1.LP线性规划
LP 案例 : 决策问题的模型
一个家具公司的装配车间生产两类沙发,标准的和特殊。每一个标准产品需要两个小时,特殊的沙发需要三个小时,三个工人每天工作8小时。预计每天分别需要最大需要6小时和8小时。家具公司的目标是利润最大化。每单位产品利润是标准产品500 RMB 和特殊产品是300 RMB!
第一步: 定义决策变量的
每天生产标准沙发数量(X)和特殊沙发(Y)。两个产品 : -标准沙发 -特殊沙发
每天可用能力: 3 * 8 = 24 小时;每天预计最大需求 : -标准沙发: 6 -特殊沙发: 8 每单位消耗能力: -标准沙发: 2 小时 -特殊沙发: 3 小时 利润:
-标准沙发: 500 RMB -特殊沙发: 300 RMB
第二步: 目标函数 每天利润最大化
Z = 500× X + 300 × Y => 最大!
约束条件: -市场需求: X 6
Y 8
-人工能力: 2 × X + 3 ×Y 24 -非-消极的决策变量: X, Y 0
图示解决
最佳解决的特性
每一约束表示的可行方案空间有图示黄色区域。目标函数(点划线)在不同水平绘出。它被计算为 Y=-5/3 × X + Z, Z 表示为目标函数的一个固定水平。如果LP的最佳方案总是出现喜在可行区域的凸处。这里,它达到X =6, Y = 4, 及最大化利润 4200 RMB.最佳的方案总是出现在顶部区域。在可行空间的内部的点是不能优化的。因为目标函数的线层可以已到最高的目标值。优化的方案落在可行区域的顶部(极点特性)。只有顶部必须被分析来决定优化的方案。
这是LP的优化方案的特性,来源与有效的算法(单一方法)
注意对一些特别案例,优化方案也可以出现在可行区域的顶点。那么,所有两个顶点之间的凸结合是决策问题的优化方案。
2.MILP混合整数线性规划
LP和MILP 的唯一不同是一些(或全部)变量可以采用离散值。混合整数线性规划没有顶点特性。具有不同的解决方法。
(完)本文由作者向
AMT提供
第二篇:erp高级计划2-物料约束和能力约束逻辑(二)
《ERP高级计划》书解读系列之APS案例分析一—物料约束和能力约束逻辑
(二)(蔡颖)
2.后推计划
定义:Latest Possible Start Time(LPST)最迟可能开始时间:生产任务能开始的最迟日期,但是,仍然能准时完成
计算公式 : LPST = 完成日期-(准备时间+运行时间+常规缓冲保守时间)每一生产任务都有一个 LPST 如图:
3.前推计划
定义:Earliest Possible Start Time(EPST)最早可能开始时间:任务可以最早开始日期 计算公式 : EPST = 取最大(服务开始日期(作业), 物料可用日期)
4,确认计划开始时间
定义:Planned Start Time(PST)确认计划开始时间:希望开始日期,任务将开始考虑物料可用
公式:PST =最大化(EPST , LPST)
(待续)
第三篇:多种最小二乘算法分析+算法特点总结
第一部分:程序设计思路、辨识结果分析和算法特点总结................................................2 一:RLS遗忘因子法.................................................................................................2 RLS遗忘因子法仿真思路和辨识结果.................................................................2 遗忘因子法的特点:..........................................................................................3 二:RFF遗忘因子递推算法.......................................................................................4 仿真思路和辨识结果..........................................................................................4 遗忘因子递推算法的特点:................................................................................5 三:RFM限定记忆法..................................................................................................5 仿真思路和辨识结果..........................................................................................5 RFM限定记忆法的特点:....................................................................................7 四:RCLS偏差补偿最小二乘法..................................................................................7 仿真思路和辨识结果..........................................................................................7 RCLS偏差补偿最小二乘递推算法的特点:..........................................................9 五:增广最小二乘法.................................................................................................9 仿真思路和辨识结果..........................................................................................9 RELS增广最小二乘递推算法的特点:................................................................11 六:RGLS广义最小二乘法.......................................................................................12 仿真思路和辨识结果........................................................................................12 RGLS广义最小二乘法的特点:.........................................................................14 七:RIV辅助变量法................................................................................................14 仿真思路和辨识结果........................................................................................14 RIV辅助变量法的特点:..................................................................................16 八:Cor-ls相关最小二乘法(二步法)..................................................................17 仿真思路和辨识结果........................................................................................17 Cor-ls相关最小二乘法(二步法)特点:........................................................18 九:MLS多级最小二乘法.........................................................................................19 仿真思路和辨识结果........................................................................................19 MLS多级最小二乘法的特点:...........................................................................22 十:yule_walker辨识算法.....................................................................................23 仿真思路和辨识结果........................................................................................23 yule_walker辨识算法的特点:.......................................................................24 第二部分:matlab程序..................................................................................................24 一:RLS遗忘因子算法程序.....................................................................................24 二:RFF遗忘因子递推算法.....................................................................................26 三:RFM限定记忆法................................................................................................28 四:RCLS偏差补偿最小二乘递推算法......................................................................31 五:RELS增广最小二乘的递推算法.........................................................................33 六;RGLS 广义最小二乘的递推算法..........................................................................36 七:Tally辅助变量最小二乘的递推算法................................................................39 八:Cor-ls相关最小二乘法(二步法)..................................................................42 九:MLS多级最小二乘法.........................................................................................45 十yule_walker辨识算法........................................................................................49
第一部分:程序设计思路、辨识结果分析和算法特点总结
一:RLS遗忘因子法
RLS遗忘因子法仿真思路和辨识结果
仿真对象如下:
其中,v(k)为服从N(0,1)分布的白噪声。输入信号u(k)采用M 序列,幅度为 1。M 序列由 9 级移位寄存器产生,x(i)=x(i-4)⊕x(i-9)。选择如下辨识模型:
加权阵取Λ = I。
衰减因子β = 0.98,数据长度 L = 402。辨识结果与理论值比较,基本相同。辨识结果可信: Estimate =-1.4666 0.6503 0.9736 0.3035 遗忘因子法的特点:
对老数据加上遗忘因子,以降低老数据对辨识的影响,相对增加新数据对辨识的影响,不会出现“数据饱和”现象。如模型噪声是有色噪声,则Ø是有偏估计量。常用作其他辨识方式的起步,以获得其他方式的初始值。
二:RFF遗忘因子递推算法 仿真思路和辨识结果
辨识模型与遗忘因子法所用模型相同。
其中,0 ≤µ≤1为遗忘因子,此处取0.98。始条件:
参数a1 a2 b1 b2的估计值: ans =-1.4977 0.6863 1.1903 0.4769 待估参数变化过程如图所示:
数据长度L=402,初
遗忘因子递推算法的特点:
从上面两个例子可以看出对于相同的仿真对象,一次算法和递推算法结果基本一致,但递推算法可以实现在线实时辨识,而且可以减少计算量和存储量。
三:RFM限定记忆法 仿真思路和辨识结果
辨识模型与遗忘因子法所用模型相同。
辨识结果与理论值比较,基本相同。辨识结果可信: 参数 a1 a2 b1 b2 的估计值为: Theta_a =-1.5128 0.7099 0.8393 0.4416 待估参数的过渡过程如下:
RFM限定记忆法的特点:
辨识所使用的数据长度保持不变,每增加一个新数据就抛掉一个老数据,使参数估计值始终只依赖于有限个新数据所提供的新消息,克服了遗忘因子法不管多老的数据都在起作用的缺点,因此该算法更能有效的克服数据饱和现象。
四:RCLS偏差补偿最小二乘法 仿真思路和辨识结果
辨识模型与遗忘因子法所用模型相同。
辨识结果与理论值比较,基本相同。辨识结果可信: 参数a1 a2 b1 b2的估计值为: ans =-1.4916
0.7005 1.0365 0.4271
RCLS偏差补偿最小二乘递推算法的特点:
算法思想::在最小二乘参数估计值的基础上,引进补偿项σW2C-1D Ø0,则获得了参数的无偏估计。针对模型噪声来说,RCLS算法的适应能力比RLS更好。
五:增广最小二乘法 仿真思路和辨识结果
考虑如下仿真对象:
其中,为服从N(0,1)分布的白噪声。输入信号采用 M 序列,幅度为 1。M 序列由 9 级移位寄存器产生,x(i)=x(i-4)⊕x(i-9)。
选择如下的辨识模型:
观测数据长度取L =402。加权阵取Λ=I。
辨识结果与理论值比较,基本相同,同时又能获得噪声模型的参数估计。辨识结果可信:
参数a1、a2、b1、b2、d1、d2估计结果:
ans =-1.5000 0.7000 1.0001 0.5002-0.9999 0.2000
RELS增广最小二乘递推算法的特点:
增广最小二乘的递推算法对应的噪声模型为滑动平均噪声,扩充了参数向量和数据向量H(k)的维数,把噪声模型的辨识同时考虑进去。最小二乘法只能获得过程模型的参数估计,而增广最小二乘法
同时又能获得噪声模型的参数估计,若噪声模型为平均滑动模型,则只能用RELS算法才能获得无偏估计。当数据长度较大时,辨识精度低于极大似然法。
六:RGLS广义最小二乘法 仿真思路和辨识结果
模型结构选择:
模型结构选用:
其中,各个参数的真值为:
广义最小二乘算法为:
辨识结果与理论值比较,基本相同,同时又能获得噪声传递系数的参数估计。辨识结果可信: 参数a1 a2 b1 b2的估计结果: ans =-1.5058 0.6972 0.9316 0.4833
噪声传递系数c1 c2的估计结果: ans = 0.6203 0.2210
RGLS广义最小二乘法的特点:
该算法用于自回归输入模型,是一种迭代的算法。其基本思想是基于对数据先进行一次滤波处理,后利用普通最小二乘法对滤波后的数据进行辨识,进而获得无偏一致估计。但是当过程的输出信噪比比较大或模型参数较多时,这种数据白色化处理的可靠性就会下降,辨识结果往往会是有偏估计。数据要充分多,否则辨识精度下降。模型阶次不宜过高。初始值对辨识结果有较大影响。
七:RIV辅助变量法 仿真思路和辨识结果
辨识模型与遗忘因子法所用模型相同,只不过此处噪声为有色噪声,产生过程为:e(k)=v(k)+0.5v(k-1)+0.2v(k-2),v(k)为0均值的不相关随机噪声。
按照Tally法选取辅助变量x(k)=z(k-nd), nd为误差传递函数的阶数,此处为2.则有
辅助变量法的递推公式可写成:
辨识结果与理论值比较,基本相同。辨识结果可信: 参数a1 a2 b1 b2的估计结果: ans =-1.5314 0.7461 0.9999 0.4597
RIV辅助变量法的特点:
适当选择辅助变量,使之满足相应条件,参数估计值就可以是无偏一致。估计辅助变量法的计算量与最小二乘法相当,但辨识效果却比最小二乘法好的多。尤其当噪声是有色的,而噪声的模型结构又不好确定时,增广最小二乘法和广义最小二乘法一般都不好直接应用,因为他们需要选用特定的模型结构,而辅助变量法不需要确定噪声的模型结构,因此辅助变量法就显得更为灵活,但辅助变量法不能同时获得噪声模型的参数估计。
八:Cor-ls相关最小二乘法(二步法)仿真思路和辨识结果
辨识模型与遗忘因子法所用模型相同:,e(k)=v(k)+0.5v(k-1)+0.2v(k-2),v(k)为0均值的不相关随机噪声。Cor-ls的递推公式可写成:
其中:M(k)为输入M序列。初始条件:,辨识结果与理论值比较,基本相同,辨识结果可信: 参数a1 a2 b1 b2的估计结果: ans =-1.4896
0.6858 1.0168 0.4362
Cor-ls相关最小二乘法(二步法)特点:
把辨识分成两步进行:第一步:利用相关分析法获得对象的非参数模型(脉冲响应或相关函数);第二步:利用最小二乘法、辅助变量法或增广最小二乘法等,进一步求的对象的参数模型。如果模型噪声与输入无关,则Cor-ls相关最小二乘法(二步法)可以得到较好的辨识结果。Cor-ls相关最小二乘法(二步法)实质上是先对数据进行一次相关分析,滤除了有色噪声的影响,再利用最小二乘法必然就会改善辨识结果。能适应较宽广的噪声范围,计算量不大,初始值
对辨识结果影响较小。但要求输入信号与噪声不相关。
九:MLS多级最小二乘法 仿真思路和辨识结果
仿真对象如下:
其中,u(k)是输入变量,此处为 M 序列;v(k)是零均值、方差为 1 的不相关随机噪声,通过控制λ的大小来控制信噪比。辨识模型结构选用:
其中,辨识过程如下:
第一级,辅助模型参数辨识 原模型可写为:
利用最小二乘法可获得辅助模型的参数无偏一致估计值:
数据长度 L=400,第二级,过程模型参数辨识:
根据最小二乘算法可以获得过程模型的参数估计值为:
第三级,噪声模型参数辨识:
根据最小二乘算法可以获得过程模型的参数估计值为
辨识结果与理论值比较,基本相同。辨识结果可信:
第一级 辅助模型参数 e1 e2 e3 e3 e4 f1 f2 f3 f4 辨识结果: E = 1.9062 1.4454 0.5279 0.0613-0.0026 0.7988-0.8694-1.3037-0.6318
第二级 过程模型参数 a1 a2 a3 b1 b2 辨识结果: E2 = 0.9304 0.1596 0.0113 0.7998-1.6502 第三级 噪声模型参数 c1 c2 辨识结果: E3 = 0.9750 0.3824 MLS多级最小二乘法的特点:
当信噪比较大时,采用广义最小二乘法可能会出现多个局部收敛点,解决这个问题的方法可用多级最小二乘法,一般来说多级最小二乘法包含三级辨识过程。利用输入输出数据,通过多级最小二乘法,可分别求的辅助模型,过程模型和噪声模型的参数估计值。在高噪声的情况下,多级最小二乘法明显优于广义最小二乘法,其收敛点唯一。
十:yule_walker辨识算法 仿真思路和辨识结果
仿真对象如下:,z(k)是可观测变量;v(k)是均值为零,方差为 1 的不相关随机噪声;数据长度取 L=1024。相关函数按下式计算 :
参数的估计算法按下式计算:
辨识结果与理论值比较,基本相同,同时又能获得噪声模型的参数估计。辨识结果可信: 辨识结果为: Theta = 0.8597 0.2955
-0.0034 d = 1.0025 yule_walker辨识算法的特点:
yule_walker辨识算法可以方便的辨识形如估计值。的参数第二部分:matlab程序
一:RLS遗忘因子算法程序
clear clc %========================================== %最小二乘法辨识对象
% Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+v(k)%==========产生M序列作为输入=============== x=[0 1 0 1 1 0 1 1 1];%初始值 n=403;%n为脉冲数目 M=[];%存放M序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);
for j=9:-1:2 x(j)=x(j-1);end x(1)=temp;end;%产生高斯白噪声 v=randn(1,400);z=[];z(1)=-1;z(2)=0;u=0.98;% 遗忘因子 L=400;for i=3:402 z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+v(i-2);zstar(i)=z(i)*u^(L-i+2);end H=zeros(400,4);for i=1:400 H(i,1)=-z(i+1)*u^(L-i);H(i,2)=-z(i)*u^(L-i);H(i,3)=M(i+1)*u^(L-i);H(i,4)=M(i)*u^(L-i);
end Estimate=inv(H'*H)*H'*(zstar(3:402))' 二:RFF遗忘因子递推算法
%最小二乘遗忘因子的递推算法仿真对象
%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+v(k)%======================================== clear clc %==========400 个产生M序列作为输入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=403;%n为脉冲数目 M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2 x(j)=x(j-1);end x(1)=temp;end %===========产生均值为0,方差为1 的高斯白噪声=========
v=randn(1,400);%==============产生观测序列z================= z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:402 z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+v(i-2);end %==============递推求解================= P=10*eye(4);%估计方差
Theta=zeros(4,401);%参数的估计值,存放中间过程估值 Theta(:,1)=[0.001;0.001;0.001;0.001];K=zeros(4,400);%增益矩阵 K=[10;10;10;10];u=0.98;%遗忘因子 for i=3:402 h=[-z(i-1);-z(i-2);M(i-1);M(i-2)];K=P*h*inv(h'*P*h+u);Theta(:,i-1)=Theta(:,i-2)+K*(z(i)-h'*Theta(:,i-2));P=(eye(4)-K*h')*P/u;end %==========================输出结果及作图
============================= disp('参数a1 a2 b1 b2的估计值:')Theta(:,401)i=1:401;figure(1)plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:))title('待估参数过渡过程')三:RFM限定记忆法
%限定记忆最小二乘的递推算法辨识对象
%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+v(k)%======================================== clear clc %==========产生M序列作为输入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=403;%n为脉冲数目 M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2
x(j)=x(j-1);end x(1)=temp;end %===========产生均值为0,方差为1 的高斯白噪声========= v=randn(1,402);%==============产生观测序列z================= z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:402 z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+v(i);end %递推求解
P_a=100*eye(4);%估计方差 Theta_a=[3;3;3;3];L=20;%记忆长度
for i=3:L-1 %利用最小二乘递推算法获得初步参数估计值和P阵
h=[-z(i-1);-z(i-2);M(i-1);M(i-2)];K=P_a*h*inv(h'*P_a*h+1);Theta_a=Theta_a+K*(z(i)-h'*Theta_a);
P_a=(eye(4)-K*h')*P_a;end for k=0:380 hL=[-z(k+L-1);-z(k+L-2);M(k+L-1);M(k+L-2)];%增加新数据的信息
K_b=P_a*hL*inv(1+hL'*P_a*hL);Theta_b=Theta_a+K_b*(z(k+L)-hL'*Theta_a);P_b=(eye(4)-K_b*hL')*P_a;
hk=[-z(k+L);-z(k+L-1);M(k+L);M(k+L-1);];%去掉老数据的信息 K_a=P_b*hk*inv(1+hk'*P_b*hk);Theta_a=Theta_b-K_a*(z(k+L+1)-hk'*Theta_b);P_a=(eye(4)+K_a*hk')*P_b;Theta_Store(:,k+1)=Theta_a;end
%========================输出结果及作图=========================== disp('参数 a1 a2 b1 b2 的估计值为:')Theta_a i=1:381;figure(1)
plot(i,Theta_Store(1,:),i,Theta_Store(2,:),i,Theta_Store(3,:),i,Theta_Store(4,:))title('待估参数过渡过程')四:RCLS偏差补偿最小二乘递推算法
%偏差补偿最小二乘的递推算法辨识对象
%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+v(k)%======================================== clear clc %==========产生M序列作为输入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=403;%n为脉冲数目 M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2 x(j)=x(j-1);end x(1)=temp;end
%===========产生均值为0,方差为1 的正态分布噪声========= v=random('Normal',0,1,1,400);%==============产生观测序列z================= z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:402 z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+v(i-2);end %===================递推求解================== %赋初值
P=100*eye(4);%估计方差
Theta=zeros(4,401);%参数的估计值,存放中间过程估值 Theta(:,1)=[3;3;3;3];K=[10;10;10;10];%增益 J=0;ThetaC=zeros(4,401);%偏差补偿后的估计值 ThetaC(:,1)=[2;3;1;3.5];D=[1 0 0 0;0 1 0 0;0 0 0 0;0 0 0 0];for i=3:402 h=[-z(i-1);-z(i-2);M(i-1);M(i-2)];J=J+(z(i-1)-h'*Theta(:,i-1))^2/(1+h'*P*h);
K=P*h*inv(h'*P*h+1);Theta(:,i-1)=Theta(:,i-2)+K*(z(i)-h'*Theta(:,i-2));P=(eye(4)-K*h')*P;end es=J/((i-1)*(1+(ThetaC(:,i-2))'*D*Theta(:,i-1)));ThetaC(:,i-1)=Theta(:,i-1)+(i-1)*es*P*D*ThetaC(:,i-2);%==============输出参数估计结果及作图================ disp('参数a1 a2 b1 b2的估计值为:')Theta(:,401)i=1:401;figure(1)plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:))title('待估参数过渡过程')
五:RELS增广最小二乘的递推算法
%增广最小二乘的递推算法辨识对象
%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)-v(k+1)+0.2*v(k)%======================================== clear clc
%==========产生M序列作为输入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=403;%n为脉冲数目 M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2 x(j)=x(j-1);end x(1)=temp;end %===========产生均值为0,方差为1 的高斯白噪声========= v=randn(1,402);%==============产生观测序列z================= z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:402 z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)-v(i-1)+0.2*v(i-2);end
%递推求解
P=100*eye(6);%估计方差
Theta=zeros(6,401);%参数的估计值,存放中间过程估值 Theta(:,1)=[3;3;3;3;3;3];% K=zeros(4,400);%增益矩阵 K=[10;10;10;10;10;10];for i=3:402 h=[-z(i-1);-z(i-2);M(i-1);M(i-2);v(i-1);v(i-2)];K=P*h*inv(h'*P*h+1);Theta(:,i-1)=Theta(:,i-2)+K*(z(i)-h'*Theta(:,i-2));P=(eye(6)-K*h')*P;end %========================= disp('参数a1、a2、b1、b2、d1、d2估计结果:')Theta(:,401)i=1:401;figure(1)plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:),i,Theta(5,:),i,Theta(6,:))title('待估参数过渡过程')
六;RGLS 广义最小二乘的递推算法
%广义最小二乘的递推算法仿真模型
%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+e(k)%e(k+2)+2.1*e(k+1)-2.5*e(k)=v(k+2)%======================================== clear clc %==========400 个产生M序列作为输入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=403;%n为脉冲数目 M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2 x(j)=x(j-1);end x(1)=temp;end %===========产生均值为0,方差为1 的高斯白噪声========= v=randn(1,400);e=[];e(1)=v(1);e(2)=v(2);
for i=3:400 e(i)=0*e(i-1)+0*e(i-2)+v(i);end %==============产生观测序列z================= z=zeros(400,1);z(1)=-1;z(2)=0;for i=3:400 z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+e(i);end %变换后的观测序列 zf=[];zf(1)=-1;zf(2)=0;for i=3:400 zf(i)=z(i)-0*z(i-1)-0*z(i-2);end %变换后的输入序列
uf=[];uf(1)=M(1);uf(2)=M(2);for i=3:400 uf(i)=M(i)-0*M(i-1)-0*M(i-2);end
%赋初值
P=100*eye(4);%估计方差
Theta=zeros(4,400);%参数的估计值,存放中间过程估值 Theta(:,2)=[3;3;3;3];K=[10;10;10;10];%增益 PE=10*eye(2);ThetaE=zeros(2,400);ThetaE(:,2)=[0.5;0.3];KE=[10;10];%递推Theta for i=3:400 h=[-zf(i-1);-zf(i-2);uf(i-1);uf(i-2)];K=P*h*inv(h'*P*h+1);Theta(:,i)=Theta(:,i-1)+K*(z(i)-h'*Theta(:,i-1));P=(eye(4)-K*h')*P;end he=[-e(i-1);-e(i-2)];%递推ThetaE KE=PE*he*inv(1+he'*PE*he);ThetaE(:,i)=ThetaE(:,i-1)+KE*(e(i)-he'*ThetaE(:,i-1));PE=(eye(2)-KE*he')*PE;%=====================输出结果及作图
========================= disp('参数a1 a2 b1 b2的估计结果:')Theta(:,400)disp('噪声传递系数c1 c2的估计结果:')ThetaE(:,400)i=1:400;figure(1)plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:))title('待估参数过渡过程')七:Tally辅助变量最小二乘的递推算法
%Tally辅助变量最小二乘的递推算法
%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+e(k),e(k)为有色噪声
%e(k)=v(k)+0.5*v(k-1)+0.2*v(k-2),v(k)为零均值的不相关随机噪声
%======================================== clear clc %==========产生M序列作为输入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=403;%n为脉冲数目
M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2 x(j)=x(j-1);end x(1)=temp;end %===========产生均值为0,方差为1 的高斯白噪声========= v=randn(1,400);e=[];e(1)=0.3;e(2)=0.5;for i=3:400 e(i)=v(i)+0.5*v(i-1)+0.2*v(i-2);end %==============产生观测序列z================= z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:400
z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+e(i);end %递推求解
P=100*eye(4);%估计方差
Theta=zeros(4,400);%参数的估计值,存放中间过程估值 Theta(:,1)=[3;3;3;3];Theta(:,2)=[3;3;3;3];Theta(:,3)=[3;3;3;3];Theta(:,4)=[3;3;3;3];% K=zeros(4,400);%增益矩阵 K=[10;10;10;10];for i=5:400 h=[-z(i-1);-z(i-2);M(i-1);M(i-2)];hstar=[-z(i-2-1);-z(i-2-2);M(i-1);M(i-2)];%辅助变量 %递推算法
K=P*hstar*inv(h'*P*hstar+1);Theta(:,i)=Theta(:,i-1)+K*(z(i)-h'*Theta(:,i-1));P=(eye(4)-K*h')*P;end %==================结果输出及作图=================== disp('参数a1 a2 b1 b2的估计结果:')Theta(:,400)
i=1:400;figure(1)plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:))title('待估参数过渡过程')八:Cor-ls相关最小二乘法(二步法)
%两步法的递推算法
%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+e(k),e(k)为零均值的不相关随机噪声
%e(k)=v(k)+0.5*v(k-1)+0.2*v(k-2)%======================================== clear clc %==========产生M序列作为输入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=403;%n为脉冲数目 M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2 x(j)=x(j-1);
end x(1)=temp;end %===========产生均值为0,方差为1 的高斯白噪声========= v=randn(1,400);e=[];e(1)=0.3;e(2)=0.5;for i=3:400 e(i)=v(i)+0.5*v(i-1)+0.2*v(i-2);end %==============产生观测序列z=========== z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:400 z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+e(i);end %递推求解
P=100*eye(4);%估计方差
Theta=zeros(4,400);%参数的估计值,存放中间过程估值 Theta(:,1)=[3;3;3;3];
Theta(:,2)=[3;3;3;3];Theta(:,3)=[3;3;3;3];Theta(:,4)=[3;3;3;3];K=zeros(4,400);%增益矩阵 K=[10;10;10;10];for i=5:400 h=[-z(i-1);-z(i-2);M(i-1);M(i-2)];hstar=[M(i-1);M(i-2);M(i-3);M(i-4)];%辅助变量 %递推
K=P*hstar*inv(h'*P*hstar+1);Theta(:,i)=Theta(:,i-1)+K*(z(i)-h'*Theta(:,i-1));P=(eye(4)-K*h')*P;end %==================结果输出及作图=================== disp('参数a1 a2 b1 b2的估计结果:')Theta(:,400)i=1:400;figure(1)plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:))title('待估参数过渡过程')
九:MLS多级最小二乘法
clear clc %========================================== % Z(k+3)=-0.9*Z(k+2)-0.15*Z(k+1)-0.02*z(k)+0.7*u(k+2)-1.5*u(k+1)+e(k)%e(k+2)+1.0*e(k+1)+0.41*e(k)=r*v(k+2)%==========产生M 序列作为输入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=405;%n为脉冲数目 M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2 x(j)=x(j-1);end x(1)=temp;end %===========产生均值为0,方差为1 的高斯白噪声============= v=randn(1,405);
e=[];e(1)=0.3;e(2)=0.7;r=0.9;%控制信噪比 for i=3:405 e(i)=-1.0*e(i-1)-0.41*e(i-2)+r*v(i);end %=================产生观测序列=================== z=[];z(1)=-1;z(2)=0;z(3)=1.5;for i=4:405 z(i)=-0.9*z(i-1)-0.15*z(i-2)-0.02*z(i-3)+0.7*M(i-1)-1.5*M(i-2)+e(i);end %================第一级辨识 辅助模型参数辨识================== H=zeros(400,9);for i=1:400 H(i,1)=-z(i+4);H(i,2)=-z(i+3);
H(i,3)=-z(i+2);H(i,4)=-z(i+1);H(i,5)=-z(i);H(i,6)=M(i+4);H(i,7)=M(i+3);H(i,8)=M(i+2);H(i,9)=M(i+1);end disp('第一级 辅助模型参数 e1 e2 e3 e3 e4 f1 f2 f3 f4 辨识结果:')E=inv(H'*H)*H'*(z(6:405))' e1=E(1);e2=E(2);e3=E(3);e4=E(4);e5=E(5);f1=E(6);f2=E(7);f3=E(8);f4=E(9);%=================第二级辨识 过程模型参数辨识====================
z2=[f1;f2;f3;f4;0;0;0];H2=[ 0 0 0 1 0;
-f1 0 0 e1 1;
-f2-f1 0 e2 e1;
-f3-f2-f1 e3 e2;
-f4-f3-f2 e4 e3;
0-f4-f3 e5 e4;
0 0-f4 0 e5;];
disp('第二级 过程模型参数 a1 a2 a3 b1 b2 辨识结果:')E2=inv(H2'*H2)*H2'*z2 a1=E2(1);a2=E2(2);a3=E2(3);b1=E2(4);
b2=E2(5);%================第三级辨识 噪声模型参数辨识======================= z3=[e1-a1;e2-a2;e3-a3;e4;e5;f2-b2;f3;f4];H3=[1 0;a1 1;a2 a1;a3 a2;0 a3;b1 0;b2 b1;0 b2;];disp('第三级 噪声模型参数 c1 c2 辨识结果:')E3=inv(H3'*H3)*H3'*z3 十yule_walker辨识算法
%Yule-Walker 辨识算法
%辨识模型:z(k)=-0.9*z(k-1)-0.36*z(k-2)-0.054*z(k-3)+v(k)%============== %产生随机噪声
v=random('Normal',0,1,1,1024);%均值为零,方差为 1
%产生观测序列 z=[];z(1)=0;z(2)=1;z(3)=1.5;for i=4:1024 z(i)=-0.9*z(i-1)-0.36*z(i-2)-0.054*z(i-3)+v(i);end %计算 z(k)的自相关函数 Rz0=0;Rz1=0;Rz2=0;Rz3=0;for i=1:1024 Rz0=Rz0+z(i)^2;end Rz0=Rz0/1024;for i=1:1023 Rz1=Rz1+z(i+1)*z(i);end Rz1=Rz1/1024;for i=1:1022
第四篇:2014年 高级会计师案例分析练习题二
2014年高级会计师案例分析练习题二
参考分析题:
H公司是一家国有控股集团公司,其旗下有甲、乙两家上市公司,均在深交所上市。为了较好的贯彻集团的发展战略,甲乙两家公司的总经理均由H公司的一名副总兼任。为了稳定队伍,实现集团企业的可持续发展,集团决定在下属的两家上市公司同时实施股权激励制度,并采取股票期权激励方案,激励对象包括公司全体董事、监事、高级管理人员和核心(业务)技术人员。
甲公司创建于2000年,公司股本总额9 000万,由于重视技术研发和市场开拓,近几年实现了30%的销售收入的高速增长,预计这种势头还会继续保持下去。在讨论股权激励方案的具体条款时,相关人员畅所欲言,最终达成如下主要结论:
(1)由于公司发展迅速,为更大程度地激励员工,决定加大激励力度,本次全部有效的股权激励计划所涉及的标的股权数量累计为1 020万;
(2)本公司投资部业务骨干李某虽然进入公司不满2年,但业绩突出,亦应获授股票期权(李某原在另一家上市公司工作,因出现重大违法违规行为被证监会予以行政处罚,随后向公司提出辞职。考虑到该人业务水平非常高,是一个难得的人才,本公司在其辞职后立即以优惠条件引进)。会计师考试交流群:244486918
(3)考虑到目前股市低迷,股价未能真实反映公司价值,应当全部以回购股份作为股权激励的股票来源。
要求:
1.甲公司采用股票期权激励方式是否恰当?简要说明理由。
2.分析本案例中有关股权激励计划所涉及到的不合法之处。并简要说明理由。
【分析与提示】
1.恰当。
理由:公司正处于快速成长期,资金需求量大,采取股票期权方式一方面不会增加企业的资金压力;另一方面,激励对象行权时还需支付现金。这种激励方式与公司目前的发展现状是相适应的。
2.本案例中涉及的不合法之处有:
(1)激励对象的范围方面存在不合法之处:
理由:根据规定,国有控股上市公司的负责人在上市公司担任职务的,可参加股权激励计划,但只能参与一家上市公司的股权激励计划。会计师考试交流群:244486918二是公司的监事不得纳入股权激励计划范围;
理由:根据规定,国有控股上市公司的监事暂不纳入股权激励计划。
三是独立董事不得纳入股权激励计划。
理由:根据规定,股权激励计划的激励对象不应包括独立董事。
四是业务骨干李某不得纳入股权激励计划
理由:根据规定,最近3年因重大违法违规行为被中国证监会予以行政处罚的人员,不得成为激励对象。
(2)股权激励计划所涉及的标的股权数量不合法。
理由:根据规定,全部有效的股权激励计划所涉及的标的股权总量累计不得超过股本总额的10%。甲公司总量累计为1 020万,超过了9 000万的10%。
(3)全部以回购股份作为股权激励的股票来源不合法。
理由:根据公司法规定,公司不得收购本公司股票,但将股份奖励给本公司员工的,可以回购股份,但不得超过本公司已发行股份总额的5%。甲公司股权激励计划所涉及的股权数量已超过5%,不得全部以回购股票作为股权激励股票来源。
第五篇:外汇基础知识二之基本面分析
外汇基础知识二之基本面分析
时间:2012-12-17作者来源:钰佳-郭秀美QQ:1094261312
外汇市场的风险
高风险的投资
外汇保证金交易在所有的投资工具中是属於高风险的投资,但却是最适合有丰富投资经验的个人与法人的投资工具。网络交易平台可允许使用高额的融资比例杠杆来进行外汇的操作(最高可以到达帐户现有资本的400倍)。一个美金两千元的帐户可以同时买卖相当於市价40万美元的货币,在这个比例的操作下,市场只要有千分之五的变动,这个帐户很快就会结束。理论上来说,用最高的融资比例来操作外汇,只要市场有一毛钱的变动,您不但血本无归,而且损失有可能比原先开户金额还高。因此,用来操作外汇市场的资金应该是不会影响您日常生活或公司营运开销的闲臵资金。
网上交易的风险
除了上述的风险外,以互联网为主体的线上交易系统也有其本身的风险,这包括了硬体、软体及网路的连线等等。因为交易商并没有能力控制网路的信号端、接收器、电脑设定及路径、与网路连线的稳定性,当透过网路下单时,任何连线的失败或延迟交易商不负任何的责任。交易商都有备份系统,以及伺服器当机时的备案来降低发生的可能性。此外,不论任何状况发生,您都可以通过交易商提供的免费国际长途电话来下单。
外汇市场庞大的交易量、高流动性及汇率的变动通常有很强的趋势,长久以来一直是最受欢迎的投机市场,也许因为这些特性会带给投资人丰厚的获利,然而,赚钱的人毕竟是少数,下面几个原因限制了这些成功的比例:
投资人对获利可能性的误判,或是缺乏外汇操作的原则
短线操作并不适合业馀的投资人,也不是一夜致富最好的管道。货币看起来和股票、期货并不相同,因此并不代表所有投资的规则和简单的逻辑都可以套用在外汇市场上。高风险才有高回报,一个高风险的投资计画,意味着如果无法有稳定的获利,通常就会遭致很大的损失。外汇投资并不容易,如果容易的话,大家都是百万富翁了。许多经验丰富的外汇投资人仍避免不了定期的损失,因此,学习外汇投资并没有捷径,而且需要时间才能精通。外汇投资最大的诱惑在於高杠杆融资比例的使用
保证金交易对某些想要以小搏大的投机客有很大的诱惑。然而,保证金交易是一把双面利刃的剑,虽然只要美金一千元就可以持有十万元的货币,这并不代表一个一万元的帐户就应该一次买进五十万或是一百万的外汇部位。虽然帐面上看起来好像只要一千元就可以持有十万元,但是一个十万元的外汇部位本身就应该当作十万元来看待,而不是只看到一千元保证金而已。很多有经验的投资人能够正确的分析市场,以及有选出绝佳进场点的能力,但是最後却往往败在过度的使用保证金交易,导致他们不得不在最差的价钱下认赔离场。
举例来说,一个美金一万元的帐户,投资人花了一千元的保证金持有一个价值美金十万元的外汇部位,因此他的比例就是十比一,这是一个相当适合的投资策略,大部分的专业经理人或基金法人所允许使用保证金的比例甚至比这个数字还低。使用比较小额的保证金比例操作外汇可以使投资人有能力承受许多小额的损失,而不至於到时捉襟见肘。