东方证券_20161107_金融工程研究东方机器选股模型Ver1.0.pdf

上传人:pei****hi 文档编号:870699 上传时间:2019-08-12 格式:PDF 页数:17 大小:1.99MB
返回 下载 相关 举报
东方证券_20161107_金融工程研究东方机器选股模型Ver1.0.pdf_第1页
第1页 / 共17页
东方证券_20161107_金融工程研究东方机器选股模型Ver1.0.pdf_第2页
第2页 / 共17页
点击查看更多>>
资源描述

《东方证券_20161107_金融工程研究东方机器选股模型Ver1.0.pdf》由会员分享,可在线阅读,更多相关《东方证券_20161107_金融工程研究东方机器选股模型Ver1.0.pdf(17页珍藏版)》请在得力文库 - 分享文档赚钱的网站上搜索。

1、 HeaderTable _User 1122253200 HeaderTable _Stock 股票代码 投资评级 评级变化 行业 code HeaderTable _Excel 东方证券股份有限公司经相关主管机关核准具备证券投资咨询业务资格,据此开展发布证券研究报告业务。 东方证券股份有限公司及其关联机构在法律许可的范围内正在或将要与本研究报告所分析的企业发展业务关系。 因此, 投资者应当考虑到本公司可能存在对报告的客观性产生 影响的利益冲突,不应视本证券研究报告为作出投资决策的唯一因素。 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并

2、请阅读本证券研究报告最后一页的免责申明。 专 题 报 告【 金 融 工 程证 券 研 究 报 告 】东方机器选股模型 Ver 1.0 因子选股系列研究之十五 研究结论研究结论 机器学习容易给人“黑箱模型”和“过拟合”的印象,但事实上一些机器学习算法的逻辑和结果都非常直白,而且算法自身带有一套避免过拟合的参数估计机制。众多的实践研究说明,机器学习方法的预测能力大部分情况下都强于线性模型,很值得在量化投资中测试使用。本报告主要讲述机器学习的基本原理和用其来做量化选股的实证结果。 机器学习模型众多,不存在所谓的最强模型,不同的数据,不同的问题适用 不同的模型。我们测试了 LASSO、SVM、增强型决

3、策树、随机森林等几种常见机器学习方法,最终选择用随机森林,主要是因为它结构简单、参数少、过拟合概率低,同时还具有非常强的样本外预测能力。 机器选股模型省去了“因子筛选”、“因子加权”和“ZSCORE 转收益率”这三个步骤,直接通过随机森林做回归,由 alpha 因子来预测收益率。需要说明的是,决策树本身也可以用来做变量筛选,但是我们并没有把这一步交给机器,而是仍然保留了“因子 IC 检验”这个步骤,保证随机森林的输入变量确确实实是符合我们传统意义的 alpha 因子;如果把很多没有选股效用的因子混在一起作为输入变量,会导致数据噪音过大,产生“ Garbage in, Garbage out”

4、的问题,降低模型的预测能力。 实证结果显示,和传统 alpha 因子 IC_IR 加权方法相比,随机森林模型得到的多空组合收益率和稳健性都更高,处理 alpha 因子间信息重叠的效果要比我们之前报告提出的线性方法好。 风险提示风险提示 量化模型失效风险 市场极端环境的冲击 报告发布日期 2016 年 11 月 07 日 证券分析师 朱剑涛朱剑涛 021-63325888*6077 执业证书编号:S0860515060001 相关报告 非流动性的度量及其横截面溢价 2016-11-02 Alpha 预测 2016-10-25 线性高效简化版冲击成本模型 2016-10-21 资金规模对策略收益

5、的影响 2016-08-26 Alpha 因子库精简与优化 2016-08-12 日内残差高阶矩与股票收益 2016-08-12 动态情景多因子 Alpha 模型 2016-05-25 金融工程 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 东方机器选股模型 Ver 1.0 2 目录 一、机器学习简介. 3 1.1 常见机器学习方法 .3 1.1.1 线性模型 3 1.1.2 决策树模型 3 1.1.3 神经网络 5 1.1.4 支持向量机(SVM) 6 1.1.5 寻找最优机器学习模型? 7 1.

6、2 机器学习如何避免过拟合 .7 1.3 群体学习提高预测能力 .9 1.3.1 增强型决策树 9 1.3.2 随机森林 9 1.3.3 增强型决策树 VS 随机森林 9 二、机器选股模型. 10 2.1 模型基本架构 . 10 2.2 IC 与多空组合表现 . 10 2.3 中证 500 指数增强效果 .11 2.4 MACH-100 组合 . 12 三、总结 . 14 参考文献 . 14 风险提示 . 15 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 东方机器选股模型 Ver 1.0 3 一、

7、机器学习一、机器学习简介简介 1.1 常见机器学习方法 机器学习(ML,Machine Learning)涵盖一大类算法,我们这里的讨论只针对适用于金融数据预测的常用有监督型机器学习(Supervised ML)算法。假设我们要去预测某个连续变量 Y未来的取值(例如,个股未来一个月的收益率),并找到了影响变量 Y取值的 K 个变量 ,这些变量也称为特征变量(Feature Variable)。ML 即是要找到一个拟合函数 去描述 Y和特征变量之间的关系, 为这个函数的参数。 要找到这样的函数,必须要足够量的观测数据,假设有 N 个样本数据 和 ( ) 。 然后定义一个二元函数 来衡量真实观测数

8、据和模型估计数据的偏差,函数 L 也称作损失函数(Loss Function)。基于历史观测数据,我们可以求解下列的最优化问题来得到参数 的估计值 求解过程称作模型训练(Model Traing)。基于特征变量的最新观测值和训练出来的模型参数就可以预测 y的数值。不同机器学习方法的差别在于函数 和 的选择,同时还会给上述优化问题加上限制条件避免模型过拟合,不同的选择需要不同的算法来求解。 我们报告这一章主要介绍几种常用ML模型的基本形式以及论述为什么 ML做预测效果更优的原理,详细的数理推导,建议投资者参阅 Hastie(2008)的经典教科书。 1.1.1 线性模型 如果采用线性拟合函数 和

9、二次损失函数,上述优化问题就变成了最常用的 OLS 线性回归。我们在上篇报告中就是采用简单的一元回归将 alpha 因子的 zscore 转换为预测收益,线性模型的好处在于结构简单,可以基于此发展出完善的资产定价模型和风险分析工具,在 A 股实际使用下来效果也非常好,不比复杂的非线性模型差多少。但缺点是对于因子间共线性处理、变量选择效果一般。现在通行的做法是通过不同 alpha 因子的 IC 相关性分析,进行分类或正交化处理,因子数据预加工后再输入到回归模型中,这里面人为的主观因素会比较多。投资者可以尝试一些带压缩控制的线性模型,如 Ridge Regression,LASSO 等,用数理手段

10、处理问题,提升模型预测能力。 1.1.2 决策树模型 决策树(CART,Classification and Regression Tree)应该是一种结果最易于理解的机器学习模型,和很多投资者采用的因子逐步筛股法的思考方式很像。假设有两个特征变量 和 ,一个训练好的决策树模型可能是图 1 的树状结构,它可以表示成一系列的二维示性函数的和 其中 对应图 2 中的矩阵区域。对于更多的特征变量,CART 的拟合函数也可以表示成类似的高维矩形块示性函数的和,这里矩形块的数量、划分点、划分顺序都是函数的参数,有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联

11、系。并请阅读本证券研究报告最后一页的免责申明。 东方机器选股模型 Ver 1.0 4 CART 的损失函数也为二次损失函数,优化问题(1.1)的变量同时包含整数和实数,属于混合优化问题,没有显式解和高效的数值算法。因此,实际使用中,用得更多的是一种逐步搜索的贪婪算法寻求次优解(算法步骤参考 Hastie 2008),运算效率非常之高。 图 1:二元决策树的树状结构 资料来源:东方证券研究所 图 2:二元决策树的示性函数表示 资料来源:东方证券研究所 决策树结构简单,符合人的逻辑思维习惯,而且不受样本异常值影响,计算速度快,在统计学习里属于“白盒(white box)”方法。但是它也有致命缺点:

12、模型数据依赖性强,稳定性低,样本外预测能力差。 图 3:传统决策树方法的不稳定性 资料来源:东方证券研究所 否否否否是是是是有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 东方机器选股模型 Ver 1.0 5 上图是 Dwyer (2007)使用 UCI repository获得的医学数据做的决策树模型训练测试,他们从所有数据中随机抽取了 106 个样本训练出一个 CART(图 3 左),然后再随机加了 1 个样本,对这 107 个样本又训练了一个 CART(图 3 右)。可以直观看到,虽然只相差一个

13、样本,但是两次训练出来的决策树结构完全迥异. 一种改进的方法是设置有关树结构复杂度的限制条件,提前结束模型训练过程,避免过拟合,这种方法相当于对原来的树形结构进行“修剪”,让枝叶上的数据样本变多。但这种方法对模型样本外预测能力的改善非常有限。CART 更多的是来做群体学习(参考第 1.5 节)的基本构成元素,很少单独使用。 1.1.3 神经网络 人工神经网络(ANN,Artificial Neural Network)是一种历史悠久的机器学习方法。它用的拟合函数比较特别,先对输入变量的线性组合做非线性转换,得到隐藏层的 M个变量 ( ) 转换函数最早取得是 Heveside 阶梯函数,来模拟人

14、生理上受到的刺激需要达到一定的量才会产生反应,但这是一个非连续函数,难以求解后续的优化问题,因此现在使用更多的是连续的 sigmoid 函数 或 GRBF(Gaussian Radial Basis Function) | |。对于回归问题,最后的输出变量是隐藏层变量的线性组合 。 图 4:ANN 基本架构 资料来源:东方证券研究所 ANN 同样使用二次损失函数,但它并非直接求解优化问题(1.1),这样会导致过拟合,而是类似于 Ridge Regression 的做法,对模型里面的参数 的大小做出限制,让优化求解过程提前结束,提高模型样本外预测能力。 Y输出层隐藏层输入层有关分析师的申明,见本

15、报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 东方机器选股模型 Ver 1.0 6 理论上可以证明 ANN 的这种结构可以拟合任意形式的连续函数,增加隐藏层和隐藏层变量的数量可以让模型能够描述更复杂的结构。ANN 的参数数量可以远多于输入变量的个数,因此很容易过拟合,在某些工程问题的样本外表现不如 SVM。近些年,GPU 技术的发展和超大规模服务器并行运算使得复杂结构的神经网络能够在有效时间内完成训练,以 Google AlphaGo 为代表的深度神经网络重回人们视线, 不仅在围棋上战胜人类高手, 也在许多工程问题的机器

16、学习算法竞赛中摘得桂冠(Schmidhuber 2015)。另一方面,网络大数据使得传统 ANN 模型,即使不改进算法,仅靠训练样本数量的大幅提升,效果也能得到显著改善。 1.1.4 支持向量机(SVM) SVM最早由 Vladimir N. Vapnik 和 Alexey Ya. Chervonenkis 于 1963 年提出, 用来做分类,我们这里考察的是其对应的用来解决回归问题的模型 SVR(Support Vector Regression)。SVR先对原始数据做了非线性变换 ,把数据映射到高维空间,再做回归。其拟合函数可以表示为 损失函数 L(a,b)通常采用下面 形式 优化问题(1

17、.1)需要带上类似 Ridge Regression 或 LASSO 的约束条件或惩罚项。当采用类似Ridge Regression 的二次惩罚项时,优化问题可写作 求解这个优化问题,得到的拟合函数可以写成如下形式 ( ) , ( ) ( ) 因此 SVR 并没有设定转换函数 的形式,而是直接选取不同形式的核函数 ,最常用的核函数有多项式函数和高斯核函数等;系数 的数据样本点称为支持向量。 和和 ANN 相比相比,SVR 的的最大优势在于优化问题的求解最大优势在于优化问题的求解,SVR 是一个凸优化问题,全局最优解唯一,模型训练速度快,而 ANN 优化问题求解得到的往往是局部解,和算法初始点取

18、值有很大关系, 不同初始点可能会收敛到不同的局部最优解。 另外另外, 基于, 基于 SRM (Structural Risk Minimization)理论理论,SVR参数参数 的的调整可以用来控制模型预测偏差的上限,从而获得比传统调整可以用来控制模型预测偏差的上限,从而获得比传统 ANN更优的更优的样本外样本外表现表现。SVM在图像识别、文本分类、医药生物等不同领域有很广的运用, 我们尝试过使用我们尝试过使用 LIBSVM 工具箱(工具箱(文献文献3)来)来做因子选股,但是做因子选股,但是发现发现 SVM 对模型对模型参数的设参数的设置很敏感置很敏感,工具箱开发人员建议用工具箱开发人员建议用

19、 Cross Validation +Grid Search 的的方法来寻方法来寻找找最优参数,但我最优参数,但我们不清楚们不清楚 Grid Search 时时格点格点密度密度设置在什么设置在什么水平水平比较合适比较合适,太密会导致运算量陡然增加,太密会导致运算量陡然增加,太太稀稀会会使得参数并非最优,工具箱使得参数并非最优,工具箱默认默认推荐的幂函数推荐的幂函数形式形式格点格点设置设置方法效果不佳方法效果不佳。 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 东方机器选股模型 Ver 1.0 7 1

20、.1.5 寻找最优机器学习模型? ML 模型远不止上面介绍的几种基本类型,这样会引出一个很自然的问题,“是否存在一种最优模型?”。当前世界范围内有很多的机器学习比赛,但还没有哪一种方法能够称霸所有赛事,不不同的同的数据数据、不同的问题、不同的问题适用适用的的 ML 模型模型也不同也不同。但其中有一类算法使用非常广泛,这就是增强型决策树,据不完全统计,Kaggle 举办的机器学习比赛,一半以上的获胜算法使用了 XGBoost 工具箱(一个增强型决策树工具箱,支持 Python 和 R 语言)。不过这只能说明增强型决策树是一种很有效的算法,但并不一定是最强算法,因为 Kaggle 是一个限时的比赛

21、,参赛者为了在规定时间里完成比赛,更倾向于在现有工具基础上改进测试,因此在 Quora 上,也有一些做深度神经网络的研究人员认为,详细分析数据,合理设计网络结构,深度神经网络的效果将远胜于增强型决策树。 对于对于量化研究而言量化研究而言, 从从技术技术层面去寻找最适合股票投资的层面去寻找最适合股票投资的 ML模型模型会会存在存在较大风险较大风险。 因为复杂ML 模型的程序实现和模型训练耗时耗精力,而金融数据预测是一个低信噪比的问题,复杂 ML 模型的效果改善可能很有限,更重要的是复杂 ML 模型,像深度神经网络,数据经过多层加工,输出结果和输入变量之间的关系很难解释, 投资者接受难度大。 更更

22、经济实用经济实用的方法是的方法是找到一个预测找到一个预测能力能力还不错的还不错的 ML 模型,模型,多多花花时间去寻找能时间去寻找能提供提供独立信息源的独立信息源的 alpha 因子,改进因子,改进数据特征提取方法数据特征提取方法。 1.2 机器学习如何避免过拟合 从我们和机构客户的交流情况看, 量化投研人员对机器学习的态度很复杂, 一方面自己实际投资中发现选股因子和股票收益之间关系并非完全线性, 需要能力更强的分析预测工具, 另一方面又担心机器学习工具过于复杂,导致数据挖掘,样本内过拟合的结果外推性不强,经济含义也不好解释。我们这里想说明的是,ML 虽然没法完全避免过拟合的可能性,但配合使用

23、一些方法是可以降低 ML 过拟合的概率,提升样本外预测能力的。 假设输入变量 X 和输出变量 Y 的真实关系可以表示为 , 为误差项,满足。投资者者通过 ML 方法找到了 的一个拟合函数 。对于一个新的数据点 , 它的预测偏差定义为 ( ) ( ) ( ) ML 模型的预测偏差取决于(1.2)的三项,第一项取值与 ML 模型选择无关,第二项 Bias 和第三项Variance 都受 ML 模型复杂度的影响;一般来讲一般来讲,模型复杂度模型复杂度越高越高,Bias 越小越小,但,但 Variance 越越大;大;模型复杂度模型复杂度越低越低,Bias越大越大,Variance 越小越小。因此。因

24、此要要想想提高提高 ML模型模型的预测的预测能力能力,模型并不,模型并不是越复杂越好,是越复杂越好,而是而是要在要在 Bias 和和 Variance 间做间做权衡权衡,降低总体预测误差,也就是所谓的降低总体预测误差,也就是所谓的 Bias -Variance tradeoff。ML 模型都有参数来控制模型的复杂度,通过合理设置该参数数值来提高 ML模型样本外预测能力,降低过拟合可能。、 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 东方机器选股模型 Ver 1.0 8 为了合理设置 ML 模型的复

25、杂度参数,我们需要估算不同复杂度参数下,ML 模型的样本外预测误差,再选择最小预测误差对应的参数数值。ML 模型样本外预期预测误差的估计可以通过交叉验证(CV,Cross-Validation)方法来实现,根据数据样本数量的不同,最常用的是 5-fold CV 和 10-fold CV。以 5-fold CV为例,它首先把数据样本平均分为 5 份,以第一份为测试数据集,以其它四份为模型训练集;用训练集的数据训练 ML 模型的参数,用测试集数据作为样本外数据,计算ML 模型的预测误差。然后再以第二份数据为测试集,其它四份数据做训练集。如此轮流,把所有计算得到的预测误差取平均作为 ML 样本外预期

26、预测误差的估计值。 这里举一个简单例子,我们用上篇报告Alpha 预测里提到的 2016 年 8 月底的 17 个风险中性化后的 alpha 因子和对应的 2016 年 9 月份股票收益率来训练一个 LASSO 线性模型。 LASSO和传统 OLS 线性回归的差别在于做(1.1)优化时,对回归系数的大小做了限制,此时需要求解的优化问题转换为: ( ) 数值越大,模型对回归系数的惩罚越大,训练得到的线性模型越简单(系数不为零的变量个数越少)。下图是使用 5-fold CV方法得到的不同 数值对应的模型预测误差,为了便于展示,横轴采用的是 ,从左到右, 的数值越来越小,模型的复杂度越来越高。可以看

27、到,刚开始时,预 测误差随着模型复杂度的提高而迅速减小,说明此时模型复杂度提高带来的 Bias 减少效应大于Variance 的增加;预测误差在达到图中红点处的最小值后,再增加模型复杂度,预测误差反而会变大,Bias 减小效应小于 Variance 的增加,模型开始过拟合。LASSO 通过 CV方法来选择参数,使得模型的预测误差最小,也就是图中的红点位置,从而避免模型过拟合。 图 5:LASSO 模型预测误差和参数之间的关系 资料来源:东方证券研究所 & Wind 资讯 4.0E-034.1E-034.2E-034.3E-034.4E-034.5E-034.6E-034567891011121

28、314 log(1/)Cross-Validated MSE of LASSO Fit有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 东方机器选股模型 Ver 1.0 9 1.3 群体学习提高预测能力 前面提到, 单个决策树的样本外预测能力十分有限, 我们可以同时使用多个决策树进行群体学习(Ensemble Learning)来提高模型的预测能力,这里常用的方法有两种: 1.3.1 增强型决策树 增强型决策树(Boosted CART)使用多个决策树的线性组合来作为拟合函数 ( ) 其中 是输入变量,

29、 为第 m 个决策树的参数,增强型决策树即是要求解下列优化问题 ( ) 优化问题(1.3)可以用 FSAM(Forward Stagwise Additive Modeling)算法(Hastie 2008)近似求解。对于分类问题,如果损失函数采用指数形式 ,则 FSAM 算法等价于AdaBoost. 对于回归问题,如果损失函数采用二次损失函数,利用损失函数的可导性,可以采用Gradient Boosting 算法。增强型决策树的样本外预测能力要明显强于单个决策树,是当前使用最广的 ML 方法之一。 1.3.2 随机森林 随机森林(RF, Random Forrest)的方法也是同时用多个决策

30、树来做预测,但树的生成方法略有不同。它首先对数据样本进行了 B 次 Bootstrap 抽样,用抽样的数据训练出一个 CART ,而且训练 CART 的算法做了改变,在决定每个分叉点使用哪个变量时,不是遍历所有的 K 个变量,而是从中随机抽取 G 个变量用来分析(回归通常取 )。RF 最终的预测函数形式为 ( ) 前文提到, CART 对数据很敏感, RF 这种算法使得它生成的决策树预测结果的相关性很低, 但 Bias变化不大,因此把多个低相关性的预测结果组合在一起,Variance 会明显降低。RF是是通过降低预通过降低预测结果的测结果的波动性波动性来提升样本外的预测准确度来提升样本外的预测

31、准确度。 1.3.3 增强型决策树 VS 随机森林 关于这两种常用 ML 算法效果的比较, 有过很多研究, 包括: Caruana (2006) , Delgado (2014)和 Hastie(2008)。总体总体来看来看,准确,准确调整好参数的调整好参数的增强型增强型决策树模型效果决策树模型效果略好略好于于随机随机森林森林(幅度幅度非常有限)非常有限),而且收敛速度更快,可以用较少数量的决策树就达到随机森林方法的预测精度。但但增增强强型决策型决策数的问题就在于参数数的问题就在于参数调整调整,因为它有三个关键变量:决策树数量、树结构和学习速率;动一个, 其它两个变量也要跟着变, 调整难度较大

32、。 而随机森林受树结构的影响很小 (Segal 2004) ,主要的变量只有一个,决策树的数量,调整起来容易很多,而且和增强型决策树相比,它更不容易有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 东方机器选股模型 Ver 1.0 10 过拟合。增强增强型决策树型决策树和和随机森林两种方法的随机森林两种方法的选股选股效果效果我们都测试过,相差不大。我们我们都测试过,相差不大。我们最终最终选择随选择随机森林的原因主要机森林的原因主要是是它结构简单它结构简单,参数参数调整调整容易容易,过拟合的可能性更小过拟

33、合的可能性更小,方便进一步方便进一步改进改进研究研究。 二二、机器选股模型机器选股模型 2.1 模型基本架构 和传统线性 alpha 模型(图 6)相比,我们的机器选股模型省去了“因子筛选”、 “因子加权”和“ZSCORE 转收益率”这三个步骤,直接通过随机森林做回归,由 alpha 因子来预测收益率。需要需要说明说明的是,决策树的是,决策树本身本身也可以用也可以用来来做变量筛选,但是我们做变量筛选,但是我们并并没有把这一步交给机器,而是仍然没有把这一步交给机器,而是仍然保留了保留了 “因子“因子 IC检验” 这个步骤检验” 这个步骤, 保证随机森林, 保证随机森林的的输入变量确确实实是符合我

34、们传统意义的输入变量确确实实是符合我们传统意义的 alpha因子;因子;如果把如果把很多没有选股很多没有选股效用效用的的因子因子混在混在一起作为输入变量一起作为输入变量,会导致会导致数据数据噪音过大噪音过大,产生产生“ Garbage in, Garbage out” 的的问题,降低模型的预测能力问题,降低模型的预测能力。 图 6:机器选股模型基本架构 资料来源:东方证券研究所 2.2 IC 与多空组合表现 图 7 是随机森林模型做的 Top 10% - Bottom 10%多空组合的净值走势图,回溯时间段为2008.01.02 2016.10.31。我们做了三个测试,首先是用Alpha 预测

35、报告中最终精简筛选出的11 个 alpha 因子作为输入变量,和传统的三种方法比, RF 11-alpha 多空组合的收益率、月胜率、Sharpe 值和最大回撤都明显优于 IC_IR 加权方法。如果直接采用精简前的 17 个 alpha 因子,RF 17-alpha 的收益和稳健性可以得到进一步提升, 这可以部分说明可以部分说明 RF内部机制内部机制处理因子间相关性的处理因子间相关性的效果要比我们前面报告提出的线性精简方法要好效果要比我们前面报告提出的线性精简方法要好。另外如果是做主动量化产品,全市场选股,风险控制要求不高,可以把行业因子和市值因子也作为输入变量。在线性回归中,这两个风险因子的

36、加入将显著提升回归方程的 R-square,对 RF 来说,加入这两个因子后,多空组合收益平均月收益可以显著提升到,但稳健性有所下降,不过也在可接受范围内。 因子IC检验技术类因子财务类因子情绪 因子初始 Alpha 因子库精简 Alpha因子库预测收益率多因子 ZSCORE因子 筛选因子 加权线性 转换随机森林有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 东方机器选股模型 Ver 1.0 11 图 7:不同方法得到的多因子多空组合净值表现 资料来源:东方证券研究所 & Wind 资讯 2.3 中证

37、 500 指数增强效果 Alpha 因子多空组合的表现和其指数增强表现会有差别,图 8 和图 9 比较了传统因子 IC_IR 加权方法做的中证 500 指数增强效果和 RF 方法的差别,IC_IR 加权用的是精简后的 11 个 alpha 因子,RF 用的则是精简前的 17 个 alpha 因子,另外,为了预测更加准确,RF 预测时加入了市值和行业因子,选出的股票行业和市值风险暴露较高,在做组合优化时,我们采用了更严的市值风险控制, 要求市值暴露不超过 0.3。 测试时间段从 2009.01.05 到2016.10.31, 在全市场范围内选股. 可以看到,在未扣费前 RF 方法年化超额收益达到

38、 31.2%,比 IC_IR 加权高 2.8%,但最大回撤也多了 0.6%,两个组合的稳健性水平基本相当。 020406080100120140160180RF_plus 17-alphaRF 17-alphaRF 11-alphaIC_IR 加权加权 11-alphaAlpha优化优化 11-alpha信息增量信息增量 11-alpha平均月收益月胜率Sharpe Ratio最大回撤Zscore ICZscore IC_IRRF_plus 17-alpha0.05092.5%3.24-0.1360.1444.84RF 17-alpha0.04393.4%3.67-0.0670.1235.52

39、RF 11-alpha0.04293.4%3.44-0.0770.1245.68IC_IR 加权 11-alpha0.04091.5%3.36-0.0910.1335.46Alpha优化 11-alpha0.03092.5%4.17-0.0620.1056.91信息增量 11-alpha0.03592.5%3.64-0.0480.1166.22有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 东方机器选股模型 Ver 1.0 12 图 8:IC_IR 加权中证 500 增强组合业绩表现(未扣费) 资料来

40、源:东方证券研究所 & Wind 资讯 图 9:RF 中证 500 增强组合业绩表现(未扣费) 资料来源:东方证券研究所 & Wind 资讯 2.4 MACH-100 组合 我们以 17 个 alpha 因子加上市值和行业两个风险因子作为输入变量,每个月用 RF 模型预测一次个股未来一个月的收益,选取预测收益最高的 100 只股票(剔除停牌、月初涨停、ST 和上市不满三个月的股票) 等权做组合, 构造了月频调仓的 MACH-100 指数。 从图 10 和图 11 可以看到,这个指数在 2009.01.01-2016.10.31 近八年时间里, 净值上涨了 41.7 倍, 年化收益率 63.9%

41、, 84%的月份可以战胜中证 500;2016 年年初到 10 月 31 日,策略指数获得了 18.7%的正绝对收益,表现非常优异。 -5%-4%-3%-2%-1%0%123456IC_IR加权中证加权中证500增强组合对冲净值增强组合对冲净值回撤对冲净值年化超额收益信息比月胜率最大回撤平均股票数量月单边换手率28.4%3.7488.3%-4.3%175.571.4%-6%-5%-4%-3%-2%-1%0%1234567RF 中证中证500增强组合对冲净值增强组合对冲净值回撤对冲净值年化超额收益信息比月胜率最大回撤平均股票数量月单边换手率31.2%3.7587.2%-4.9%194.470.6

42、%有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 东方机器选股模型 Ver 1.0 13 图 10:MACH-100 指数净值表现 资料来源:东方证券研究所 & Wind 资讯 图 11:MACH-100 指数数据统计 资料来源:东方证券研究所 & Wind 资讯 作为对比,我们另外构造了一个最具 A股特征的“极小市值-100 指数”,即每个月底选取全市场总市值最小的 100 只股票(剔除停牌、月初涨停、ST 和上市不满三个月的股票)等权构成的组合。MACH-100 指数和极小市值-100 指数的收益

43、率基本相当,在 2015 年有较大差距。极小市值-100 指数收益高,换手率低,但是成分股由于市值太小,流动性较差,可能大部分都不能进入投资机构的备选股票池。对比而言,MACH-100 指数成分股的市值中位数在全市场股票市值从大到小排序的分位数平均在 76%(图 12),市值水平和各家机构股票池里市值最小的股票相近;分位数最高的时候接近 40%,近几个月的分位数都在 80%之后,模型选出的股票切合市场风格,显著偏向于小市值股票。从成分股行业权重分布来看,计算机、医药、电子元器件、基础化工的权重最大,超配最多的五个行业分别是计算机、传媒、电子元器件、医药、通信。 01020304050M A C HM A C H - -100100指数指数极小市值极小市值- -100100指数指数中证中证500500MACH-100指数极小市值-100指数中证500年化收益率63.9%65.8%17.1%月胜率84.0%81.9%最大回撤-53.8%-55.4%-54.3%Sharpe值1.371.400.59月单边换手率64.2%20.4%5.6%2009227.4%203.9%131.3%201045.8%31.3%10.1%2011-15.3%-

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 研究报告 > 可研报告

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知得利文库网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号-8 |  经营许可证:黑B2-20190332号 |   黑公网安备:91230400333293403D

© 2020-2023 www.deliwenku.com 得利文库. All Rights Reserved 黑龙江转换宝科技有限公司 

黑龙江省互联网违法和不良信息举报
举报电话:0468-3380021 邮箱:hgswwxb@163.com