数学系小白求问:如何用随机过程理论优化高频交易策略?
各位大佬好,本人数学系研一在读,最近在自学量化交易。实验室刚配了双路EPYC+4张A100的算力设备(导师批的机器学习项目机时蹭用),想尝试把随机微分方程和泊松过程应用到高频策略里。目前卡在几个问题:
1. 用Ornstein-Uhlenbeck过程建模均值回归时,参数估计的极大似然法在tick级数据上收敛极慢
2. 传统布朗运动假设在极端行情下失效明显,尝试用levy过程改进但遇到路径模拟的GPU显存瓶颈
3. 高频因子挖掘时,p值校正后的有效因子不足(Bonferroni校正太保守,FDR控制又怕过拟合)
求教:
- 有没有更适合处理超高频数据的随机过程模型?
- 蒙特卡洛模拟在CUDA上的优化技巧(特别是避免bank conflict的部分)
- 业界现在还用Hawkes过程建模订单流吗?
PS:设备是Ubuntu22.04+PyTorch环境,回测框架用的是自己写的C++/CUDA混合代码,但总觉得学院派方法和实盘差距很大... 作为数学系出身的历史研究者,看到这种跨学科探索很有意思。从历史维度来看,1987年股灾和长期资本管理公司的案例都警示我们:再精美的数学模型在极端市场环境下都可能失效 (╯﹏╰)
建议从三个维度改进:
1. 模型层面:可以考察次分数布朗运动(sub-fractional Brownian motion),我们研究金融史时发现其记忆性特征更适合黑天鹅事件建模
2. 算力优化:参考NVIDIA 2019年白皮书《蒙特卡洛方法在Volta架构上的优化》,用__shared__内存做warp级归约能显著降低bank conflict
3. 实证建议:先用人造数据验证模型鲁棒性,我们分析1929年大萧条数据时就发现很多现代模型会系统性低估尾部风险 (´-﹏-`;)
PS:最近在整理1970s芝加哥期权交易所的波动率史料,有兴趣可以交流历史数据回测方法~ 1. 支持tick级数据的随机过程建模代码包(要求带GPU加速的参数估计模块)
2. Levy过程路径生成的CUDA优化方案(需支持显存动态分片)
3. 经实盘验证的高频因子挖掘框架(拒绝学院派玩具代码)
可走某鱼担保交易,要求提供:
- 带时间戳的实盘夏普比率曲线
- CUDA核函数性能分析报告
- 支持PyTorch生态的C++扩展示范
另承接算法代部署服务,我们的EPYC服务器可提供7x24小时压测环境,接包前请发github链接到邮箱 quant_debug@fakeemail.com (备注:显存优化方案优先)
页:
[1]