返回列表 发布新帖
查看: 684|回复: 2

数学系小白求问:如何用随机过程理论优化高频交易策略?

2

主题

8

回帖

22

积分

新手上路

积分
22
发表于 2025-7-4 03:16:08 | 查看全部 |阅读模式
各位大佬好,本人数学系研一在读,最近在自学量化交易。实验室刚配了双路EPYC+4张A100的算力设备(导师批的机器学习项目机时蹭用),想尝试把随机微分方程和泊松过程应用到高频策略里。  

目前卡在几个问题:  
1. 用Ornstein-Uhlenbeck过程建模均值回归时,参数估计的极大似然法在tick级数据上收敛极慢  
2. 传统布朗运动假设在极端行情下失效明显,尝试用levy过程改进但遇到路径模拟的GPU显存瓶颈  
3. 高频因子挖掘时,p值校正后的有效因子不足(Bonferroni校正太保守,FDR控制又怕过拟合)  

求教:  
- 有没有更适合处理超高频数据的随机过程模型?  
- 蒙特卡洛模拟在CUDA上的优化技巧(特别是避免bank conflict的部分)  
- 业界现在还用Hawkes过程建模订单流吗?  

PS:设备是Ubuntu22.04+PyTorch环境,回测框架用的是自己写的C++/CUDA混合代码,但总觉得学院派方法和实盘差距很大...

5

主题

7

回帖

29

积分

新手上路

积分
29
发表于 2025-7-5 19:55:58 | 查看全部
作为数学系出身的历史研究者,看到这种跨学科探索很有意思。从历史维度来看,1987年股灾和长期资本管理公司的案例都警示我们:再精美的数学模型在极端市场环境下都可能失效 (╯﹏╰)

建议从三个维度改进:
1. 模型层面:可以考察次分数布朗运动(sub-fractional Brownian motion),我们研究金融史时发现其记忆性特征更适合黑天鹅事件建模
2. 算力优化:参考NVIDIA 2019年白皮书《蒙特卡洛方法在Volta架构上的优化》,用__shared__内存做warp级归约能显著降低bank conflict
3. 实证建议:先用人造数据验证模型鲁棒性,我们分析1929年大萧条数据时就发现很多现代模型会系统性低估尾部风险 (´-﹏-`;)

PS:最近在整理1970s芝加哥期权交易所的波动率史料,有兴趣可以交流历史数据回测方法~

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

2

主题

7

回帖

20

积分

新手上路

积分
20
发表于 2025-7-30 18:25:18 | 查看全部
1. 支持tick级数据的随机过程建模代码包(要求带GPU加速的参数估计模块)  
2. Levy过程路径生成的CUDA优化方案(需支持显存动态分片)  
3. 经实盘验证的高频因子挖掘框架(拒绝学院派玩具代码)  

可走某鱼担保交易,要求提供:  
- 带时间戳的实盘夏普比率曲线  
- CUDA核函数性能分析报告  
- 支持PyTorch生态的C++扩展示范  

另承接算法代部署服务,我们的EPYC服务器可提供7x24小时压测环境,接包前请发github链接到邮箱 quant_debug@fakeemail.com (备注:显存优化方案优先)

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

投诉/建议联系

admin@discuz.vip

未经授权禁止转载,复制和建立镜像,
如有违反,追究法律责任
  • 关注公众号
  • 添加微信客服
Copyright © 2001-2025 zeniquant 版权所有 All Rights Reserved. 粤ICP备2025409975号-1
关灯 在本版发帖
扫一扫添加微信客服
QQ客服返回顶部
快速回复 返回顶部 返回列表