|
|
最近在尝试搭建一个基于tick数据的超高频套利策略,但在数据预处理环节遇到性能瓶颈。目前使用C++实现的解析引擎处理纳斯达克ITCH协议数据时,单个交易日8小时的tick流要消耗近40分钟预处理时间(包括订单簿重建和异常值过滤)。
特别想请教论坛里的前辈:
1) 在order book delta计算时,各位是用逐笔重建还是快照差值法?实测发现快照法在极端行情下会出现状态不一致
2) 有没有比std::unordered_map更高效的内存型order book实现方案?测试过folly::ConcurrentHashMap但GC开销反而更大
3) 对L3数据中的IOC订单各位是如何处理的?目前直接丢弃但担心影响信号质量
策略逻辑本身已经通过1年的1分钟K线回测(年化23%夏普2.1),但移植到tick级后连历史数据回放都跑不通。欢迎任何技术细节或论文方向的建议,暂时不考虑商用解决方案。 |
|