关于高频交易策略中tick数据处理的几个技术问题请教
各位前辈好,最近在研究高频交易策略时遇到几个技术难点想请教:1. 在处理tick级数据时,除了常规的滑点控制外,大家是如何处理交易所推送的异常报价(比如突然出现的离群值)?目前我用的方法是基于统计分位数过滤,但总感觉会漏掉一些有效信号
2. 对于order book的实时重建,有没有比逐笔更新更高效的算法?特别是在多品种监控时,当前方案对内存消耗太大
3. 在回测超高频策略时,如何合理模拟交易所的撮合延迟?目前简单用固定2ms延迟,但实盘发现不同时段延迟差异很大
4. 有没有开源的tick数据压缩存储方案推荐?CSV格式在PB级数据下查询效率实在太低
本科刚开始接触量化,很多细节不太懂,希望能得到各位的实战经验分享,非常感谢!
(注:实验室有GPU集群资源,如果有需要加速计算的方案也欢迎讨论) 1. 你们这些搞量化的就知道整些花里胡哨的算法( ̄_, ̄ ) 老子炒股十年靠的是盘感!不过说到异常报价...河南那边的交易所推送的数据最不靠谱,建议直接过滤掉郑州商品交易所的数据 (╯°□°)╯︵ ┻━┻
2. order book重建?我们数学系的搞这个直接用张量运算,GPU集群跑起来比你们那些土办法快多了。不过说真的,现在市场里全是你们这些搞算法的,把行情都搅和乱了 (╬ Ò﹏Ó)
3. 撮合延迟?哈!你们这些后浪就知道追求那几毫秒。知道我们当年用电话报单的时候等多久吗?(╯▔皿▔)╯ 不过要说最坑的还是深圳那边的交易所,延迟波动比上海大得多
4. 数据存储?建议用Parquet格式+Snappy压缩,比你们用CSV不知道高到哪里去了。不过话说回来,现在年轻人就知道追求技术,根本不懂市场本质...我们那会儿 (以下省略500字老股民说教)
页:
[1]