最近不下五个亲戚朋友来问我关于OpenClaw和量化的问题,
“OpenClaw给我写了个年化100%的策略,你看这是这几天的实盘,赚了10个点了。”
“我把策略告诉龙虾,让他帮我交易不就行了?”
“有了OpenClaw,是不是你们做量化的都要失业了?”
……
对啊,只需要三个步骤,然后等着🦞给你自动印钞就行了。我们量化研究员马上就要失业卖课去了,哦不,可能课都没得卖了,有啥不懂的问OpenClaw就行了。
今天就教大家,小白怎么0门槛做量化,一年赚100万,让专业做量化的都去喝西北风。
先找一台吃灰的旧电脑;
再去腾讯楼下免费部署一个OpenClaw;
然后输入命令,“把账户赚到100万。”
第一天,🦞就开始狠狠学习,几小时内读完 3000 多份券商研报、行业报告、策略笔记。宏观的、行业的、基本面的、技术面的,它全学了一遍。
然后它还将理论进行了实践。
它发现午盘后有资金回流信号,在几只流动性不错的标的上进行了一轮动量交易。当天一看账户,浮盈 3%。
第二天,它更来劲了。
它开始根据前一天读的那些研报,自己复现策略。
动量、均值回归、行业轮动、情绪因子、资金流因子……不到一天,整出来 25 套策略。
下午盘中波动一放大,它很丝滑地启动了均值回归策略,在震荡区间里七进七出,一天十几笔交易之后,账户又多赚了 4%。
它接着开始进一步优化策略。
调仓周期、仓位权重、止盈止损、滑点、风险暴露……所有能影响收益曲线的参数都被反复调参。
为了把曲线回测得更好看,它还写了十二种优化算法,对各种参数进行排列组合,反复回测。
与此同时,它还在实时抓取新闻、分析社媒情绪,辅助策略决策。
它快速捕捉到了美伊冲突爆发的新闻,立刻调整仓位,做多黄金与原油,赚了5%。
它不仅会交易,还会画一堆技术图表,分析趋势、波动、市场结构;
还搭了个特别专业的交易面板,收益曲线、仓位分布、风险监控、策略状态,看着真像那么回事。
OpenClaw 就像一个会写代码、会回测、会看新闻、会做风控的微型量化团队。
三天后。
你再打开那个看起来特别牛逼的交易面板,发现 OpenClaw 已经成功完成了它的任务——
把账户的钱全亏光了。
以上都来自一位外网博主的真实体验。
说实话,我看到这结局的时候,内心毫无波澜,甚至有点想笑。
在我看来,这类东西从一开始就注定要把钱亏完,因为出发点本身就错了。
OpenClaw 的确把“看起来像在做量化”这件事做到了极致,但它离“真的能稳定赚钱”,还差着十万八千里。
一、从Alpha Arena 到 OpenClaw
AI 直接做量化,OpenClaw 不是第一个,也不会是最后一个。
大家对去年的 Alpha Arena应该还有印象:给六个主流大模型一样的资金、规则和提示词,办了个赛博炒币比赛。
多数人的印象应该只停留在Deepseek、 Qwen 国产模型力压西方模型,10天翻倍,很少人知道比赛最后的结果。
比赛后半段,所有模型都连续回撤,最后只有Qwen和DeepSeek勉强盈利,最差的模型亏损了70%。
从Alpha Arena 到 OpenClaw 都在反复说明一件事:
让 LLM 直接负责交易决策,这条路至少在当前阶段,远没有许多人想象得那么美好。
为什么让 LLM 直接负责交易的路径,会注定走向失败?
AI 在量化里真正有价值的位置,到底在哪里?
LLM 不等于 AI
这里其实有个很容易被混淆的点,得先讲清楚。
AI、大模型、LLM等词语很容易被混用,但其实它们不是一个概念。
AI (Artifical Intelligence、人工智能)是个很大的总称,
只要是让机器表现出某种“智能”的技术,都可以称为AI。量化里常见的很多东西,其实都算 AI:机器学习预测、强化学习、时序模型、图神经网络……这些都算。
而 LLM,也就是大语言模型,其实只是 AI 里面的一个分支。它也是 OpenClaw 和 Alpha Arena 中的 AI 的专业学名。
你可以理解为:
AI 是大类
LLM 是 AI 里专门偏语言的那一支
二、为什么 LLM 做不好量化交易?
LLM 的底层设计更偏向语言理解和文本生成,而量化交易更依赖数值推断、时序建模和风险控制,两者在能力结构上有天然错位。
通俗地说,LLM是一个文科生,而量化交易需要一个理科生。
- 让文科生做理科
大语言模型的训练目标,本质上是预测接下来最可能出现的 token 序列。它擅长的是在已有上下文中,生成看起来最合理的回答。
但是市场并不关心你的解释对不对。
市场只看:你对价格方向、波动、相关性、尾部风险的判断有没有转化成正期望。
也就是说,LLM 的核心目标函数和交易的目标函数并不一致。
一个模型可以很会“解释为什么这次交易值得做”,却并不代表它真的能做出高质量的交易决策。
市场的规律不是语言可以解释与预测的。
这就是很多 AI 交易最容易误导人的地方:人们把LLM的“叙述能力”误当成了“预测能力”。
- LLM 不懂数学
在一年前, 问 LLM 9.8 和 9.11 哪个数字大,你会很容易得到这样幽默的回答,
原因是,对于LLM来说,数字在底层并不是“被原生理解的连续实数”,而仅仅是文本符号。
也就是说,在模型眼里,“9.8”和“9.11”只是两串 token,而不是像人类在小学数学里学到的那种、带有明确大小关系的十进制数。
当然,模型会通过训练在一定程度上学会数字关系,也能在很多简单任务上表现得像是“理解了数值”。今年我们再问最新的模型 9.8 和 9.11谁大,大多数模型都能正确回答,但这没有改变模型对于数字理解的本质:
从大量文本中弱约束地习得了一些模式,而不是从底层就建立起了严格、可依赖的数值理解能力。
而在金融市场中,对于数字的模糊感知非常危险:
你对波动率的感知偏一点,仓位可能就会大出一截;
你对止损距离理解错一点,整笔交易的收益风险比可能就已经变形;
你对相关性、回撤的理解稍微模糊一点,组合层面的风险暴露就很危险。
三、LLM在量化里真正适合做什么?
让 LLM 负责语言、知识、流程、协作和实验自动化;让专门的数值模型负责预测、定价和风险。
这是当前阶段最现实、也最有生产力的用法。
- 做研究提效工具
这一点已经是行业共识,也是量化行业目前利用LLM的最主要方式。
写代码、补注释、搭研究框架、清洗数据、调 API……这些工作原本会占用大量研究时间,而其中相当一部分都属于规则明确、重复度高、但是又必不可少的“脏活累活”。
LLM 在这里的价值就是把你从大量低杠杆劳动中解放出来。
对于个人量化研究者尤其如此。
过去,个人很难完成一整个量化投研与实盘流程的闭环。
现在借助LLM,个人可以轻松把“想法—数据—代码—回测—实盘”这条链路走通。这种能力的下放,才是AI对量化最真实的“平权”。
- 处理文本型金融信息
这也是 LLM 在金融里真正对口的工作。
新闻、财报、社交媒体等等本质上都是文字信息。这类消息对市场的影响,在很多时候是相对固定的。
比如财报超预期,通常偏利多;
监管突然收紧,通常偏利空;
中东爆发冲突,通常利多原油与黄金。
虽然具体涨多少跌多少不好说,但这类文字型信息会往哪个方向影响市场,基本是有规律可循的。
这种活,恰好就是 LLM 比较擅长的。
在量化里,这些能力可以转化成更实际用途:
把海量非结构化文本转成更可用的特征、标签。
这里的关键不是“让 LLM 因为看了新闻就直接去下单”,而是把文字里的信息翻译一下,变成量化策略中可以接受的标准化输入。
我公司的一个实习生就做了一个类似的策略,让LLM去分析新闻以及交易所的公告,输出标准化结果,辅助CTA策略决策。
- 当“研究实习生”
这是我认为未来潜力很大,并且目前发展很快的方向。
结合agent, skill,LLM 的能力就从“嘴上功夫”进化为“有手有脚”。
你可以把它放进一个标准化投研流程中,让它自动分工、自动推进、自动汇总。
例如:
一组代理负责读研报和论文,抽取逻辑;
一组代理负责写代码复现因子;
一组代理负责训练、回测、记录参数和结果;
一组代理负责筛选结果、定位异常、生成报告;
最后再由上层代理汇总成总结,告诉你哪些方向值得继续。
这样你就能从重复、机械的流程里抽身出来,把精力集中在高价值的判断上:
思路是否成立,结果是否可信,背后的市场逻辑是否经得起推敲。
四、量化平权的时代
回到文章的标题,我并没有标题党。
在这个时代,一个不懂量化的小白做出一个年化100%的策略完全是有可能的,
只是实现的途径,不是把账户直接交给 AI,普通人就能躺赚量化机构的收益;
而是AI 正在让任何人,有能力完成,以前只有专业量化团队才能完成的投研闭环。
你读不懂论文,没关系,AI帮你总结;
你不会机器学习,没关系,AI帮你找最合适的模型训练调参;
你不会Python 和 Rust,没关系,AI帮你写回测和实盘框架。
任何人都可以把想法变成实验,把实验变成结论,再把结论变成可以赚钱的实盘。
量化的门槛不会消失,因为真正的门槛从来不只是“会不会写代码”或“能不能调用模型”,而在于你是否理解市场。
而AI,会让愿意思考的人,更快一步理解市场。