前沿工作系列三水儿将带你看看CV(计算机视觉),AI Agent领域的一些比较新,比较有热度的工作或者论文。让你每周花个几分钟,了解一下该领域有哪些新的有趣的工作或者有哪些落地的方向,让你在组会和技术讨论时不再支支吾吾,做人群中最靓的仔。
好了,话不多说,我们来看看本周的一个Github 热点项目,它将Agent技术应用到了金融领域,让我们看看AI“金融大亨们”是如何炒股的:TradingAgents-CN。
想象一下,如果能把一支华尔街的精英投研团队“装进”你的电脑里,会是怎样一种体验?
TradingAgents-CN这个开源项目做的就是这件事。
它不是一个简单的炒股机器人,而是一个基于多智能体(Multi-Agent)架构的AI交易决策框架。简单来说,它在你的电脑里虚拟出了一家小型投研公司,团队成员分工明确 :
整个流程由一位“管理层”智能体统筹,最终生成一份逻辑清晰、有理有据的专业投资报告。最关键的是,这个项目专为中文环境优化,原生支持A股和港股,还能无缝对接国产大模型,对国内的金融和技术爱好者来说非常友好 。
上面的简介看起来很炫酷,但对于部分不是计算机相关专业的兄弟们会不会很复杂?得益于项目完善的Docker容器化方案,整个过程出奇地简单,你只需要按照三水儿下面的方法,就可以轻松搞定自己的本地安装部署。
三水儿贴心的为大家准备了Mac和Windows的详细教程。对于使用Linux的朋友,三水儿相信你们可以自食其力的。
首先是环境准备,我们需要安装Git和Docker这两个文件。
Windows用户:
MacOS用户:
在项目文件夹中,Mac一般为/Users/用户名/TradingAgents-CN;Windows一般为C://User//TradingAgents-CN
把.env .example文件复制一份,然后按注册下面的网站,填入你的API密钥
在终端运行
注:目前的Docker的web镜像部分时候存在问题,三水儿暂时也没有好的解决办法(原因是环境配置的问题,有一个包找不到,后面三水儿有空再去解决)。
目前可以在本地启动web,数据库等内容使用Docker容器。下附方法:
安装环境(确保本地安装了conda)
安装项目依赖
完成后,启动应用
项目启动成功截图
好了,成功部署启动运行只是第一步,对于一个开源的项目,我们当然要深入了解他的架构和技术了。
对于一个他人的开源项目,我们首先要梳理清楚的就是他的每个目录都是干什么的。TradingAgents-CN的项目结构十分清晰,命名也很规范,所有我们在这里快速的过一下:
这个项目的灵魂就在于它的多智能体(Multi-Agent)架构。这部分让我们来介绍一下他所有Agent吧。
核心成员至少有七位,可以分为四个梯队 :
思维链(Chain of Thought)
每个Agent都有一个预设的“人设”和“思考模式”,这是通过精心设计的Prompt(提示词)来实现的。它们的行动框架大致如下:
他们是如何交流的?
如果Agent之间只是用自然语言聊天,信息在传递过程中很容易失真,这就是所谓的“电话效应”。TradingAgents巧妙地解决了这个问题,采用了一种混合沟通协议 :
这种设计,既保证了信息传递的保真度,又保留了思想碰撞的火花。
TradingAgents-CN对这些外部API的管理非常灵活和集中。
这种设计大大降低了使用和扩展的门槛,让用户可以专注于策略本身,而不是繁琐的API接入工作。
现在,让我们把所有环节串起来,看看从你输入一个股票代码到最终报告生成,都发生了什么。
至此,一次由AI天团协作完成的深度投研分析就完成了。整个过程逻辑清晰、有迹可循,是不是感觉非常强大?
好了,到现在为止你已经拥有了一个强大的AI量化框架了。但很快啊,很快,你就发现了自己的大模型Token小号的飞快。同时,一些技术量化佬也会产生一个大胆的想法,如果我不想只用通用的模型API,而是想用我自己的数据,去微调一个更懂我投资策略的,专属的大模型,会怎么样?
理想很丰满,但现实却很骨感。你的算力是不够的,小的基座模型能力不够,他敢给你策略,你也不敢用啊,大的模型能力倒是够了,但你的GPU是扛不住的,你不会指望着你的那张游戏显卡能做模型微调吧?别想了,就是目前最强的游戏显卡5090的32G也无能为力啊。
唯一的选择似乎只剩下云端GPU。但随之而来的是持续烧钱的账单、上传海量数据的漫长等待,以及对于金融行业最致命的——数据安全与合规风险。你总不会想把你私有的数据上传到公有平台吧?
那么,有没有一种方案,既能提供数据中心级的算力,又能保障绝对的数据安全,还能方便地放在办公桌上呢?
有的,兄弟,有的。
这就是英伟达最近新出的工作站——NVIDIA DGX Spark。
它不是一台传统的工作站,而是一个全新的品类:“个人AI超级计算机” 。它的核心使命,就是为了打破“显存墙”。
DGX Spark的拥有128GB的高速统一内存 。传统电脑的CPU和GPU内存是分开的,数据需要来回拷贝。而统一内存架构让CPU和GPU共享一个巨大的内存池,对于AI模型来说,可用的“显存”瞬间从几十GB跃升至128GB。这意味着,在家微调70B甚至更大规模的模型,从“不可能”变成了“可能”。同时对于量化公司来说,这也是一个必备神器啊。
“但等一下,” 你可能会问,“成熟的量化公司不是都有自己的算力中心吗?还需要这个桌面设备?”
问得好!
传统的算力中心,我们需要把任务上传到中央集群,要排队等很久。这样很难快速验证一个想法。
而有了DGX Spark则可以让研究员可以在自己的办公桌上,即时访问PetaFLOP级的算力,用私有数据安全地进行模型原型设计和快速迭代。一旦策略被验证有效,再无缝地将成熟的任务迁移到公司的数据中心进行大规模训练或部署 。
好了,本期的“三水儿和你探前沿”就到这里。我们从一个有趣的开源项目聊起,一路探索到底层的硬件基石。希望这些内容能给你带来一些新的启发。我们下期再见!