Google 推出新一代 Deep Research 和 Deep Research Max,把 MCP、私有数据与原生图表一起带进研究型 Agent

Google DeepMind 于 2026 年 4 月 21 日发布新一代 Deep Research 与 Deep Research Max,并明确说明这套研究型 agent 建立在 Gemini 3.1 Pro 之上。官方给出的定位已经很直接:这不再只是高级摘要器,而是可以覆盖金融、生命科学、市场研究等长链路任务的研究工作流底座。对开发者来说,现在只用一次 API 调用,就能触发一条更完整的长程研究流程。
这轮升级最核心的变化,是 Deep Research 开始同时碰到公开网页和私有数据。Google 的原文提到,新一代 agent 现在可以搜索 web、arbitrary remote MCPs、file uploads 和 connected file stores,也就是把 MCP、自定义数据流、文件上传和已有文件库一起纳入可选数据面。对于企业研究场景,这一步比模型分数更重要,因为真正卡住研究型 Agent 的,往往不是会不会总结,而是能不能拿到正确的数据源。
另一个值得单独看的点,是它开始原生生成图表和信息图。Google 这次没有只说“会出报告”,而是明确写了 native charts and infographics,并给了多组研究报告里的原生可视化示例。这说明 Deep Research 现在的交付物已经不是一坨长文本,而是更接近 presentation-ready 的研究结果。对很多团队来说,这会直接减少搜索之后再手工补图、补表、补结构化呈现的那一段整理成本。
Google 还把产品路线拆成了两个方向。Deep Research 偏交互式、低延迟,适合直接放进前台用户界面;Deep Research Max 则偏长时间计算和高质量综合,更适合后台异步任务,比如夜间跑尽调报告、第二天早上交给分析团队。这个区分很关键,因为它说明 Google 已经开始把研究型 Agent 按使用场景分层,而不是只给一个“大而全”的模式名。
这条消息真正值得看的,不只是 Gemini 3.1 Pro 更强,而是研究型 Agent 的产品化边界已经往前推了。以后大家比较这类工具时,越来越会看它能不能连上私有数据、能不能直接出图表、适不适合前台交互,以及能不能在后台稳定跑完长任务。