
- MiroMind发布MiroThinker-v1.5开源Agent
#1 - YuanLab.ai开源发布Yuan3.0 Flash多模态大模型
#2 - 中国电信TeleAI开源星辰语义大模型TeleChat3 智谱 AI GLM 教程
#3 - 智谱AI GLM-Image 模型适配Hugging Face
#4
MiroMind AI 团队推出基于 Qwen3 的 MiroThinker v1.5 系列开源搜索 Agent,通过交互式扩展技术显著提升了工具增强推理与长轨迹任务处理能力。
MiroMind AI 团队正式发布了 MiroThinker v1.5 系列开源搜索 Agent,旨在推进工具增强推理和信息获取能力。该系列模型包含 30B 和 235B 两个参数规模,均基于 Qwen3 系列模型开发,并采用 MIT 协议开源。
MiroThinker v1.5 引入了交互式扩展(interactive scaling)技术,通过系统化训练模型处理更深层且高频的 Agent 与环境交互,利用环境反馈和外部信息获取来纠正错误并优化轨迹。
该模型支持 256K 上下文窗口,单任务可处理高达 400 次 Tool 调用,在 BrowseComp、HLE-Text 和 GAIA 等多项基准测试中刷新了开源 Agent 的性能记录。目前,相关模型权重已登录 Hugging Face,代码库已在 GitHub 开源,并提供名为 DR MiroMind 的在线 Demo 供用户体验。

https://github.com/MiroMindAI/MiroThinker https://huggingface.co/collections/miromind-ai/mirothinker-v15 https://dr.miromind.ai/
YuanLab.ai 近期开源了具备 40B 参数的 Yuan3.0 Flash 多模态大模型,采用 MoE 架构与创新强化学习算法,在企业级场景下实现了高性能与低成本的平衡。
YuanLab.ai团队于近期开源发布了 Yuan3.0 Flash 多模态基础大模型,这是一款具备 40B 参数规模的高性能模型。该模型采用稀疏混合专家(MoE)架构,单次推理仅需激活约 3.7B 参数,并创新性地引入了 RAPO 强化学习算法及 RIRM 反思抑制奖励机制。
针对企业级的检索增强生成(RAG)、文档理解、复杂表格分析及摘要生成等场景,官方数据显示其性能在多项指标上优于 GPT-5.1,同时推理 token 消耗最高可降低 75%。
模型支持 128K 长上下文,在“大海捞针”测试中实现 100% 准确率。目前,Yuan3.0 Flash 已在 GitHub、HuggingFace、ModelScope 及 始智AI 平台全面开源,提供 16bit 与 4bit 量化版本,支持商用且无需申请授权。


https://github.com/Yuan-lab-LLM/Yuan3.0
中国电信 TeleAI 近期开源了基于国产算力训练的 TeleChat3 系列大模型,全系支持 Thinking 思考模式,在多维度能力上比肩业内顶尖水平。
中国电信人工智能研究院(TeleAI)于近期开源了星辰语义大模型 TeleChat3 系列,包含国内首个全国产化训练的千亿参数细粒度 MoE 模型 TeleChat3-105B-A4.7B-Thinking 以及稠密架构模型 TeleChat3-36B-Thinking。
该系列模型完全基于国产算力(上海临港国产万卡算力池)训练,基础数据量达 15T tokens。TeleChat3 全系支持 Thinking 思考模式,通过在 chat template 中加入特定引导符号生成推理过程,在知识、数学、创作、代码、Agent 及指令遵循等 六 个维度均比肩业内头部模型。
目前,该系列模型已实现对 昇腾 Atlas 800T A2 训练服务器及 昇思 MindSpore 框架的深度适配,相关资源已在 GitHub 和 ModelScope 上线。

https://github.com/Tele-AI/TeleChat3 https://www.modelscope.cn/models/TeleAI/TeleChat3-105B-A4.7B-Thinking https://www.modelscope.cn/models/TeleAI/TeleChat3-36B-Thinking
智谱 AI 旗下的 GLM-Image 模型正通过 Pull Request 接入 Hugging Face 的 transformers 库,旨在优化自回归实现及多图处理能力。
智谱 开发的 GLM-Image 模型正准备接入 Hugging Face 的 transformers 库。开发者已提交编号为 #43100 的 Pull Request,旨在适配该模型的自回归(AR)实现。
该 PR 包含了对 Vision Transformer(ViT)形状的调整、多图处理支持(参考 Qwen 处理方式)、VQ 草案实现以及新增快速处理器等核心更新,目前该 PR 仍处于 Draft 状态。

https://github.com/huggingface/transformers/pull/43100
提示:内容由AI辅助创作,可能存在幻觉和错误。
作者橘鸦Juya,视频版在同名哔哩哔哩。欢迎点赞、关注、分享。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/271067.html原文链接:https://javaforall.net
