栏目分类
发布日期:2025-03-06 06:56 点击次数:200
1月27日凌晨,阿里云通义开源守旧100万Tokens荆棘文的Qwen2.5-1M模子,推出7B及14B两个尺寸,均在处分长文本任务中阐发越过GPT-4o-mini;同期开源推理框架,在处分百万级别长文本输入时可终了近7倍的提速。
据了解,百万Tokens长文本,可换算成10本长篇演义、150小时演讲稿或3万行代码。当今,开源社区可基于全新的 Qwen2.5-1M 系列模子,进行长篇演义或多篇学术论文的瓦解,或是探索仓库级代码的分析和升级。(全天候科技)