您当前位置: 首页 > 攻略 > 详情

新加坡国家人工智能计划调整方向,舍弃Meta模型转而采用阿里千问大模型

发布时间:2026-01-15 12:51作者:admin

11月26日消息,据媒体报道,新加坡国家人工智能计划(AISG)正迎来一次关键的战略转向。在其最新开展的东南亚语言大模型项目里,AISG不再使用Meta的模型,而是选用了阿里巴巴旗下的通义千问(Qwen)开源架构。这一决策既体现出对技术路线的重新考量,也成为中国开源AI模型在全球影响力拓展进程中的重要一步。

11月25日,AISG推出了基于Qwen架构的“Qwen-SEA-LION-v4”模型,这款模型很快就在一项评估东南亚语言能力的开源榜单中位居榜首。这一行动的目的是长期以来困扰该地区的语言适配难题——像Meta的Llama系列这样的西方开源模型,在应对印尼语、泰语、马来语等区域性语言时效果不够理想,极大地限制了本地化AI应用的开发速度。

尽管Llama在开源模型领域表现出色,但其底层设计存在“英语中心主义”的局限,这一问题难以从根本上解决,导致它在处理泰语、缅甸语等非拉丁语系文字时效率非常低。AISG逐渐意识到,对于东南亚国家而言,依赖硅谷的开源模型并非最佳选择,因此必须寻找真正拥有多语言理解能力、特别是能适配亚洲语言语境的基础模型。

在这样的背景下,AISG最终把目光投向了中国,决定采用阿里的Qwen3-32B作为新一代Sea-Lion模型的基础。

和西方的模型不一样,Qwen3在预训练的时候就采用了多达36万亿个token的数据,这些数据涵盖了全球119种语言和方言。这种“原生多语言能力”让它不只是“认识”印尼语、马来语这类文字,还能从底层去理解它们的语法结构,大大降低了AISG后续开展训练的技术门槛。

为了更好地适配东南亚语言独特的书写习惯,Qwen-Sea-Lion-v4没有采用西方模型常用的“句子分词器”,而是选择了更先进的字节对编码(BPE)分词器。这种技术可以更精准地切分泰语、缅甸语等无空格语言里的字符,从而明显提高翻译的准确度和推理速度。

除了技术层面的优势,商业落地过程中的现实考量同样是阿里能够胜出的关键因素。东南亚一带存在数量庞大的中小企业,它们难以负担价格高昂的H100 GPU集群。不过,经过优化后的Qwen-Sea-Lion-v4,能够在配备32GB内存的消费级笔记本电脑上顺畅运行,这让普通开发者也可以在本地部署这款国家级模型。这种具备“工业级能力、消费级门槛”的特点,精准地贴合了该地区算力资源短缺的痛点。

此次合作并非单方面的技术输出,而是双方深度融合的过程。按照协议内容,阿里方面提供了性能强劲的通用推理底座,AISG则拿出了经过清洗处理的1000亿个东南亚语言token。这些数据不存在任何版权隐患,并且东南亚内容占比高达13%,这一比例是Llama2的26倍。

在Sea-Helm评估榜单上,融入阿里核心技术的Sea-Lion v4很快就在同量级开源模型中跃居榜首,这一成绩充分印证了该战略合作所具备的技术价值和区域适配能力。

复制本文链接 攻略文章为游戏网所有,未经允许不得转载。
热门游戏→更多
相关文章→更多