开源“卷王”阿里云,投下“深水炸弹”
哈喽大家好,我是弘一。想用大模型做一个属于自己的AI应用,开源大模型是很多人的首选,因为用开源,一来不用重复造“轮子”,二来省成本,比如说在阿里云魔搭社区ModelScope平台上,仅用一句提示词,就可以创建自己的AI助手,然后再对通义千问开源模型进行微调,甚至可以做一些定制化开发。这就好比我们踩在了一个大模型“巨人”的肩膀上办事儿,省时省心又省力。
我们知道,自Meta发布了Llama 2大语言模型以来,这个大模型的开源圈就热闹了起来,但要说国内能对标Llama(模型)的目前只有阿里云的通义千问。从8月到现在,阿里云陆续开源了通义千问70亿参数模型Qwen-7B、140亿参数模型Qwen-14B、720亿参数模型Qwen-72B和18亿参数模型Qwen-1.8B。
可以说,阿里云率先实现了国内开源模型的“全尺寸”套件,以远超业界的开源力度成了当之无愧的开源“卷王”,也为AI赛道的企业和开发者提供了更优的选项。
其实,企业选开源还是闭源,还是要看对自身的定位以及业务的场景需求。更重要的是,模型本身的能力怎么样,能不能帮公司解决问题、创造价值。就拿通义千问720亿参数模型来说,它的性能就超越了开源标杆Llama 2-70B以及大部分的商用闭源模型。
据了解,在10个权威测评中,它获得了开源模型的最优成绩。在部分测评中,它甚至超越了闭源的GPT-3.5和GPT-4。而且,Qwen-72B的上下文窗口长度也扩展到了32k,可以处理最多32k的长文本输入。在长文本理解测试集LEval上,它取得了超越ChatGPT3.5-turbo-16k的效果。
此外,研发团队还对Qwen-72B的指令遵循工具使用等技能作了技术优化,使得它能够更好地被下游应用集成。
开源的本质是为了更开放,更快速地迭代和发展。而这对一家企业的技术能力也提出了更高的要求,尤其是研发720亿参数级别的大模型也需要更高的技术水平。而在AI的投入上,阿里云其实一直在持续投入不断迭代,给个人开发者 科研团队以及AI创业公司提供了更多的可能性,也形成了一个更丰富的开发者生态。
我们也相信,开源大模型将会给整个人工智能领域的发展带来更多的机会。一览弘观, 与你有关,我们下期见。
@新媒体制作与运营:林晓 @图文校对与视频后期:耿琪琪
原文标题 : 开源“卷王”阿里云,投下“深水炸弹”
最新活动更多
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024先进激光技术博览展
-
精彩回顾立即查看>> 全数会2024中国深圳智能制造与机器人展览会
-
精彩回顾立即查看>> 2024(第五届)全球数字经济产业大会暨展览会
-
精彩回顾立即查看>> 维科杯·OFweek2024中国工业自动化及数字化行业年度评选
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论