订阅
纠错
加入自媒体

开源“卷王”阿里云,投下“深水炸弹”

2023-12-04 15:18
商业秀
关注

哈喽大家好,我是弘一。想用大模型做一个属于自己的AI应用,开源大模型是很多人的首选,因为用开源,一来不用重复造“轮子”,二来省成本,比如说在阿里云魔搭社区ModelScope平台上,仅用一句提示词,就可以创建自己的AI助手,然后再对通义千问开源模型进行微调,甚至可以做一些定制化开发。这就好比我们踩在了一个大模型“巨人”的肩膀上办事儿,省时省心又省力。

我们知道,自Meta发布了Llama 2大语言模型以来,这个大模型的开源圈就热闹了起来,但要说国内能对标Llama(模型)的目前只有阿里云的通义千问。从8月到现在,阿里云陆续开源了通义千问70亿参数模型Qwen-7B、140亿参数模型Qwen-14B、720亿参数模型Qwen-72B和18亿参数模型Qwen-1.8B。

可以说,阿里云率先实现了国内开源模型的“全尺寸”套件,以远超业界的开源力度成了当之无愧的开源“卷王”,也为AI赛道的企业和开发者提供了更优的选项。

其实,企业选开源还是闭源,还是要看对自身的定位以及业务的场景需求。更重要的是,模型本身的能力怎么样,能不能帮公司解决问题、创造价值。就拿通义千问720亿参数模型来说,它的性能就超越了开源标杆Llama 2-70B以及大部分的商用闭源模型。

据了解,在10个权威测评中,它获得了开源模型的最优成绩。在部分测评中,它甚至超越了闭源的GPT-3.5和GPT-4。而且,Qwen-72B的上下文窗口长度也扩展到了32k,可以处理最多32k的长文本输入。在长文本理解测试集LEval上,它取得了超越ChatGPT3.5-turbo-16k的效果。

此外,研发团队还对Qwen-72B的指令遵循工具使用等技能作了技术优化,使得它能够更好地被下游应用集成。

开源的本质是为了更开放,更快速地迭代和发展。而这对一家企业的技术能力也提出了更高的要求,尤其是研发720亿参数级别的大模型也需要更高的技术水平。而在AI的投入上,阿里云其实一直在持续投入不断迭代,给个人开发者 科研团队以及AI创业公司提供了更多的可能性,也形成了一个更丰富的开发者生态。

我们也相信,开源大模型将会给整个人工智能领域的发展带来更多的机会。一览弘观, 与你有关,我们下期见。

@新媒体制作与运营:林晓      @图文校对与视频后期:耿琪琪

       原文标题 : 开源“卷王”阿里云,投下“深水炸弹”

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    云计算 猎头职位 更多
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号