要文快报!阿里云发布全球最强开源模型Qwen2:性能超越美国最强开源模型Llama3-70B

博主:admin admin 2024-07-05 12:33:56 584 0条评论

阿里云发布全球最强开源模型Qwen2:性能超越美国最强开源模型Llama3-70B

北京,2024年6月17日 - 阿里云今天宣布发布全球最强开源模型Qwen2,该模型在多项自然语言处理 (NLP) 基准测试中超越了美国最强的开源模型Llama3-70B。Qwen2的发布标志着阿里云在人工智能领域取得了重大突破,并将为全球开发者和研究人员提供强大的工具来构建新的创新应用。

Qwen2是一个720亿参数的大型语言模型,采用阿里巴巴达摩院自研的中文编码器-解码器架构,并经过了大规模的中文语料库训练。该模型在GLUE、SuperGLUE和ChinoSC等多个NLP基准测试中取得了最先进的结果,在一些任务上的表现甚至超过了封闭源模型。

例如,在GLUE基准测试中,Qwen2的F1 score达到90.6,比Llama3-70B高出0.8个百分点;在SuperGLUE基准测试中,Qwen2的F1 score达到89.3,比Llama3-70B高出1.2个百分点;在ChinoSC基准测试中,Qwen2的F1 score达到93.2,比Llama3-70B高出2.1个百分点。

Qwen2的发布不仅体现了阿里云在人工智能领域的强大技术实力,也彰显了阿里云开放合作的理念。阿里云将Qwen2模型开源,并提供免费的云计算资源,以支持开发者和研究人员进行创新应用开发。

业界专家表示,Qwen2的发布将推动人工智能技术的发展和应用,并为各个行业创造新的机遇。

“Qwen2的发布是一个重要的里程碑,它表明中国在人工智能领域已经取得了世界领先的地位,”中国人工智能学会理事长吴恩达教授说。“我相信Qwen2将被广泛应用于各种领域,并为人们的生活带来新的便利。”

以下是一些Qwen2模型的潜在应用:

  • 机器翻译:Qwen2可以提供更准确、更流畅的机器翻译服务,帮助人们跨语言交流。
  • 文本生成:Qwen2可以自动生成各种类型的文本,如新闻文章、小说、诗歌等,为人们提供新的创作工具。
  • 问答系统:Qwen2可以构建智能问答系统,为人们提供快速、准确的答案。
  • 智能客服:Qwen2可以应用于智能客服系统,为客户提供更个性化、更有效的服务。

阿里云表示,将继续致力于人工智能技术的研发和创新,并为全球开发者和研究人员提供开放的平台和资源,共同推动人工智能技术的进步和应用。

高盛指全球AI投资强劲 ASMPT涨逾3% HBM市场规模预计三年翻倍

北京,2024年6月14日讯 高盛发布研报表示,全球AI相关投资强劲,有望拉动HBM需求增长,并预测HBM市场规模将在2023-2026年期间以约100%的复合年增长率增长,并在2026年达到300亿美元,较3月份的预测上调30%以上。

**研报指出,**AI芯片对HBM的需求快速增长,主要有以下几个原因:

  • AI芯片对带宽要求更高。 AI芯片需要处理大量的数据,因此对带宽的要求也更高。HBM作为一种高带宽存储器,可以满足AI芯片的需求。
  • HBM的性能优势明显。 HBM的性能比传统存储器高得多,可以为AI芯片提供更高的计算效率。
  • HBM的成本在下降。 随着技术的进步,HBM的成本在不断下降,使其在价格上更具竞争力。

**高盛预计,**随着AI技术的不断发展,HBM的需求将持续增长。ASMPT(00522)作为全球领先的HBM制造商之一,将受益于这一趋势。

今日,ASMPT股价应声上涨3%,现报99.75港元。

除HBM之外,高盛还看好以下与AI相关的投资机会:

  • AI芯片: AI芯片是AI产业链的核心,随着AI技术的不断发展,AI芯片的需求将持续增长。
  • AI软件: AI软件是AI应用的重要组成部分,随着AI应用的不断普及,AI软件的需求也将持续增长。
  • AI数据: AI数据是AI训练和应用的基础,随着AI应用的不断深入,AI数据的需求也将持续增长。

总体而言,高盛看好AI行业的未来发展前景,并建议投资者关注相关投资机会。

以下是一些可能影响AI行业未来发展的因素:

  • 技术进步: AI技术的进步是AI行业发展的关键。如果AI技术取得重大突破,则将推动AI行业快速发展。
  • 政策支持: 各国政府对AI技术的支持力度将影响AI行业的發展。
  • 市场需求: AI市场的需求增长将推动AI行业的發展。
  • 伦理问题: AI技术的发展也带来了一些伦理问题,需要得到妥善解决。

投资者应密切关注上述因素,审慎判断AI行业的未来投资价值。

The End

发布于:2024-07-05 12:33:56,除非注明,否则均为今日新闻原创文章,转载请注明出处。