聚站网(手机站)有215个分类 55580个网站 2595篇文章
聚站网|网址导航|网站导航手机站LOGO
当前位置:聚站网 » 站长资讯 » 互联网资讯 » 站长新闻 » 文章详细
阿里云通义千问多模态大模型Qwen-VL-Max重磅升级
 
发布时间:2024-01-31 浏览:40次
阿里云通义千问多模态大模型Qwen-VL-Max重磅升级

阿里云昨日公布了其多模态大模型研究的新进展,推出了升级版的通义千问视觉理解模型Qwen-VL-Max。这款模型在视觉推理能力和中文理解能力上都有了显著提升,性能表现堪比GPT-4V和谷歌的Gemini Ultra。

Qwen-VL-Max的升级主要表现在以下几个方面:

  • 基础能力:Qwen-VL-Max能够准确描述和识别图片信息,并基于图片进行信息推理和扩展创作。它还具备了视觉定位能力,能够对画面指定区域进行问答。
  • 视觉推理:新版模型能够理解流程图等复杂形式图片,并能够分析复杂图标。此外,它在看图做题、看图作文以及看图写代码等任务上也达到了世界最佳水平。
  • 图像文本处理:Qwen-VL-Max的中英文文本识别能力显著提高,支持百万像素以上的高清分辨率图和极端宽高比的图像。它既能够完整复现密集文本,也能从表格和文档中提取信息。
  • 与LLM(大语言模型)相比,多模态大模型拥有更大的应用想象力。例如,研究者正在探索将多模态大模型与自动驾驶场景结合,为“完全自动驾驶”找到新的技术路径。此外,将多模态模型部署到手机、机器人、智能音箱等端侧设备,可以让智能设备自动理解物理世界的信息,或者基于多模态模型开发应用,辅助视力障碍群体的日常生活等等。

    Qwen-VL-Plus和Qwen-VL-Max目前限时免费,用户可以在通义千问官网、通义千问APP直接体验Max版本模型的能力,也可以通过阿里云灵积平台(DashScope)调用模型API。

    总的来说,阿里云的通义千问多模态大模型Qwen-VL-Max在视觉推理和中文理解方面都展现出了强大的实力,其性能表现足以与GPT-4V和谷歌的Gemini Ultra相媲美。这将为用户提供更丰富、更准确的视觉信息理解和创作能力,推动AI技术在更多领域的应用和发展。

  • ┃ 来源: 网络转载
  • ┃ 标签: Qwen-VL-Max,Qwen-VL-Max升级,通义千问多模态大模型Qwen-VL-Max,通义
  • 上一篇: 为何EigenLayer是下一个价值十亿美元的空投机会?
  • 下一篇: Apple TV+《花月杀手》获10项奥斯卡提名,创纪录的13项提名引领电影界
  • ┃ 推荐资讯
    ┃ 今日新闻投稿
    ┃ 最新收录网站

     返回顶部