阿里通义千问重磅升级:免费开放1000万字长文档处理功能

3月22日消息,阿里通义千问重磅升级,向所有人免费开放1000万字的长文档处理功能,成为全球文档处理容量第一的AI应用。即日起,所有金融、法律、科研、医疗、教育等领域的专业人士,都可通过通义千问网站和APP快速读研报、分析财报、读科研论文、研判案情、读医疗报告、解读法律条文、分析考试成绩、总结深度文章。比如在金融领域,上传一份公司财报,通义千问即可自动提取和总结公司各业务的营收情况和利润增长等核心信息,生成公司整体业绩表现的总结。上传公司不同时期的财报后,通义千问可生成公司在这一阶段内的业务变化、业绩趋势并进行财报

3月22日消息,阿里通义千问重磅升级,向所有人免费开放1000万字的长文档处理功能,成为全球文档处理容量第一的AI应用。

即日起,所有金融、法律、科研、医疗、教育等领域的专业人士,都可通过通义千问网站和APP快速读研报、分析财报、读科研论文、研判案情、读医疗报告、解读法律条文、分析考试成绩、总结深度文章。

比如在金融领域,上传一份公司财报,通义千问即可自动提取和总结公司各业务的营收情况和利润增长等核心信息,生成公司整体业绩表现的总结。上传公司不同时期的财报后,通义千问可生成公司在这一阶段内的业务变化、业绩趋势并进行财报分析。

在法律领域,律师和法官通常需要阅读数十万甚至上百万字的法律文档,人肉阅读耗时耗力,通义千问能够快速阅读和分析法律文件,迅速掌握法律条文要点,输入特定案件信息后,通义千问还可给出相应的判罚建议。

目前通义千问的文档处理容量和能力,已超越ChatGPT等全世界市场上所有的AI应用。

相关资讯

通义千问首次落地天玑9300移动平台!阿里云携手MediaTek探索端侧AI智能体

3月28日,阿里云与知名半导体公司MediaTek联合宣布,通义千问18亿、40亿参数大模型已成功部署进天玑9300移动平台,可离线流畅运行即时且精准的多轮AI对话应用,连续推理功耗增量不到3W,实现手机AI体验的大幅提升。这是通义大模型首次完成芯片级的软硬适配,仅依靠终端算力便能拥有极佳的推理性能及功耗表现,标志着Model-on-Chip的探索正式从验证走向商业化落地新阶段。端侧AI是大模型落地的极具潜力的场景之一。利用终端算力进行AI推理,可大幅降低推理成本、保证数据安全并提升AI响应速度,让大模型可以更好地

千亿规模参数,阿里云通义千问进化到2.0:性能超GPT-3.5,加速追赶GPT-4

10 月 31 日,阿里云正式发布千亿级参数大模型通义千问 2.0。在 10 个权威测评中,通义千问 2.0 综合性能超过 GPT-3.5,正在加速追赶 GPT-4。当天,通义千问 APP 在各大手机应用市场正式上线,所有人都可通过 APP 直接体验最新模型能力。过去 6 个月,通义千问 2.0 在性能上取得巨大飞跃,相比 4 月发布的 1.0 版本,通义千问 2.0 在复杂指令理解、文学创作、通用数学、知识记忆、幻觉抵御等能力上均有显著提升。目前,通义千问的综合性能已经超过 GPT-3.5,加速追赶 GPT-4。

阿里云 x 联发科,天玑 9300 等手机芯片适配端侧通义千问大模型

感谢联发科宣布已成功在天玑 9300 等旗舰芯片上部署通义千问大模型,首次实现大模型在手机芯片端深度适配。通义千问在离线情况下运行多轮 AI 对话。阿里云方面表示,将和联发科深度合作,向全球手机厂商提供端侧大模型解决方案。IT之家注意到,通义千问目前已开源 18 亿、70 亿、140 亿、720 亿参数等大语言模型,以及视觉理解、音频理解多模态大模型。阿里云在去年 10 月还发布了通义千问 2.0,模型参数达到千亿级别。联发科自己也在研发大语言模型,曾推出开源的 MR Breeze-7B 模型,擅长处理繁体中文和英