输入

【IT之家评测室】讯飞输入法 14.0 体验:端侧 AI 大模型加持,重构输入体验

10 月 24 日,科大讯飞第七届世界声博会暨 2024 科大讯飞全球 1024 开发者节,在本次大会上,全新讯飞输入法 14.0 正式亮相。 当前生成式 AI 的发展正如火如荼,特别是端侧 AI 大模型正处于快速演进的阶段。 一方面,随着模型技术的进步,模型参数越来越小同时也可以做到效果越来越好,我们可以看到 2024 年以来包括 Meta、谷歌、苹果、微软等行业巨头都推出了自家适合终端侧运行的“小模型”。

15 个 AI 模型只有 3 个得分超 50%,SIUO 跑分被提出:评估多模态 AI 模型的安全性

最新发表在 arXiv 的研究论文指出,包括 GPT-4V、GPT-4o 和 Gemini 1.5 在内的大部分主流多模态 AI 模型,处理用户的多模态输入(例如一起输入图片和文本内容)之后,输出结果并不安全。这项研究标题为《跨模态安全调整》(Cross-Modality Safety Alignment),提出了一个全新的“安全输入但不安全输出”(SIUO),涉及道德、危险行为、自残、侵犯隐私、信息误读、宗教信仰、歧视和刻板印象、争议性话题以及非法活动和犯罪等 9 个安全领域。研究人员说,大型视觉语言模型(LVL

大模型时代还不理解自注意力?这篇文章教你从头写代码实现

自注意力是 LLM 的一大核心组件。对大模型及相关应用开发者来说,理解自注意力非常重要。近日,Ahead of AI 杂志运营者、机器学习和 AI 研究者 Sebastian Raschka 发布了一篇文章,介绍并用代码从头实现了 LLM 中的自注意力、多头注意力、交叉注意力和因果注意力。太长不看版这篇文章将介绍 Transformer 架构以及 GPT-4 和 Llama 等大型语言模型(LLM)中使用的自注意力机制。自注意力等相关机制是 LLM 的核心组件,因此如果想要理解 LLM,就需要理解它们。不仅如此,这

语言模型悄悄偷懒?新研究:​上下文太长,模型会略过中间不看

语言模型:太长我不看。

编译 ONNX 模型

本篇文章译自英文文档Compile ONNX Models — tvm 0.13.dev0 documentation作者是 Joshua Z. Zhang更多 TVM 中文文档可访问 →Apache TVM 是一个端到端的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。 | Apache TVM 中文站。本文将介绍如何用 Relay 部署 ONNX 模型。首先安装 ONNX 包,最便捷的方法推荐安装 protobuf 编译器:或参考官方网站: ONNX 模型下面示例中的超分辨率模型与 ONNX

给几个关键词就能出摄影大片,英伟达GauGAN上新2.0:将文本转成逼真图像

这么美的照片竟然不是出自摄影师之手?!

深度学习领域最常用的10个激活函数,一文详解数学原理及优缺点

激活函数是神经网络模型重要的组成部分,本文作者Sukanya Bag从激活函数的数学原理出发,详解了十种激活函数的优缺点。
  • 1