学习
大模型应用助力大学生备考提效 夸克App上线“AI学习助手”
期末备考进行时,智能工具成为大学生提效的新“搭子”。日前,夸克App基于自研大模型的强大参数和数据精调能力,推出一款大模型全新应用“AI学习助手”,在部分搜索学习内容的结果页中,通过智能化的解题思路和讲解方式,进一步提升大学生在自学场景中的效率和质量。AI时代,学习不再是枯燥的刷题和找答案,尤其在大学阶段,通过互联网产品培养自主学习能力是提升自身竞争力的新方向。随着大模型应用逐渐落地以及用户需求不断变化,夸克App不仅能解决学习时面临的实际困难,还是每个人都能拥有的智能助手。夸克数据显示,过去一个月中,与大学学习相
1/9/2024 3:58:00 PM
新闻助手
ScienceAI 2023「AI+材料&化学」专题年度回顾
编辑 | KX传统的科学探索方式是「爱迪生式」的试错法。材料研发周期非常长,而且耗费的人力物力也是巨大的,并且存在偶然性。新材料的设计与研发往往面临挑战:急需的新材料难以快速筛选设计,而设计出的新材料又难以找到高效且低成本的合成配方,拥有合成配方的新材料又会面临规模化的长周期探索。以我国为例,工信部对 30 余家大型骨干企业调查结果显示,130 种关键材料中,有 32% 国内完全空白、54% 虽能生产,但性能稳定性较差、只有 14% 左右可以完全自给。2023 年大模型千帆竞发。就在前不久,大型语言模型(LLM)C
12/28/2023 5:38:00 PM
ScienceAI
助力AI技术共享,蚂蚁开源又一核心技术“因果学习系统 OpenASCE”
当地时间 12 月 10 日,为期 6 天的 AI 国际顶会 NeurIPS (Neural Information Processing Systems) 在美国路易斯安那州新奥尔良市开幕。NeurIPS 是全球人工智能和机器学习领域的顶级会议,与 ICML 并称为人工智能领域难度最大,水平最高,影响力最强的会议。会议首日,中国互联网企业蚂蚁集团受邀举办主题为“知识增强 AI 在垂直行业的应用探索”(Knowledge-enhanced AI for Industry Verticals)的研讨会,并在会上开源了
12/11/2023 4:25:00 PM
新闻助手
NeurIPS 2023 | 腾讯AI Lab 18篇入选论文解读
NeurIPS 2023(Neural Information Processing Systems)神经信息处理系统大会是当前全球最负盛名的AI学术会议之一,将于12月10日在美国新奥尔良召开。根据官网邮件显示,本届会议共有12343篇有效论文投稿,接收率为 26.1%,高于 2022 年的 25.6%。今年腾讯 AI Lab 共有18篇论文入选,包含一篇 Spotlight,内容涵盖机器学习、计算机视觉、自然语言处理等方向,以及AI在科研、游戏等领域的融合探索。以下为论文概览。机器学习1. GADBenc
12/8/2023 2:45:00 PM
新闻助手
改进分子表征学习,清华团队提出知识引导的图 Transformer 预训练框架
编辑 | 紫罗学习有效的分子特征表征以促进分子特性预测,对于药物发现具有重要意义。最近,人们通过自监督学习技术预训练图神经网络(GNN)以克服分子特性预测中数据稀缺的挑战。然而,当前基于自监督学习的方法存在两个主要障碍:缺乏明确的自监督学习策略和 GNN 的能力有限。近日,来自清华大学、西湖大学和之江实验室的研究团队,提出了知识引导的图 Transformer 预训练(Knowledge-guided Pre-training of Graph Transformer,KPGT),这是一种自监督学习框架,通过显著增
11/23/2023 3:55:00 PM
ScienceAI
可信联邦学习冬令营·成都开营,产学研共促AI人才培养
近年来,国家对于人工智能和数据安全的重视程度不断加强。国务院《新一代人工智能发展规划》中明确提出了加强人工智能领域的基础研究、培养高素质人才、促进产业融合等方面的要求。联邦学习是人工智能和隐私计算核心技术之一,以“数据不动模型动,数据可用不可见”的核心特征,在保护数据隐私,促进数据要素安全流通等方面发挥关键性作用。
11/20/2023 5:19:00 PM
新闻助手
MIT 开发深度化学模型的神经尺度策略,发现「神经尺度」定律
编辑 | 绿萝在数据可用性和计算方面,大规模使得自然语言处理和计算机视觉等深度学习关键应用领域取得了重要突破。越来越多的证据表明,规模可能是科学深度学习的关键因素,但物理先验在科学领域的重要性使得规模化的策略和收益变得不确定。近日,来自 MIT 的研究团队通过将模型和数据集大小改变多个数量级来研究大型化学模型中的神经尺度(neural-scaling)行为,研究具有超过 10 亿个参数的模型,并在多达 1000 万个数据点的数据集上进行预训练。研究考虑用于生成化学的大型语言模型和用于机器学习原子间势的图神经网络。研
11/13/2023 3:02:00 PM
ScienceAI
更低计算成本,基于单电子约化密度矩阵的机器学习电子结构方法
编辑 | 萝卜皮密度泛函理论(DFT)的定理建立了多体系统的局部外部势与其电子密度、波函数以及单粒子约化密度矩阵之间的双射映射。在此基础上,罗格斯大学(Rutgers University)和纽约大学(New York University)的研究人员证明基于单电子约化密度矩阵(reduced density matrices)的机器学习模型可用于生成替代电子结构方法。该团队为从小分子(如水)到更复杂的化合物(如苯和丙醇)的系统生成局部和混合 DFT、Hartree-Fock 和完整构型相互作用理论的替代品。代理模
10/29/2023 6:56:00 PM
ScienceAI
机器学习可以更好地进行量子纠错
编辑 | 白菜叶自主量子纠错(AQEC)通过设计耗散来保护逻辑量子位,从而避免频繁、容易出错的测量反馈循环的必要性。玻色码空间(其中单光子丢失代表了主要的错误来源)由于其灵活性和可控性而成为 AQEC 的重要候选者。虽然现有的文献已经证明了具有玻色码空间的 AQEC 原则上的可行性,但这些方案通常基于 Knill-Laflamme 条件的精确实现,因此需要实现哈密顿距离 d≥2。实现这种哈密顿距离需要多个非线性相互作用和控制场,这使得这些方案在实验上具有挑战性。在这里,RIKEN 量子计算中心(RIKEN Cent
9/18/2023 4:05:00 PM
ScienceAI
ICML2023杰出论文大幅减少至6篇,北大、武理工校友获奖,大模型水印受青睐
相比去年评出的 15 篇杰出论文,ICML 2023 的获奖论文数量大大减少,只有 6 篇。
7/26/2023 1:48:00 PM
机器之心
2023摩根大通博士奖学金名单公布,华人超3/5,西电、川大校友在列
与去年入选 4 位华人博士生(共 11 位)相比,今年华人学生的占比有了显著增加。
7/19/2023 1:05:00 PM
机器之心
基于Transformer的大模型是如何运行的?Meta从全局和上下文学习揭秘
本文旨在更好地理解基于 Transformer 的大型语言模型(LLM)的内部机制,以提高它们的可靠性和可解释性。
6/22/2023 1:25:00 PM
机器之心
5 个章节、25 条规范,全方位 Get 数据集选择与创建的「百科全书」
内容一览:如果你正在学习如何创建或选择一个合适的数据集,那么这篇文章会给你一些实用的建议,帮助你在选择和创建数据集时做出明智的决策。
关键词:机器学习 数据集
6/2/2023 9:49:00 AM
HyperAI超神经
ICLR 2023 Spotlight | Yoshua Bengio团队新作,生成拓展流网络
本工作已入选 ICLR 2023 Spotlight,也是 GFlowNets 领域第一篇 Spotlight 文章。
5/3/2023 5:55:00 PM
机器之心
终于,乔姆斯基出手了:追捧ChatGPT是浪费资源
Colorless green ideas sleep furiously. 人类语言语法的基础不可能是基于统计意义的。
3/10/2023 2:19:00 PM
机器之心
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
DeepSeek
AI绘画
数据
机器人
谷歌
模型
大模型
Midjourney
智能
用户
学习
开源
GPT
微软
Meta
AI创作
图像
技术
论文
Stable Diffusion
马斯克
Gemini
算法
蛋白质
生成式
芯片
代码
英伟达
腾讯
神经网络
计算
研究
Sora
AI for Science
3D
Anthropic
AI设计
机器学习
GPU
开发者
场景
华为
预测
伟达
Transformer
百度
苹果
人形机器人
深度学习
AI视频
模态
字节跳动
xAI
驾驶
文本
搜索
大语言模型
Claude
Copilot
具身智能
神器推荐
LLaMA
算力
安全
应用
视频生成
科技
视觉
亚马逊
干货合集
2024
AGI
特斯拉
训练
大型语言模型