大言语模型加速质料发现,普林斯顿大学团队利用 LLM 准确猜测晶体个性

编辑 | X晶体个性的猜测在晶体设计过程中起着至关重要的作用。当前猜测晶体个性的法子主要集中于使用图神经网络(GNN)对晶体结构进行建模。尽管 GNN 很强大,但准确模拟晶体内原子和分子之间的复杂相互作用仍然是一个挑战。文本数据提供了丰富的信息和表现力,但从晶体文本形容猜测晶体个性的研讨还不够。主要原因之一是缺乏该任务的公开数据。普林斯顿大学的研讨职员创建了一种 AI 对象来猜测晶体质料的行为。新法子依赖于大型言语模型(LLM)。通过综合文本形容中的信息(包括原子之间键的长度和角度以及电子和光学个性的测量等细节),

大言语模型加速质料发现,普林斯顿大学团队利用 LLM 准确猜测晶体个性

编辑 | X

晶体个性的猜测在晶体设计过程中起着至关重要的作用。当前猜测晶体个性的法子主要集中于使用图神经网络(GNN)对晶体结构进行建模。尽管 GNN 很强大,但准确模拟晶体内原子和分子之间的复杂相互作用仍然是一个挑战。

文本数据提供了丰富的信息和表现力,但从晶体文本形容猜测晶体个性的研讨还不够。主要原因之一是缺乏该任务的公开数据。

普林斯顿大学的研讨职员创建了一种 AI 对象来猜测晶体质料的行为。新法子依赖于大型言语模型(LLM)。通过综合文本形容中的信息(包括原子之间键的长度和角度以及电子和光学个性的测量等细节),新法子可以比现有模拟更准确、更彻底地猜测新质料的个性,并有可能加快设计和尝试新技术的过程。

研讨职员开发并公开了一个基准数据集(称为 TextEdge),其中包含来自 Materials Project 的 140,000 多个晶体的形容,然后,提出了 LLM-Prop,一种利用 LLM 的通用学习能力从文本形容中猜测晶体的物理和电子个性的法子。

研讨职员尝试了该对象猜测先前研讨的晶体结构(从普通食盐到硅半导体)个性的能力。已经证明了 LLM-Prop 猜测能力,正在努力将该对象应用于新晶体质料的设计。

论文一作、普林斯顿大学计算机科学助理教授 Adji Bousso Dieng 表示,「该法子代表了一个新的基准,可以帮助加速质料的广泛应用。我们是第一个使用大型言语模型来解决这个问题的团队。」

该法子于 2023 年 11 月 29 日,在波士顿举行的 the Materials Research Society’s Fall Meeting 上提出。

相关研讨以「LLM-Prop: Predicting Physical And Electronic Properties Of Crystalline Solids From Their Text Descriptions」为题,发布到 arXiv 预印平台。

大言语模型加速质料发现,普林斯顿大学团队利用 LLM 准确猜测晶体个性

GitHub 地址:https://github.com/vertaix/LLM-Prop

论文链接:https://doi.org/10.48550/arXiv.2310.14029

现有的鉴于人工智能的晶体个性猜测对象依赖于图神经网络的法子,但这些法子的计算能力有限,无法充分捕捉晶体中原子之间的几何形状和键长的细微差别,以及由这些结构产生的电子和光学性质。

「我们在计算机视觉和自然言语方面取得了巨大进步,」Dieng 说,「但在处理 AI 图方面,我们还不是很先进。所以,我想从图转移到我们已经有了很好的对象的领域。如果我们有文本,那么我们就可以在文本上利用所有这些强大的大型言语模型。」

该研讨的合著者、普林斯顿大学机械与航空航天工程教授兼负责创新的副院长 Craig Arnold 表示,鉴于言语模型的法子「为我们提供了一种全新的方式来看待质料设计问题。这实际上是关于,我如何获取人类已经开发的所有这些知识,以及如何处理这些知识以向前发展?它与我们当前的法子有本质上的不同,我认为这赋予了它很大的力量。」

研讨的主要贡献概述如下:

研讨职员收集、整理并公开一个基准数据集,其中包含大约 144K 晶体文本形容及其属性。

提出 LLM-Prop,这是一种高效微调的网络,使其能够在晶体个性猜测方面实现最先进的功能,优于当前最好的鉴于 GNN 的晶体个性猜测器。

表 1:来自收集的基准数据集的示例。(来源:论文)

大言语模型加速质料发现,普林斯顿大学团队利用 LLM 准确猜测晶体个性

数据包含 144, 931 个晶体,将其分为 125, 098 个晶体用于训练,9,945 个晶体作为考证集,9,888 个晶体作为尝试集。对于每个晶体,收集其 ID、结构信息、带隙、体积以及其带隙是直接还是间接的。使用 Robocrystallographer 提取了晶体文本形容。

LLM-Prop,是一个源自 T5 的精心微调的网络,用于晶体个性猜测。通过大量实考证明,LLM-Prop 在猜测晶体固体的物理和电子个性方面实现了卓越的功能,超越了当前最先进且使用广泛的鉴于 GNN 的架构(例如 ALIGNN)。

大言语模型加速质料发现,普林斯顿大学团队利用 LLM 准确猜测晶体个性

图 1:LLM-Prop 架构。(来源:论文)

LLM-Prop 在所有任务上都能产生更好或相当的功能,包括 zero-shot 猜测。尽管超参数少了 3 倍,LLM-Prop 的功能也优于经过微调的 MatBERT(一种特定领域的预训练 BERT 模型)。

LLM-Prop 在回归和分类任务上都优于所有鉴于 GNN 的基线。

表 2:与带隙猜测基线的功能 (MAE) 比较。(来源:论文)

大言语模型加速质料发现,普林斯顿大学团队利用 LLM 准确猜测晶体个性

对于带隙猜测,LLM-Prop 在考证集和尝试集上均优于功能最佳的基线 (ALIGNN),分别提高了约 8% 和 4%。

表 3:功能 (MAE) 与体积猜测基线的比较。(来源:论文)

大言语模型加速质料发现,普林斯顿大学团队利用 LLM 准确猜测晶体个性

对于体积猜测,LLM-Prop 还比考证集和尝试集上的最佳功能基线 (ALIGNN) 分别提高了约 67% 和 66%。这种改进的可能原因可能是,与 GNN 相比,LLM-Prop 可以很容易地从文本形容中获取最重要的体积猜测信息。

研讨结果凸显了鉴于文本的法子在质料科学中的巨大潜力,基准文本数据 TextEdge 将助力这一新兴领域的研讨。

参考内容:https://techxplore.com/news/2024-01-harness-large-language-materials-discovery.html

给TA打赏
共{{data.count}}人
人已打赏
理论

代谢数据集上四项指标达94%~98%,西南交大团队开发多标准图神经网络框架,助力药物研发

2024-2-2 15:10:00

理论

PRO | 为什么鉴于 MoE 的大模型更值得关注?

2024-2-8 16:51:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索