资讯列表

第五波!2024年1月精选实用设计工具合集

大家好,这是 2024 年 1 月的第5波干货合集!这一期干货合集中有一些非常稀有的东西,比如来自瑞士工作室的在线字体设计工具,也有非常有用的工具,比如免费的 3D 角色素材和免费的 3D 材质库,当然还有非常新的工具,比如可以调整照片内容的 AI 工具。 当然,在此之前记得看看往期干货中有没有你感兴趣的素材:下面我们具体看看这一期的干货: 1、在线字体排版设计网站 、包豪斯,对于相关的设计感兴趣,那么很大概率你会爱上这个网站。这其实是来自瑞士的独立设计工作室 Studio Feixen 的网站功能的一部分,这个生

Midjourney 再更新!V6 模型支持外绘拓展与局部重绘了!

大家好我是花生~ 上周末 Midjourney 又更新了一波新内容,一是 V6 版本增加了 3 个功能,二是 Alpha 内测网站调低了进入门槛,用户只要生成图像超过 5000 张就能体验网站内的图像生成功能,今天就为大家详细介绍一下相关内容~ 相关推荐:一、V6 功能完善 此次更新最值得关注的就是 Zoom Out 外绘拓展、Pan 平移外绘和 Vary (Region) 局部重绘 3 种图像编辑功能终于能在 V6 版本中使用了,用法还是和之前也是一样的:先将图像放大,然后通过底部的按钮进行对应操作。官方提到 V

深度解析!ControlNet模型的工作原理与应用场景(附案例解析)

一、川言川语 大家好,我是言川。本期文章是 2024 年的第一篇文章,也是 2023 年农历的最后一篇文章。截至这篇文章完成时,距离春节也只有最后一周的时间了,我无法单独向支持我的朋友们传达祝福之意。所以在本篇文章的开头,向大家说一些祝福之词: 2024 年,祝大家在新的一年里事业有成,大展宏图,前程似锦。同时在事业之外,祝大家健康、快乐以及幸福。 2024 年,辰龙年,祝大家龙飞凤舞,事业腾飞;祝大家金龙献瑞,好运连连;祝大家龙年吉祥,幸福安康。 最后,新年快乐,准备准备回家吃饺子咯~二、生成式 AI 回顾 开始

登Science,速度和准确性均超越人类化学家,且具独创性,AI自主化学合成机器人加速化学发现

编辑 | X最近,在光化学和光催化方面的研究出现了惊人的爆发,部分原因在于光作为反应源对环境无害。然而,许多研究展示的是小规模反应,而扩大规模依赖于不同技术的拼凑,可能需要大量的试验和错误来优化。针对复杂光催化反应条件高效优化的需求,荷兰阿姆斯特丹大学 (UvA) 范特霍夫(Van 't Hoff)分子科学研究所的 Timothy Noël 教授团队,开发了一种集成人工智能驱动机器学习单元的自主化学合成机器人。这款台式设备被称为「RoboChem」,在速度和准确性方面都超过了人类化学家,同时还表现出高水平的独创性。

基于量子辅助深度学习的逆向分子设计

作者 | 康奈尔大学 Fengqi You 团队编辑 | ScienceAI康奈尔大学Fengqi You教授团队,通过结合量子计算(QC)与生成式AI的优势,提出了一个新颖的逆向分子设计框架。该框架利用QC辅助的深度学习模型来学习和模拟化学空间,从而预测并生成具有特定化学性质的分子结构。生成式AI在此过程中起着核心作用,它能够从大量的分子数据中学习潜在的结构-性质关系,并生成新的分子候选物,这些分子不仅符合预设的性质,还考虑到合成的可行性。量子计算的加入则为这一过程提供了高效的计算能力和优化算法,克服了传统计算机

王延峰:迫切需要重新审视我国大模型科研组织模式

ChatGPT 掀起的通用人工智能热潮仍在快速向前,产业竞争关键要素日渐明确,中美在通用人工智能领域的竞争也进入更高的战略层面。上海是中国人工智能发展最先进的城市之一。在 1 月 26 日结束的上海市第十六届人民代表大会第二次会议上,第十六届上海市人大代表王延峰教授提交了《关于上海加快建设具有全球影响力的大模型创新集聚区的建议》(下称《建议》)。王延峰建议,上海应当集中精力,抢抓发展机遇,加快建设具有全球影响力的大模型创新集聚区,避免中美大模型方面的差距进一步拉大。王延峰是上海人工智能实验室主任助理、上海交通大学人

500行代码构建对话搜索引擎,贾扬清被内涵的Lepton Search真开源了

你可以说我「借鉴」,但我是真开源。来了,贾扬清承诺的 Lepton Search 开源代码来了。前天,贾扬清在 Twitter 上公布了 Lepton Search 的开源项目链接,并表示任何人、任何公司都可以自由使用开源代码。项目链接:,你也可以用不到 500 行 Python 代码构建自己的对话搜索引擎了。今天,Lepton Search 又登上了 GitHub trending 榜单。此外已经有人将这个开源项目用来构建自己的 Web 应用程序了,并表示质量非常高,与 AI 驱动的搜索引擎 Perplexity

Meta官方的Prompt工程指南:Llama 2这样用更高效

随着大型语言模型(LLM)技术日渐成熟,提示工程(Prompt Engineering)变得越来越重要。一些研究机构发布了 LLM 提示工程指南,包括微软、OpenAI 等等。最近,Llama 系列开源模型的提出者 Meta 也针对 Llama 2 发布了一份交互式提示工程指南,涵盖了 Llama 2 的快速工程和最佳实践。以下是这份指南的核心内容。Llama 模型2023 年,Meta 推出了 Llama 、Llama 2 模型。较小的模型部署和运行成本较低,而更大的模型能力更强。Llama 2 系列模型参数规模

百川智能发布超千亿大模型Baichuan 3,中文评测水平超GPT-4

1 月 29 日,百川智能正式发布千亿参数的大语言模型 Baichuan 3。在多个权威通用能力评测如 CMMLU、GAOKAO 和 AGI-Eval 中,Baichuan 3 都展现了出色的能力,尤其在中文任务上更是超越了 GPT-4。而在数学和代码专项评测如 MATH、HumanEval 和 MBPP 中同样表现出色,证明了 Baichuan 3 在自然语言处理和代码生成领域的强大实力。不仅如此,其在对逻辑推理能力及专业性要求极高的 MCMLE、MedExam、CMExam 等权威医疗评测上的中文效果同样超过了

哈工大联合快手提出CogGPT:大模型也需要认知迭代

在认知科学领域,人类通过持续学习改变认知的过程被称为认知迭代(Cognitive Dynamics)。形象地说,认知迭代就像是我们大脑的「软件更新」过程,手机应用通过不断的更新来修复 bug 和增加新功能,我们的大脑也通过不断学习新知识、经验,来改善和优化思考方式。从我们判断感冒吃什么药效果好,到一代代数学家如何证明费马大定理,无论是个人的心智发展还是人类文明的进步,认知迭代都扮演了不可或缺的角色。如今,像 GPT-4 等大型语言模型(Large Language Models,LLMs)为通用人工智能(Artif

OpenAI新模型用的嵌入技术被网友扒出来了

学起来吧。前几天,OpenAI 来了一波重磅更新,一口气宣布了 5 个新模型,其中就包括两个新的文本嵌入模型。我们知道,嵌入是表示自然语言或代码等内容中概念的数字序列。嵌入使得机器学习模型和其他算法更容易理解内容之间的关联,也更容易执行聚类或检索等任务。使用更大的嵌入(比如将它们存储在向量存储器中以供检索)通常要比更小的嵌入消耗更高的成本、以及更多的算力、内存和存储。而 OpenAI 此次推出的两个文本嵌入模型分别是更小且高效的 text-embedding-3-small 模型和更大且更强大的 text-embe

线上课程开售!暨视频生成前沿研究与应用 AI 技术论坛圆满收官

致力于助力企业和广大从业者掌握 AI 视频生成技术前沿,把握时代机遇的“视频生成前沿研究与应用”——机器之心 AI 技术论坛日前圆满收官。活动当天,北京西城昆仑巢论坛现场门庭若市,来自全国十余个城市的 200 多名参会者亲临现场,在 10 位视频生成领域的技术专家带领下,系统拆解了 AI 视频生成的关键技术,了解并学习了多家国内顶尖团队的技术方案和技术创新,活动的最后依然是两个技术实操来巩固所学知识,高效完成了视频生成技术的积累和升级。快来看看现场的精彩瞬间吧!嘉宾精彩分享每一位嘉宾都带来了精彩的分享,现场收获满满

更适合中文LMM体质的基准CMMMU来了:超过30个细分学科,12K专家级题目

近期,随着多模态大模型(LMM) 的能力不断进步,评估 LMM 性能的需求也日益增长。与此同时,在中文环境下评估 LMM 的高级知识和推理能力的重要性更加突出。在这一背景下,M-A-P 开源社区、港科大、滑铁卢大学、零一万物等联合推出了面向中文大规模多学科多模态理解和推理基准 CMMMU(Chinese Massive Multi-discipline Multimodal Understanding and Reasoning),用于评估基本模型在中文各种任务中的专家级多模式理解能力。CMMMU 涵盖 6 个大类

被大V推荐的AI论文,被引量会翻倍?两位推特博主5年推文背后影响揭秘

在 AI 领域,推特博主的影响力可能比想象中要大。经常在 X 平台(推特)上浏览 AI 论文的研究者应该都很熟悉两位博主:AK (@_akhaliq) 和 Aran Komatsuzaki (@arankomatsuzaki)。他们每天都会精选一些论文进行展示,方便大家重点阅读。数据显示,AK 在 X 平台上的粉丝数已经接近 28 万,Aran Komatsuzaki 也超过了 8 万。一般来说,能够得到这两位博主推荐的论文通常质量都相对有保证,后续也能得到更多研究者的关注。但是,二人的影响力到底有多大,被推荐和不

何恺明谢赛宁团队步步解构扩散模型,最后竟成经典去噪自编码器

去噪扩散模型(DDM)是当前图像生成技术的一大主流方法。近日,Xinlei Chen、Zhuang Liu、谢赛宁与何恺明四人团队对 DDM 进行了解构研究 —— 通过层层剥离其组件,DDM 的生成能力不断下降,但其表征学习能力却能得到一定的维持。这表明 DDM 的某些组件可能对表征学习作用不大。 对于当前计算机视觉等领域的生成模型,去噪是一种核心方法。这类方法常被称为去噪扩散模型(DDM)—— 它们会学习一个去噪自动编码器(DAE),其能通过一个扩散过程移除多个层级的噪声。这些方法实现了出色的图像生成质量,尤其适

Llama-2+Mistral+MPT=? 融合多个异构大模型显奇效

融合多个异构大语言模型,中山大学、腾讯 AI Lab 推出 FuseLLM随着 LLaMA、Mistral 等大语言模型的成功,各家大厂和初创公司都纷纷创建自己的大语言模型。但从头训练新的大语言模型所需要的成本十分高昂,且新旧模型之间可能存在能力的冗余。近日,中山大学和腾讯 AI Lab 的研究人员提出了 FuseLLM,用于「融合多个异构大模型」。不同于以往的模型集成和权重合并,前者需要在推理时同时部署多个大语言模型,后者需要合并模型具备相同的结果,FuseLLM 能够从多个异构大语言模型中外化知识,将各自的知识

重塑3D生成核心理论:VAST、港大、清华用「零」训练数据生成了3D模型

AI 生成 3D 模型最难的一关,终于被搞定了。无需任何训练数据,只需对着模型描述一句话,如「一个做作业的香蕉人」:或是「一只戴着 VR 眼镜的猫」:就能生成符合描述的带有高质量纹理贴图的 3D 场景。不仅如此,还能对已有的 3D 模型进行精细化贴图。这是港大与清华大学联合 3D 生成明星公司 VAST AI 研发的一种新方法,它能够从复杂的文本描述中,直接生成富有想象力的高质量 3D 模型。目前,这项研究成果已被人工智能顶级会议 ICLR 2024 收录,代码也已经开源。对这项研究感兴趣的小伙伴,可以戳下方项目主

15岁开公司,22岁再创业公司估值超20亿美金,Cohere CEO自述开挂人生

机器之能报道编辑:SiaAidan Gomez 是明星生成式 AI 创业公司 Cohere 的联合创始人兼 CEO,曾入选 2023 年《时代》杂志 100/AI AI 领域最具影响力人物名单。前段时间,这家位于加拿大多伦多的创业公司完成 C 轮融资,支持者包括英伟达、Salesforce、甲骨文等,估值超 21 亿美元。公司天使轮投资人包括李飞飞、Geoffrey Hinton、Pieter Abbeel 等大腕儿。作为 OpenAI 最大竞争对手之一,与非常注重 2C 部署的 ChatGPT 不同,Cohere