阿联酋技术创新研究院启动“Falcon Foundation”,引领生成式人工智能模型开源运动

基金会将推动知识共享,加速人工智能的民主化,TII承诺3亿美元未来项目资金

2024年2月13日,东部标准时间上午4:34 迪拜,阿拉伯联合酋长国--(商业电讯)--作为阿布扎比先进技术研究委员会(ATRC)应用研究支柱的全球领先科学研究中心,技术创新研究院(TII)今天宣布启动“Falcon Foundation”。这个非营利组织致力于推进开源生成式人工智能模型的发展,并围绕开源项目建立可持续的生态系统,加速技术发展。作为创始成员,TII承诺提供3亿美元资金支持这些项目。 

Falcon Foundation的启动在2024年世界政府峰会(WGS)上进行,标志着召集利益相关方协作,建立透明治理模型并鼓励知识交流的关键时刻,随着人工智能持续快速发展。 

从TII强大的本土Falcon AI模型开始,基金会将召集相关者、开发者、学术界和工业界以及个人,帮助决策参与者如何合作。它将在著名的Falcon Foundation大使计划——聚集世界各地大学的杰出人工智能教授以及人工智能领域的关键产业参与者的帮助下,加速人工智能的民主化。 TII已经与剑桥大学、上海交通大学、约翰霍普金斯大学、慕尼黑工业大学、巴黎综合理工学院、哈利法大学等世界顶尖高校和领先企业:Etisalat、Lighton、WWT、BubbleRan、途深智合开展Falcon大模型生态建设方面的合作。

基金会将支持Falcon模型的定制,以满足特定行业或领域的需求。通过为Falcon AI的持续研究和开发启用开放计算资源,基金会将提供一个强大的生态系统,确保模型在广泛的应用和背景下的适应性。 

对于这一宣布,ATRC秘书长费萨尔·阿尔班奈阁下(H.E. Faisal Al Bannai)评论说:“在一个人工智能以前所未有的速度进步的世界中,像Falcon Foundation这样的倡议在引导人工智能发展方向走向更大的透明度和可访问性方面发挥着关键作用。” 

TII首席执行官雷·O·约翰逊博士(Dr. Ray O. Johnson)表示:“我们致力于在人工智能领域促进透明度和协作。将阿联酋的协作精神延伸到人工智能开发中,我们为开放性设定了新标准,并鼓励所有支持开源的全球实体加入我们。” 

"我们全力致力于开源,并期待与许多合作伙伴一起把握大型语言模型带来的机会,"哈利法大学教授兼TII高级首席人工智能顾问梅鲁安·德巴教授表示。

基金会的受益者将包括所有与开源负责任的人工智能工作并支持它的实体。通过减少对外部供应商的依赖,Falcon Foundation确保通过启用独立的技术选择来保持业务连续性。作为对所有承诺开源的利益相关者开放的组织,基金会将利用全球最佳实践作为其人工智能的监管和法律框架的一部分。 Falcon Foundation对于开源和人工智能创新的承诺反映了一个前瞻性的方法,帮助阿布扎比和阿联酋跨入技术驱动的未来,并支持全球社区在重大人工智能进步方面收获跨行业合作。

原文链接:https://www.businesswire.com/news/home/20240213101024/en/UAE’s-Technology-Innovation-Institute-Launches-‘Falcon-Foundation’-to-Champion-Open-sourcing-of-Generative-AI-Models 

相关资讯

无需本地部署,也能免费使用 Stable Diffusion 的方法来了!

就在 Midjourney 全网收割付费用户的时候,SD 推出一款对标 Midjourney 的完全免费的 AI 画图软件 Stable Foundation,同样部署在 Discord 上,Stable Foundation 使用的是最新的 sdxl 1.0 版本模型。如何将 Stable Foundation 机器人弄到 Discord 上呢? 1. 没有下载 Discord 的朋友,需要先下载 Discord 2. 在网页中打开这个网址:discord.com/invite/stablediffusion 3

英特尔 Falcon Shores GPU 明年晚些时候推出,已为 AI 负载重构

英特尔在上月末举行的一季度电话财报会议上明确,Falcon Shores GPU 将于 2025 年晚些时候推出。另据外媒 HPCwire 报道,该处理器正重新设计,以适应 AI 产业需求。英特尔 CEO 帕特・基辛格称,Falcon Shores 将结合完全可编程的架构和 Gaudi 3 加速器优异的系统性能,用户可在两代硬件间实现顺利且无缝的升级转换。英特尔表示,AI 业界正转向 Python 或 Triton 等更高级别的软件抽象,采用开放式软件平台以减少依赖。而英特尔的软件堆栈正日趋成熟,可消除从 Gaud

Falcon Mamba 7B 开源模型登顶:换掉 Transformer,任意长序列都能处理

只是换掉 Transformer 架构,立马性能全方位提升,问鼎同规模开源模型!(注意力机制不存在了)这就是最新 Falcon Mamba 7B 模型。它采用 Mamba 状态空间语言模型架构来处理各种文本生成任务。通过取消传统注意力机制,有效提升了模型处理长序列时计算效率低下的问题。它可以处理无限长序列,但内存需求不增加。无论上下文多长,生成每个 token 的时间基本一样。由此,Falcon Mamba 模型性能全方位提升,打败一众 Transformer 架构模型,如 Llama-3.1(8B)、Mistra