字节跳动
新瓜不断!2024NeurIPS最佳论文,花落字节起诉的实习生
时隔两个月,字节模型遭攻击事件又有新后续。 今年10月份,字节商业化内部模型商业化内部模型训练遭实习生攻击一事闹得满城风雨,后这位名为田柯宇的实习生便被开除并被要求赔偿字节的侵权损失800万元及合理支出2万元。 本以为这个瓜会以字节的“雷霆手段”告一段落,没想到就在刚刚,事件迎来了大扭转。
字节跳动 AI 助手豆包上线图片理解功能,上传图片即可“读图”
据界面新闻3日消息,字节跳动旗下AI助手豆包现已上线图片理解功能,豆包App及豆包PC新增照片及相机按钮,上传图片后可识别图片内容。
一句话 P 图,字节跳动发布通用图像编辑模型 SeedEdit
用户只需输入简单的自然语言,便可对图像进行多样化编辑操作,包括修图、换装、美化、风格转化以及在指定区域添加或删除元素等。
真·打字P图!字节发布新模型SeedEdit,一句话爆改世界名画,可免费体验
一句话实时P图,网友又能整活了。 字节豆包大模型又又又上新了! 11 月 11 日,字节跳动豆包大模型团队推出了最新图像编辑模型 SeedEdit,主打一句话轻松 P 图。
字节豆包通用图像编辑模型SeedEdit开启测试 用户可一句话轻松改图
11月11日,字节在豆包大模型团队官网上公布最新通用图像编辑模型SeedEdit。 SeedEdit支持一句话轻松改图,包括修图、换装、美化、转化风格、在指定区域添加删除元素等各类编辑操作,通过简单的自然语言即可驱动模型编辑任意图像。 目前,该模型已经在豆包PC端及即梦网页端开启测试。
60秒内即可生成5秒AI视频,豆包视频生成模型Seaweed上线即梦AI
11月8日,字节跳动旗下的AI内容平台即梦AI宣布,即日起,由字节跳动自研的视频生成模型Seaweed面向平台用户正式开放。 用户登陆后,在“视频生成”功能下,视频模型选择“视频S2.0”即可体验。 图说:即梦AI PC端和App端模型使用入口9月底,字节跳动正式宣布向AI视频领域进军,发布豆包模型家族的两款视频生成模型Seaweed和Pixeldance,并通过即梦AI、火山引擎分别面向创作者和企业客户小范围邀测。
LeCun赞转!类Sora模型能否理解物理规律?字节豆包大模型团队系统性研究揭秘
视频生成模型虽然可以生成一些看似符合常识的视频,但被证实目前还无法理解物理规律! 自从 Sora 横空出世,业界便掀起了一场「视频生成模型到底懂不懂物理规律」的争论。 图灵奖得主 Yann LeCun 明确表示,基于文本提示生成的逼真视频并不代表模型真正理解了物理世界。
字节豆包大模型团队突破残差连接局限!预训练收敛最快加速80%
字节跳动豆包大模型团队于近日提出超连接(Hyper-Connections),一种简单有效的残差连接替代方案。 面向残差连接的主要变体的局限问题,超连接可通过动态调整不同层之间的连接权重,解决梯度消失和表示崩溃(Representation Collapse)之间的权衡困境。 在 Dense 模型和 MoE 模型预训练中,超连接方案展示出显著的性能提升效果,使收敛速度最高可加速 80%。
字节跳动 AI 助手豆包被曝开启视频生成内测
《科创板日报》称,字节跳动旗下大模型 AI 助手豆包正式推出视频生成内测,支持图片文字一键成片、动态运镜和多镜头一致性、风格比例随意挑选。
无需训练即可创建数字人,字节PersonaTalk视频口型编辑超SOTA
AIxiv专栏是AI在线发布学术、技术内容的栏目。 过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。 如果您有优秀的工作想要分享,欢迎投稿或者联系报道。
从威尔・史密斯鬼畜吃面到「Her」,这些幕后技术正在推动AI视频时代的到来
还记得「威尔・史密斯吃意大利面」的 AI 鬼畜视频吗?在这些视频里,威尔・史密斯的面部表情、动作都非常夸张,还充满了扭曲、变形。一年多以前,大部分 AI 视频生成模型确实只能达到这样的水平。
实测字节豆包·视频生成模型:Sora画的饼被实现了......
但更多的网友则是期待字节的视频生成模型,因为早在去年11月,字节的项目Make Pixels Dance就展示字节具备了解决长AI视频中角色一致性难以保持的问题。 所以我也看到很多外网网友的另一个问题“Where is ByteDacne?”。 而就在9.24火山引擎AI创新巡展深圳站上,火山引擎一口气发布了个视频生成模型PixelDance和Seaweed模型。
字节全新发布豆包AI视频模型:再见了Sora,你的时代过去了
刚刚,字节的火山引擎的发布会基本结束了。
我现在有点过于激动。
虽然发布会结束了,但是我觉得,一个颠覆行业的全新的起点,在这一刻,正式到来了。
字节正式发布了他们全新的两款 AI 视频模型:
豆包视频生成-PixelDance 模型和 Seaweed 模型。Seaweed 模型下次我再详细来说。这次,我想说这个豆包 PixelDance 模型,因为太屌了,屌炸了,我真的是全程惊叹着看完的。
他们正式宣布这玩意的那一刻,现场掌声雷动,我隔着屏幕都感觉快特么把房顶掀翻了。
真的,如果要给这个豆包 PixelDance
字节版Sora终于来了!一口气两款视频模型,带来的震撼不只一点点
我们用17个Prompt,实测了一把字节的两大视频生成模型。字节憋了个大招。9 月 24 日,字节跳动旗下的火山引擎在深圳办了一场 AI 创新巡展,一口气发布了两款视频生成大模型,正式宣告进军 AI 视频生成。这两款模型,一个名为 PixelDance(以下简称 P 模型),一个名为 Seaweed(以下简称 S 模型),不仅在审美、动幅上提升了一个 level,还破解了多主体互动和一致性难题。话不多说,先整几个视频让大家感受下:一位年轻女生微簇眉头,生气地戴上一副墨镜,这时,男主角入画,紧紧抱住了她。这段 10
字节音乐大模型炸场!Seed-Music发布,支持一键生成高质量歌曲、片段编辑等
高质量音乐生成、高灵活音乐编辑,Seed-Music 再次打开了 AI 音乐创作的天花板。放假期间,本 i 人又领教了被 e 人支配的恐惧。跟 e 人朋友出门玩,先被拉去饭局尬聊,再和陌生人组队打本,下面这首歌真是唱出了 i 人心声。后两天假期就舒服多了。通关了黑神话悟空还不过瘾,我在家补经典 86 版的《西游记》。无论多少次重温,还是会被大圣的魅力吸引。 这歌怎么样,是不是感觉斗战胜佛活灵活现,如在眼前?实际上,两首歌都并非真人所作,而是全靠字节最新发布的音乐大模型 ——Seed-Music。Seed-Music
音频驱动人像视频模型:字节Loopy、CyberHost研究成果揭秘
近期,来自字节跳动的视频生成模型 Loopy,一经发布就在 X 上引起了广泛的讨论。Loopy 可以仅仅通过一张图片和一段音频生成逼真的肖像视频,对声音中呼吸,叹气,挑眉等细节都能生成的非常自然,让网友直呼哈利波特的魔法也不过如此。Loopy 模型采用了 Diffusion 视频生成框架。输入一张图片和一段音频,就可以生成相应的视频。不但可以实现准确的音频和口型同步,还可以生成细微自然的表情动作,例如人物跟随情绪节奏做出抬眉、吸气、憋嘴停顿、叹气、肩膀运动等非语言类动作也能很好地被捕捉到;在唱歌时也能表现得活灵活现
开源公司 Grafana Labs 融资 2.7 亿美元;a16z 发布全球 Top100 AI 应用:字节美图上榜丨AI情报局
今日融资快报开源软件提供商 Grafana Labs 以 60 亿美元估值筹集 2.7 亿美元Grafana Labs 正式名称为 Raintank Inc.,是 Grafana Cloud 的创造者,这是一个广泛使用的开源 IT 基础设施监控平台。 该平台通过从客户的基础设施中抓取遥信数据和运营数据,并将这些数据绘制成图表,帮助管理员更容易地识别模式和趋势。 Grafana 还提供针对不同 IT 基础设施平台的工具,例如 Grafana Cloud 中的 Kubernetes Monitoring 模块,以及利用 AI 减少云基础设施成本的 Adaptive Metrics 功能。
字节跳动2024奖学金计划报名启动!每人10万,助力科研未来!
戳此链接,下载奖学金申请表(建议PC端打开)