• ACL 2024 Oral | 大模型也会被忽悠?揭秘AI的信念之旅
  • 错误率从10%降至0.01%,领英全面分享LLM应用落地经验
  • LLM可解释性的未来希望?稀疏自编码器是如何工作的,这里有一份直观说明
  • 70倍极致压缩!大模型的检查点再多也不怕
  • 延迟交互模型,为什么是下一代RAG的标配?
  • 小技巧大功效,「仅阅读两次提示」让循环语言模型超越Transformer++
  • 首届大模型顶会COLM 高分论文:偏好搜索算法PairS,让大模型进行文本评估更高效
  • 苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了
  • 斯坦福大学学生创建的alphaXiv平台促进arXiv论文交流,可以发「弹幕」
  • SELF-GUIDE方法:提升语言模型特定任务能力的自生成数据策略
  • ICML 2024|复杂组合3D场景生成,LLMs对话式3D可控生成编辑框架来了
  • 「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?
  • 1890美元,就能从头训练一个还不错的12亿参数扩散模型
  • 损坏不可逆?英特尔13/14代酷睿桌面CPU崩溃后续,不会召回
  • Llama 对决 GPT:AI 开源拐点已至?|智者访谈
  • 反转了?在一场新较量中,号称替代MLP的KAN只赢一局
  • 万亿token!史上最大多模态数据集诞生
  • ECCV 2024|是真看到了,还是以为自己看到了?多模态大模型对文本预训练知识的过度依赖该解决了
  • 彻底摒弃人工标注,AutoAlign方法基于大模型让知识图谱对齐全自动化
  • OpenAI深夜突发SearchGPT!进军大模型搜索,谷歌、Perplexity危
  • 只需两步,让大模型智能体社区相信你是秦始皇
  • RLHF不够用了,OpenAI设计出了新的奖励机制
  • TPAMI 2024 | ProCo: 无限contrastive pairs的长尾对比学习
  • 数学大统一理论里程碑进展:几何朗兰兹猜想获证明,论文超800页
个人中心
今日签到
搜索