• 微软37页论文逆向工程Sora,得到了哪些结论?
  • 数目即力量!腾讯揭秘:Agent数目越多,大谈话模型效果越好
  • MATRIX:社会仿照推动大模型价值自对齐,比GPT4更「体贴」
  • 大模型Scaling Law同样适用于上游工作机能?斯坦福、谷歌最新研究揭秘
  • 用集中模型生成网络参数,LeCun点赞尤洋团队新研讨
  • 后Sora时代,CV从业者如何选择模型?卷积还是ViT,监视学习还是CLIP范式
  • 人类偏好优化算法哪家强?跟着高手一文学懂DPO、IPO和KTO
  • OpenAI赋予ChatGPT影象性能,由你掌控
  • 华为盘问提议新范式MMQS入选WWW 2024,解锁鉴于人类反馈的多模态盘问提议
  • 谷歌提出全新RLHF格式:清除赞美模型,且无需匹敌性训练
  • 无需RLHF显著提高GPT-4/Llama2性能,北大团队提出Aligner对齐新范式
  • 斯坦福和OpenAI提出meta-prompting,最强零样本prompting技术诞生了
  • 抛弃编码器-解码器架构,用聚集模型做边沿检测效果更好,国防科大提出DiffusionEdge
  • 比OpenAI官方提醒词指南更全,这26条黄金规则让LLM性能飙升50%以上
  • 大模型也有小偷?为保护你的参数,上交大给大模型制作「人类可读指纹」
  • 大模型也能切片,微软SliceGPT让LLAMA-2算计效率大增
  • 百川智能发布超千亿大模型Baichuan 3,华文评测水平超GPT-4
  • 何恺明谢赛宁团队步步解构散布模型,最后竟成典范去噪自编码器
  • 重塑3D生成核心实际:VAST、港大、清华用「零」训练数据生成了3D模型
  • 「think step by step」还不够,让模型「think more steps」更有用
  • 大模型推理速度飙升3.6倍,「美杜莎」论文来了,贾扬清:最优雅加快推理方案之一
  • 无需训练实现价值观实时动态对齐:上交开源价值观对齐方法OPO,闭源与开源大模型均适用
  • 大模型自我惩罚:Meta让Llama2自己给自己微调,性能超越了GPT-4
  • 吞吐量提升5倍,联合设计后端体系和前端说话的LLM接口来了
个人中心
今日签到
搜索