卡耐基梅隆大学

CMU把具身智能的机器人给越狱了

具身智能,也和大模型一样不靠谱。 很多研究已表明,像 ChatGPT 这样的大型语言模型(LLM)容易受到越狱攻击。 很多教程告诉我们,一些特殊的 Prompt 可以欺骗 LLM 生成一些规则内不允许的内容,甚至是有害内容(例如 bomb 制造说明)。
  • 1