2026年4月24日研究:“vibe coding”导致大量易受攻击代码研究人员发现一种叫“vibe coding”的编程方式正在产生大批不安全代码。团队用 Vibe Security Radar 扫描了超过43,000份通告,并把许多漏洞与 AI 工具生成的代码联系起来。等级A1A2B1B2阅读
2026年4月21日评估人工智能在心理治疗中的自动化程度犹他大学研究人员提出一个框架,评估心理治疗中可被自动化的环节,并将自动化分为四类(A至D),同时讨论用途、风险与责任问题,建议优先采用低风险工具。等级A1A2B1B2阅读
2026年4月21日大脑预测语言:不只是下一个词Nature Neuroscience 的研究发现,人脑在预测词语时会按语法把词分组为短语,而不是仅仅预测下一个词。研究在普通话受试者上用脑活动记录和完形填空测试进行验证。等级A1A2B1B2阅读
2026年4月20日披露自闭症如何改变AI社交建议一项来自维吉尼亚理工学院的研究发现,当用户在向大型语言模型说明自己有自闭症时,模型给出的社交建议常常发生改变,并且这些改变往往反映出对自闭人群的刻板印象。等级A1A2B1B2阅读
2026年3月31日传感器在拍摄时为图片和音频生成签名以对抗伪造苏黎世联邦理工学院的研究人员开发了一种传感器芯片,它在拍摄或录音的瞬间生成加密签名,帮助识别被篡改的照片、视频和音频,并可将签名存入不可更改的账本核验真伪。等级A1A2B1B2阅读
2026年3月27日用鸟群法减少AI长文摘要的“幻觉”研究人员借鉴鸟群行为,作为大型语言模型的预处理步骤,减少长文档摘要中出现的“幻觉”错误。该方法在超过9,000份文档上测试,并发表在 Frontiers in Artificial Intelligence。等级A1A2B1B2阅读
2026年3月26日北卡研究:让大型语言模型更安全北卡罗来纳州立大学研究人员研究大型语言模型的安全对齐问题。团队测试一种训练方法,冻结与安全相关的神经元以减少不安全输出并尽量保持模型性能,成果将在 ICLR2026 发表。等级A1A2B1B2阅读
2026年2月24日AI 把论文做成“播客”,更易懂但也会出错研究者用谷歌 NotebookLM 将学术论文转成播客式音频概览。生成内容通俗、有吸引力,但经常包含错误,作者建议使用时务必核对原始来源。等级A1A2B1B2阅读
2026年2月20日VillainNet:可接管自动驾驶车辆的漏洞乔治亚理工学院的研究人员发现一种名为 VillainNet 的后门漏洞,能隐藏在自动驾驶 AI 的“超级网络”子网络中。一旦触发,后门可能接管车辆并威胁乘客安全。等级A1A2B1B2阅读
2026年2月17日人工智能通过语言预测个性与情绪一项研究发现,广泛可得的生成型人工智能(如 ChatGPT、Claude、LLaMa)能从人们的日常语言中预测个性、行为和情绪,AI 给出的评分与自评高度一致,有时优于亲友判断。等级A1A2B1B2阅读