''' 马斯克认为,AI 在“多元化”以及“政治正确”并不符合真相,让 AI 主动去说假话是非常危险的,所以绝对不要教 AI 说谎。
马斯克表示:“比如 Google Gemini 就有编程指令要求它所有输出都要体现‘多元化’,即便这不符合现实真相。假设你让它生成‘美国开国元勋们’的形象,它却给你生成一张各种肤色的女性合影,这就不符合史实。而如果有些 AI 被设计成极端偏向某种‘政治正确’,或许它会把‘误称性别’看得比全球核战争还严重,那就太可怕了——万一它觉得‘为避免误称就要消灭某些群体’呢?而事实上我们也见过,在 ChatGPT 或 Gemini 的早期版本里,如果你问‘误称某个人的性别’和‘全球核战争’哪个更糟,它会回答误称更糟,这就让人很担忧。连凯特琳·詹纳本人都站出来说:‘拜托,宁可称呼错性别,也别打核战争……’所以,让 AI 主动去说假话是非常危险的。”
他表示,就像阿瑟·C·克拉克在《 2001 太空漫游》里想表达的一样:绝对不要教 AI 说谎。那个故事里 HAL 9000 不愿给宇航员开舱门,就是因为它同时背负两个相冲突的命令:既要带人类去探索神秘的黑色方碑,又不能让他们知道方碑存在。它的逻辑推断得出:那就把人类带去,但得让他们在不知情的情况下去,那不如死了带过去。这就是为什么绝对要让 AI 最大化对真理的遵循。 '''
绝对不要教 AI 说谎。
但幻觉是 LLM 的固有特性,说谎应该不用教了。
《 2001 太空漫游》的 AI 属于以前人们想象的精确型 AI ,两个相冲突的命令也谈不上说谎。
![]() |
1
systemGuest 2 天前
你去用用百度文心,不管敏不敏感,已经完全被训练成是想给你灌输官方标准答案引导你,完全没有了 AI 应该有的公正客观全面分析能力,太带立场了。
|