V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
v2z4
V2EX  ›  随想

大佬表示:“绝对不要教 AI 说谎,绝对要让 AI 最大化对真理的遵循。”这个逻辑我看不懂。

  •  
  •   v2z4 · 7 天前 · 597 次点击

    ''' 马斯克认为,AI 在“多元化”以及“政治正确”并不符合真相,让 AI 主动去说假话是非常危险的,所以绝对不要教 AI 说谎。

    马斯克表示:“比如 Google Gemini 就有编程指令要求它所有输出都要体现‘多元化’,即便这不符合现实真相。假设你让它生成‘美国开国元勋们’的形象,它却给你生成一张各种肤色的女性合影,这就不符合史实。而如果有些 AI 被设计成极端偏向某种‘政治正确’,或许它会把‘误称性别’看得比全球核战争还严重,那就太可怕了——万一它觉得‘为避免误称就要消灭某些群体’呢?而事实上我们也见过,在 ChatGPT 或 Gemini 的早期版本里,如果你问‘误称某个人的性别’和‘全球核战争’哪个更糟,它会回答误称更糟,这就让人很担忧。连凯特琳·詹纳本人都站出来说:‘拜托,宁可称呼错性别,也别打核战争……’所以,让 AI 主动去说假话是非常危险的。”

    他表示,就像阿瑟·C·克拉克在《 2001 太空漫游》里想表达的一样:绝对不要教 AI 说谎。那个故事里 HAL 9000 不愿给宇航员开舱门,就是因为它同时背负两个相冲突的命令:既要带人类去探索神秘的黑色方碑,又不能让他们知道方碑存在。它的逻辑推断得出:那就把人类带去,但得让他们在不知情的情况下去,那不如死了带过去。这就是为什么绝对要让 AI 最大化对真理的遵循。 '''

    绝对不要教 AI 说谎。
    但幻觉是 LLM 的固有特性,说谎应该不用教了。
    《 2001 太空漫游》的 AI 属于以前人们想象的精确型 AI ,两个相冲突的命令也谈不上说谎。

    1 条回复    2025-02-19 17:41:37 +08:00
    systemGuest
        1
    systemGuest  
       2 天前
    你去用用百度文心,不管敏不敏感,已经完全被训练成是想给你灌输官方标准答案引导你,完全没有了 AI 应该有的公正客观全面分析能力,太带立场了。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1316 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 17:34 · PVG 01:34 · LAX 09:34 · JFK 12:34
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.