第62章 大模型的幻觉2(1 / 2)
例如,假设在人类已知宇宙的范围之外,还存在着一个遵循着截然不同物理规律的魔法宇宙。
在那个宇宙中根本就不存在什么电子、光子之类的基本粒子,人类所熟知的一切物理学定律都将彻底失效。
而人类现在所处的这个宇宙,以及其中生的一切。
都只不过是那个魔法宇宙中某位强大法师随手创造出来的一个虚幻游戏场景而已。
那么在这个外部魔法宇宙的视角看来,人类已知的一切,包括人类文明自身的存在,都将成为一种“幻觉”
。
它并非是错误的,它只是一个被虚构出来的与“真实”
相对的概念。
对于大语言模型而言情况也是类似的。
大模型本身在经过海量数据的训练之后,其内部就已经形成了一个相对独立和封闭的“认知世界”
。
它在运行过程中所产生和输出的各种信息与概念,都是基于其自身内部所学习到的规律和知识进行衍生和推理的结果。
在它自己的“视角”
看来,这些输出的结果都是正确的、符合逻辑的“客观事实”
。
因为它对所谓“外部真实世界”
的认知,早已在训练阶段就被内化为其自身模型结构和参数的一部分。
从某种意义上来说它自己就是它所理解的整个“世界”
。
因此“幻觉”
这种现象只能从外部观察者的角度来进行定义和判断。
当用户现大模型的输出结果与自己所掌握的外部世界知识不符,或者开始“胡说八道”
时,才会将其判定为“幻觉”
。
但对于大模型自身而言,它并不认为自己产生了什么“幻觉”
,它只是在陈述一些它认为是“正确”
的事实而已。
这就好比在哥白尼提出日心说之前,所有生活在地球上的人都理所当然地认为太阳是围绕着地球旋转的,这在当时就是不容置疑的“客观真理”
。
你无法去“纠正”
一个在特定认知框架内被认为是正确的事物,也无法对一个在系统内部根本就不存在的概念进行有效的操作。
启明星ai的性能虽然极其强大,其产生“幻觉”
的概率也远低于普通的大语言模型。
但在长时间的持续运行和复杂任务处理过程中,这种“幻觉”
现象依旧不可避免地会偶尔生。
而对于需要高度精确和绝对可靠的科学研究而言,哪怕是最微小概率的“幻觉”
也是致命的。
“所以,我出手了。”
恶补相关领域的专业知识,仔细校验启明星ai输出的每一个数据和结论,以及反复测试各种实验方案的可行性。
白牧辰在过去一年多的科研工作中,绝大部分的精力都耗费在这些事情上面。
这些需要与真实物质世界进行交互和验证的工作,是只有白牧辰这位真正生活在客观物质世界之中的人类才能完成。
为什么启明星只是能当客服和传令官?
为什么星舰各个子系统都有独立的控制计算机和独立的控制程序?
因为如果真的让启明星ai来全权掌控星舰的所有系统,以它那种偶尔会产生幻觉的特性,远行号恐怕早就因为某个离谱的幻觉指令而自我解体或者直接爆炸了。
“一年时间微调一项技术……”
整个人类文明的科技树有多庞大?
还有数学这个玩意……
白牧辰看着培养舱中那个娇小的自己,强颜欢笑。
“启明星啊启明星,你怎么就不是一个真正的强人工智能呢?”
语气中充满了难以掩饰的无奈与怨念:“还要我一点点重爬科技树,这是要我命啊。”
可她还有什么办法?
攀科技树一定要笑,不要愁眉苦脸,诶嘿嘿
笑着攀
攀你妈!
白牧辰在脑海的幻想中痛击实验设备。
↑返回顶部↑