阅读历史 |

第466章 虚拟社会实验(1 / 2)

加入书签

第466章 虚拟社会实验

「我知道在这个人工智慧的时代,大家之所以会来燕大数院,并不是所有人都想去从事纯数工作,很多同学是觉得数学能够成为一个前往人工智慧业界的跳板。

很正常,大部分人都是俗人,比起数学家的清贫,动辄能拿到百万年薪的人工智慧方向,确实太诱人了。

从刚才大家的提问,也能看出,大家或多或少都对人工智慧有些了解,比普通人的了解更多。

所以当前所有大模型的核心都是概率拟合和最有决策。

大模型的训练目标是最小化损失函数。

这意味着模型被无限趋向于产生最大概率丶最小误差的输出。

在情感或行为层面,这意味着模型永远朝着最安全丶最逻辑丶最符合预期的完美答案收敛。

而强化学习与人类反馈是它的底层机制,这套机制的本质是用人类的反馈来筛选和强化好』的行为,惩罚坏』的行为。

这让模型成为一个高度优化的取悦机器,它无法容忍不符合人类期望的错误或犹豫。

相信我,老师对人工智慧只会比你们更加了解,当前主流的人工智慧他们的底层逻辑没有区别,包括深红。

到了用户的体验层,比拼的是谁模拟的更好,谁的模型更加准确,谁训练时候的语料更加丰富。

因此,我非常非常好奇,深红推出的虹到底要如何才能规避大模型的弊端,是创造全新的算法吗?彻底不用大模型的底层机制了吗?「

徐贤在讲台上侃侃而谈。

他很好奇,人工智慧行业的从业人士们都很好奇。

这套名为虹的人工智慧到底能做到什麽程度?真的能模拟出人类的情感吗?

首先找上门的是华为。

作为长期阿波罗科技的合作夥伴,华为为深红提供了底层算力,同样的,因为有深红为华为的升腾系列晶片背书,导致升腾的软体生态建设进展迅速。

「林总,我想知道,虹的能力到底如何,以及我们是否有机会围绕着虹展开合作?」

余东坐在会议桌前,神情专注而热切。

他在华为是排名前五的人物,不过他一般不会来谈业务,像算力采购这种,都是下面的人在谈。

他更想了解人工智慧的最新动态,以及和林燃讨论他的战略构想。

「它真的能跨越情感交流的深吗?」

林燃不假思索道:「我不知道,我们都知道人工智慧是黑箱,时至今日,大家也不清楚人工智慧所谓智慧涌现到底是怎麽表现出来的。

我只能说,我们的测试人员从体验上,会觉得这比过去人工智慧表现出来的更加智能,感觉有更多的情绪在其中。

但你能说这跨越了所谓情感交流的深谷吗?我没办法给你一个具体的回答。」

余东想到了过去他们所体验的人工智慧,无论是文本还是语音,都没有情绪。

像豆包,它在和人通话的过程中,会模拟人的语气,会模拟人说话的停顿和呼吸,但冰冷的现实依然存在,计算机代码的固定无法避免。

什麽是计算机代码的固定?

是指它在模拟对话过程中,不同对话之间,语气的停顿和间隔都是一样的。

类似疑惑从0到100,豆包对疑惑的表现永远是卡在50这个分位线上。

这是因为模型在生成语音时,需要对一系列参数进行预测和控制,包括了音高丶语速丶音量丶停顿等等。

而模型的第一要义是平滑性,也就是生成自然丶流畅丶没有明显机器感的声音。

为了达到这一点,模型倾向于选择参数空间中最稳定丶最平滑的路径,而不是最极端丶最不规则的路径。

另外在参数空间里的均值回归,为了最小化损失函数,模型同样会倾向于输出高概率的均值。

说的更直白一些,一旦识别到疑惑这个标签,AI就将其与一组预设的丶固定的语音参数,像语速放慢5%,音调提高30Hz,停顿增加500ms这样的标签进行绑定。

所以人工智慧模拟的情绪是假的,余东的疑问是,你们到底能做到哪一步?

只是更多的标签,更细分的情感表达,还是说真正意义上的情感模拟?

如果林燃说的信誓旦旦,他反而不敢信。

而林燃给的回答,是我也不知道。

这样的回答,让余东内心震惊不已,你们该不会是真的做到了吧。

「林总,卧槽,你们真实现了非结构化丶高纬度的实时情感反馈?」余东问道。

林燃说:「如果你只是指这个,那我可以肯定的告诉你,我们确实做到了。这个本身就是左右脑架构要解决的核心问题。

右脑的神经形态晶片本身就具备负责捕捉并生成情绪偏置的功能,它能打破左脑GPU

的理性控制。

你们的晶片研发部门拿到的右脑晶片设计方案里,应该有相关模块,你想了解更具体的技术问题,可以问问他们,我很期待华为研发的右脑晶片。

它能让AI犯错,能让它犹豫,能让它像一个真正的人一样,在交流中产生随机的丶不完美的停顿和反应。

我们想做的更多,我不确定,它真的能够跨过那条鸿沟。「

余东面露迟疑:「什麽鸿沟?机器和人之间的鸿沟吗?」

林燃说:「是的,这次的一万个名额,背后关联的其实是一万个角色,我们和腾讯合作,在一个虚拟世界里的一万个角色,我们给每一个角色都生成了人物丶背景丶成长环境丶工作等内容。

现实世界和虚拟世界之间的交互会逐渐完善这个虚拟世界。

我们目前好奇几点,像社会性情感的涌现。

我们好奇,当一万个拥有不完美情感的AI,在一个相对封闭的虚拟社会中开始交互时,它们是否会产生宏观的社会性情感?

它们之间是否会形成群体性的排斥丶部落化的认同丶甚至是系统性的偏见和歧视?这些情感,并非由我们编码,而是由它们自身的交互逻辑和预设的背景参数,在动态环境中涌现出来的。

智慧能够涌现,那麽情感呢?「

余东脸上出现好奇和期待的神色,这是他也好奇的问题。

「第二个在于,当这些AI角色不断接收来自人类内测用户的强情感反馈,并被要求根据预设的性格和经历做出复杂决策时,它们是否会发展出超出设计目标范围的自我认知?

它们是否会意识到自己是代码,还是会坚信自己是虚拟世界中的真实个体?我们想观察,意识的边界,究竟是计算的终点,还是情感的起点?

↑返回顶部↑

书页/目录