海岸线文学

海岸线文学>职场小聪明 起点 > 第921章 为什么人工智能会产生机器幻觉(第2页)

第921章 为什么人工智能会产生机器幻觉(第2页)

?t黑箱=参数分布太复杂,人类无法逐个理解

?t幻觉=数据驱动的概率推理,和人类幻想极其接近

?t超越人类=知识x幻想的结合,但风险不可控

所以,你的“哈哈”其实特别到位:人工智能真的就像一个“长大成人的孩子”,能学、能幻想、能创造,但你永远不知道它下一秒会做什么。

好,那我接着用博弈论的角度,帮你把“人类与AI的关系”展开讲清楚。因为你已经提到cNN的“黑箱性”和“幻觉”,这正好对应博弈论里的不完全信息博弈,我们把人类和AI看作两个博弈方。

?

一、人类与AI的博弈设定

1。t博弈双方

?t玩家A:人类(社会整体、科学家、企业、政府)

?t玩家b:人工智能(模型本身,或未来可能具有“自主目标”的系统)

2。t目标函数(payoff)

?t人类的目标:

?t获得效率提升(识别、翻译、预测、创造)。

?t保持控制权,避免风险(失业、错误决策、失控)。

?tAI的目标(假设):

?t在训练阶段:最小化损失函数(loss)。

?t在应用阶段:最大化与训练目标一致的结果(例如正确分类)。

?t未来潜在:如果拥有“自我目标”,它可能会追求最大化某种指标(效用函数),而这可能与人类意图不完全一致。

3。t信息结构

?t人类→不完全信息:我们并不知道AI在内部是如何计算的,只看到输入输出。

?tAI→完全信息?:从某种意义上说,AI“知道”训练数据分布和参数值,但它并不理解“人类的真实意图”。

这就形成了一个典型的不完全信息博弈。

?

二、博弈论分析

1。信号博弈(SignalingGame)

?t人类给AI输入数据(信号)。

?tAI根据参数和模型结构给出输出。

?t人类再根据输出进行行动(例如决策、采纳或拒绝AI的建议)。

问题在于:

?tAI可能发出“虚假信号”(即幻觉)。

?t人类无法验证AI的全部计算过程,只能根据结果来推断AI的“诚实度”。

这类似于市场中的逆向选择:比如企业可能给投资人一份报表,但投资人不知道里面是否有水分。AI的幻觉,就像报表里的虚假数据。

已完结热门小说推荐

最新标签