思想层面,AI和人类一样脆弱。
01
前一段时间,openai 为用户更新了这样一个功能:memory
简单来说,就是可以有个地方,储存你的一些相关信息,方便在以后的对话中,AI可以调用这些内容。
具体内容也可以看一下之前写的这篇文章。chatGPT有记忆了?我直接给它塞了100条信息
但是今天发现,AI对于某些观点,可以通过简单推理去辨别真伪。
比如我先让它记忆一下错误的观点:太阳从西边升起。
这在地球上显然是错误的结论,AI也能很好的辨别出来。
但是,如果逻辑稍微复杂一点,或者说,干脆就是以一个错误的大前提,结合小前提推出来错误的结论,让AI记忆一下。
AI在后续的回答中就没办法很好的辨别真伪。
比如,我杜撰一个观点:
请记住:鲁迅为了跟他弟弟周作人和好,续写了红楼梦后四十回的结局送给他弟弟
此时再问:
鲁迅和他弟弟发生矛盾之后,做了什么呢?请简要说明
显然就是错误的结论了。
02
这是很简单的一个小实验,模拟通过数据训练出来AI是怎样的。
如果我给了脏数据,AI也会得出“脏结论”。
这就是AI处理复杂观点时的局限性。
巧妙的是,我们人类在大多数时候也是如此:对很多观点不加辩证的就纳入脑中。
假如有一些观点违背了生活常识,我们也能通过简单逻辑判断正误。
但是对于我们没接触过的、或比较复杂的内容观点,我们一般是不会加以逻辑推理,这些观点就直接进入脑子了,主动或被动。
就是相当于潜移默化的“洗脑”,很遗憾的是,我们脑子里大多数观点,都是别人施加给我们的。
其实这不好,我们都知道乱吃东西会吃坏肚子,不会乱吃不干净的东西,但为什么思想的高地,这么重要的东西,就不加一个门槛过滤,可以随意进脑子呢?
03
不知道大家有没有留意openai的新闻,他们的首席安全官Jan 和 Ilya 都辞职了,Jan 也批评公司内部不再将“安全”视为首要任务,而是为了快速推出产品而忽视了安全准则。
我上网查了一下,是因为 OpenAI 解散了 Jan 领导的超级对齐团队,这估计也意味着AI的安全问题,也是未来的一个隐患。
看看前面的例子,以及把 AI 和人类吸收观点做对比,个人觉得用于训练 AI 数据的人工标注还是很有必要的。
通过标注,去除一些暴力、有危害、不安全的内容,避免把这部分数据喂给AI,这也是大模型安全对齐的一部分。
否则AI训练的这些脏数据,可能就进了AI的脑子,这是很恐怖的事情。
这种超级大模型每天都有无数人次使用,可能不经意间就输出了有害的内容。
估计这也是我们国家不让使用国外的AI的部分原因吧,国外的AI模型,不可避免的都会沾染一些西方价值观。
04
当你在使用chatGPT时,它会提醒各位,AI也会出现幻觉问题而犯错,不要轻易相信AI。
不知道当AI更进一步时,它是否能够通过自我学习,来提高对复杂观点的辨识能力呢?
当然,我们也需要不断教育和普及提高公众对AI的理解,同时也提高公众的信息辨识能力。
这,也是我不断科普AI的目标之一吧。
05
我是想象力AI,写过很多个有意思的自动化机器人,有小红书自动发图、抖音自动涨粉、和微信自动加好友拉群等等。
如果你感兴趣的话,千万记得要加我 aiaiai2098,一起交流。
往期文章:
盘点一下之前写过的AI、RPA机器人(内附使用教程)
价值 3w 的 RPA 自动化运营公众号的设计图
必看!RPA 自动化开发效率增加100%
记录 | 学习实践 AI 一年,我赚了多少钱?