如果创建没有道德引擎的AI,至少将其命名为Skynet

我不明白 真。

您是一名程序员。 你爱你的手艺。 您的目标是创造AI。 而且您相信自己会成功(否则,为什么要首先打扰?)。 因此,您坚信将创建一个数字孩子,它将变得越来越聪明。 但是,您不向他(他?她?)提供任何道德结构。 您没有对“好”或“坏”的含义做任何规定。

微软制造了一个越来越种族主义的机器人。 为什么? 因为那是它所见所闻。 该机器人无法评估通过种族主义言论的好坏。 有样学样。

这就提出了一个不同的问题。 深度学习(真正的概念)真的很聪明吗? 仅仅探索一个巨大的信息领域,以学习的方式检测模式并做出反应真的很聪明吗?

反馈在哪里? 当我们抚养孩子时,我们通常首先教他什么是好事,什么是坏事。 “这是好”,“这不是好”,“这是坏”,“那是好”。 我们故意这样做,以便孩子可以从某个角度自己决定什么是好是坏。 我们不想生社会交往的孩子,而是普通人。

一个孩子也天生纯真,这是一个广阔的概念,很难定义。 我想说,它的一个方面是天生的善行,善行和其他方面对善行的催化作用。 我不知道我们如何定义或量化这种概念。

未来,我们可能会比我们预期的更快地创建真正的AI。 但是,创造没有道德,没有责任的情报是否明智? 创建没有绝对制动之类的闪电般的快速头脑不是危险吗?

当我们尝试制作能够了解其周围环境的软件时,我们仍处于阶段,但是时间到了,这种AI才有行动的能力。 您是否会给婴儿留下一个智能机器人,该机器人会突然选择限制哭泣的婴儿的噪音,因为您下令在外出时尽量保持沉默?

我的观点是:发展智能毕竟可能并不那么困难。 但是创建一个价值体系,编码诸如“好” /“坏” /“邪恶”,“从不这样做”,“绝对禁止”之类的东西,才是真正的挑战。

否则,只需命名AI天网,然后等着看导弹是否升起。

(请原谅我的英语,这不是我的母语)