我通过编写虚构的AI中学到了什么

去年,我有一个故事创意,现在叫做“玩弹球”。 它仍然需要修订,但是我现在要发布,以便我可以编写其他无罪的内容。 “ Pachinko”字数为13,700字,是NaNoWriMo小说长度的四分之一,但比我以前尝试编写的任何书都更宏大,更及时。

这个故事是一个长达15分钟的故事,讲述了一个发展了机器人武器的国家以及国际社会为制止这种武器所做的努力,这是一部讲述黑镜时代的故事。
在编写邪恶而强大的AI时,您开始考虑类似的问题,例如,我们怎么知道AI何时走得太远? 是什么使计算机吓人?

流浪者突然出现并停在一块岩石上,岩石高出我几英尺。 它的头从沾满泥泞的身体中露出来,转过身来,像我的眼睛一样训练了两个大摄像机,对着我的不对称触手的第三只眼睛打开了镜头……

也许真正的革命不是来自人类对机器的恐惧,而是来自彼此之间的友谊和信任。

现在发布的另一个原因是,它可能非常接近于现实……在一月份,我被这个故事吸引住了:

在叙利亚使用过俄罗斯作战机器人吗? –贝灵猫
根据人造卫星(Sputnik)和多个俄语博客的说法,叙利亚阿拉伯军队(SAA)最近部署了十个俄语…… www.bellingcat.com

答案是“否”,但是很明显,在我们进入机器人战争反乌托邦之前,我需要写这篇东西。 在不放弃剧情的情况下,我认为有些事情将适用于现实世界:

  • 除非军队开发出像电影中那样的移动和自主机器人,否则我们不会真正将强大的AI视为另一个,是一个可怕的独立实体。 人工控制的无人机或指挥中心不会以同样的方式吓people人。
  • 即使自主军事机器人功能不强大或数量众多,它们的首次使用也将像化学战一样令人震惊。
  • 除非AI足够聪明,否则真正的危险仍然是控制它或代表它行事的人。
  • 各国研究AI是其经济根源的支出。 美国和日本非常重视医疗保健,我们制造医疗保健机器人。 因此,一个经济将围绕军事研发的国家发明了一种军事机器人,类似于朝鲜的卫星和核武器开发。
  • 在不受欢迎的外国战争中,人工智能也有可能被用来支持盟友。 俄罗斯在叙利亚使用某种自主的地面哨兵,美国在利比亚,也门和索马里使用无人机代替较大的部队部署。
  • 军事AI的扩散类似于核扩散-只有民族国家才有能力在这一领域进行创新。 但是一旦一个国家生产了,其他国家可能会复制,窃取或购买计划。 查找AQ Khan。
  • 继续扩散:人工智能检查员正在寻找什么? 他们如何衡量每个AI程序带来的风险? 具有人类杀戮开关的杀手机器人在某种程度上更符合道德吗?

在平民生活中:

  • 一些消费者AI会像无情的收债员那样混蛋。
  • 智能助手应用程序和设备将不可避免地聆听和识别我们周围发生的一切。
  • 聪明的助手的建议将越来越个人化,但也将变得更有价值和可信赖的决定。 最好执行智能助理的建议(这是我对Google Maps的信任程度)。
  • 如果智能设备可以安全地共享信息,则它们可以基于其他设备的知识提出建议。 假设我正在考虑一份工作,并且我的应用程序知道前任老板根本不喜欢我,只需要填补一个职位即可。 该应用程序的服务器知道故事的两面。 因此它可以建议我拒绝报价,而不要解释原因,或者说服我加入。
  • 当一个人和一个内部程序在某件事上存在分歧时,每个智能系统都需要选择一方( 这不是我订购的三明治;我想把钱退还给我 )。 每个想要正确做出决定的智能系统都将以前所未有的水平跟踪人们及其消费者的历史,从而建立一种信任等级。 如果您认为优步星级很重要……

这就是包装。