台湾宾果注册_台湾宾果官网_台湾宾果

欢迎光临
我们一直在努力

台湾宾果计划:关于新兴技术危险性的大型对话的简短版本

科技的超级巨星像伊隆·马斯克,AI先驱像阿兰·图灵,顶级计算机科学家喜欢斯图尔特罗素,以及新兴技术的研究人员喜欢尼克·博斯特罗姆都表示,他们认为人工智能将改变世界-也许消灭它。

那么:我们应该担心吗?

这就是为什么我们应该这样做的论点:我们教过计算机来增加数字,下棋,识别图片中的物体,抄录人类的声音,翻译文件(尽管后两者,AI仍然没有经验丰富的人类能力)。所有这些都是“狭窄的人工智能”的例子 - 被训练为在一个特定任务中在人类或超人的水平上执行的计算机系统。

我们还没有“通用AI” - 可以在许多不同任务中以人或超人的水平执行的计算机系统。

大多数专家认为一般人工智能是可能的,尽管他们不同意我们什么时候到达那里。今天的计算机仍然没有人类大脑那么多的计算能力,我们还没有探索所有可能的训练技术。我们不断发现我们可以扩展现有方法的方法,让计算机做出新的,激动人心的,越来越普遍的事情,比如在开放式战争策略游戏中获胜。

但即使一般人工智能还有很长的路要走,我们也应该开始为此做准备。当前的AI系统经常表现出意想不到的行为。我们已经看到人工智能找到捷径甚至作弊,而不是学会公平地玩游戏,想办法改变他们的分数而不是通过比赛赚取积分,否则采取我们不期望的步骤 - 所有这些都是为了达到他们的目标创作者设定。

随着人工智能系统变得越来越强大,意外行为可能会变得不那么迷人,也更危险。专家们认为,强大的人工智能系统,无论我们给予他们什么目标,都可能具有某些可预测的行为模式。他们会尝试积累更多资源,这将有助于他们实现任何目标。他们会试图阻止我们关闭他们,因为这样就无法实现他们的目标。他们会尽力保持目标稳定,这意味着一旦运行就很难编辑或“调整”它们。即使是没有出现意外行为的系统,如果有更多可用资源,也可能会这样做。

出于所有这些原因,许多研究人员表示 AI类似于发射火箭。(麝香,更具有戏剧性的天赋,说它就像召唤一个恶魔。)核心思想是,一旦我们拥有一般人工智能,我们就没有多少选择来引导它 - 所以所有的转向工作都需要在AI出现之前完成,今天值得开始。

这里持怀疑态度的观点是,一般人工智能可能是如此遥远,以至于我们今天的工作不适用 - 但即使是最有力的怀疑论者也倾向于认为某些研究有必要尽早开始,以便在需要时,基础工作是那里。

免责声明:本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。
返回首页