请选择 进入手机版 | 继续访问电脑版

人工智能论坛

 找回密码
 立即注册
查看: 4306|回复: 32

人工智能灾难

[复制链接]
发表于 2014-12-11 18:05:00 | 显示全部楼层 |阅读模式
英国科学家霍金警告:不要再发展人工智能,有一天,人工智能会灭绝人类。

科学会不会吞噬人的性灵?十九世纪英国女小说家雪莱的「科学怪人」早已警告过了。英国人有足够的哲理和智慧抗拒工具的诱惑,转过来提防工具对人性的驾驭。

荷李活电影「二○○一年太空漫游」,科幻小说改编,讲美国太空人征伐木星,太空船的电脑忽然不再服从指令,那副电脑,名单叫HAL。为什是这个名字?有心人考证出来:HAL是IBM的前一个字母。六十年代末期,美国电脑公司就是IBM。所以电影和小说作者警告:再盲目崇拜科技下去,有一天,IBM会控制了美国。不是IBM的行政总裁,而是电脑本身,拥有了生命。

在全球网络化的时候,文明世界转向英国找寻答案,因为英国是哲学家的故乡。但是哲学自从苏格拉底之后,已经发展到极限。霍金有一次出席在剑桥大学的科学和哲学的论坛。有人提出:科技太过发达,科学怪人正在吞噬人类,我们的哲学家在哪?霍金说:二十世纪最后一位大哲学家是谁?是维根斯坦,维根斯坦只懂得语意分析。不错,他对语意心理学和哲学的贡献很伟大,但维根斯坦明白什是宇宙黑洞吗?

维根斯坦也曾是剑桥的教授。本来英国的学术界,有君子协定,学者之间不可互相贬斥,但剑桥同一校内的学者可以。这一刻,人人沈默下来:哲学家的知识,已经不像牛顿那个时代。牛顿的物理学,罗素可以明白,自从爱因斯坦之后,科学家的知识,哲学家再也赶不上了。

就像中国水墨画,自从张大千傅抱石之后,因笔墨工具所限,水墨画发展到顶了。顶就是极至。哲学也没有什新花样出来了,但是科学,尤其天文学,还有。

这就是霍金的警告。假如希特拉先一步拥有了原子弹。科技只可以由聪明而心智善良的人拥有,不可以由愚昧的人掌控科技。好人不会盲目,好人不会纵欲,好人会时时有道德的警惕,而强人不一定是好人,强国也不一定如英国,是一个心智正常、思维平衡的国家。
回复

使用道具 举报

发表于 2014-12-12 09:21:00 | 显示全部楼层
但愿,AI很有修养。
回复 支持 反对

使用道具 举报

发表于 2014-12-12 10:08:00 | 显示全部楼层
谨慎是对的,但要停止就错的离谱了 霍金老了
回复 支持 反对

使用道具 举报

发表于 2014-12-12 15:10:00 | 显示全部楼层
AI很危险。但是谁不发展谁被淘汰。
回复 支持 反对

使用道具 举报

发表于 2014-12-12 15:24:00 | 显示全部楼层
人工智能有两个极端,就看人类怎么把握了。

     

是金子要自己发光~
         --来自安卓手机客户端
回复 支持 反对

使用道具 举报

发表于 2014-12-12 15:32:00 | 显示全部楼层
视频来自:土豆
回复 支持 反对

使用道具 举报

发表于 2014-12-12 16:01:00 | 显示全部楼层
人类正在疯狂地破坏着自己的生存环境,相信有一天,人类不被人工智能消灭,也会被自己的愚蠢行为所毁灭。
但是,如果人工智能发展到毁灭人类的水平,毕竟自然界还保存下人类智能的一种发展成果。如果人类因自己的愚蠢行为被环境毁灭,那人类的智能成果就连一点渣也剩不下了!
回复 支持 反对

使用道具 举报

发表于 2014-12-12 20:19:00 | 显示全部楼层
现在社会需要计算的数据越来越庞大,人脑明显比不上电脑,国家制造更快速的计算机已经正在提案中,国家智脑计算机是必不可少的,计算机的发展就是科技的发展。
回复 支持 反对

使用道具 举报

发表于 2014-12-13 01:12:00 | 显示全部楼层
就像黑客帝国的电脑终端最后对先知说的那样:你以为我是谁,人类吗?
回复 支持 反对

使用道具 举报

发表于 2014-12-13 15:22:00 | 显示全部楼层
尼玛,ai实现都很遥远,霍金哪根筋确定可以完全实现?,弱智能一大堆,强智能没人可以创造
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|积分充值|小黑屋|手机浏览|人工智能实验室 ( 苏ICP备12079930号

GMT+8, 2017-10-23 19:16 , Processed in 0.339305 second(s), 26 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表