人类未来也许会面临“三大灾难”?需重视起来,这绝对不是瞎说( 三 )


如果时间不够 , 或者像彗星这样来势迅猛的物体 , 人们很难有充足的准备机会 , 同时轨道的突然变化也是有可能的 。 人类未来也许会面临“三大灾难”?需重视起来,这绝对不是瞎说
文章图片

科学家建议人类联手一起面对这样的危机 , 至少能够最大幅度地把灾难损失降至最低 。 尽管这种事件的可能性很低 , 但它仍有机会发生 , 与其他自然灾害相比 , 唯一能做的就是提前预防 。
小行星撞击事件并不多见 , 不过人类的文明进程中却也有这样的“撞击”风险 , 这颗“小行星”不是别的 , 而是当下最热门、最流行的人工智能技术 。 人类未来也许会面临“三大灾难”?需重视起来,这绝对不是瞎说
文章图片

阿拉丁神灯还是潘多拉魔盒?
深度神经网络、自我学习、大数据分析、人工神经网络 , 这些都是耳熟能详的新兴技术 , “阿尔法Go”、深蓝都是已经存在的超级计算网络 。
人工智能也是霍金最为担心的一种技术 , 因为它不像人类社会的发展这样循序渐进 , 带来的是一种飞跃式的成长 , 没有道德伦理 , 纯粹的理性思考 , 没有文化沉淀 , 没有文字符号的象征 , 它是一种超越技术的技术 。 人类未来也许会面临“三大灾难”?需重视起来,这绝对不是瞎说
文章图片

加州大学伯克利分校的教授斯图尔特·罗素是人工智能领域的专家 , 在他出版的《人类相容:人工智能与控制问题》一书中讲道 , 这种威胁并不是来自它们有了意识反抗人类 , 而是人类为它们设置了错误的目标 , 由于它们的能力 , 在无意识中消灭了人类 。
罗素教授假设 , 如果有一个非常强大厉害的超级人工智能系统 , 人类用它来模拟控制气候变化 , 并且将目标设定为工业革命之前的水平 。 但人工智能经过分析认为最简单的方案可能就是消灭人类 , 因为人是碳排放的主要来源 。 人类未来也许会面临“三大灾难”?需重视起来,这绝对不是瞎说
文章图片

也有人会说所谓的“三大定律” , 人类确实可以这样去做 , 去设置一个“安全阀” 。 但人工智能可能会利用各种数据分析以及强大的算法去说服人类少生孩子 , 直到最后没有人类繁育后代 , 人类也会被灭绝 。
就目前而言 , 人工智能都是偏向于某一个小的领域或者板块进行展开 , 并没有非常复杂的综合能力 。 但是这些人工智能利用数据的自我“学习”能力和数据分析能力使得它们短期之内就可以超越某个领域的大师 。 例如阿尔法go精通深度学习 , 目前已经不需要太多的人工程序便能在棋盘界打败众多大师 。 人类未来也许会面临“三大灾难”?需重视起来,这绝对不是瞎说
文章图片

剑桥大学的风险分析认为 , 随着人工智能逐渐强大 , 最终它们可能会成为超级智能 , 并在所有领域超越人类 。 如果人类不加以控制 , 它们很有可能成为超级智能 , 成为新时代的文明威胁 。
科学家表示 , 人们应该彻底改变建立人工智能系统的整体基础 , 比如不再给它们设定一个“死板”的目标 , 而是要让它们不知道目标是什么 。 只有这样 , 未来的人工智能才可能会听取人类的意见 , 寻求人类的许可 。 最关键的是 , 它们可以随时被关闭 , 或者愿意接受被关闭 。 人类未来也许会面临“三大灾难”?需重视起来,这绝对不是瞎说
文章图片

人类未来也许会面临“三大灾难”?需重视起来,这绝对不是瞎说】这样的科技如同潘多拉魔盒一般 , 一旦出现技术失控 , 人类无力回天 。 也学仅仅只是一个错误的指令 , 便使它成为远比人类更强大的敌人 。 无论是科技也好 , 自然也罢 , 人类在寻求生存发展的同时 , 必然会面临潜在的风险 。 我们必须要明白当下人类寻求的究竟是什么 , 只有目标清晰 , 并且了解后果 , 谨慎做出抉择才不会在众多未知中迷失自我 。