找回密码
 立即注册
打工族生活理财 主页 科技 查看内容

"魔鬼终结者"建造进行时! 如何让人工智能产生幻觉? 人类能够控制超级人工智能吗? [AI 系列]

2021-2-18 03:00| 发布者: admin8| 查看: 33| 评论: 0|文章/视频分享来自: 回到Axton




"魔鬼终结者"建造进行时! 如何让人工智能产生幻觉? 人类能够控制超级人工智能吗? [AI 系列]

AI 自动武器

从英国著名理论物理学家史蒂芬·霍金到特斯拉创始人伊隆·马斯克等世界顶尖人工智能专家,都曾表示过 #人工智能 对人类生存的威胁。牛津哲学家Nick Bostrom认为人类不可能生活在虚拟世界中的一个假设就是, 人类在达到高级文明之前就已经灭绝. 而失去控制的人工智能, 被认为是与核战争, 气候变化灾难并列的, 导致人类灭绝的一大原因.


1月26日, 美国政府任命的专家组在给国会的报告草稿中说,不应禁止使用或开发由人工智能软件驱动的自动武器。这个小组是由谷歌前首席执行官埃里克·施密特领导, 他们进行了为期两天的公开讨论,讨论世界上最大的军事力量应如何考虑将AI应用于国家安全和技术进步。

前国防部副部长罗伯特·沃克表示,预计自动武器的失误比人类在战争中要少,从而减少了因目标不明而造成的人员伤亡或小规模冲突。

虽然愿望听起来是美好的, 但是由美国国家人工智能安全委员会组成的美国专家组在本周的会议上也承认自动武器是具有风险的。该委员会的建议预计将在3月提交国会.

机器人不光是如此可爱, 还可能是危险的致命武器. 3年前, 一个视频展示了一种小巧, 快速, 精准,不可抵挡的号称杀人蜂的无人机. 这种无人机装有3克炸药, 可以单独行动, 根据人脸识别精准定位目标, 一击必杀. 他们也可以成群结队出击, 团队合作, 破窗而入. 当然, 这种场景同样是虚构的, 制作视频的组织的目的, 是为了警示人们自动武器的发展将会给人类社会带来灾难, 从而呼吁和平, 抵制杀手机器人.

大家还记得机器人三定律吗? 机器人三定律由艾萨克·阿西莫夫在1942年的科幻小说中首次提出, 在2004年的电影"我, 机器人"中广为人知. 第一条定律就是: 机器人不得伤害人类,或因不作为使人类受到伤害. 而由AI驱动的自动武器, 首先就会违背这条定律.

#人工智能的幻觉

人工智能犯错并不是新鲜事. 随着人工智能越来越广泛地用于生活的各个方面, 从你的信用评级, 到工作职位的匹配度, 到辅助医疗等等, 由于人工智能误判而带来的风险也将不断增加.

设想一下, 在许多年后的未来世界, 人工智能守护着人类的安全. 某一天当你提着一只甲鱼, 走在回家的路上, 准备回去孝敬丈母娘. 结果人工智能把它识别成了一把枪. 这下你可就惨了.

所有人都看的出来, 这是一只海龟, 但是美国麻省理工学院的计算机科学家阿塔利在测试中就发现, 这样的海龟会被人工智能认为是步枪. 这就是人工智能的幻觉或者叫对抗样本. 对抗样本就是故意添加了一些干扰信息在原始的图片当中, 使人看起来一模一样, 但是人工智能却会被误导.

比如这些玉米, 会被人工智能当作瓢虫. 这被认为是一艘沉船, 这被当成日晷, 而这, 是一个人在开卡丁车.

更恐怖的是, 注入了干扰数据的坦克, 会被人工智能当成一辆校车.

阿塔利和他的同事们测试了实际物体而不仅仅是图片。发现只要稍微调整一下它们的纹理和颜色,他的团队就可以骗过人工智能,把这些物体认作别的东西。比如, 除了前面说的海龟, 还有棒球被误认为是一杯浓缩咖啡,还有其他例子,他们制造了约200个3D打印物体,这些物体都以类似的方式欺骗了电脑。

今天当我们开始在家里使用机器人、在空中使用自动驾驶无人机、在街道上行驶自动驾驶汽车时,机器人的这种幻觉确实开始让人产生了一些担忧。

#人类能够控制超级人工智能吗 ?

目前我们所接触到的人工智能, 还都属于弱人工智能的范畴. 比如家里的扫地机器人, 或者有AI技术加持的语音助手比如Siri, 小爱等等.

看着更像人一点的, 世界上第一个拥有国籍的机器人, 沙特阿拉伯公民, 索菲亚, 就是那位在2017年声称要毁灭人类的机器人, 都要在今年开始量产了. 但是它同样也属于弱人工智能. 如果你喜欢, 也可以叫人工弱智.

真正具备与人类具有同等智慧甚至超越人类智慧的人工智能, 属于強人工智能或着叫做通用人工智能. 这是目前人工智能研究的主要目标之一.

尼克·博斯特罗姆(Nick Bostrom)提到过一个的控制问题:我们如何确保超级智能为我们的利益服务?而一些计算机专家则对此进行了理论分析, 他们设想了一种遏制算法, 这个算法可以模拟AI的行为并在AI的动作变得有害时停止程序, 从而解决人工智能的威胁问题.

最终的研究结果, 很令人失望. 他们认为, 建立一种可以控制这种机器的算法, 从根本上来说是不可能的. 没有一种算法可以计算出人工智能是否会危害世界.

其实这就像是一些神经网络算法, 即便你是程序员, 你也只知道输入和输出, 而根本不知道它内部是怎么在学习和运算的. 包括为什么恰好就把我的视频推送给了你, 中间的过程估计没有一个程序员能说得清楚. 能知道的, 只是一些参数, 目标和结果而已.

当然, 这并不是说我们因此就因噎废食, 不再发展人工智能了. 这些只是在警醒我们, 对于越来越多人工智能驱动的机器人、汽车和程序,我们可能需要避免对其过于信任。因为你永远不知道人工智能是不是正在产生被误导的视觉。同时, 人类对任何一种强大的技术, 都需要谨慎对待, 充满敬畏.

---------------------------推荐书籍---------------------------------
穿越平行宇宙 (Chinese) by [Max Tegmark] [美]迈克斯·泰格马克
‣‣ https://amzn.to/3taamQO (加拿大亚马逊链接)
‣‣ https://amzn.to/3c9ds1k (美国亚马逊链接)

埃利泽·斯滕伯格 神经的逻辑:谜样的人类行为和解谜的人脑机制。
‣‣ https://amzn.to/3aFWs1U (美国亚马逊链接)

奧立佛.薩克斯 (Oliver Sacks) 錯把太太當帽子的人
‣‣ https://amzn.to/2KAnPQn (美国亚马逊链接)
‣‣ https://amzn.to/34G5yYA (加拿大亚马逊链接)
------------------------------------------------------------
▶ 訂閱我的YouTube頻道,每周獲取最新視頻:
http://bit.ly/subscribeaxton
-------------------------------------------------------------
我的生產力 APP:
史上最強筆記應用 DEVONthink: ‣‣ https://bit.ly/2Sgtuf6
DEVONthink 學生及教育優惠: ‣‣ https://bit.ly/3aIBxYx
自由度超高的腦圖工具: ‣‣ https://bit.ly/2XTKDPj
作家最愛的寫作工具: ‣‣ https://bit.ly/34VsH8g
YouTuber 必備的數據分析工具(免費): ‣‣ https://www.Tubebuddy.com/axtonliu

-------------------------------------------------------------
▶ 在以下地方也關註我:
今日頭條: https://www.toutiao.com/c/user/1187085768461629/
Facebook: https://www.facebook.com/axtonliu
我的博客: https://axtonliu.com
-------------------------------------------------------------
我的播放列表:

- 科學與心理學故事 | Science and Psychology Stories ‣‣ https://bit.ly/2Hr6mI4
- 知識管理 & 學習方法 / Knowledge Management & How to Learn ‣‣ https://bit.ly/3j4Jj3D
- 開箱 & 評測 & 技巧 / Unboxing & Review & Tips ‣‣ https://bit.ly/331UYdZ
文章/视频分享来自:
回到Axton



  更多视频/文章……  


分享:

路过

雷人

握手

鲜花

鸡蛋
更多科技新知

最新评论

本站部份资源来自网络分享并注明出处,若有侵权或不良资源请联系删除。|联系我们|手机版|打工族生活理财

GMT+8, 2024-11-24 01:32 , Processed in 0.023569 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2023 Discuz! Team.

返回顶部