2021-10-01 14:11:06 来源:
场景: 你是创业公司。穿着连帽衫和图案t恤的人像五彩纸屑一样乱扔 “AI” 一词。当你在手机上查找 “人工智能” 的定义时,你点头并试着一起玩耍,设法简短地提到了埃隆·马斯克 (Elon Musk) 和特斯拉 (Tesla)。你试着把它翻译成简单的英语。没有运气。相关?
永远不要害怕: 我们值得信赖的指南在这里,不需要事先了解。让我们来谈谈它是什么 -- 通俗地说 -- 以及它会如何影响你的生活。
AI是计算机系统执行通常仅限于人类的任务的进步。翻译: 您过去必须自己做的某些事情-或打电话给某人或访问物理位置寻求帮助-现在可以由计算机完成。
很有可能,如果你在过去几年里听说过人工智能膨胀这个词,你也听说过 “机器学习” 这个时髦的词。这就是它的意思: 高级机器使用大型数据集来 “学习” 并创建模式-然后,它们使用所学知识来识别更多未知事物。
人工智能和机器学习与矩形和正方形有着相似的关系。就像所有的正方形都是矩形,但不是所有的矩形都是正方形一样; 机器学习是人工智能的一种应用,但人工智能是一个更广泛的概念,也有其他用途。
有人说人工智能甚至还没有真正存在 -- 只有当计算机变得更像有情生物时,人工智能才有可能。使用该定义的人会说,大多数声称使用 “人工智能” 的公司是不正确的。他们通常也不会将 “机器学习” 视为人工智能的子集,因为它主要基于模式识别而不是更高级的系统。
但是已故的美国计算机科学家约翰·麦卡锡 (John McCarthy) 被认为创造了 “人工智能” 一词,他确实认为模式识别是人工智能的一个分支。他说,它有许多分支机构,其中一些甚至还没有被发现 -- 有些分支机构比其他分支机构先进得多。
所有这些都说: 正如麦卡锡所写,人工智能涵盖了 “制造智能机器,尤其是智能计算机程序的科学和工程”。
人工智能的想法听起来可能是未来主义和可怕的。这是因为它是未来派的,而且可能令人恐惧-至少就正在运行的个人数据量而言。但是人工智能也可以为人们节省大量的时间、金钱和误差。这可能已经是你生活中比你意识到的要大得多的一部分了。
附件A: 担心你存的钱不够?个人理财应用程序现在可以分析你的消费模式,然后代表你拿走他们认为你不会注意到的少量钱。
附件B: 全国各地的许多医院已经将人工智能纳入医疗专业人员的顾问身份。由于新的突破和研究是相对持续的,人工智能工具帮助医生及时了解最新发现,评估某些症状的影响,并做出诊断决定。
附件C: 每当您使用traffic或GpS应用程序导航上班或朋友家时,AI都会使用其建议的路线,使用来自智能手机的有关速度,路线和交通事件的大量数据。而且,当您使用rideshare应用程序时,AI可以帮助您确定乘车价格,驾驶员将采取的路线以及何时将接载其他乘客。
特斯拉首席执行官埃隆·马斯克 (Elon Musk) 将人工智能纳入其公司的自动驾驶汽车,他担心这项技术可能对人类的未来意味着什么。“如果你不关心人工智能的安全,你应该担心,” 他在推特上2017年8月。“比朝鲜风险大得多。”他还鼓励政府在技术变得太先进之前对其进行监管。他在推特上写道: “没有人喜欢被监管,但对公众构成危险的一切 (汽车、飞机、食品、毒品等) 都受到监管。”“AI应该也是。”
另一方面,马克·扎克伯格 (Mark Zuckerberg) 似乎完全不同意。这位Facebook首席执行官主持了一个2017 Facebook live,他称自己对人工智能的看法 “非常乐观”,并提到那些 “鼓吹世界末日场景” 的人是 “消极的”,在某些方面,“真的不负责任”。人们自然地指出了埃隆·马斯克 (Elon Musk),他后来在推特上写道,“我已经和马克谈过了。他对主题的理解是有限的。”
亚马逊的关键ps更倾向于扎克伯格对这个问题的看法,称人工智能的好处大于风险。AWS人工智能总经理Matt Wood博士写道: “我们认为,禁止有前途的新技术是错误的做法,因为将来它们可能被不良行为者用于邪恶的目的。”“如果我们限制人们购买电脑,世界将是一个非常不同的地方,因为有可能使用电脑造成伤害。”该公司最近向警察部门和政府机构出售了其Rekognition面部识别软件,该软件可实时识别和跟踪面部,包括 “感兴趣的人”。评论家认为,它很容易被滥用并伤害边缘化的人。
谷歌首席执行官桑达尔·皮查伊 (Sundar pichai) 最近发布了有关人工智能公司未来的新准则。他的观点更符合监管,即使是自我监管,也是对公司使用人工智能的监管。他在6月的一篇博客文章中写道: “我们认识到,如此强大的技术对其使用提出了同样强大的问题。”“人工智能的开发和使用方式将对未来许多年的社会产生重大影响。…我们感到有责任把这件事做好。“他澄清说,在存在重大损害风险的情况下,公司只有在认为收益大大超过风险时才会继续进行。该公司还表示,不会在武器或 “其他主要目的或实施是造成或直接促进人员伤害的技术” 上进行合作。
人工智能在用于训练每个算法执行其预期操作的数据方面具有内在的偏见潜力。例如,Google photos因将非裔美国用户标记为大猩猩2015年而受到抨击,2017年,FaceApp的开发人员通过减轻肤色来 “美化” 面孔。这就是为什么对于人工智能公司来说,查看他们正在使用的数据并确保其设计用于减少偏见至关重要。
免责声明:本网站所有信息仅供参考,不做交易和服务的根据,如自行使用本网资料发生偏差,本站概不负责,亦不负任何法律责任。如有侵权行为,请第一时间联系我们修改或删除,多谢。
© 2018 今日中国财经 版权所有