今日芯声|霍金去世前,对AI留下了这样的话

今日芯声|霍金去世前,对AI留下了这样的话

1. 霍金今日去世,但人类对宇宙和AI的探索永无止境

据英国天空新闻等多家媒体3月14日消息,著名物理学家史蒂芬 · 霍金(Stephen Hawking)去世,享年76岁。

霍金教授的孩子Lucy、Robert 和 Tim在一份声明中说:

我们亲爱的父亲今天去世了,我们深感痛心。他是一位伟大的科学家,也是一位非凡的人,他的工作和成就将会留存多年。他的勇敢和坚韧,他的才华和幽默激励了全世界的人们。他曾经说过,“如果宇宙不是你所爱的人的家园,它就不是宇宙。”我们将永远想念他。

斯蒂芬 · 威廉 · 霍金 (Stephen William Hawking),1942 年 1 月 8 日出生于英国牛津,是现代最伟大的物理学家和宇宙学家之一、20 世纪享有国际盛誉的伟人之一。

今日芯声|霍金去世前,对AI留下了这样的话

霍金近几年对人工智能十分关注,多次发表对人工智能发展的看法。他认为,人类需警惕人工智能的发展威胁,因为人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类将无法与之竞争,从而被取代。

霍金多次敬告世人,关注人工智能的深远影响:“强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。对于好坏我们仍无法确定,现在人类只能竭尽所能,确保其未来发展对人类和环境有利,人类别无选择。”

今日芯声|霍金去世前,对AI留下了这样的话

2. 糖尿病患者福音:美敦力血糖AI预测系统通过FDA审核

全球领先的医疗科技公司美敦力今日宣布,其连续血糖监测(简称CGM)系统Guardian Connect已经通过了FDA审核,这套系统适用于14-75岁的糖尿病患者。

Guardian Connect系统集成了美敦力公司最新的糖尿病预测算法,是目前市面上唯一一款能够提前60分钟预测高血糖或低血糖事件,并向患者发出预警的独立CGM系统。

借助公司最先进的血糖传感器,也是目前唯一可信赖的、支持混合闭环系统的传感器——Guardian(TM) Sensor 3,美敦力在一项临床研究中证实,Guardian Connect系统预测低血糖症状的准确率达到了98.5%。

今日芯声|霍金去世前,对AI留下了这样的话

有了这个系统,患者的监护人就可以通过实时查看或接收短信提醒,更好地掌握患者的病情。

“Guardian Connect系统通过FDA审核,填补了糖尿病治疗领域的一大空白,即如何预测非正常的血糖值,从而避免潜在的风险”,美敦力公司糖尿病服务和解决方案事业部总裁Annette Bruls说道。

“借助血糖预警和Sugar.IQ智能助手,Guardian Connect系统可以帮助糖尿病患者主动控制自己的病情,更好地享受生活,而不用时刻担心自己的血糖水平。”

今日芯声|霍金去世前,对AI留下了这样的话

3. 未来学家:2018年中国将成世界上无可挑战的AI霸主

Future Today Institute的创始人Amy Webb发布了其年度科技趋势报告,其中大部分的聚焦点在于人工智能的持续影响。

Webb是一位未来学家,也是纽约大学斯特恩商学院的战略预见教授,她在德克萨斯州奥斯汀的SXSW上发表了这篇报告。

今日芯声|霍金去世前,对AI留下了这样的话

现在是第11个年头,该报告确定了20个行业的225个趋势,其中大约70个趋势直接与人工智能有关。Webb预计,在2018年,人工智能云和算法市场将继续增长,第一批个人机器人将进入市场。中国在报告中也引起了广泛关注。

Webb说,中国投资的资金超过了所有其他国家的总和,是人工智能创业公司单一的最大投资者。她说:“我并不嫉妒中国这样做的能力,但我确实质疑他们的最终目标是什么,以及这是否有利于人类的未来。”

面部识别、语音识别和个性识别都受到人工智能的影响,它们也被列入了预计将继续的趋势之中。Webb说,智能手机的识别技术、像Siri这样的人工智能助手以及其他相关趋势意味着,2018年将是传统智能手机终结的开始,智能手表、智能眼镜和智能耳机等可穿戴设备也将进一步扩大。

今日芯声|霍金去世前,对AI留下了这样的话

Webb说:“这些都是控制人工智能未来的九大公司。他们都在与学术机构合作,资金从这里流出,有一种自由的研究来回流动,因此我们的下一个计算时代掌握在这9家公司的手中,且其中有三家我认为这可能是你们应该关注的最重要的公司——腾讯、百度和阿里巴巴。”

今日芯声|霍金去世前,对AI留下了这样的话

4.研究数据不精准?外媒:AI技术被过度夸大、误解

科技网站《TechCrunch》的记者 Danny Crichton 发表一篇文章,他认为人们对于 AI 技术的认知与正确性已经遭到夸大,大众媒体中所报导的具有误导性,数据的解读也存在瑕疵,不过并非全然是媒体的问题,因为就连 AI 研究人员所公开的资料本身可能就是错误、不恰当的,人工智能研究也身陷“再现危机”(Replication Crisis)。

“再现危机”一词率先出现于心理学领域的研究中,研究所为了制造大量的新闻话题,在研究数据上采用不恰当的样本、使用错误的实验方式,导致许多实验证实的结果,事后并无法依据相同的步骤再现。

今日芯声|霍金去世前,对AI留下了这样的话

在人工智能领域的研究中存在相同的现象,在 AI 研究中,程序代码是运行人工智能的关键资料,然而多数的实验室都不会选择公开,仅列出研究结果的统计数据,若无法取得机器学习过程的训练数据,不但无法证实这项研究的真伪,同时也无法再次呈现相同的实验结果。

Crichton 质疑 AI 的研究报告都会丢出一个统计数字或是“接近人类水平”的比喻,若只是用来评估 AI 系统非常简单,但若要与人类一样运行、判断,却无法套用相同的标准。

今日芯声|霍金去世前,对AI留下了这样的话

Crichton 于文末表示,没有人可以在人工智能的领域上成为大师,因此对于这些新技术的研究结果都要保持怀疑、谨慎评估,且重要的是,现在许多被人类依赖的 AI 技术,都还在发展阶段,AI 要取代人类,还非常非常遥远。

今日芯声|霍金去世前,对AI留下了这样的话

留言 点赞 发个朋友圈

我们一起探讨AI落地的最后一公里

素材来源:新智元、网易智能、搜狐科技等

如需转载,请后台留言,遵守转载规范

相关推荐