bt365手机平台-下载首页

  • 克瓦希madry是建设保障这一新兴领域为人工智能,这已成为近机器学习的在自己的权利的一个分支的领导者。

    克瓦希madry是建设保障这一新兴领域为人工智能,这已成为近机器学习的在自己的权利的一个分支的领导者。

    照片:卡米拉madry

    全屏

3Q:打造值得信赖的人工智能亚历山大madry

克瓦希madry是建设保障这一新兴领域为人工智能,这已成为近机器学习的在自己的权利的一个分支的领导者。

最近bt365手机app研讨会探讨了使人工智能系统更加可靠,安全,透明的方法。


记者联系

金·马蒂诺
电子邮件: kimmarti@mit.edu
电话:617-710-5216
bt365手机app追求情报

机器学习算法,现在背后多,我们使用的软件,帮助个性化我们的新闻提要,完成我们的思想,我们完成输入之前。但随着人工智能变得更加嵌入日常生活中,预期已经上涨. 前自治系统完全获得了我们的信心,我们需要知道他们在大多数情况下可靠,并能承受外界干扰;在工程方面,他们是强大的。我们还需要了解他们的决定背后的原因;他们解释。

亚历山大madry计算机科学系bt365手机app的副教授,计算机科学与人工智能实验室(CSAIL)的值得信赖的AI主动的铅教员,比较成分至锋利的刀子,社会必须学会一个有用的,但潜在的危险工具weild正常。 madry谈到最近bt365手机app 座谈会上健壮,可解释AI,事件由共同主办 bt365手机app追求情报 和CSAIL,并举行十一月20单礼堂。研讨会的目的是在保证建筑的区域划分为AI,这几乎已经成为机器学习的在自己的权利的一个分支,以展示新的bt365手机app工作。 6名教职员工谈到自己的研究,40名学生提出了海报,并madry开了谈话此次研讨会上,恰当地名为“鲁棒性和可解释性。”我们在这一新兴领域与madry说话的时候,领导者,对一些事件中提出的关键思路。

问: AI在很大程度上归功于它的最新进展,以深度学习,机器学习的一个分支,已显著改善的算法挑选出图案的文字,图片和声音给我们的自动化助理的Siri一样和ALEXA,除其他事物的能力。但深学习系统保持在令人惊讶的方式容易:当他们遇到稍微不熟悉的例子在现实世界或绊倒,当恶意攻击者喂它巧妙地变质的图像。你是如何和其他人试图让AI更强大的?

A: 直到最近,人工智能的研究者只是专注于让机器学习算法来完成基本任务。即使只获得平均情况下的性能是一项重大挑战。现在性能上有所提升,注意力已经转移到下一个关卡:改善最坏情况下的性能. 我的大部分研究都集中在应对这一挑战。具体来说,我在开发下一代机器学习系统,这将是可靠的,像自动驾驶汽车和软件的关键任务应用确保足够的工作,过滤恶意内容我们目前正在建设的工具,培训对象识别系统,以确定发生了什么事的场景或画面,即使输入到模型中的图像已被处理。我们也在研究,提供安全性和可靠性的保证系统的限制。我们是多么的可靠性和安全性可以建设成为机器学习模型,我们可能需要牺牲到那里还有什么其他功能?

我的同事 卢卡·丹尼尔,谁也讲了,正在研究这一问题的一个重要方面:开发一种方法来衡量在关键的情况下了深刻的学习系统的应变能力。通过深度学习系统做出的决策有重大影响,因此最终用户可以测量每个模型的输出的可靠性的关键所在。另一种方法,使系统更强大的是在训练过程。在她的谈话,“鲁棒性甘斯和黑箱的优化” 孙燕姿jegelka 展示了如何在一个生成对抗性的网络,或GaN学习者,可制成能承受操作,以它的输入,从而更好的性能。 

问: 权力深度学习似乎学习几乎不费吹灰之力神经网络:喂它们足够的数据,他们可以在很多任务跑赢人类。然而,我们也看到他们如何能够很容易失败,具有自动驾驶汽车碰撞和杀死他人的至少三种广泛宣传的案件。在医疗保健AI应用尚未审查的同一水平,但下赌注一样高。 大卫·桑塔格 专注于当AI系统缺乏健壮性经常生活或死亡的后果他的谈话。患者的医疗记录和其他观测数据训练的AI时什么是一些红旗?

A: 这可以追溯到保证,我们打造成了我们的模型的基本假设的性质。我们通常认为我们的训练数据集是代表我们测试我们的模拟现实世界的数据 - 这往往是过于乐观的假设。桑塔格给烤成的训练过程中,可能会导致一个AI给了错误的诊断或建议无害化处理有缺陷的假设的两个例子。第一集中,去年通过健康的国家机构发布了患者的X射线的庞大数据库。该数据集有望带来肺部疾病的自动诊断很大的进步,直到持怀疑态度的放射科医生 采取细看 而在扫描诊断标签得到广泛的错误。训练有素的胸部扫描,有很多不正确的标签的AI将会有一个很难产生准确的诊断。 

第二个问题桑塔格引用是校正由于系统故障或在医院和卫生保健提供者如何报告患者数据的变化差距和违规行为中的数据失效。例如,一个大灾难可能会限制可用于急诊室病人的数据量。如果机器学习模型未能采取转移到它的预言不会是非常可靠的。

问: 你所投保一些技巧制作的AI更可靠,更安全。怎么样解释性?是什么使神经网络如此难以解释,以及如何工程师开发方式同行引擎盖下面?

A: 了解神经网络预测是非常困难的。每个预测产生于由数百发到数千单个节点的决策网。我们正在努力开发新的方法,以使这个过程更加透明。在计算机视觉领域的先驱之一是 安东尼奥·托拉尔瓦,追求的导演。在他的谈话,他证明了在他的实验室开发了一种新的工具,强调了神经网络的重点是因为它解释场景的功能。该工具可以让你找出负责识别,比如说,一个门,从一组窗口或树木的支架网络中的节点。可视化对象的识别过程允许软件开发者获得的网络如何学习更细粒度的了解。 

另一种方式来实现解释性是精确定义,使模型可以理解的属性,然后训练模型发现该类型的解决方案。 托米jaakkola 表现出他的谈话,“解释性和功能透明度“,即模型可以训练成直线或在本地其他所需的品质,同时保持网络的整体灵活性。在不同级别的分辨率的多,因为他们是在解释物理现象都需要解释。当然,还有建设保障到机器学习系统的成本 - 这是通过所有的谈判进行的一个主题。但这些保障是必要的,而不是不可逾越的。人类智慧的美妙之处在于,虽然我们不能完全执行大多数任务,作为一台机器可能,我们在环境中的一个显着的范围内学习的能力和灵活性。 


主题: 工程学院, 电气工程和计算机科学(EECS), 计算机科学和人工智能实验室(CSAIL), 脑与认知科学, 科学学院, 人工智能, 追求智慧, 技术与社会, 机器学习, 伦理

回到顶部