当前位置: 首页 人工智能 人工智能:对人类来说太危险了?

人工智能:对人类来说太危险了?

人工智能将迎来一个改善医疗保健的新时代的希望本周严重减弱,因为据透露IBM Watson经常为癌症患者提出不安全和不正确的治疗方法。

亚马逊的Rekognition面部识别软件也错误地将 28名美国国会议员与犯罪面部照片相匹配,从而削弱了对更高效公共服务的期望。

由于优步本周削减其自动驾驶卡车部门专注于其自动驾驶汽车开发业务 - 仍然因今年早些时候发生的致命事故而感到震惊 - 而新的研究显示出对谷歌翻译的准确性(以及更广泛的应用)的严重关注,其局限性人工智能正在成为焦点。这些挫折可能会因为出牙问题而被驳回,但它们引起了人们对AI在现实生活中应用的准备的严重怀疑。

AI的诊断挫折AI的一项重大承诺是彻底改变癌症治疗:分析患者数据,肿瘤和治疗,并应用机器和深度学习来建议最有效的治疗方案。但是,通过网站Stat获得的文件显示,医疗专业人员对IBM的Watson for Oncology软件有着严重的疑虑。

内部文件详细介绍了IBM前副卫生主任安德鲁·诺登6月份发表的报告,其中披露了沃森提出的建议往往是不准确的,并提出了有关基础技术的严重问题。

在一个案例中,Watson建议患有严重出血的肺癌患者服用与出血有关的药物,这被认为是医学上的危险; 据报道,另一名医生将该产品称为“一块s”。

差劲的建议?据报道,这些文件归咎于用于“训练”沃森做出判断的数据表现不佳。由于难以获得真实的患者数据,医生创建了他们自己的综合数据:因此,Watson的治疗建议基于提供数据的医生的偏好而不是实际结果的分析。

Watson for Oncology试验的一家医院的发言人表示,批评显示了开发软件的强大流程,并补充说,没有技术可以取代人类医生对患者和病情的了解。

让名字正确亚马逊Rekognition是一个视觉识别引擎,正在向执法机构大量推销以追踪犯罪分子,同时也被美国公民自由联盟(American Civil Liberties Union)所采用。该组织下载了25,000张犯罪照片,并要求Rekognition软件将其与535名国会议员的照片相匹配。

该系统错误地将28名政客与犯罪分子相提并论,ACLU也注意到结果偏向黑人国会议员。

公民自由机构反对警察部门使用Rekognition,并警告说,面部识别可能会加剧种族歧视,并对人权构成威胁。

在测试中,ACLU将Rekognition设置为面部匹配的80%信心,亚马逊认为这种误差仅适用于家具或宠物等普通物品。为了识别特定的面孔,它表示应该使用95%的置信水平。亚马逊说Rekognition只能用作指导,而人类应该总是做出关于匹配脸部的最终判断。

人为的无能IBM Watson for Oncology和Amazon Rekognition的失败都归结为AI与现实世界相抗衡,现实世界中可信赖的数据稀缺,人类的可靠性大量供应。科技公司,政府和媒体对人工智能的美好未来做出了重大预测。

但他们的承诺必须从视角来看:那些使用这项技术的人需要坚定不移地站稳脚跟。由于人工智能已融入社会许多最敏感和最重要的功能,因此同时也清楚这是一项需要在其脖子上悬挂大型警告标志的技术。

版权属于:大风号

原文地址:http://78soft.com/article/31146.html

转载时必须以链接形式注明原始出处及本声明。

猜你喜欢

最热文章

热门标签