全站搜索
菲腾国际-logo
设为首页加入收藏
新闻检索
 
当前位置
新闻搜索
文章正文
AI明确的道德政策是越来菲腾国际越重要,
作者:菲腾国际新闻部    发布于:2019-01-08 14:49:22    文字:【】【】【
摘要: 防御计划谷歌的美系Maven的大约一个多星期(自治区无人机项目)多星期热情参与后,其他机器学习冲突已经回到了头条新闻:当地执法机构是计算机视觉扩大亚马逊Rekognition服务。人脸识别。 亚马逊首席执行
防御计划谷歌的美系Maven的大约一个多星期(自治区无人机项目)多星期热情参与后,其他机器学习冲突已经回到了头条新闻:当地执法机构是计算机视觉扩大亚马逊Rekognition服务。人脸识别。

亚马逊首席执行官杰夫·贝索斯先生,在事业的信,19组股东Rekognition人脸识别功能“的公民权利和人权的颜色,违反了人民和民间社会组织的菲腾娱乐”移民”,被剥削Rudaro鸬鹚,表示关注“。“他们说这是卖外国政府和权威管理软件的基础。

据亚马逊,有人说,“暂停。您对使用权。“如果确定是这些服务,”这个词[Rekognition等]服务滥用“。然而,迄今为止,它已经拒绝来定义光明服务。- 暂停触发规则。

人工智能是新生的领域。和财团,我们致力于为这样的人工智能坦克,英国牛津大学的AI道德计划的合作伙伴关系,给哈佛大学的AI倡议建立一个初步AI4All最佳做法和准则。然而,道德IBM全球的人工智能的领袖弗朗西斯?罗西,我相信有很多的工作要做。

“这是必要的,所有的企业,以确保自己的原则,”她告诉VentureBeat的在电话采访中。“他们必须是空间的基础上,住,以澄清自己的原则。“

相比于与政府,投资合同。谷歌研究人员医疗保健巨头和IBM公司的微软和其他技术的人工智能把注意力转移,机器学习算法,可以保持距离的人谁赞成混乱病人。

系统清楚,例如,如果他们不表明是否得出结论,然后1,可以预测系统的疑似患者的存活可能性。其结果是PDF文件,通知,以透明的方式AI显示手写图和其它数据(大脑队的谷歌,。)

“医生[与AI的帮助]被设计为治疗患者,可能有本识别算法之间的差,”罗西解释。当我们做出决定”,它也是在一个正常的,不承认我们的偏见[和]这些偏见,可注入的训练数据集和模型。“

不透明数据收集策略已经出现了一些麻烦人工智能研究者。去年,英国的信息至高无上的隐私监管专员办事处,不适当的AI场?测试?160万名患者在字母表附属国的国家卫生服务DeepMind为主分享记录。

“我想知道用户。人工智能进行了研究,“罗西说。“我是人工智能,我认为在审计过程 - 一个非常严格的过程,通过这个过程,分析了数据模型,它是看系统的可靠性点培训。“

罗西,同样重要的立法,专家和政策小组的法律,他说,为了确保菲腾国际您有潜在的风险和人工智能潜在回报的深刻理解。

她说:“问题的政策制定者的教育时,必须是什么样的验收为的是AI可能是潜在的问题。为人们构建一个“”人工智能,清澈透明,他们做了一件非常重要的。“

人工智能报告,发送消息提示,Khari约翰逊和凯尔威格斯,请提交后珂赛特贾勒特。


更多资讯:菲腾国际新闻部
脚注信息
版权所有 Copyright(C)2009-2018 菲腾国际展会策划服务公司