混合云时代的原生安全观
在迪士尼乐园偶遇机器人这款机器人的特征应该不难发现,一是没有皮肤,二是会眼神互动。 维基百科上,类人机器人(Humanoid robot)的定义是:机器人的一种,具有类似于人类外型的特征,例如有头部、躯干跟手脚,但不一定有头发、五官、牙齿、皮肤等细微特征。 如此看来,这是一款类人机器人。 它主要的应用领域是娱乐——迪士尼下一步打算将其发展成卡通人物,它将按脚本与游客互动。 对于这款有点诡异的机器人,迪士尼官方的脑洞是:
也许下一次去迪士尼乐园就能偶遇这位“老人”了,还是希望工作人员能给它穿上人造皮肤。 近日召开的机器人国际顶级会议 2020 IEEE 国际智能机器人与系统大会(IROS 2020)上,有一篇论文发表,介绍的就是上面这款似人非人、似机器确实是机器的机器人。 论文题为 Realistic and Interactive Robot Gaze(逼真、可互动的机器人凝视)——的确,来自这款机器人的凝视可太逼真了!
再近距离观察一下它的眼球。 医疗算法无法标记黑人患者 在2019年,《科学》杂志上发表的一项研究显示,全美的医院和保险公司使用医疗预测算法来识别需要纳入“高风险护理管理”计划的患者,而这个算法不太可能特别选出黑人患者。 高风险护理管理计划为长期病患者提供训练有素的护理人员和初级护理监测以防止他们出现严重的并发症。但是,该算法更有可能推荐白人患者而不是黑人患者。 该研究发现,该算法以医疗支出作为指标了确定个人医疗需求。但是《科学美国人》的报道称,病情较为严重的黑人患者的医疗费用与病情较轻的白人患者的医疗费用相当,这意味着即使前者的需求更大,他们的风险评分也还是比较低。 开展该研究的研究人员认为有几个因素导致了这个结果。首先,有色人种的收入很可能较低,即使他们有医保也很可能无法获得医疗服务。隐性偏见也可能导致他们无法获得优质的护理。 尽管该研究没有提算法或开发者的名字,但研究人员告诉《科学美国人》,他们正在与开发者合作解决这种情况。 经由数据集训练的微软聊天机器人发了带有种族主义色彩的推文 2016年3月,微软获悉,使用推特互动作为机器学习算法的训练数据可能会产生令人失望的结果。 微软在社交媒体平台上发布了人工智能聊天机器人Tay并称其为对“对话理解”所做的实验。“对话理解”基于这样一种想法,即聊天机器人化身为一个青少女与人进行互动,其方法是使用结合了机器学习和自然语言处理功能的推特。微软使用匿名的公共数据和喜剧演员事先编写的一些笑料来使其内容更丰富,然后放任其在社交网络的交互中学习和发展。 在短短16小时的时间内,聊天机器人发布了95000多条推文,这些推文瞬间变调了,充斥着明显的种族主义,对女性的厌恶和反犹太主义。微软迅速暂停了该服务以进行调整并最终停用了Tay。 微软研究与孵化公司的副总裁Peter Lee表示(时任微软医疗的公司副总裁):“尽管Tay无意冒犯,但还是发了令人发指的推文,对此我们深表歉意。这些推文既不代表微软的立场,也不代表微软设计Tay的方式。事发后,Lee在微软官方博客上发了这样的博文。 Lee指出,Tay的前身即微软于2014年在中国发布的Xiaoice,Xiaoice在Tay发布前的两年时间里已成功与超过4000万人进行了对话。微软没有考虑到的情况是有一群推特用户立即开始向Tay发推文,其中包括种族主义和厌恶女性的言论。该机器人很快从这样的材料中学到了这样的内容并将其纳入自身的推文中。 “尽管我们已经准备好应对多种滥用系统的情况,但我们对这种特定的攻击疏于监督。结果,Tay在推特上发了极为不当且应该受到谴责的文字和图像”,Lee这样写道。 支持Amazon AI的招聘工具仅推荐男性 和许多大公司一样,亚马逊希望获得有助于HR筛选工作申请以寻找最佳人选的工具。2014年,亚马逊开始研究基于人工智能的招聘软件。只是有这样一个问题:该系统极力推荐男性候选人。2018年,路透社爆料称亚马逊已经取消了该项目。 亚马逊的系统为候选人实施了从1分到5分的星级评分制。但是,系统核心的机器学习模型接受了训练,对其进行训练的是10年以来所有求职者提交给亚马逊的简历,而其中大多数简历是男性提交的。由于使用了这些培训数据,系统渐渐挑剔简历中的某些字眼,其中包括“女性”一词,甚至将所有毕业于女子大学的候选人降级。 当时,亚马逊表示,亚马逊招聘人员从未使用该工具来评估候选人。
亚马逊试图修改该工具以使其中立化,但最终还是无法保证它不会学习其他会对候选人产生歧视的分类方式,因此该项目遭到终止。 (编辑:宣城站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |