网站公告: 环亚手机客户端下载-ag88环亚娱
新闻动态您当前的位置:官网首页 > 新闻动态 >

人工智能P图工具被指涉嫌种族歧视:把奥巴马P“白”了

更新时间:2020-06-29 08:23

26

一款人工智能东西能将像素化的图画转换成明晰的相片,但在发布后,该东西被责备存在种族成见。

这款名为Face Depixelizer的东西在Twitter上发布,供用户测验,用户发现该技能无法正确处理黑人的脸。

该东西将贝拉克·奥巴马的像素化图画变成了一个白人男人,还有一些其他名人的比如。

262

(图源:每日邮报)

Face Depixelizer是根据杜克大学的一个团队开发的人工智能东西,该东西运用了一种名为PULSE的办法,该办法经过人工智能生成的高分辨率人脸图画进行查找,以匹配那些在压缩到相同大小时与输入图画类似的图画。

杜克大学的研讨团队运用了一种带有两个神经网络的机器学习东西——一个是开发人工智能发明人脸来仿照它所承受的练习,另一个是接纳输出,并决议是否有满足的说服力来将其误认为实在的人脸。

杜克大学声称其体系能够在几秒钟内将16x16像素的图画转换为1024 x1024像素,这是其分辨率的64倍。

一位在推特上名为Bomze的开发人员运用该体系开发了Face Depixelizer,并于周末在交际媒体网站上共享了它。

“给定一个低分辨率的输入图画,模型就会生成高分辨率的图画,这些图画感知起来实在,而且尺度正确。”

一天后,用户发现该东西在处理黑脸时并不精确。一名用户运转了一张奥巴马的像素图画,生成了一张明晰的白人男性图画。

而另一个用户屡次运转相同的图片,成果也相同。

机器学习博主Robert Osazuwa Ness用自己的脸以及Alexandria-Ocasio Cortez和女演员Lucy Liu的相片做了一个测验。成果产生的面孔看起来是白人的。

Business Insider指出,失利的原因或许是用于练习人工智能的数据集。

假如输入到机器学习算法中的图画缺少多样性,那么机器学习算法将无法正常运转。

但是,这个概念并不新鲜,由于麻省理工学院(MIT)的研讨人员在2018年发布的一份陈述中指出,人工智能体系搜集数据的办法往往会让它们成为种族主义者和性别轻视者。

该论文的榜首作者Irene Chen是一名博士生,她与麻省理工学院教授David Sontag和博士后Fredrik D. Johansson一起撰写了这篇论文。她说:“计算机科学家通常会很快标明,让这些体系削减成见的办法便是规划更好的算法。”

“但算法的好坏取决于它们所运用的数据,而咱们的研讨标明,更好的数据往往能够带来更大的不同。”

举个比如,研讨小组调查了收入猜测体系,发现该体系将女人职工错估为低收入,将男性职工错估为高收入的或许性是两倍。

他们发现,假如他们将数据集添加10倍,这些过错产生的频率将削减40%。

在另一组数据中,研讨人员发现一个体系猜测重症监护病房(ICU)死亡率的才能对亚洲患者来说不那么精确。

但是,研讨人员正告说,现有的削减轻视的办法会使非亚裔的猜测不那么精确。

Chen说,最大的误解之一便是数据越多越好。相反,研讨人员应该从那些代表性缺乏的集体中取得更多的数据。

Sontag说:“咱们把它看作一个东西箱,能够协助机器学习工程师找出应该对他们的数据提出什么问题,以确诊为什么他们的体系或许做出了不公平的猜测。”

编译/前瞻经济学人APP资讯组

原文来历:

https://www.dailymail.co.uk/sciencetech/article-8447919/AI-powered-tool-transforms-pixelated-images-clear-photos-accused-racial-bias.html

【返回列表页】
地址:广东省广州市天河区88号    电话:    传真: