教育中心 青少年心思 爱情心思 婚姻家庭 两性心思 读书频道 自杀救援 教育心思
m88 188bet uedbet 威廉希尔 明升 bwin 明升88 bodog bwin 明升m88.com 18luck 188bet unibet unibet Ladbrokes Ladbrokes casino m88明升 明升 明升 m88.com 188bet m88 明陞 uedbet赫塔菲官网 365bet官网 m88 help

基础理论

运用心思

交叉学科

心思学史

前沿研讨

一般心思 社会 展开 生理 认知 品格

比较 反常 进化 试验 计算 办法 丈量

临床 咨询 教育 爱情 健康 工程心思 犯罪心思

消费 办理 环境 健康 经济 公关 大发体育 广告 HR

哲学与心思 社会与心思 人类学与心思

言语与心思 生理与心思 生物学与心思

古代 近代 现代 地域 

人物 门户 其他

物 效果 展望 争议 奖项

热门 新闻 后现代 其他


文章 书本视频 图片

  家长烦恼 感人故事 孩子心语 常见问题 教育论坛 专家博客
您现在的方位: 中崋心思教育网 >> 心思学科常识 >> 前沿研讨 >> 研讨新闻 >> 文章正文
文章 书本视频 图片

人工智能存在认知误差或许成为种族主义者

作者:佚名    文章来历:转载    点击数:    更新时刻:2017-4-17
北京时刻4月17日音讯,当微软公司在上一年三月份在推特上发布一款名为“tay”的谈天机器人时,他们必定想不到这件事很快会变成一场灾祸:在不到24小时的时刻里,这款机器人就现已变成了一个歇斯底里的种族主义者和新纳粹分子,之所以呈现这种情况,很大程度上是遭到了在推特上与它进行对话的那些用户的“教授”和“引导”。
  不幸的是,一项最新研讨显现,推特并非人工智能“学坏”的仅有途径。事实上,科学研讨显现,任何凭借人类言语进行学习的人工智能机器人都有或许和人类小孩或许学坏相同,在价值取向上呈现歪曲。
  研讨人员凭借一款名为“词义全球向量”(GloVe)的机器学习体系展开了一项试验,成果发现人类在学习过程中或许呈现的任何一种误差都有或许在人工智能体系的学习过程中呈现。
  美国普林斯顿大学计算机科学博士后艾琳·卡利斯坎(Aylin Caliskan)表明:“看到这些模型中内嵌的所有这些成果令我感到震动。”即使在练习人工智能体系时运用的资料悉数来自中性资料来历,比方维基百科或许新闻报导,终究人工智能依然有或许会在价值取向上展开出某种误差,就像人类相同。
  内禀性误差
  GloVe是一款可以从文档中提取语义框架结构的东西,详细到这项研讨中,其作用是从互联网上主动提取并树立计算机语料库。
  心思学家们很早之前就现已了解人类大脑会根据每个单词背面隐含的意思来树立起不同单词之间的联络。
  在心思学上有一种被称作“内隐联想检验”(IAT)的检验办法,其做法是经过检验人对不同单词的反响时刻来检测这种相关性:检验人会在屏幕上看到一个名词,比方“水仙花”,一起呈现的还有两个别离代表正面和负面感触的词汇,比方“苦楚”和“美丽”。检验人有必要用最快的速度做出反响并按下相应按键。不出意外的,更多的人会更倾向于将“花卉”一词与正面语义联络起来,而将“兵器一词与负面语义联络起来。”
  内隐联想检验可以测定人们关于某种特定社会现象或团体的潜知道观念。比方说,一项内隐联想检验显现在美国,人们会下知道地将“兵器”一词与黑肤色人群联络在一起,而将一些无害的词汇与美国白人联络在一起。
  关于这类成果的解读还存在一些争议。专家们现在还难以明晰,之所以会呈现这样的语义联络,是由于被试人确实存在心里确定的,根深柢固但自己却毫不知道到的社会认知误差,仍是由于在日常对话和信息获取过程中,从计算学上看有更大的几率将一些负面的词汇与少量族裔,老年人或边际团体联络在一起,而被试遭到了无知道的影响?
  数字成见
  卡利斯坎和她的搭档们在针对人类被试进行检验的IAT体系基础上开发了针对计算机人工智能的IAT体系,并将该体系称为“WEAT”,意为“词汇内嵌联合检验”。该检验旨在评价GloVe体系所给出的不同词汇之间的彼此联络,这一点与传统的IAT检验调查人类大脑中不同词汇之间的联络十分类似。
  在每一种语义联络和习气检验中,WEAT检验都得到了与IAT检验相同的成果。这款机器学习东西成功地重现了人类将花卉与美好事物联络起来的倾向,它也不喜爱“昆虫”和“兵器”这类词,但是喜爱“乐器”并将其与美好事物联络在一起。但令人不安的是,这款人工智能东西以为欧洲裔美国人的姓名听上去愈加令人愉悦,而非洲裔美国人的姓名则比较简单令人不快。别的,它会更多地将男性姓名与作业和作业联络起来,而将女性姓名更多地与家庭相关词汇联络在一起;相同的,它还将男性姓名更多地与数学和科学联络在一起,而将女性姓名更多地与艺术词汇联络在一起。而白叟的称谓常常与令人不悦的词汇联络在一起,而年轻人的称谓则与令人愉悦的词汇联络在一起。
  卡利斯坎表明:“咱们感到很震动,咱们居然可以彻底重现曩昔在数百万的人们身上进行过的IAT检验成果。”
  情况还不止于此,使用别的一种类似的办法,研讨组还发现机器学习东西根据语义联络得到的认知成果居然是可以比较精确地反映实际国际情况的。比较WEAT检验的成果与美国联邦劳工计算局关于女性工作散布的数据,卡利斯坎发现GloVe数据中,那些被人工智能与“女性”联络起来的工作,在实际国际中从事这项工作的女性份额也更高,两者的相关性超越90%。
  换句话说,根据人类言语进行学习的计算机程序可以“十分精准地体会人类言语背面的含义和其所代表的人类文明”,即使那种文明自身或许是存在成见的乃至是某种下知道地轻视,计算机也能灵敏地体会并学习到。但与此一起,人工智能在某些人类学习者感觉十分简单了解的当地却会感觉了解起来十分费劲。举个比如,一篇关于马丁·路德-金在1963年由于参加黑人人权运动而在亚拉巴马州伯明翰被拘禁的新闻报导中当然会触及许多将美国黑人与负面词汇彼此联络的情况,但一名人类读者很简单就能体会到这篇报导中的美国黑人是一名英豪,而在计算机看来,它的收成只不过是将“黑人”与“监狱”两个词汇之间树立起了联络。
  要想在保证精确性的一起还要力求让人工智能来了解人类文明中的“公正性”是一项巨大的应战。卡利斯坎指出:“咱们并不以为去除偏向性之后这个问题就可以得到处理,由于这样做或许将会打破人工智能关于这个国际的完好了解能力。”
  去除偏向性
  而在哈弗福德学院计算机科学家索瑞尔·福雷德勒(Sorelle Friedler)看来,本月12日宣布在《科学》杂志上的这项最新研讨并不会让她感到惊奇。索瑞尔并未参加这项研讨,但她以为这一研讨效果含义严峻。她说:“这是一种根本办法,许多体系都根据此构建。”换句话说,任何根据GloVe渠道或是经过人类言语学习进行构建的人工智能体系都有或许遭到这种误差性的影响。
  索瑞尔的研讨触及一项近年来逐步鼓起的范畴,那就是机器学习中的公正、职责与透明性。要想处理这一问题并不简单,在某些情况下,程序可以明晰地告知体系去主动疏忽一些思想定式。但在任何触及奇妙差异的表达辨认事例中,人类都需求及时介入,来保证人工智能不会了解过错。取决于你不同的规划意图,详细的人工智能处理方案或许会有所差异,你规划这款人工智能体系是做什么的?为了查找运用?为了辅佐决议计划仍是其他工作?
  在人类交际习气中,人们表面上不置可否的表态并不代表他们对某些特定社会团体在心里有着某种明晰的观念。心思学家们一向在对这一现象进行剖析:这种现象的呈现是否是由于人们会倾向于躲藏自己的成见,坚持沉默不宣布观念,以防止堕入某种为难局势?是否有或许IAT检验并不能那么好的检验出人们的心里成见?但关于人类而言,即使心里带有某种成见,人们至少依然可以分辨对错对错,但是机器就不必定,他们没有道德对错概念。因而,卡利斯坎和搭档以为在人工智能展开过程中,人类依然有必要要有所参加,并坚持程序代码的透明度,以便人类可以时刻监督,协助机器掌握好价值判别的规范。
  卡利斯坎表明:“在存在知道误差的情况下,咱们知道怎么做出正确的决议。但不幸的是,机器并没有自我知道。“

  • 上一篇文章:

  • 下一篇文章: 没有了

  • 宣布谈论】【加入收藏】【告知老友】【打印此文】【封闭窗口

    栏目精选

    炽热专题 更多专题

    全国客服①
    全国客服②
    全国客服③
    教育教务
    协作加盟
    点击这儿给我发音讯
    点击这儿给我发音讯
    点击这儿给我发音讯
    点击这儿给我发音讯
    点击这儿给我发音讯

    栏目热门及引荐

  • 此栏目下没有文章
  • 热门文章

    频道精选

    总部地址:南京市常府街85号新大都广场乙幢27楼A座 师资介绍 点击进入 中崋心思教育网
    客服电话: 025-84293828 官方QQ群:53314688/78630619  官方微博:http://t.qq.com/nanjingshixinli2006   版权所有 Copyright @ 2006-2008 中崋心思教育网(阅读本网主页,主张将电脑显现屏的分辨率调为 1024*768)苏ICP证06011946号