服务器
    作者:贾凯强

    人工智能被带跑偏 已学会歧视与偏见

         [ 中关村在线 原创 ] 暂无评论

      人工智能的发展是为了让其学习和模仿人类,以实现对人类社会的帮助。可是,英国卫报近日发表文章称,人工智能学习人类实在太敬业,不仅学习人类的优点,还染上了人类的恶习——人工智能已经开始出现种族歧视和性别偏见了。

    人工智能被带跑偏 已学会歧视与偏见

      据科学家们研究,让人工智能产生种族及性别偏见的主要问题来自于机器学习时,人类语言和文化中根深蒂固的偏见被AI吸收而且得到了强化。科学家表示,人工智能由于算法和人类不同,这种偏见被强化的可能性更高,因为其无法有意识的去抵制所学到的这些。

      人工智能目前存在的问题在于,其经常会把欧美人的名字和“快乐”之类的愉快的词语联系在一起,而非裔人的名字则通常和不愉快的词联系在一起。这种算法将很容易影响到人们的正常生活,比如当人工智能系统进行简历筛选时,会很容易让非裔失去面试邀请的机会。

      而目前,业内部分人士已经开始意识到这个问题的严重性,他们主张在机器学习中新增一项名叫“单词嵌入”的工具,用于改变计算机解读语音或文字的方式,下一步将会自然的开发AI的拟人化能力,比如常识和逻辑等。

      这一问题并非近期才出现的,微软在去年推出的Twitter机器人就因其不当言论被紧急下线。人类的文化和语言历史太长,这会对人工智能造成的影响可能超出了我们的预估。

    周关注排行榜

    产品品牌

    文章推荐

    互动沙龙

    相关内容 网友评论 返回首页
    专家咨询