多彩国际 今日美国 今日韩国 今日日本 今日俄罗斯 今日加拿大 今日澳洲 今日意大利 今日英国 今日法国 今日德国 巴基斯坦 今日新加坡 今日大马 今日菲律宾 今日越南 今日泰国 今日柬埔寨 今日印尼 今日缅甸 今日印度
地方网 > 焦点 > 今日国际 > 今日加拿大 > 正文

假如算法有“偏见” 我们怎么办

来源:甘肃日报 2020-08-03 02:46   https://www.yybnet.net/

方师师

当互联网时代到来时,无数人预言互联网会让知识获取更容易、让偏见与隔阂被打破、让世界变得更平等。然而,在互联网与人工智能加速发展的今天,偏激的观点、人群之间的隔阂在网络力量的助推下势头不减。这是为什么?

在生活中人们会发现,出差订酒店的时候,不同的人用不同的手机打开同一个APP,看到的价格很可能不一样;我有个朋友晚上加班后约车回家,起点如果被定在公司门口,比起被定在公司旁百米左右的便利店,价格会高20%。这些现象说明了一个问题:越来越跟日常生活紧密联系在一起的互联网算法,本身并不是非常“确切”的,算法中存在着某种“偏见”。

什么是算法?这个词刚诞生的时候并没有什么宏大的内涵。公元820年,阿拉伯数学家提出“算法”,当时它指“解决具体问题的一个方法”。随着纯数学理论向着应用数学理论迁移,算法进入到各种各样的应用数学领域,后来又被计算机科学、社会学等领域借用,逐渐开始指向某种复杂的社会技术系统。这几年,“算法”为大家所熟知,很可能是因为它指向了更为具体的内容:算法决策服务。比如,浏览网站时,它会给我们推荐各种各样的商品;打开资讯类APP,它会推荐新闻或者短视频;打开地图应用,它会自动规划到达目的地的路线……算法完成了一个将信息、算法和人三者联系在一起的闭环。

这个闭环的最终目的,是帮助人从海量的信息当中打捞出最有意义、最有用的内容。和人做决策相比,算法确实具有更客观、更公正、效率更高的优点。但是如果算法出现错误,也有可能造成风险。而且很多时候,我们在使用各种各样的APP时,并不知道算法正在偷偷地帮忙做决策,这种隐蔽性意味着一旦它在重要领域出错,人们往往来不及补救。

那么算法到底存在哪些隐患?首先是技术层面的代码错误。当年,互联网先驱格蕾丝·穆雷·赫柏使用机电计算机导出一张日志,在日志上可以看到有一个很像飞蛾的虫子,它就是程序代码里所谓的“bug”,意指程序出错。在生活中,程序员群体之间会相互调侃,比如程序员A看到B在写代码,也许就走过去用戏谑的语气说:“又在写bug呀。”这是因为人和技术之间的磨合始终处于探索阶段,程序当中出现错误很常见,无法保证万无一失。

第二个隐患是算法偏差。大家浏览网站、看视频、使用各类应用的时候,会发现这些网站好像非常“懂”自己,所推荐的内容刚好就是你喜欢的。这其实是一个概率问题。对于算法来讲,我们就是不透明的袋子,我们各种各样的兴趣爱好就是袋子里面的小球。算法可以根据“已知小球”制定模型,去推测我们对什么事物感兴趣。已知条件越丰富,算法测出的概率越准确,但也不能保证百发百中。

第三个隐患是技术偏向。我们现在使用的手机设备、社交网络等已经取代了之前很多的媒介形式。加拿大媒介理论家麦克卢汉认为,人类经历了口语时代、书写时代和电子媒介时代。口语时代时,人是部落化的生存状态,彼此都是认识的。到了书写时代,人和人之间在空间上就被隔离开了。现在到了电子媒介时代,尤其到了算法与社交媒体、互联网、移动互联网相结合的时候,人尽管在现实空间中相隔甚远,却在互联网这个虚拟空间里联系紧密,很容易沉浸在自己所选择、所构建的小世界中无法自拔。这种情况也更容易滋生极端的情绪和思维。

第四个隐患是社会偏见。微软推出过一个AI(人工智能)聊天机器人Tay,它仅在推特上线了一天就被下架了。因为在上架之前,微软的程序员希望Tay在开放性的互动中产生自己的观点、意愿,没有限制它的语言模式和交往模式。结果这个机器人在与人对话的过程中快速地“学”会了辱骂人类和发表关于种族歧视的言论。从这个案例可以看出,人类开放环境中的数据里存在着大量的偏见和错误认知,放任机器去学习这样的数据,无法保证它会变得更睿智、客观。吊诡之处在于,由于大多数人对科学技术的信任,当算法给出的一个看似科学的结果,而这个结果恰恰符合了固有的成见时,我们不会去质疑算法有没有问题,反而会用这个结果去巩固成见。

面对算法偏见,人类应该怎么办?学界普遍对AI技术价值观相关的讨论是,我们要纠偏,以此把算法变得更加人性化。也有学者提出,当人类认为算法应该去除偏见的时候, 应该问的是,人性是什么?这个问题会触及更深的思考。在社会心理学当中有这样的一个量表,它的纵坐标是experience(阅历),代表人类对于外部世界的感知和体验;横坐标是agency(服务机构),代表的是控制、把握一些更加机械化的指标性质的东西。人类处于这张坐标图的右上角,机器人处于中间偏下的位置。从这张图表可以看出,人类对experience(阅历)的要求非常高,人性处于一种不完备、不完美的状态。那么,既然我们自己本身都还存在着不完美,为什么要求算法变得和我们一样?

这个问题也许不会有答案,算法的“偏见”不仅是技术的问题,更是社会的、历史的、政治的问题。可以确定的是,在未来,算法和人类势必处于一种共栖共生的关系当中。也许,我们要问的,不是“算法有偏见吗”,而是如何定义这种偏见?判断偏见的标准从何而来?既然没有办法一劳永逸地解决问题,那么我们的思考方式可能需要一些转变。

(摘自《新华日报》2020年1月10日)

新闻推荐

持枪闯入总督府的加拿大预备役军人被控22项罪名

当地时间7月3日下午在加拿大首都渥太华的一个法庭,驾车持枪在7月2日上午闯入加拿大总督府的46岁预备役军人科里·赫伦(Core...

相关推荐:
猜你喜欢:
评论:(假如算法有“偏见” 我们怎么办)
频道推荐
  • 公园里的捐赠 王溱
  • 图说天下 2022年04月16日A07版文章字数:434朗读:
  • 迄今发现的最远恒星 也许开启了研究早期宇宙的新窗口
  • 各地开展全民国家安全教育日主题活动
  • 俄通报乌千余守军投降美将供乌8亿美元军援
  • 热点阅读
    文牧野: 我一直追寻着真实与真诚... 王阳:《人世间》让人思考什么是活着... 国潮那么潮
    图文看点
    乡里乡亲
    张庭夫妇公司被认定传销 举报者:担心... 电影《花渡好时光》定档 回乡青年演... 从《少年》《下山》《踏山河》到《孤...
    热点排行