AI也有偏见?  

在线阅读下载全文

作  者:聂龙 

机构地区:[1]不详

出  处:《大科技(科学之谜)(A)》2021年第11期26-26,共1页Super Science

摘  要:AI检测一定公平吗?绝大多数人对这个问题的答案很可能是肯定。在2018年,美国社交媒体Face book开发了新的代号为Rosetta的AI系统,用以检测自己社交平台上的仇恨性言论。然而,两年之后,美国南加州大学的研究人贝发现,包括Facebook在内的所有AI语言检测系统实际上也带有偏见,黑人、同性恋和变性人所发的信息更容易被这些AI标记为“具有仇恨的”。

关 键 词:社交平台 变性人 社交媒体 AI 检测系统 同性恋 偏见 

分 类 号:F49[经济管理—产业经济]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象