检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]清华大学新闻与传播学院
出 处:《当代传播》2024年第5期17-23,共7页Contemporary Communication
基 金:国家社会科学基金青年项目“突发公共事件中媒体坚守新闻真实性的路径、机制与方法研究”成果之一,编号:21CXW001;清华大学自主科研计划“智能时代的认知战作用机制研究”阶段性成果,编号:2023THZWYY05。
摘 要:随着ChatGPT等生成式人工智能技术日益嵌入人们的生产生活中,技术背后可能带来的算法偏向、虚假信息等诸多问题愈发为人们所重视。为了更好地评估大语言模型的认识能力和潜在偏见,本文引入“图灵实验”(Turing Experiment)的方法,让大语言模型模拟人类的态度和行为,将“新闻真实性判定”作为测量人类认知与大语言模型的特定任务,在针对中美德三国民众的问卷调查(N=3000)中设计判定新闻真实性的调查实验(政治新闻组/非政治新闻组),并通过大语言模型GPT-3.5依据性别、国别等人口学因素生成与人类样本相对应的3000份“硅样本”(silicon sample),进而对比分析其在判定新闻真实性上的认知能力和潜在偏见。研究发现,ChatGPT在判定新闻真实性这一复杂认知任务上有着明显的优势,同时也存在薄弱环节,在政治新闻、真实新闻的判断上表现得比人类更准确,但在判别非政治新闻、虚假新闻上表现得不如人类。ChatGPT还存在着一定的代际偏见和语言偏见。就公众本身而言,政治新闻、虚假新闻仍是人们鉴别新闻的薄弱环节。
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.38