符号学视角下的远程视觉示意图:来自两个多模态语料库的洞见  

Semiotically-grounded Distant Viewing of Diagrams:Insights from Two Multimodal Corpora

在线阅读下载全文

作  者:图奥默·哈帕拉 约翰·贝特曼 王振华[3] 吴启竞 杨林秀(译)[5] Tuomo Hiippala;John A.Bateman

机构地区:[1]芬兰赫尔辛基大学语言系,芬兰赫尔辛基 [2]德国不莱梅大学语言学系、英语系,德国不莱梅 [3]上海交通大学马丁适用语言学研究中心,上海200240 [4]大连理工大学外国语学院,辽宁大连116024 [5]山西大学外国语学院,太原037008

出  处:《当代修辞学》2024年第2期60-81,共22页Contemporary Rhetoric

基  金:上海交通大学文科创新团队培育计划项目(项目编号:WKCX007);教育部人文社会科学研究青年基金项目“刑事庭审中控—辩—审事实重构的话语协同研究”(批准号:22YJC740085)。

摘  要:多模态研究探索人类如何依赖各种有机结合的表达资源进行交流,已建构为一门新兴学科。本文认为,当下数字人文的研究结合多模态研究的洞察力对可视材料进行大规模分析是有益的举措。多模态研究开发的概念为大型语料库和数据集中的各种表意模态提供了合适的元数据方案。本文使用常见的表意模态和示意图来阐释文中提出的方法,并运用统计和计算的方法分析两个新建的多模态语料库。研究结果表明,由多模态驱动的元数据方案可以为大型语料库和数据集的计算分析提供坚实基础。即使是语料库或数据集的设计不支持全面分析多模态交际,多模态理论依然可以用于对各种视觉材料进行比较严格的分析。In this article,we argue for the benefits of combining large-scale analyses of visual materials currently pursued within digital humanities with insights from multimodality research,which is an emerging discipline that studies how human communication relies on appropriate combinations of expressive resources.We show that concepts developed within the field of multimodality research provide appropriate metadata schemes for various modes of expression in large corpora and datasets.We illustrate the proposed approach using a common mode of expression,diagrams,and analyse two recent multimodal diagram corpora using statistical and computational methods.Our results suggest that multimodally-motivated metadata schemes can provide a robust foundation for computational analyses of large corpora and datasets.Even if a corpus or dataset is not designed to support fullblown analyses of multimodal communication,our results imply that multimodality theory can still be used to impose tighter analytical control over a variety of visual materials.

关 键 词:多模态语料库 远程视觉图表 洞见 符号学 元数据方案 

分 类 号:H05[语言文字—语言学]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象