检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:吴福祥 程俊[1] WU Fuxiang;CHENG Jun(Shenzhen Institute of Advanced Technology,Chinese Academy of Sciences,Shenzhen 518055,China)
机构地区:[1]中国科学院深圳先进技术研究院,深圳518055
出 处:《集成技术》2025年第1期9-24,共16页Journal of Integration Technology
基 金:国家自然科学基金项目(U21A20487,62372440)。
摘 要:近年来,生成式人工智能的快速发展使文本驱动的视频预测大模型成为学术界和工业界的研究热点。视频预测生成需处理时间维度的动态性和一致性,要求精准控制场景结构、主体行为、相机运动和语义表达。当前的主要挑战是如何精确控制视频预测中的场景动态,以实现高质量和语义一致的输出。针对此问题,一些研究者提出了相机控制增强、参考视频控制、语义一致性增强和主体特征控制增强等方法,旨在提升视频预测的生成质量,确保生成内容既符合历史条件,又满足用户需求。该文系统探讨了上述4个控制方法的核心思想、优缺点和未来发展方向。In recent years,the rapid development of generative AI has made text-driven video prediction large models a hot topic in academia and industry.Video prediction and generation should address temporal dynamics and consistency,requiring precise control of scene structures,subject behaviors,camera movements,and semantic expressions.One major challenge is accurately controlling scene dynamics in video prediction to achieve high-quality,semantically consistent outputs.Researchers have proposed key control methods,including camera control enhancement,reference video control,semantic consistency enhancement,and subject feature control improvement.These methods aim to improve generation quality,ensuring outputs align with historical context while meeting user needs.This paper systematically explores the core concepts,advantages,limitations,and future directions of these four control approaches.
关 键 词:文本驱动视频预测 动态控制 相机控制 语义增强 主体特征控制
分 类 号:TP391.7[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:3.22.27.22