学术活动-"2025中国图象图形学学会第三十六期珠峰论坛"走进苏州大学
时间: 2025-11-10 发布者: 曹敏 文章来源: 计算机科学与技术学院 审核人: 浏览次数: 216

报告会主题:智能感知与生成前沿专题研讨会

报告地点:苏州大学理工楼504

报告时间:2025年11月15日08:00-11:15

报告专家:刘文予、胡瑞敏、王士同、林巍峣、查正军

学术报告(一)

报告专家:刘文予

报告题目:《高斯泼溅表达和高效场景生成》

       

刘文予,华中科技大学二级教授,中国图像图形学会图像视频通信专委会主任委员,中国通信学会会士。主要从事计算机视觉、图像视频理解和生成。相关科研成果发表在TPAMI、TNNLS、TIP等国际顶级期刊和CCF A类会议上160多篇,论文Google Scholar引用次数超5万次。近年来主持国家自然科学基金重点项目、国家重点研发计划课题等,获湖北省技术发明一等奖、中国图像图形学会自然科学一等奖、CVMJ期刊年度最佳论文奖等。

报告内容:对世界进行重建与生成一直是一个复杂且困难的任务。本报告从建模真实世界的动态场景出发,介绍了我们近期的工作四维高斯泼溅(4D-GS),有效的对真实世界进行建模。采用2D高斯作为表征基元,实现了动态物体表面的精确提取。最后介绍高斯泼溅在医学血管造影(DSA)的应用,能高效重建大脑并模拟DSA过程,以及在移动端实现高分辨率实时图像到视频生成。

学术报告(二)

报告专家:胡瑞敏

报告题目:《睁眼看世界-AI赋能无感测谎检测》

       

胡瑞敏,教授,教育部信息技术新工科联盟网络空间安全工委会主任委员。曾经获得第七届中国青年科技奖、第五届中国青年科技创新奖,主持国家重大科技专项、重点研发计划项目和五项国家自然科学基金重点项目研究。曾经担任武汉大学学术委员会副主任委员、计算机学院院长、国家网络空间安全学院创院执行院长、西安电子科技大学网络与信息安全学院首任院长、司法部信息安全与智能装备重点实验室学术委员会副主任、海康威视公司首任研究院院长、美亚柏科公司首席科学家、TCL集团科技顾问。

     报告内容:根据《中国测谎仪行业市场占有率及投资前景预测分析报告》显示,我国测谎行业的市场规模从2018年的25亿元增长到2025年的60亿元。根据国际权威机构WIES GUY REPORTS发布的行业报告,全球测谎仪市场规模预计将从2024年的241.18亿元增长至2032年的329.85亿元,年均复合增长率为4.01%。技术革新推动了测谎技术的快速发展,应用范围突破了传统司法刑侦领域,迅速渗透到商业场景中,成为企业规避雇佣风险、提升组织效能的重要手段。

现有的测谎工作模式主要以侵入式测谎仪为主,这类设备通常需要被测试者佩戴多个传感器以监测生理反应,应用中除了存在法律风险以外,还有两大痛点:(1)设备佩戴繁杂;(2)依赖人工操作。使得其在大规模、高效率的欺骗检测中存在明显短板。本项研究成果无需佩戴设备,实现了从有感配合的监测方式到无感无接触实时虚假陈述监测的跨越。支持动态监测过程中的即时信号解析,实时生成潜在矛盾点提示,并可智能推荐后续提问策略或沟通调整建议,提升交互效率与判断准确性。结构化分析报告涵盖关键信息点可信度评分、潜在隐瞒倾向识别等维度,为决策提供全面、客观的辅助依据。

突破传统测谎技术依赖物理接触、需被测者主动配合的局限,通过非接触式信号采集与AI语义分析技术,为司法审讯、企业风控、安全检测等场景提供智能化技术支撑,显著降低人工干预成本,提升检测效率。将传统"人工判读+物理设备"的检测模式升级为"AI驱动的无感监测系统",预计可降低30%-50%的误判风险,提升40%以上的检测效率。通过全流程自动化与实时反馈机制,推动测谎行业从经验驱动向数据智能范式革新,带动企业、司法、政务等领域形成超过70亿元的智能化检测设备及服务规模化市场。

学术报告(三)

报告专家:王士同

报告题目:《多视角模糊系统建模及其进展》

王士同,江南大学教授(2008年首批二级,目前为至善岗位教授),博士生导师。曾在英国,日本和港澳地区合作研究9年。已在IEEE Trans.会刊上发表或录用论文90多篇;曾获教育部科技进步奖一等奖,二等奖各一次(排一);湖南省和浙江省科技进步奖一等奖各一次(排三)。曾获全国优秀教师,国务院政府特殊津贴,省部级有突出贡献的中青年专家,江苏省333工程第二层次培养人选2次(2004-2006;2011-2015),教育部新世纪优秀人才(2004);日本学术振兴会资助的Invitation Fellowship共4次,香港裘槎基金会的裘槎学者,英国皇家学会资助的Research Fellowship以及澳门大学的杰出教授/学者访问计划。

报告内容:图像处理等实际应用中经常面临多视角数据及其分类学习。多视角模糊建模学习通常追求多视角间的协作学习。在这个报告中,报告者将汇报课题组在这方面的研究进展,包括既考量了多视角间的差异又考量了多视角以及隐视角之间一致性的多视角模糊系统的协作学习新框架,并用实验结果展示这些研究进展的有效性。

学术报告(四)

报告专家:林巍峣

报告题目:《多终端联合的视频深层语义推理与编码》

       

林巍峣,上海交通大学特聘教授,主要研究方向为人工智能,视频分析,视觉表征编码等。在相关领域发表权威期刊和会议论文100余篇,获发明专利25项。获DanceTrack、GigaDetection等多项国际权威评测第一;多项技术被国际和国内权威视频编码标准采纳,并牵头制定视觉特征编码团体标准。获得中国高交会、工博会优秀产品奖,中国产学研合作创新奖。入选IEEE多媒体计算中期职业成就奖、IEEE ICME多媒体学术新星奖。任多个权威期刊编委、会议领域主席及权威标准化工作组组长。获国家杰出青年科学基金、国家自然科学基金联合重点基金等项目资助。

报告内容:随着多媒体应用与服务的迅速发展,视频中的事件因果逻辑等深层语义在大规模多媒体系统中的应用日益重要,因此,对深层语义信息的精准提取及高效压缩等需求,变得日益显著。在本次报告中,将介绍本课题组在大规模多终端深层语义信息提取与压缩方面的一些工作。首先,介绍目标行为和事件语义提取方面的工作,通过对当前的行为事件识别与定位架构进行的重新建模,并提出从全局到局部的渐进行为事件提取架构。其次,介绍复杂事件步骤对齐及因果推理的工作,通过对复杂事件的步骤挖掘、对齐,并对事件中的因果关系进行推理分析,实现对视频中复杂事件的全面理解。第三,本报告还将介绍课题组在事件语义信息压缩编码方面的工作,设计了面向关键点序列及因果关系图等关键视频语义内容的压缩编码架构,实现了平均60%以上的码率节省。最后,将介绍一些在实际场景的应用演示。

学术报告(五)

报告专家:查正军

报告题目:《面向世界模型的具身交互理解与重建》

查正军,中国科学技术大学教授、博导,科研部部长,类脑智能国家工程实验室执行主任。从事图像视频处理与分析、多模态内容理解与生成、具身智能感知与交互等领域研究。主持科技创新2030-新一代人工智能重大项目,国家自然科学基金杰青、优青、重点项目,国家创新人才引进计划青年项目等。多次获得国际会议论文奖励,包括CCF A类会议ACM Multimedia最佳论文奖、最佳学生论文奖,AAAI杰出论文奖等。获中国科学院青年科学家奖、中国科学院优秀导师、霍英东教育基金会青年科学奖等。指导的研究生学位论文入选中国科学院优秀博士论文、中国人工智能学会博士论文激励计划、中国电子学会硕士论文激励计划等。担任国际会议ICME指导委员会委员,IEEE Trans. PAMI、IEEE Trans.MM、IEEE Trans. CSVT等权威国际期刊编委。

报告内容:世界模型是实现通用人工智能的重要基础,其核心挑战在于如何通过主动交互来理解并预测环境状态的变化。为应对这一挑战,本次报告聚焦于具身交互的动态理解与重建机制,旨在为世界模型注入关键的交互知识。报告沿“交互语义感知—空间定位—状态预测”的递进路径展开,通过多模态融合实现“从观测到理解、从重建到交互”的智能闭环,为推动世界模型实现“从静态认知到动态交互”的转变提供了可行思路。最后,报告结合AIGC、具身决策等典型应用场景,探讨了潜在价值与未来发展方向。