一、导师简介

作为澳门大学科技学院的副教授,Bob Zhang(YIBO BOB ZHANG)在生物识别、人工智能及多媒体分析领域深耕多年,积累了深厚的学术积淀与丰富的研究经验。
公开学术数据显示,他的研究成果获得广泛认可:WOS数据库收录其论文297篇,Scopus数据库收录262篇;WOS引用量达7517次,Scopus引用量更是高达8755次,H指数在两大数据库中分别达到44和48,FWCI(Scival)为0。值得关注的是,在澳门大学任职期间,他的学术产出尤为突出——WOS收录288篇、Scopus收录253篇,引用量分别为6423次和7314次,H指数对应为43和46。这一数据充分说明,Bob Zhang教授在澳门大学的学术团队中扮演核心角色,其研究方向与机构的学科发展高度契合。
Bob Zhang教授的研究横跨计算机视觉、模式识别与多媒体分析等交叉领域,核心聚焦生物识别技术、异常检测算法、人工智能模型融合及隐私保护技术。澳门大学科技学院凭借区域领先的科研资源与跨学科合作氛围,为其研究的开展与深化提供了坚实支撑。
二、近期文章和项目解析

2025年,Bob Zhang教授团队发表的10项研究成果,集中体现了“技术创新+场景落地”的研究特色,发表于IEEE Transactions系列顶刊、IJCAI等国际顶会及权威专著,覆盖三大核心研究方向,展现了扎实的理论功底与强劲的应用潜力。
2.1 生物识别技术:从静态到动态,从单一到智能
生物识别是Bob Zhang教授的核心研究方向,近期成果打破传统技术局限,实现多重创新。
-IEEE Transactions on Information Forensics and Security(IF:8.0/8.5)刊发了《SF2Net: Sequence Feature Fusion Network for Palmprint Verification》。该期刊是信息安全与取证领域的顶级学术平台,此次发表的序列特征融合网络(SF2Net),通过优化特征提取逻辑,有效解决了手掌纹验证中特征信息不足的问题,显著提升了识别的准确性与稳定性。
-《Beyond Static Features: A Novel Dynamic Palmprint Verification Framework Empowered by Generative Models》发表于IEEE Signal Processing Letters(IF:3.9/3.9)。不同于传统静态特征依赖型方法,该研究借助生成模型的优势,构建动态手掌纹验证框架,让识别系统在复杂环境下依然能保持高鲁棒性,为生物识别技术的场景拓展提供了新路径。
-2025 IEEE International Joint Conference on Biometrics(IJCB)收录了《Integrating LLM in Privacy-Sensitive Age Estimation: A Tongue-Based Biometric Framework》。该研究创新性地将大语言模型(LLM)融入舌头生物识别系统,针对年龄估计这类隐私敏感场景,在保证识别准确性的同时强化隐私保护,进一步拓宽了生物识别技术的应用范围。
2.2 异常检测:多场景覆盖,技术落地导向明确
异常检测领域的研究是Bob Zhang教授团队的另一重点,近期成果覆盖视频、工业、像素级等多个关键场景,技术路线紧扣实际应用需求。
-Neural Networks(IF:6.3/7.5)发表的《Prototype-guided and dynamic-aware video anomaly detection》,提出原型引导与动态感知相结合的检测方法。该方法大幅提升了动态场景中异常事件的识别效率,为安防监控、公共安全等领域的技术升级提供了有力支持。
-《Towards VLM-based Hybrid Explainable Prompt Enhancement for Zero-Shot Industrial Anomaly Detection》入选International Joint Conference on Artificial Intelligence(IJCAI-25)。作为人工智能领域的顶级会议,IJCAI的认可印证了该研究的前沿性——基于视觉语言模型(VLM)的混合可解释性提示增强方案,成功解决了工业场景下零样本异常检测的核心痛点,为工业质检的智能化转型提供了新方案。
-同样入选IJCAI-25的《Omni-Dimensional State Space Model-driven SAM for Pixel-level Anomaly Detection》,将全维状态空间模型与SAM(Segment Anything Model)深度融合,实现像素级精准异常检测。该技术可直接应用于医疗影像分析、工业缺陷检测等高精度需求场景,具备极强的落地价值。
2.3 大模型融合:跨领域赋能,拓展研究边界
将LLM、VLM等人工智能大模型与传统技术结合,是Bob Zhang教授近期研究的显著特色,也为多个领域的技术升级提供了新动能。
-ACM International Conference on Multimedia(MM 2025)收录的《Towards a Global Spatial-Temporal Food Memory: A Vision for Privacy-Preserving Collaborative Multimedia Analysis》,提出隐私保护型协同多媒体分析的学术愿景。该研究探索大模型在时空数据处理中的应用路径,为跨区域、跨机构的多媒体数据共享与分析提供了隐私安全保障,展现了研究的前瞻性与社会价值。
三、未来研究预测
结合Bob Zhang教授的研究轨迹与行业发展趋势,其未来研究将在现有基础上进一步深化,呈现三大清晰方向:
3.1 生物识别技术:多模态融合与隐私保护并重
动态生物识别技术的优化将持续推进,静态与动态特征的融合机制会更高效、更精准。多模态生物识别(如手掌纹与其他生理特征的组合应用)将成为重点研究方向,以提升识别系统的适应性与可靠性。同时,隐私保护技术将贯穿生物识别的全流程,LLM等智能模型的深度融入将进一步提升系统的智能化水平,推动技术在远程身份认证、医疗隐私数据管理等敏感场景的广泛应用。
3.2 异常检测:聚焦实时性与泛化性突破
工业生产、公共安防、医疗诊断等实际场景,对异常检测技术的实时性要求日益提高。未来研究将重点优化模型架构,降低计算开销,实现技术的端侧部署,满足实时检测需求。同时,针对不同行业的个性化场景,研究将着力提升模型的泛化能力,解决跨场景适配难题,推动异常检测技术从实验室研究走向规模化工业应用。
3.3 大模型融合:深化跨领域应用与可解释性提升
LLM、VLM等大模型与生物识别、异常检测、多媒体分析的融合将更加深入,不仅局限于现有场景,还将向更多跨学科领域拓展。可解释性AI技术将成为重要研究支撑,破解大模型“黑箱”问题,让融合模型在隐私敏感、高可靠性要求的场景中更具竞争力,为技术的落地应用清除关键障碍。
