ChatGPT 时代的社交机器人检测挑战与基于深度学习的解决方案

2025.12.16

社交机器人检测:大模型时代的挑战与深度学习实战

1. 任务简介

本次汇报聚焦于“社交机器人(Social Bot)检测”任务。社交机器人是指在社交媒体平台上通过模拟、影响或操纵人类用户进行交流的自主软件代理。 报告涵盖了从早期的规则脚本到当前由大语言模型(LLM)驱动的第三代拟人化机器人的演变过程。核心目标是识别出那些用于操纵舆论、传播虚假信息、进行金融诈骗或破坏网络生态的恶意自动化账号。

2. 研究动机

随着 AI 技术的发展,社交机器人检测面临严峻的现实挑战与安全需求:

  1. 社会危害升级:机器人已从简单的垃圾广告演变为干预民主选举(如 2016 美国大选)、加速假新闻传播(比真新闻快 70%)以及操纵金融市场(加密货币欺诈)的工具。
  2. LLM 带来的范式危机:ChatGPT 等技术的出现使得基于文本内容的检测方法失效(Challenge 1),生成的文本在统计特征上与人类难以区分;同时机器人具备了对抗性规避能力(Challenge 2)。
  3. 现有方法局限:传统的启发式规则易被绕过,特征工程成本高且泛化弱;而现有的检测模型往往难以兼顾内容语义与复杂的时序行为模式。

3. 方法设计(综述视角 + 模型实战)

报告从宏观趋势与微观模型两个维度展开:

1)LLM 时代的检测范式转移(Paper 1: Survey by Emilio Ferrara)

2)基于混合深度学习的检测架构(Paper 2: IEEE TIFS 2023)

4. 实施细节

数据构建与处理:

训练策略:

5. 实验与结论

主要实验结果(Paper 2):

综述总结(Paper 1):