# LLM-as-a-Coauthor: The Challenges of Detecting LLM-Human Mixcase

<figure><img src="https://1203660092-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FVIbHxVNUonwDG5X6HrVv%2Fuploads%2F1Tx18wJHP7lICyxC9OIQ%2Fimage.png?alt=media&#x26;token=770196ff-a57c-4cce-a83b-192d29944786" alt=""><figcaption></figcaption></figure>

### 研究背景

随着大型语言模型（LLMs）的显著发展和广泛应用，机器生成文本（MGT）的使用变得越来越普遍。这一趋势带来了潜在的风险，尤其是对新闻和教育等领域的信息质量和完整性的影响。当前的研究主要集中在检测纯MGT，而没有充分解决包括人工智能修订的人类写作文本（HWT）或人类修订的MGT在内的混合场景。这些混合场景在日常生活中的文本编辑场景中频繁出现，例如非母语者使用LLMs改善草稿和解决语法问题，以及创意产业（如游戏设计）中使用LLMs创建互动对话和叙事。

### 过去方案和缺点

以往的研究提出了许多基于度量和基于模型的方法来检测MGT。这些方法主要关注二元分类，旨在区分纯MGT和HWT。然而，这些研究通常忽略了混合场景，即将MGT和HWT混合修订的文本，这些场景经常被看作是对当前检测系统的攻击，或者对检测方法论的重大挑战。此外，现有的检测器在处理细微修改和风格适应性方面存在困难。

### 本文方案和步骤

为了应对这一挑战，本文引入了mixcase这一新概念，代表包含机器生成和人类生成内容的混合文本形式。研究者收集了多个日常文本编辑场景中生成的mixcase实例，并创建了MIXSET，这是第一个专门研究这些混合修改场景的数据集。研究者使用这个数据集进行了实验，评估了流行MGT检测器的有效性、鲁棒性和泛化性能。实验包括对不同编辑操作和LLMs的mixcase进行迁移实验，以分析检测器的泛化能力。

### 本文创新点与贡献

* 定义了mixcase，这是一种涉及AI和人类生成内容的混合文本形式，为相关领域的进一步探索提供了新的视角。
* 提出了一个新的数据集MIXSET，专门针对MGT和HWT的混合，包括AI修订的HWT和人类修订的MGT场景，填补了以往研究的空白。
* 基于MIXSET进行了广泛的实验，涉及主流检测器，并获得了许多有洞察力的发现，为未来的研究提供了强烈的推动力。

### 本文实验

实验包括对MIXSET数据集的二元和三元分类任务进行评估，以及对不同编辑操作和LLMs的mixcase进行迁移实验。实验结果显示，现有的检测器在识别mixcase作为单独类别或MGT方面存在困难，特别是在处理细微修改和风格适应性方面。

### 实验结论

实验结果揭示了现有检测器在识别mixcase方面的局限性，表明需要更精细的检测器来应对这一挑战。此外，实验还表明，增加训练集中的mixcase样本数量可以有效提高检测成功率，但添加纯文本样本可能不会有显著改善，甚至可能对基于度量的检测器性能产生负面影响。

### 全文结论

本文通过定义mixcase并提出新的数据集MIXSET，对机器生成文本和人类写作文本的混合场景进行了深入研究。实验结果表明，现有的MGT检测方法在处理混合文本时面临挑战，需要开发更先进的检测技术来提高检测的准确性和鲁棒性。

### 阅读总结报告

本研究针对大型语言模型（LLMs）生成的文本（MGT）与人类写作文本（HWT）混合场景的检测问题进行了深入探讨。通过引入mixcase这一新概念，并创建了MIXSET数据集，研究者们对现有MGT检测器在处理混合文本时的性能进行了全面评估。实验结果表明，现有检测器在识别细微修改和风格适应性方面存在不足，迫切需要开发更精细的检测方法。此外，研究还发现，增加训练集中的mixcase样本数量可以提高检测成功率，但添加纯文本样本对性能提升有限。这项研究不仅为MGT检测领域提供了宝贵的见解，也为未来相关技术的发展指明了方向。
