持续关系抽取旨在训练模型从不断变化的数据流中学习新关系,同时保持对旧关系的准确分类.然而,由于神经网络的灾难性遗忘问题,模型在学习完新关系之后,对旧关系的识别能力往往会大幅度降低.为了缓解灾难性遗忘对模型性能的影响,本文提出了一种基于对比学习和焦点损失的持续关系抽取方法.首先,在训练集与其增强样本集的并集上训练模型,以学习新任务;其次,从训练集中,为每个新关系选取并存储记忆样本;然后,将激活集中的示例与所有已知关系原型进行对比,以学习新旧关系;最后,利用关系原型进行记忆再巩固,并引入焦点损失提高模型对相似关系的区分.在TACRED数据集上进行实验,结果表明本文方法能够进一步缓解灾难性遗忘问题,提升模型的分类能力.