多模态知识图谱(MKG)是将视觉和文本事实知识组织起来的,最近已成功应用于信息检索、问答和推荐系统等任务。由于大多数MKG远未完整,因此已经提出了广泛的知识图谱补全研究,重点关注多模态实体、关系抽取和链接预测。然而,不同的任务和模态需要对模型架构进行更改,并且并非所有的图像/对象都与文本输入相关,这限制了在各种现实场景中的适用性。在本文中,我们提出了一种混合变压器与多层融合结构来解决这些问题。具体而言,我们利用统一的输入输出的混合变压器架构来处理多样化的多模态知识图谱补全任务。此外,我们提出了多层融合方法,通过粗粒度的前缀引导交互和细粒度的关联感知融合模块,将视觉和文本表示集成起来。我们进行了大量实验证明,我们的MKGformer在多模态链接预测、多模态关系抽取和多模态命名实体识别等四个数据集上可以取得最先进的性能。