实验运行说明 本实验代码的IDE使用的是VsCode,右键通过VsCode打开 Code 文件夹即可 为了方便老师运行检查,本项目已经跑完train.py 生成了50个权值文件,选出了其中一个作为frcnn.py 的model_path 的参数(使用的是ResNet,训练的损失函数值如下图所示),运行结果具体可见code\logs\loss_2021_12_02_13_46_18文件夹中的文件 如果要完整运行整个项目,需要先运行voc_annotation.py ,再运行train.py ,修改frcnn.py 的model_path 的参数为log文件夹中的权值文件,运行predict.py,输入图片进行预测,最后运行get_map.py计算mAP值 v3版本优化说明 文档不再使用Word编写,而使用 Latex 编写,而且使用了论文期刊的格式,优化了整体文章美观程度 改进论文的书写,不再贴长篇的代码,而且更加注重自己的思考、分析、探讨,并且对两种模型都进行了实验 在完成Faster R-CNN 模型的代码编写的基础上,运行了不同的模型,借助华为云ModelArts运行代码,利用了课程的资源,并且完成对于get_map.py的编写 使用VGG作为主干特征网络权重训练模型,并且求出了mAP 使用ResNet 作为主干特征网络权重训练模型,并且求出了mAP 运行结果和截图可见Huawei_ModelArts 文件夹 制作了gun,sword数据集以及对gun,sword数据集进行了处理,训练并且求出了VOC12+07 数据集的mAP 对训练结果进行了预测 本项目参考了以下链接 https://github.com/bubbliiiing/faster-rcnn-pytorch https://zhuanlan.zhihu.com/p/369520436 csdn链接