Caffe实践C++源码解读:如何跑demo
扫描二维码
随时随地手机看文章
学习一种工具最简单和最有效的方法是download一个demo,根据教程模拟。Caffe作为深度学习框架,它也是一种工具,官方提供了一些demo,主要是在Caffe运行的网络架构文件。那么如何跑起一个demo呢?或者如何用demo直接做预测呢?
训练:caffe train --solver solver.txt 这样就可以了,如果有已训练好的参数或者进行学习迁移finetuning,那么训练的参数可以添加 "--weight init.caffemodel"或者"--snapshot snapshotfile.solvestate"
测试或预测:caffe test --weight test.caffemodel --model test.txt --iteration test_iteration
更加深入的理解,还要从源码出发,首先Caffe源码的tools目录下的caffe.cpp是生成可执行文件的源码,其中定义了train()和test()两个函数分别执行训练和测试,也可以自定义函数执行特定操作。
首先看train()函数:
CHECK_GT(FLAGS_solver.size(), 0) << "Need a solver definition to train."; CHECK(!FLAGS_snapshot.size() || !FLAGS_weights.size()) << "Give a snapshot to resume training or weights to finetune " "but not both.";
首先检查是否有solver.txt文件,文件名可自定义,但是内容必须符合solver结构,在src/caffe/proto/caffe.proto中有此定义。然后检查snapshot和weight,这两个参数分别用于中断后继续训练和学习迁移的。
参数检查完毕,caffe开始加载solver文件,之后是检查训练要工作在CPU还是GPU。
caffe::SolverParameter solver_param; caffe::ReadSolverParamsFromTextFileOrDie(FLAGS_solver, &solver_param);
工作设备设定后,根据加载的solver_param参数创建solver对象,并根据snapshot和weight参数加载模型参数,如果两个参数都没有设置,则模型根据提供的初始化类型或者默认值进行初始化。
shared_ptr<caffe::Solver> solver(caffe::SolverRegistry::CreateSolver(solver_param)); solver->SetActionFunction(signal_handler.GetActionFunction()); if (FLAGS_snapshot.size()) { LOG(INFO) << "Resuming from " << FLAGS_snapshot; solver->Restore(FLAGS_snapshot.c_str()); } else if (FLAGS_weights.size()) { CopyLayers(solver.get(), FLAGS_weights); }
设置和初始化完成,就可以训练了。CPU版本的就是solver对象调用其Solver()函数。
LOG(INFO) << "Starting Optimization"; if (gpus.size() > 1) { #ifdef USE_NCCL caffe::NCCLnccl(solver); nccl.Run(gpus, FLAGS_snapshot.size() > 0 ? FLAGS_snapshot.c_str() : NULL); #else LOG(FATAL) << "Multi-GPU execution not available - rebuild with USE_NCCL"; #endif } else { solver->Solve(); }
再看test()函数:
首先也是检查solver文件和权值文件weight,但是此时weight必须提供,否则无法预测
CHECK_GT(FLAGS_model.size(), 0) << "Need a model definition to score."; CHECK_GT(FLAGS_weights.size(), 0) << "Need model weights to score.";
然后检测当前平台是否支持GPU,如果支持,则默认使用GPU进行预测
// Set device id and mode vectorgpus; get_gpus(&gpus); if (gpus.size() != 0) { LOG(INFO) << "Use GPU with device ID " << gpus[0]; #ifndef CPU_ONLY cudaDeviceProp device_prop; cudaGetDeviceProperties(&device_prop, gpus[0]); LOG(INFO) << "GPU device name: " << device_prop.name; #endif Caffe::SetDevice(gpus[0]); Caffe::set_mode(Caffe::GPU); } else { LOG(INFO) << "Use CPU."; Caffe::set_mode(Caffe::CPU); }
平台设定后,创建Net对象初始化预测的神经网络,然后使用weight参数初始化网络权值
Netcaffe_net(FLAGS_model, caffe::TEST, FLAGS_level, &stages); caffe_net.CopyTrainedLayersFrom(FLAGS_weights);
然后就可以开始预测了
for (int i = 0; i < FLAGS_iterations; ++i) { float iter_loss; const vector<Blob*>& result = caffe_net.Forward(&iter_loss); loss += iter_loss; int idx = 0; for (int j = 0; j < result.size(); ++j) { const float* result_vec = result[j]->cpu_data(); for (int k = 0; k < result[j]->count(); ++k, ++idx) { const float score = result_vec[k]; if (i == 0) { test_score.push_back(score); test_score_output_id.push_back(j); } else { test_score[idx] += score; } const std::string& output_name = caffe_net.blob_names()[ caffe_net.output_blob_indices()[j]]; LOG(INFO) << "Batch " << i << ", " << output_name << " = " << score; } } }
主要是caffe_net.Forward(&iter_loss);这一句,其他都是为了可视化的参数。