本系列为新TensorRT的第一篇,为什么叫新,因为之前已经写了两篇关于TensorRT的文章,是关于TensorRT-5.0版本的。好久没写关于TensorRT的文章了,所幸就以来开头吧~

接下来将要讲解的TensorRT,将会是基于7.0版本。

7版本开头的TensorRT变化还是挺大的,增加了很多新特性,但是TensorRT的核心运作方式还是没有什么变化的,关于TensorRT的介绍可以看之前写的这两篇:

本文的内容呢,主要是讲解:

  • TensorRT自定义插件的使用方式
  • 如何添加自己的自定义算子

看完本篇可以让你少踩巨多坑,客官记得常来看啊。

随着tensorRT的不断发展(v5->v6->v7),TensorRT的插件的使用方式也在不断更新。插件接口也在不断地变化,由v5版本的IPluginV2Ext,到v6版本的IPluginV2IOExtIPluginV2DynamicExt。未来不知道会不会出来新的API,不过这也不是咱要考虑的问题,因为TensorRT的后兼容性做的很好,根本不用担心你写的旧版本插件在新版本上无法运行。

目前的plugin-API:

QQ20201103-101737

TensorRT插件的存在目的,主要是为了让我们实现TensorRT目前还不支持的算子,毕竟众口难调嘛,我们在转换过程中肯定会有op不支持的情况。这个时候就需要使用TensorRT的plugin去实现我们的自己的op。此时我们需要通过TensorRT提供的接口去实现自己的op,因此这个plugin的生命周期也需要遵循TensorRT的规则

那么plugin到底长啥样,可以先看看TensorRT的官方plugin库长啥样,截止写这篇文章时,master分支是7.2版本的plugin:

https://github.com/NVIDIA/TensorRT/tree/master/plugin

tensorrt-plugin

官方提供的插件已经相当多,而且TensorRT开源了plugin部分(可以让我们白嫖!)。并且可以看到其源码,通过模仿源码来学习plugin是如何写的。

如果要添加自己的算子,可以在官方的plugin库里头进行修改添加,然后编译官方的plugin库。将生成的libnvinfer_plugin.so.7替换原本的.so文件即可。或者自己写一个类似于官方plugin的组件,将名称替换一下,同样生成.so,在TensorRT的推理项目中引用这个动态链接库即可。

以下介绍中,我们需要写的IPlugin简称为插件op。

有兴趣的可以先看看TensorRT的官方文档,官方文档的介绍简单意骇,不过坑是少不了的..而本文的目的,就是尽量让你少趟坑。

首先按照官方plugin的排布方式,下面随便挑了个官方plugin:

instance_normalization_plugin

准备一个自己的插件:custom.cppcustom.h,copy并paste官方代码,名字替换成自己的。以最新的IPluginV2DynamicExt类为接口。

我们需要写两个类:

  • MyCustomPlugin,继承IPluginV2DynamicExt,是插件类,用于写插件具体的实现
  • MyCustomPluginCreator,继承BaseCreator,是插件工厂类,用于根据需求创建该插件

对了,插件类继承IPluginV2DynamicExt才可以支持动态尺寸,其他插件类接口例如IPluginV2IOExt和前者大部分是相似的。

  1. // 继承IPluginV2DynamicExt就够啦
  2. class MyCustomPlugin final : public nvinfer1::IPluginV2DynamicExt
  3. class MyCustomPluginCreator : public BaseCreator

总览:

  1. class MyCustomPlugin final : public nvinfer1::IPluginV2DynamicExt
  2. {
  3. public:
  4. MyCustomPlugin( int in_channel,
  5. const std::vector<float>& weight,
  6. const std::vector<float>& bias);
  7. MyCustomPlugin( int in_channel,
  8. nvinfer1::Weights const& weight,
  9. nvinfer1::Weights const& bias);
  10. MyCustomPlugin(void const* serialData, size_t serialLength);
  11. MyCustomPlugin() = delete;
  12. ~MyCustomPlugin() override;
  13. int getNbOutputs() const override;
  14. DimsExprs getOutputDimensions(int outputIndex, const nvinfer1::DimsExprs* inputs, int nbInputs, nvinfer1::IExprBuilder& exprBuilder) override;
  15. int initialize() override;
  16. void terminate() override;
  17. size_t getWorkspaceSize(const nvinfer1::PluginTensorDesc* inputs, int nbInputs, const nvinfer1::PluginTensorDesc* outputs, int nbOutputs) const override;
  18. int enqueue(const nvinfer1::PluginTensorDesc* inputDesc, const nvinfer1::PluginTensorDesc* outputDesc,
  19. const void* const* inputs, void* const* outputs,
  20. void* workspace,
  21. cudaStream_t stream) override;
  22. size_t getSerializationSize() const override;
  23. void serialize(void* buffer) const override;
  24. bool supportsFormatCombination(int pos, const nvinfer1::PluginTensorDesc* inOut, int nbInputs, int nbOutputs) override;
  25. const char* getPluginType() const override;
  26. const char* getPluginVersion() const override;
  27. void destroy() override;
  28. nvinfer1::IPluginV2DynamicExt* clone() const override;
  29. void setPluginNamespace(const char* pluginNamespace) override;
  30. const char* getPluginNamespace() const override;
  31. DataType getOutputDataType(int index, const nvinfer1::DataType* inputTypes, int nbInputs) const override;
  32. void attachToContext(cudnnContext* cudnn, cublasContext* cublas, nvinfer1::IGpuAllocator* allocator) override;
  33. void detachFromContext() override;
  34. void configurePlugin(const nvinfer1::DynamicPluginTensorDesc* in, int nbInputs,
  35. const nvinfer1::DynamicPluginTensorDesc* out, int nbOutputs) override;
  36. private:
  37. int _in_channel;
  38. std::vector<float> weight;
  39. std::vector<float> bias;
  40. float* weight;
  41. float* bias;
  42. bool _initialized;
  43. const char* mPluginNamespace;
  44. std::string mNamespace;
  45. };

如果你的插件有weights(类似于conv操作的weight和bias),有参数(类似于conv中的kernel-size、padding),在类中则需要定义为成员变量,为private类型:

MyCustomPlugin为例,假设我们的这个MyCustomPlugin有两个权重weight和bias以及一个参数in_channel(这个权重和参数没有啥意义,纯粹,纯粹为了演示):

  1. private:
  2. int _in_channel; // 参数
  3. std::vector<float> _weight; // 权重,在cpu空间存放
  4. std::vector<float> _bias; // 偏置权重,在cpu空间存放
  5. float* _d_weight; // 权重,在GPU空间存放
  6. float* _d_bias;
  7. bool _initialized;
  8. cudnnHandle_t _cudnn_handle;
  9. const char* mPluginNamespace;
  10. std::string mNamespace;

构造函数一般设置为三个。

第一个用于在parse阶段,PluginCreator用于创建该插件时调用的构造函数,需要传递权重信息以及参数。

第二个用于在clone阶段,复制这个plugin时会用到的构造函数。

第三个用于在deserialize阶段,用于将序列化好的权重和参数传入该plugin并创建爱你哦。

以我们的MyCustomPlugin为例:

  1. MyCustomPlugin(int in_channel, nvinfer1::Weights const& weight, nvinfer1::Weights const& bias);
  2. MyCustomPlugin(float in_channel, const std::vector<float>& weight, const std::vector<float>& bias);
  3. MyCustomPlugin(void const* serialData, size_t serialLength);

析构函数则需要执行terminateterminate函数就是释放这个op之前开辟的一些显存空间:

  1. MyCustomPlugin::~MyCustomPlugin()
  2. {
  3. terminate();
  4. }

注意需要把默认构造函数删掉:

  1. MyCustomPlugin() = delete;

插件op返回多少个Tensor,比如MyCustomPlugin这个操作只输出一个Tensor(也就是一个output),所以直接return 1

  1. // MyCustomPlugin returns one output.
  2. int MyCustomPlugin::getNbOutputs() const
  3. {
  4. return 1;
  5. }

初始化函数,在这个插件准备开始run之前执行。

主要初始化一些提前开辟空间的参数,一般是一些cuda操作需要的参数(例如conv操作需要执行卷积操作,我们就需要提前开辟weight和bias的显存),假如我们的算子需要这些参数,则在这里需要提前开辟显存。

需要注意的是,如果插件算子需要开辟比较大的显存空间,不建议自己去申请显存空间,可以使用Tensorrt官方接口传过来的workspace指针来获取显存空间。因为如果这个插件被一个网络调用了很多次,而这个插件op需要开辟很多显存空间,那么TensorRT在构建network的时候会根据这个插件被调用的次数开辟很多显存,很容易导致显存溢出。

返回结果的类型,一般来说我们插件op返回结果类型与输入类型一致:

  1. nvinfer1::DataType InstanceNormalizationPlugin::getOutputDataType(
  2. int index, const nvinfer1::DataType* inputTypes, int nbInputs) const
  3. {
  4. ASSERT(inputTypes && nbInputs > 0 && index == 0);
  5. return inputTypes[0];
  6. }

这个函数需要返回这个插件op需要中间显存变量的实际数据大小(bytesize),这个是通过TensorRT的接口去获取,是比较规范的方式。

我们需要在这里确定这个op需要多大的显存空间去运行,在实际运行的时候就可以直接使用TensorRT开辟好的空间而不是自己去申请显存空间。

  1. size_t MyCustomPlugin::getWorkspaceSize(const nvinfer1::PluginTensorDesc* inputs, int nbInputs, const nvinfer1::PluginTensorDesc* outputs, int nbOutputs) const
  2. {
  3. // 计算这个op前向过程中你认为需要的中间显存数量
  4. size_t need_num;
  5. return need_num * sizeof(float);
  6. }

实际插件op的执行函数,我们自己实现的cuda操作就放到这里(当然C++写的op也可以放进来,不过因为是CPU执行,速度就比较慢了),与往常一样接受输入inputs产生输出outputs,传给相应的指针就可以。

  1. int enqueue(const nvinfer1::PluginTensorDesc* inputDesc, const nvinfer1::PluginTensorDesc* outputDesc,
  2. const void* const* inputs, void* const* outputs, void* workspace, cudaStream_t stream){
  3. // 假如这个fun是你需要的中间变量 这里可以直接用TensorRT为你开辟的显存空间
  4. fun = static_cast<float*>(workspace);
  5. }

需要注意的是,如果我们的操作需要一些分布在显存中的中间变量,可以通过传过来的指针参数workspace获取,上述代码简单说明了一下使用方法。

再多说一句,我们默认写的.cu是fp32的,TensorRT在fp16运行模式下,运行到不支持fp16的插件op时,会自动切换到fp32模式,等插件op运行完再切换回来。

TensorRT支持Dynamic-shape的时候,batch这一维度必须是explicit的,也就是说,TensorRT处理的维度从以往的三维[3,-1,-1]变成了[1,3,-1,-1]。最新的onnx-tensorrt也必须设置explicit的batchsize,而且这个batch维度在getOutputDimensions中是可以获取到的。

在旧版的IPluginV2类中,getOutputDimensions的定义如下:

  1. virtual Dims getOutputDimensions(int index, const Dims* inputs, int nbInputDims) TRTNOEXCEPT = 0;

而在新版的IPluginV2DynamicExt类中定义如下:

  1. virtual DimsExprs getOutputDimensions(int outputIndex, const DimsExprs* inputs, int nbInputs, IExprBuilder& exprBuilder) = 0;

我们要做的就是在这个成员函数中根据输入维度推理出模型的输出维度,需要注意的是,虽然说输出维度
是由输入维度决定,但这个输出维度其实“内定”的(也就是在计算之前就算出来了)。如果咱的插件op的输出维度需要通过实际运行计算得到,那么这个函数就无法满足咱了。

去你妈的好气哦

为这个插件设置namespace名字,如果不设置则默认是"",需要注意的是同一个namespace下的plugin如果名字相同会冲突。

这个是成员变量,也会作为getFieldNames成员函数的返回类型。PluginFieldCollection的主要作用是传递这个插件op所需要的权重和参数,在实际的engine推理过程中并不使用,而在parse中会用到(例如caffe2trt、onnx2trt)。

当使用这些parse去解析这个op的时候,这个op的权重和参数会经历Models --> TensorRT engine --> TensorRT runtime这个过程。

举个例子,在onnx-tensorrt中,我们用过DEFINE_BUILTIN_OP_IMPORTER去注册op,然后通过parse解析onnx模型,根据注册好的op去一个个解析构建模型,假如我们定义的op为my_custom_op,在DEFINE_BUILTIN_OP_IMPORTER(my_custom_op)会这样实现:

  1. DEFINE_BUILTIN_OP_IMPORTER(mycustom_op)
  2. {
  3. ASSERT(inputs.at(0).is_tensor(), ErrorCode::kUNSUPPORTED_NODE);
  4. ...
  5. const std::string pluginName = "CUSTOM-OP";
  6. const std::string pluginVersion = "001";
  7. // 这个f保存这个op需要的权重和参数,从onnx模型中获取
  8. std::vector<nvinfer1::PluginField> f;
  9. f.emplace_back("in_channel", &in_channel, nvinfer1::PluginFieldType::kINT32, 1);
  10. f.emplace_back("weight", kernel_weights.values, nvinfer1::PluginFieldType::kFLOAT32, kernel_weights.count());
  11. f.emplace_back("bias", bias_weights.values, nvinfer1::PluginFieldType::kFLOAT32, bias_weights.count);
  12. // 这个从将plugin工厂中获取该插件,并且将权重和参数传递进去
  13. nvinfer1::IPluginV2* plugin = importPluginFromRegistry(ctx, pluginName, pluginVersion, node.name(), f);
  14. RETURN_FIRST_OUTPUT(ctx->network()->addPluginV2(tensors.data(), tensors.size(), *plugin));
  15. }

进入importPluginFromRegistry函数内部,可以发现参数通过fc变量通过createPlugin传递给了plugin

  1. nvinfer1::IPluginV2* importPluginFromRegistry(IImporterContext* ctx, const std::string& pluginName,
  2. const std::string& pluginVersion, const std::string& nodeName,
  3. const std::vector<nvinfer1::PluginField>& pluginFields)
  4. {
  5. const auto mPluginRegistry = getPluginRegistry();
  6. const auto pluginCreator
  7. = mPluginRegistry->getPluginCreator(pluginName.c_str(), pluginVersion.c_str(), "ONNXTRT_NAMESPACE");
  8. if (!pluginCreator)
  9. {
  10. return nullptr;
  11. }
  12. // 接受传进来的权重和参数信息 传递给plugin
  13. nvinfer1::PluginFieldCollection fc;
  14. fc.nbFields = pluginFields.size();
  15. fc.fields = pluginFields.data();
  16. return pluginCreator->createPlugin(nodeName.c_str(), &fc);
  17. }

上述步骤中,会提供pluginNamepluginVersion初始化MyCustomPluginCreator,其中createPlugin成员函数是我们需要编写的(下文会说)。

配置这个插件op,判断输入和输出类型数量是否正确。官方还提到通过这个配置信息可以告知TensorRT去选择合适的算法(algorithm)去调优这个模型。

但自动调优目前还没有尝试过,我们一般自己写的plugin执行代码都是定死的,所谓的调优步骤可能更多地针对官方的op。

下面的plugin中configurePlugin函数仅仅是简单地确认了下输入和输出以及类型。

  1. void MyCustomPluginDynamic::configurePlugin(
  2. const nvinfer1::DynamicPluginTensorDesc *inputs, int nbInputs,
  3. const nvinfer1::DynamicPluginTensorDesc *outputs, int nbOutputs) {
  4. // Validate input arguments
  5. assert(nbOutputs == 1);
  6. assert(nbInputs == 2);
  7. assert(mType == inputs[0].desc.type);
  8. }

这玩意儿干嘛的,顾名思义,就是克隆嘛,将这个plugin对象克隆一份给TensorRT的builder、network或者engine。这个成员函数会调用上述说到的第二个构造函数:

  1. MyCustomPlugin(float in_channel, const std::vector<float>& weight, const std::vector<float>& bias);

将要克隆的plugin的权重和参数传递给这个构造函数。

  1. IPluginV2DynamicExt* MyCustomPlugin::clone() const
  2. {
  3. //
  4. auto plugin = new MyCustomPlugin{_in_channel, _weight, _bias};
  5. plugin->setPluginNamespace(mPluginNamespace);
  6. return plugin;
  7. }

clone成员函数主要用于传递不变的权重和参数,将plugin复制n多份,从而可以被不同engine或者builder或者network使用。

返回序列化时需要写多少字节到buffer中。

  1. size_t MyCustomPlugin::getSerializationSize() const
  2. {
  3. return (serialized_size(_in_channel) +
  4. serialized_size(_weight) +
  5. serialized_size(_bias)
  6. );
  7. }

TensorRT调用此方法以判断pos索引的输入/输出是否支持inOut[pos].formatinOut[pos].type指定的格式/数据类型。

如果插件支持inOut[pos]处的格式/数据类型,则返回true。 如果是否支持取决于其他的输入/输出格式/数据类型,则插件可以使其结果取决于inOut[0..pos-1]中的格式/数据类型,该格式/数据类型将设置为插件支持的值。 这个函数不需要检查inOut[pos + 1..nbInputs + nbOutputs-1],pos的决定必须仅基于inOut[0..pos]

  1. bool MyCustomPlugin::supportsFormatCombination(
  2. int pos, const nvinfer1::PluginTensorDesc* inOut, int nbInputs, int nbOutputs)
  3. {
  4. // 假设有一个输入一个输出
  5. assert(0 <= pos && pos < 2);
  6. const auto *in = inOut;
  7. const auto *out = inOut + nbInputs;
  8. switch (pos) {
  9. case 0:
  10. return in[0].type == DataType::kFLOAT &&
  11. in[0].format == nvinfer1::TensorFormat::kLINEAR;
  12. case 1:
  13. return out[0].type == in[0].type &&
  14. out[0].format == nvinfer1::TensorFormat::kLINEAR;
  15. }
  16. }

把需要用的数据按照顺序序列化到buffer里头。

  1. void MyCustomPlugin::serialize(void *buffer) const
  2. {
  3. serialize_value(&buffer, _in_channel);
  4. serialize_value(&buffer, _weight);
  5. serialize_value(&buffer, _bias);
  6. }

如果这个op使用到了一些其他东西,例如cublas handle,可以直接借助TensorRT内部提供的cublas handle:

  1. void MyCustomPlugin::attachToContext(cudnnContext* cudnnContext, cublasContext* cublasContext, IGpuAllocator* gpuAllocator)
  2. {
  3. mCublas = cublasContext;
  4. }

总览:

  1. class MyCustomPluginCreator : public BaseCreator
  2. {
  3. public:
  4. MyCustomPluginCreator();
  5. ~MyCustomPluginCreator() override = default;
  6. const char* getPluginName() const override; // 不介绍
  7. const char* getPluginVersion() const override; // 不介绍
  8. const PluginFieldCollection* getFieldNames() override; // 不介绍
  9. IPluginV2DynamicExt* createPlugin(const char* name, const nvinfer1::PluginFieldCollection* fc) override;
  10. IPluginV2DynamicExt* deserializePlugin(const char* name, const void* serialData, size_t serialLength) override;
  11. private:
  12. static PluginFieldCollection mFC;
  13. static std::vector<PluginField> mPluginAttributes;
  14. std::string mNamespace;
  15. };

创建一个空的mPluginAttributes初始化mFC

  1. MyCustomPluginCreator::MyCustomPluginCreator()
  2. {
  3. mPluginAttributes.emplace_back(PluginField("in_channel", nullptr, PluginFieldType::kFLOAT32, 1));
  4. mPluginAttributes.emplace_back(PluginField("weight", nullptr, PluginFieldType::kFLOAT32, 1));
  5. mPluginAttributes.emplace_back(PluginField("bias", nullptr, PluginFieldType::kFLOAT32, 1));
  6. mFC.nbFields = mPluginAttributes.size();
  7. mFC.fields = mPluginAttributes.data();
  8. }

这个成员函数作用是通过PluginFieldCollection去创建plugin,将op需要的权重和参数一个一个取出来,然后调用上文提到的第一个构造函数:

  1. MyCustomPlugin(int in_channel, nvinfer1::Weights const& weight, nvinfer1::Weights const& bias);

去创建plugin。

MyCustomPlugin示例:

  1. IPluginV2DynamicExt* MyCustomPlugin::createPlugin(const char* name, const nvinfer1::PluginFieldCollection* fc)
  2. {
  3. int in_channel;
  4. std::vector<float> weight;
  5. std::vector<float> bias;
  6. const PluginField* fields = fc->fields;
  7. for (int i = 0; i < fc->nbFields; ++i)
  8. {
  9. const char* attrName = fields[i].name;
  10. if (!strcmp(attrName, "in_channel"))
  11. {
  12. ASSERT(fields[i].type == PluginFieldType::kINT32);
  13. in_channel= *(static_cast<const int32_t*>(fields[i].data));
  14. }
  15. else if (!strcmp(attrName, "weight"))
  16. {
  17. ASSERT(fields[i].type == PluginFieldType::kFLOAT32);
  18. int size = fields[i].length;
  19. h_weight.reserve(size);
  20. const auto* w = static_cast<const float*>(fields[i].data);
  21. for (int j = 0; j < size; j++)
  22. {
  23. h_weight.push_back(*w);
  24. w++;
  25. }
  26. }
  27. else if (!strcmp(attrName, "bias"))
  28. {
  29. ASSERT(fields[i].type == PluginFieldType::kFLOAT32);
  30. int size = fields[i].length;
  31. h_bias.reserve(size);
  32. const auto* w = static_cast<const float*>(fields[i].data);
  33. for (int j = 0; j < size; j++)
  34. {
  35. h_bias.push_back(*w);
  36. w++;
  37. }
  38. }
  39. }
  40. Weights weightWeights{DataType::kFLOAT, weight.data(), (int64_t) weight.size()};
  41. Weights biasWeights{DataType::kFLOAT, bias.data(), (int64_t)_bias.size()};
  42. MyCustomPlugin* obj = new MyCustomPlugin(in_channel, weightWeights, biasWeights);
  43. obj->setPluginNamespace(mNamespace.c_str());
  44. return obj;
  45. }

这个函数会被onnx-tensorrt的一个叫做TRT_PluginV2的转换op调用,这个op会读取onnx模型的data数据将其反序列化到network中。

使用官方插件会遇到些小问题。

官方的topk插件最多支持k<=3840。否则会报:

[TensorRT] ERROR: Parameter check failed at: ../builder/Layers.cpp::TopKLayer::3137, condition: k > 0 && k <= MAX_TOPK_K

相关问题:https://github.com/tensorflow/tensorflow/issues/31671

官方的batchednms最大支持的topk为4096,太大也会崩溃。不过可以修改源代码实现突破这个数值,但仍然有bug

  1. void (*kernel[])(const int, const int, const int, const int, const float,
  2. const bool, const bool, float *, T_SCORE *, int *,
  3. T_SCORE *, int *, bool) = {
  4. P(1), P(2), P(3), P(4), P(5), P(6), P(7), P(8), P(9), P(10),
  5. P(11), P(12), P(13), P(14), P(15), P(16)
  6. };

简单说下plugin的注册流程。

在加载NvInferRuntimeCommon.h头文件的时候会得到一个getPluginRegistry,这里类中包含了所有已经注册了的IPluginCreator,在使用的时候我们通过getPluginCreator函数得到相应的IPluginCreator

注册插件有两种方式,第一种可以看官方的plugin代码。

  1. extern "C" {
  2. bool initLibNvInferPlugins(void* logger, const char* libNamespace)
  3. {
  4. initializePlugin<nvinfer1::plugin::GridAnchorPluginCreator>(logger, libNamespace);
  5. initializePlugin<nvinfer1::plugin::NMSPluginCreator>(logger, libNamespace);
  6. initializePlugin<nvinfer1::plugin::ReorgPluginCreator>(logger, libNamespace);
  7. ...
  8. return true;
  9. }

其中initializePlugin函数执行了addPluginCreator函数:

  1. template <typename CreatorType>
  2. void initializePlugin(void* logger, const char* libNamespace)
  3. {
  4. PluginCreatorRegistry::getInstance().addPluginCreator<CreatorType>(logger, libNamespace);
  5. }

addPluginCreator函数又执行了getPluginRegistry()->registerCreatorpluginCreator进行了注册,这样就完成注册任务了:

  1. void addPluginCreator(void* logger, const char* libNamespace)
  2. {
  3. ...
  4. if (mRegistryList.find(pluginType) == mRegistryList.end())
  5. {
  6. bool status = getPluginRegistry()->registerCreator(*pluginCreator, libNamespace);
  7. if (status)
  8. {
  9. mRegistry.push(std::move(pluginCreator));
  10. mRegistryList.insert(pluginType);
  11. verboseMsg = "Plugin creator registration succeeded - " + pluginType;
  12. }
  13. else
  14. {
  15. errorMsg = "Could not register plugin creator: " + pluginType;
  16. }
  17. }
  18. else
  19. {
  20. verboseMsg = "Plugin creator already registered - " + pluginType;
  21. }
  22. ...
  23. }

另一种注册可以直接通过REGISTER_TENSORRT_PLUGIN来注册:

  1. //!
  2. //! \brief Return the plugin registry
  3. //!
  4. // 在加载`NvInferRuntimeCommon.h`头文件的时候会得到一个`getPluginRegistry`
  5. extern "C" TENSORRTAPI nvinfer1::IPluginRegistry* getPluginRegistry();
  6. namespace nvinfer1
  7. {
  8. template <typename T>
  9. class PluginRegistrar
  10. {
  11. public:
  12. PluginRegistrar() { getPluginRegistry()->registerCreator(instance, ""); }
  13. private:
  14. T instance{};
  15. };
  16. #define REGISTER_TENSORRT_PLUGIN(name) \
  17. static nvinfer1::PluginRegistrar<name> pluginRegistrar##name {}
  18. } // namespace nvinfer1

也就是说,如果我们已经在plugin的.h文件中执行了REGISTER_TENSORRT_PLUGIN(BatchedNMSPluginCreator);就不需要再创建一个类似于官方的initLibNvInferPlugins()函数去一个一个注册了。

https://github.com/NVIDIA/TensorRT/tree/release/7.0/plugin
https://github.com/triton-inference-server/server/issues/767
https://blog.csdn.net/u010552731/article/details/106520241
https://docs.nvidia.com/deeplearning/tensorrt/developer-guide/index.html#work_dynamic_shapes
https://forums.developer.nvidia.com/t/tensorrt-5-1-6-custom-plugin-with-fp16-issue/84132/4
https://forums.developer.nvidia.com/t/tensorrt-cask-error-in-checkcaskexecerror-false-7-cask-convolution-execution/109735
https://github.com/NVIDIA/TensorRT/tree/release/7.0/samples/opensource/samplePlugin
https://forums.developer.nvidia.com/t/unable-to-run-two-tensorrt-models-in-a-cascade-manner/145274/2

https://github.com/CharlesShang/DCNv2
https://github.com/chengdazhi/Deformable-Convolution-V2-PyTorch

如果你与我志同道合于此,老潘很愿意与你交流;如果你喜欢老潘的内容,欢迎关注和支持。博客每周更新一篇深度原创文,关注公众号「oldpan博客」不错过最新文章。老潘也会整理一些自己的私藏,希望能帮助到大家,公众号回复”888″获取老潘学习路线资料与文章汇总,还有更多等你挖掘。如果不想错过老潘的最新推文,请点击神秘链接

版权声明:本文为bigoldpan原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/bigoldpan/p/14423858.html