AlexeyAB
2018-03-03 fe44d3d0f29e96714de75234e1fd7e40b05b0296
src/layer.h
@@ -3,6 +3,9 @@
#include "activations.h"
#include "stddef.h"
#include "tree.h"
struct network_state;
struct layer;
typedef struct layer layer;
@@ -29,6 +32,9 @@
    BATCHNORM,
    NETWORK,
    XNOR,
    REGION,
    REORG,
   REORG_OLD,
    BLANK
} LAYER_TYPE;
@@ -40,6 +46,12 @@
    LAYER_TYPE type;
    ACTIVATION activation;
    COST_TYPE cost_type;
    void (*forward)   (struct layer, struct network_state);
    void (*backward)  (struct layer, struct network_state);
    void (*update)    (struct layer, int, float, float, float);
    void (*forward_gpu)   (struct layer, struct network_state);
    void (*backward_gpu)  (struct layer, struct network_state);
    void (*update_gpu)    (struct layer, int, float, float, float);
    int batch_normalize;
    int shortcut;
    int batch;
@@ -52,10 +64,12 @@
    int out_h, out_w, out_c;
    int n;
    int max_boxes;
   int small_object;
    int groups;
    int size;
    int side;
    int stride;
    int reverse;
    int pad;
    int sqrt;
    int flip;
@@ -70,6 +84,7 @@
    float saturation;
    float exposure;
    float shift;
    float ratio;
    int softmax;
    int classes;
    int coords;
@@ -79,6 +94,21 @@
    int does_cost;
    int joint;
    int noadjust;
    int reorg;
    int log;
    int adam;
    float B1;
    float B2;
    float eps;
    float *m_gpu;
    float *v_gpu;
    int t;
    float *m;
    float *v;
    tree *softmax_tree;
    int  *map;
    float alpha;
    float beta;
@@ -88,8 +118,14 @@
    float object_scale;
    float noobject_scale;
    float class_scale;
    int bias_match;
    int random;
    float thresh;
    int classfix;
    int absolute;
    int onlyforward;
    int stopbackward;
    int dontload;
    int dontloadscales;
@@ -100,9 +136,7 @@
    int *indexes;
    float *rand;
    float *cost;
    float *filters;
    char  *cfilters;
    float *filter_updates;
    char  *cweights;
    float *state;
    float *prev_state;
    float *forgot_state;
@@ -112,7 +146,7 @@
    float *concat;
    float *concat_delta;
    float *binary_filters;
    float *binary_weights;
    float *biases;
    float *bias_updates;
@@ -189,11 +223,9 @@
    float * save_delta_gpu;
    float * concat_gpu;
    float * concat_delta_gpu;
    float * filters_gpu;
    float * filter_updates_gpu;
    float *binary_input_gpu;
    float *binary_filters_gpu;
    float *binary_weights_gpu;
    float * mean_gpu;
    float * variance_gpu;
@@ -211,6 +243,9 @@
    float * weights_gpu;
    float * weight_updates_gpu;
   float * weights_gpu16;
   float * weight_updates_gpu16;
    float * biases_gpu;
    float * bias_updates_gpu;
@@ -225,8 +260,8 @@
    #ifdef CUDNN
    cudnnTensorDescriptor_t srcTensorDesc, dstTensorDesc;
    cudnnTensorDescriptor_t dsrcTensorDesc, ddstTensorDesc;
    cudnnFilterDescriptor_t filterDesc;
    cudnnFilterDescriptor_t dfilterDesc;
    cudnnFilterDescriptor_t weightDesc;
    cudnnFilterDescriptor_t dweightDesc;
    cudnnConvolutionDescriptor_t convDesc;
    cudnnConvolutionFwdAlgo_t fw_algo;
    cudnnConvolutionBwdDataAlgo_t bd_algo;