AlexeyAB
2018-04-16 9bae70b22549b68f5cdeece8b6c3b3de00c22714
src/layer.h
@@ -3,6 +3,9 @@
#include "activations.h"
#include "stddef.h"
#include "tree.h"
struct network_state;
struct layer;
typedef struct layer layer;
@@ -30,7 +33,10 @@
    NETWORK,
    XNOR,
    REGION,
   YOLO,
    REORG,
   UPSAMPLE,
   REORG_OLD,
    BLANK
} LAYER_TYPE;
@@ -38,10 +44,28 @@
    SSE, MASKED, SMOOTH
} COST_TYPE;
typedef struct {
   int batch;
   float learning_rate;
   float momentum;
   float decay;
   int adam;
   float B1;
   float B2;
   float eps;
   int t;
} update_args;
struct layer{
    LAYER_TYPE type;
    ACTIVATION activation;
    COST_TYPE cost_type;
    void (*forward)   (struct layer, struct network_state);
    void (*backward)  (struct layer, struct network_state);
    void (*update)    (struct layer, int, float, float, float);
    void (*forward_gpu)   (struct layer, struct network_state);
    void (*backward_gpu)  (struct layer, struct network_state);
    void (*update_gpu)    (struct layer, int, float, float, float);
    int batch_normalize;
    int shortcut;
    int batch;
@@ -58,6 +82,7 @@
    int size;
    int side;
    int stride;
    int reverse;
    int pad;
    int sqrt;
    int flip;
@@ -73,6 +98,7 @@
    float exposure;
    float shift;
    float ratio;
   int focal_loss;
    int softmax;
    int classes;
    int coords;
@@ -84,6 +110,22 @@
    int noadjust;
    int reorg;
    int log;
   int tanh;
   int *mask;
   int total;
    int adam;
    float B1;
    float B2;
    float eps;
    float *m_gpu;
    float *v_gpu;
    int t;
    float *m;
    float *v;
    tree *softmax_tree;
    int  *map;
    float alpha;
    float beta;
@@ -92,9 +134,19 @@
    float coord_scale;
    float object_scale;
    float noobject_scale;
   float mask_scale;
    float class_scale;
    int bias_match;
    int random;
   float ignore_thresh;
   float truth_thresh;
    float thresh;
   float focus;
    int classfix;
    int absolute;
    int onlyforward;
    int stopbackward;
    int dontload;
    int dontloadscales;
@@ -105,9 +157,7 @@
    int *indexes;
    float *rand;
    float *cost;
    float *filters;
    char  *cfilters;
    float *filter_updates;
    char  *cweights;
    float *state;
    float *prev_state;
    float *forgot_state;
@@ -117,7 +167,7 @@
    float *concat;
    float *concat_delta;
    float *binary_filters;
    float *binary_weights;
    float *biases;
    float *bias_updates;
@@ -194,11 +244,9 @@
    float * save_delta_gpu;
    float * concat_gpu;
    float * concat_delta_gpu;
    float * filters_gpu;
    float * filter_updates_gpu;
    float *binary_input_gpu;
    float *binary_filters_gpu;
    float *binary_weights_gpu;
    float * mean_gpu;
    float * variance_gpu;
@@ -216,6 +264,9 @@
    float * weights_gpu;
    float * weight_updates_gpu;
   float * weights_gpu16;
   float * weight_updates_gpu16;
    float * biases_gpu;
    float * bias_updates_gpu;
@@ -230,8 +281,9 @@
    #ifdef CUDNN
    cudnnTensorDescriptor_t srcTensorDesc, dstTensorDesc;
    cudnnTensorDescriptor_t dsrcTensorDesc, ddstTensorDesc;
    cudnnFilterDescriptor_t filterDesc;
    cudnnFilterDescriptor_t dfilterDesc;
   cudnnTensorDescriptor_t normTensorDesc, normDstTensorDesc, normDstTensorDescF16;
    cudnnFilterDescriptor_t weightDesc;
    cudnnFilterDescriptor_t dweightDesc;
    cudnnConvolutionDescriptor_t convDesc;
    cudnnConvolutionFwdAlgo_t fw_algo;
    cudnnConvolutionBwdDataAlgo_t bd_algo;