素人でもディープラーニングができる「NVIDIA DIGITS」で文字認識をやってみた

データセットとニューラルネットワークに変更を加えたところ、前の学習モデルに比べてエラー数が下がり正確性が上がった