第2回 ニューラルネットワーク最速入門 ― 仕組み理解×初実装(中編) 図4-17 活性化関数の比較: 線形関数/tanh関数/ReLU関数(基準:シグモイド関数) 記事に戻る 一色政彦,デジタルアドバンテージ