シグモイド関数ニキおるか?

未分類
1:なんJゴッドがお送りします2020/09/29(火) 04:46:56.21ID:OeEa7Sij0

素人質問したいんやが…


2:なんJゴッドがお送りします2020/09/29(火) 04:47:30.35ID:OeEa7Sij0

さっきさんざんいきってたのになぁ


3:なんJゴッドがお送りします2020/09/29(火) 04:47:39.26ID:v+gaMHGi0

なんや?


4:なんJゴッドがお送りします2020/09/29(火) 04:47:57.65ID:OeEa7Sij0

素人質問したいんやがええかる


5:なんJゴッドがお送りします2020/09/29(火) 04:48:09.34ID:v+gaMHGi0

ええぞ


6:なんJゴッドがお送りします2020/09/29(火) 04:48:13.56ID:OeEa7Sij0

ええか?


7:なんJゴッドがお送りします2020/09/29(火) 04:48:45.98ID:v+gaMHGi0

充電あと2パーやから早めにな


8:なんJゴッドがお送りします2020/09/29(火) 04:49:22.80ID:OeEa7Sij0

まずなんやけど
最近またニューラルネットを使った機械学習が流行ってる理由はなんなんや?


10:なんJゴッドがお送りします2020/09/29(火) 04:52:47.71ID:Ts9aO+Jvd

>>8
計算機の性能が向上したからや


9:なんJゴッドがお送りします2020/09/29(火) 04:52:29.09ID:g2BRImJj0

どの論文でもイントロに書いてあるようなこと聞くなボケナス


11:なんJゴッドがお送りします2020/09/29(火) 04:54:34.07ID:OeEa7Sij0

>>9
素人やからな


12:なんJゴッドがお送りします2020/09/29(火) 04:56:15.48ID:mdXEociRd

その枕詞で本当の素人質問はルール違反やぞ


16:なんJゴッドがお送りします2020/09/29(火) 04:58:21.41ID:OeEa7Sij0

>>12
素人なんだからしゃーなし


13:なんJゴッドがお送りします2020/09/29(火) 04:57:12.82ID:FzQ8AweF0

最近っていつやねん
DQN出てからここ数年流行りっぱなしちゃうの


19:なんJゴッドがお送りします2020/09/29(火) 05:00:30.71ID:OeEa7Sij0

>>13
昔っていうのはファジィとか流行ってたその辺


14:なんJゴッドがお送りします2020/09/29(火) 04:57:30.97ID:bZQ0XeUfd

それくらいなら自分で調べた方が早いやろ



17:なんJゴッドがお送りします2020/09/29(火) 04:58:53.59ID:OeEa7Sij0

>>14
それはそうやけど
せっかくやしないろいろ聞こうと思って


15:なんJゴッドがお送りします2020/09/29(火) 04:57:57.66ID:OeEa7Sij0

次になんやけど
今流行りの手法やと当初の生物の脳を模擬した手法としてのニューラルネットとは少し違ってきてるように思うんやけど
活性化関数?としてシグモイド関数にこだわるのは何でなんや?他に候補としては界隈の常識としてどの辺を使うもんなんや?


20:なんJゴッドがお送りします2020/09/29(火) 05:00:42.84ID:mdXEociRd

>>15
当初の人間の脳を模擬したっていっても大したことはやってないんや最初から


18:なんJゴッドがお送りします2020/09/29(火) 05:00:14.12ID:FzQ8AweF0

微分が楽な関数として特に初期は活性化関数の代表だったんや
今はarctanとか色々あるけどメインはreluとその改善版ちゃうの


21:なんJゴッドがお送りします2020/09/29(火) 05:01:02.35ID:OeEa7Sij0

>>18
はえー
おそらく君はイッチじゃないけどサンガツ


22:なんJゴッドがお送りします2020/09/29(火) 05:03:24.34ID:FzQ8AweF0

終わりか?


23:なんJゴッドがお送りします2020/09/29(火) 05:03:42.86ID:szTrmfG70

これ絶対素人じゃないやろ


24:なんJゴッドがお送りします2020/09/29(火) 05:03:42.95ID:1AurINOm0

素人質問とか言って本当に素人なのやめろや


25:なんJゴッドがお送りします2020/09/29(火) 05:04:17.66ID:1AurINOm0

と思ったら素人ではなかったわ


28:なんJゴッドがお送りします2020/09/29(火) 05:06:03.72ID:OeEa7Sij0

>>25
機械系や
素人やで
シグモイドうんぬんはさっき調べた
せっかくだし機械学習のお勉強しようと思ってな


26:なんJゴッドがお送りします2020/09/29(火) 05:04:37.40ID:OeEa7Sij0

イッチの言ってたシグモイド関数の代替っていうのは候補としてはatanとかその辺になるんか?
それくらいやったらやってそうやけどニューラルネットのモデルを組み直す苦労の割に対して結果の改善もしなさそうな感じがするんやけどどうなん?


27:なんJゴッドがお送りします2020/09/29(火) 05:04:54.52ID:FzQ8AweF0

あ、これ質問じゃなくてレスバの一環なんか
水差してごメンチ


30:なんJゴッドがお送りします2020/09/29(火) 05:06:51.19ID:OeEa7Sij0

>>27
レスバもしたいし詳しいやつに教えてもらえるならそれはそれですごくありがたいので教えてや


29:なんJゴッドがお送りします2020/09/29(火) 05:06:35.82ID:/zjusguf0

シグモッチュイーン関数


31:なんJゴッドがお送りします2020/09/29(火) 05:09:18.87ID:+rQ4REY20

ワイも最近ちょっと読んだけどよくわからんわ
学習自体よくわからん


32:なんJゴッドがお送りします2020/09/29(火) 05:11:13.55ID:OeEa7Sij0

あと活性化関数を弄ってうんぬんってなると既存のフレームワークがつかえるんか?って言うのも気になるんよね
機械学習完全に素人だからわからんのやけど流行りのパイトーチ辺りを使ってその辺まで弄ったモデルを作れるもんなん?


35:なんJゴッドがお送りします2020/09/29(火) 05:12:54.89ID:FzQ8AweF0

>>32
pytorchは主要な活性化関数や損失関数が予め定義されとるから簡単に挿げ替えられる
自作活性化関数で論文書くとかでもない限り問題ない


33:なんJゴッドがお送りします2020/09/29(火) 05:11:32.79ID:FzQ8AweF0

シグモイド関数は微分時のピークが1未満やろ
特に深層nnだと重み更新量が活性化関数の微分×微分×微分…の形になるから微分の値が小さいと浅い部分で更新量が死ぬんや
シグモイドからarctanへの換装はそこの改善に効果があるとされるがまあ一般に使われるのはreluやね


34:なんJゴッドがお送りします2020/09/29(火) 05:11:51.66ID:OeEa7Sij0

ワイが聞きたかったのはこの辺やな
イッチおらんみたいやから残念やけども…




元スレ:https://swallow.5ch.net/test/read.cgi/livejupiter/1601322416/
未分類