素人質問したいんやが…
2:なんJゴッドがお送りします2020/09/29(火) 04:47:30.35ID:OeEa7Sij0
さっきさんざんいきってたのになぁ
3:なんJゴッドがお送りします2020/09/29(火) 04:47:39.26ID:v+gaMHGi0
なんや?
4:なんJゴッドがお送りします2020/09/29(火) 04:47:57.65ID:OeEa7Sij0
素人質問したいんやがええかる
5:なんJゴッドがお送りします2020/09/29(火) 04:48:09.34ID:v+gaMHGi0
ええぞ
6:なんJゴッドがお送りします2020/09/29(火) 04:48:13.56ID:OeEa7Sij0
ええか?
7:なんJゴッドがお送りします2020/09/29(火) 04:48:45.98ID:v+gaMHGi0
充電あと2パーやから早めにな
8:なんJゴッドがお送りします2020/09/29(火) 04:49:22.80ID:OeEa7Sij0
まずなんやけど
最近またニューラルネットを使った機械学習が流行ってる理由はなんなんや?
10:なんJゴッドがお送りします2020/09/29(火) 04:52:47.71ID:Ts9aO+Jvd
>>8
計算機の性能が向上したからや
9:なんJゴッドがお送りします2020/09/29(火) 04:52:29.09ID:g2BRImJj0
どの論文でもイントロに書いてあるようなこと聞くなボケナス
11:なんJゴッドがお送りします2020/09/29(火) 04:54:34.07ID:OeEa7Sij0
>>9
素人やからな
12:なんJゴッドがお送りします2020/09/29(火) 04:56:15.48ID:mdXEociRd
その枕詞で本当の素人質問はルール違反やぞ
16:なんJゴッドがお送りします2020/09/29(火) 04:58:21.41ID:OeEa7Sij0
>>12
素人なんだからしゃーなし
13:なんJゴッドがお送りします2020/09/29(火) 04:57:12.82ID:FzQ8AweF0
最近っていつやねん
DQN出てからここ数年流行りっぱなしちゃうの
19:なんJゴッドがお送りします2020/09/29(火) 05:00:30.71ID:OeEa7Sij0
>>13
昔っていうのはファジィとか流行ってたその辺
14:なんJゴッドがお送りします2020/09/29(火) 04:57:30.97ID:bZQ0XeUfd
それくらいなら自分で調べた方が早いやろ
17:なんJゴッドがお送りします2020/09/29(火) 04:58:53.59ID:OeEa7Sij0
>>14
それはそうやけど
せっかくやしないろいろ聞こうと思って
15:なんJゴッドがお送りします2020/09/29(火) 04:57:57.66ID:OeEa7Sij0
次になんやけど
今流行りの手法やと当初の生物の脳を模擬した手法としてのニューラルネットとは少し違ってきてるように思うんやけど
活性化関数?としてシグモイド関数にこだわるのは何でなんや?他に候補としては界隈の常識としてどの辺を使うもんなんや?
20:なんJゴッドがお送りします2020/09/29(火) 05:00:42.84ID:mdXEociRd
>>15
当初の人間の脳を模擬したっていっても大したことはやってないんや最初から
18:なんJゴッドがお送りします2020/09/29(火) 05:00:14.12ID:FzQ8AweF0
微分が楽な関数として特に初期は活性化関数の代表だったんや
今はarctanとか色々あるけどメインはreluとその改善版ちゃうの
21:なんJゴッドがお送りします2020/09/29(火) 05:01:02.35ID:OeEa7Sij0
>>18
はえー
おそらく君はイッチじゃないけどサンガツ
22:なんJゴッドがお送りします2020/09/29(火) 05:03:24.34ID:FzQ8AweF0
終わりか?
23:なんJゴッドがお送りします2020/09/29(火) 05:03:42.86ID:szTrmfG70
これ絶対素人じゃないやろ
24:なんJゴッドがお送りします2020/09/29(火) 05:03:42.95ID:1AurINOm0
素人質問とか言って本当に素人なのやめろや
25:なんJゴッドがお送りします2020/09/29(火) 05:04:17.66ID:1AurINOm0
と思ったら素人ではなかったわ
28:なんJゴッドがお送りします2020/09/29(火) 05:06:03.72ID:OeEa7Sij0
>>25
機械系や
素人やで
シグモイドうんぬんはさっき調べた
せっかくだし機械学習のお勉強しようと思ってな
26:なんJゴッドがお送りします2020/09/29(火) 05:04:37.40ID:OeEa7Sij0
イッチの言ってたシグモイド関数の代替っていうのは候補としてはatanとかその辺になるんか?
それくらいやったらやってそうやけどニューラルネットのモデルを組み直す苦労の割に対して結果の改善もしなさそうな感じがするんやけどどうなん?
27:なんJゴッドがお送りします2020/09/29(火) 05:04:54.52ID:FzQ8AweF0
あ、これ質問じゃなくてレスバの一環なんか
水差してごメンチ
30:なんJゴッドがお送りします2020/09/29(火) 05:06:51.19ID:OeEa7Sij0
>>27
レスバもしたいし詳しいやつに教えてもらえるならそれはそれですごくありがたいので教えてや
29:なんJゴッドがお送りします2020/09/29(火) 05:06:35.82ID:/zjusguf0
シグモッチュイーン関数
31:なんJゴッドがお送りします2020/09/29(火) 05:09:18.87ID:+rQ4REY20
ワイも最近ちょっと読んだけどよくわからんわ
学習自体よくわからん
32:なんJゴッドがお送りします2020/09/29(火) 05:11:13.55ID:OeEa7Sij0
あと活性化関数を弄ってうんぬんってなると既存のフレームワークがつかえるんか?って言うのも気になるんよね
機械学習完全に素人だからわからんのやけど流行りのパイトーチ辺りを使ってその辺まで弄ったモデルを作れるもんなん?
35:なんJゴッドがお送りします2020/09/29(火) 05:12:54.89ID:FzQ8AweF0
>>32
pytorchは主要な活性化関数や損失関数が予め定義されとるから簡単に挿げ替えられる
自作活性化関数で論文書くとかでもない限り問題ない
33:なんJゴッドがお送りします2020/09/29(火) 05:11:32.79ID:FzQ8AweF0
シグモイド関数は微分時のピークが1未満やろ
特に深層nnだと重み更新量が活性化関数の微分×微分×微分…の形になるから微分の値が小さいと浅い部分で更新量が死ぬんや
シグモイドからarctanへの換装はそこの改善に効果があるとされるがまあ一般に使われるのはreluやね
34:なんJゴッドがお送りします2020/09/29(火) 05:11:51.66ID:OeEa7Sij0
ワイが聞きたかったのはこの辺やな
イッチおらんみたいやから残念やけども…
元スレ:https://swallow.5ch.net/test/read.cgi/livejupiter/1601322416/