じっくりに読み、「ゼロから作るDeep Learning 2」もそろそろ終盤です(いまチャプター7)。この本はなぜいいのか、それは解説が本当に丁寧、なにか新しいことがあればすぐ解説するので、どんな難解のこともステップバイステップで説明する。
いままでTensorflowやKerasの本を何冊も読んだことあるが、ほとんど途中からたくさん見知らぬものが導入されて、どうしても理解できなかった、あるいは脳内の画像が鮮明ではない。ただ、「ゼロから作るDeep Learning」から「ゼロから作るDeep Learning 2」、基本のニューラルネットワークはもちろん、自然言語処理やRNN、そしてLSTMなども特に難しく理解できた(行列のサイズは未だにややこしいが)
思えば、最初にKerasの本を読むと、コードの「Dropout」を目に付け、「これ何?」といきなり詰んだ(本は何も説明もなく)。ぼくは、なにか理解できないことが出てきたら、それを無視できず、完全に理解するまで前には進まないタイプです。そうやって機械学習(これだけではないが)を習得するにはかなり苦労した。まあ、「ゼロから作る」では数学の理論もあまり解説しないからそこはちょっと納得しないが
たまに思うけど、こんなにいい本、日本語だけでは勿体ないかもしれない。ぜひ翻訳され海外にも発売するべきです。え。ぼくが翻訳(ry
そして読んで思ったんだけど、日本語だとどうすればいいか。英語ではスペースで分割するけど、日本語ではスペースが存在しない。と、調べたら現状では辞書を利用して単語を分割し、それを単語ベクトルに変換するとのことです。
と思って、ちょっと遊んでみた。英語ではなく、自分のTwitterのつぶやきを学習したらどうだろうか…。と思ってそれを実行した→https://github.com/atelierkarin/tweet-auto-message-by-lstm
つぶやき学習して自動生成の結果… pic.twitter.com/A42AFcbrvq
— 白鳥かりん (@karinshiratori) 2020年5月14日
やべぇコレ面白いw pic.twitter.com/HkDFJxgaA2
— 白鳥かりん (@karinshiratori) 2020年5月14日
さらにらん豚の発言まで。
らん豚の発言を学習したらひどすぎワロタ pic.twitter.com/WMjj1pY4xP
— 白鳥かりん (@karinshiratori) 2020年5月14日
まあ、文章生成は面白いけど、AIでは目的なく文章を作るから、現状では遊び以外良い使い道はないかもな。