ITと哲学と

IT系エンジニアによる技術と哲学のお話。

人工知能研究会なるものに参加させていただきました

下記の研究会に参加させていただきました. 学生さんが主体でやっている研究会だそうです.

第17回 人工知能研究会「今後のDeepLearning技術の発展とビジネス応用」 https://air-osaka.doorkeeper.jp/events/60057

今日の研究会で聞けた内容が良かったのでお話を聞きながら取ったメモを晒します.

ビジネス応用

ビッグデータ解析と人工知能の違い

ビッグデータ解析は解析しておしまい. 一回では大抵良い結果は出ないのでうまくいかない.

人工知能はシステムを利用するたびに精度が上がっていく. 実運用しながら精度が上がっていくのが人工知能の特徴.

溜まったデータを解析することが目的となってはいけない. 何がしたいのか?そのために必要なデータはどんなデータか?を固めていくことが大切.

そしてデータは必ずしもビッグでなくてはならないわけではない

AIを導入しやすい領域

技術的課題

AIとの親和性が高い(ルール化・パターン化されている) データが取りやすい

社会的課題

AIが失敗しても被害が少ない(人が死なない・大損しない) AIに否定的な人が少ない

  • クラスタ別に分析が資料上ではありました.*
  • あの資料欲しいな・・・*

ビジネス利用のための人材育成のお話

データサイエンティストとして備えておくべきもの

  • 統計学
  • プログラミング
  • ビジネス知識 => お客さんの課題をどうAIに落とし込むか

それ以外にも幅広い知識が必要 物理とか数学とか心理学とか英語とか.

統計:理由を説明する学問.要因を見つける. 例)アイスクリームの売り上げを分析して主因を見つけたりする

機械学習:予測.当てればそれでいい.予測精度の追求. 例)アイスクリームの売り上げさえわかればいい!

AIシステム構築の流れ

課題設定=>AIモデル設計=>データ取得=>データ前処理=>アルゴリズム実装=>分析=>結果=>AIモデル設計へフィードバック

この流れを繰り返すのがとても大切. このために,データサイエンティストには幅広いアルゴリズムの利用経験と知識が必要.

よくある誤解

とりあえずネットワークにデータぶち込んだらええやん

分類精度をあげるには,データ前処理がとっても大事. 手法選定とかチューニングとかは支配的ではない. データ前処理が何より支配的!

データ前処理は実データ解析において重要. 手法の選択は研究において重要. チューニングはコンペにおいて重要.

一般物体認識と詳細画像識別の違いを把握しておく

一般的に誰が見ても明らかなものの比較と,専門家ではないと判断が難しいものの識別では難しさが当たり前だけど違う.

一般物体認識であればとりあえずデータをニューラルネットワークにぶち込んだらええ.ここら辺はよく論文として扱われる範囲. だから上のようにとりあえずぶち込んだらええやんという誤解が生まれる.

実社会で求められるような詳細画像識別ではこれだとワークしない.適切な前処理をしてあげることが大切.

データが大量に必要だが,質も大事

分析に適するデータベースは縦長(特徴量の次元に対してデータ量が多いという意味). 横長のデータはデータ量を増やして縦長にしてあげる必要がある. 要するに過学習の話だなきっと.

分類対象が増えても問題がない

分類するものが少ないほど精度が上がります. これは当たり前の話だと思うなぁ・・・よくある誤解なのかー

講師の考える今後大事になってくるDeepLearning技術Top4

DeepLearningは伸び代がやばい. 今できることって氷山の一角. 5年後,10年後にできることはもっといっぱいある.

これまでの技術と比べて複雑なモデルを扱えるようになってきた. 複雑であるがゆえに,表現度が高くなった.

2016年の現状 音声認識:実用レベル 画像認識:開発レベル~実用レベル 言語認識:研究レベル

2017年の現状 音声認識:実用レベル 画像認識:ほぼ実用レベル 言語認識:研究レベル~開発レベル

ということで講師が考える今後大切なDeepLearning技術Top4を紹介

第4位 転移学習

データが大量にあるドメインで学習させたモデルをデータの少ないドメインに使う. ドメインが大きく違っても高い精度が出るので一般的によく使われる. 別データで学習させたモデルを使って再学習させる.

コンペとかで優勝したモデルを使って転移することが可能. 画像系と音声系でかなり有効 テキストなどではあまり有用性が確認されていないとのこと.

One-Shot学習というものもある. 転移学習よりさらに少ないデータで学習させる. すでに作成されている特徴量空間に新たなクラスをプロットさせる方法. 少ないデータで学習可能だが,分類対象が増えると難しくなる.

第3位 DCGAN

絵の生成とかに使われる. 生成系と判別系のネットワークを戦わせて学習させていく. より本物に近い絵を作り出す技術っぽい.

画像の一部を欠損させて復元させる技術もある.

第2位 DQN

AI同士を戦わせてより強くしていく. 計算コストかかる.相当なリソースを持っていないと強化学習的な手法は難しい.

囲碁のように勝ち負けが明確な場合は有効だが,現実的な問題として良し悪しがわかりにくい問題については 強化学習のアプローチは難しかったりもする.

第1位 マルチモーダルDeepLearning

あらゆる構造のデータを同時に学習して概念を獲得してく. 言語認識精度の向上が見込まれる.

動画とか音声とかテキストとか数値とか,異なる構造のデータを同様に用いる.

テキストから動画を生成したりすることも可能になってきている.