de:code2019に行ったらMicrosoftのAI戦略が見えてきた

お久しぶりです。半年ぶりくらいにブログを書きます。

5/29と5/30にザ・プリンス パークタワー東京で開催されたde:code2019に参加してきてました。
Microsoftが毎年開催しているエンジニア向けの一大イベントです。

www.microsoft.com


まずは「マイクロソフト リサーチの AI / 自然言語処理研究 最前線」を聞きました。

Microsoft Research のこれまでの自然言語処理の基礎研究の成果の紹介でした。
歴史の中でブレイクスルーに確実に絡んでいるのはさすがだなぁと思って聞いていました。
また「りんな」についても触れていて何かを効率化するAIではなく、Emotional AIだと言ってたのが印象に残りました。



次は「開発者のための機械学習入門:Azure Machine Learning Studio で構造化データから予測分析」を聞きました。

目的は弊社が開発しているサービス「MatrixFlow」と似ているので敵状視察的なやつです。
セッションの内容としては機械学習の基本的な考え方から始まって後半からようやくML Studioの話が出てきました。
初めて知ったことも多かったです。
例えば、ML StudioはGUIで前処理や機械学習のトレーニングが可能で学習済みモデルをそのままWebサービスにデプロイできるのですが、モデルの更新はPower shellでやらないといけないと言う若干ズコー感がある事や、エクセルから推論テストが出来ることを知りました。
最後にはML Studioの上位互換になる(予定の?)Azure Machine Learning Service Visual Interface(まだプレビュー版)の説明もありました。
ML Studioと比べた時に何が変わったかと言うと、GPUが使用可能、デプロイ先がKubernatesを使えるようになったりとクラウドらしい構成になったようです。GA(General Available)が楽しみです。

個人的にはML Studioにエクセルのプラグインが用意され連携できるのがMicrosoftらしいと思いましたが、推論だけでもエクセル上からできると言うのはAIを意識的に使うのではなく、いつの間にか裏でAIが動いていたと言う世界を作るには良いのかもしれません🤔



1日目の最後は「Build 2019 Azure AI & Data Platform 最新アップデート」を聞きました。
機械学習系の話を期待して行ったのですが、ほとんどがDB周りの話でした。しかし面白かったです。
例のAzure SQL Database Serverless(まだプレビュー版)の話がありました。データベースの負荷が全くない場合はPausedして料金がゼロになると言うのはすごい。
またCosmos DBのSpark対応でSparkがCosmos DBと同じサーバー内にあるのでロードする必要なく使えると言うは面白いし実際に便利そうでした。



2日目の最初は「こうすれば Deep Learning 推論は速くなる!Intel AI ソフトウェア製品を活用した推論高速化手法のご紹介」を聞きました。
Intelのチップを効率よく使う方法やopenVINOの説明でした。
pip install intel-tensorflowでインテルチップ用にオプティマイズしたTensorflowが使えるなんて初めて知りました。
またopenVINOと言うインテルに特化した推論SDKも初耳でした。
物体検知のデモをやっていましたが、確かに早くなっていました。iGPUがあるならエッジでも爆速になるらしいです。

そしてなぜかこのツイートが若干伸びた


次は「Custom Vision で出来ること & 出来ないからって諦めてませんか?」を聞きに行きました。
Custom Visionに特段興味があったわけではないですが、機械学習系のサービスとしてどう売り出しているのかを理解して最終的にMatrixFlowに活かそうと思って行きました。
どうやらディスカッション系のセッションだったらしくオーディエンスはスマホから質問を投稿し、それに答えていきつつオーディエンスにも積極的に質問をする形式でした。
登壇者も休むことなくずっと喋っていてエンターテイナーかwwwって思いました。
内容としては聞いているとCustom Visionは足がかりとしては良いかもしれないけど、色々制限があってガチで何かやろうとするにはまだ使いにくそうという印象でした。
ただ、dockerやiOS用にエクスポートできるのでエンジニアがPoCでサクッと何か作ってみるのには使えそうでした。


次は「機械学習のためのデータ加工 ~ 特徴量の見つけ方と作り方」を聞きました。

AutoMLが当たり前になっていく中で特徴量の作成は自動化出来ないので大事だと言う話をして、その後に失敗談を交えて特徴量の作り方の解説をしていました。
目的変数はビジネス課題になっているのかをしっかりと検討し、
説明変数は特徴量の洗い出しは5W2H (5W1H +how much)でやりモデルの活用のタイミングもイメージすべきという内容でした。
特徴量を作るときにビジネス課題を解決するためという視点を忘れてはいけないという非常に教育的なセッションでした。



最後に「Azure Machine Learning service Deep Dive ~自動機械学習から MLOps まで~」を聞きました。

PoCを超え、機械学習をサービスとして提供してる会社が次に必要でなるであろうMLOps。それをAzure DevOpsの応用で実現するという内容でした。
自動化パイプラインで精度などのモニタリングまでやって再学習やデプロイのサイクルを効率的に回そうという話。
Azure Machine Learning Workspaceでモデルを一元管理できるんですね。良さそうです。
全体のパイプライン構成も精度などの監視も含めると割とアリな構成なんじゃないかと思いました。
また、最後の方でAutomated MLの紹介がありましたが、前処理も含めて自動化してくれるらしいです🤔
そしてそのAutomated MLはSHAP、LIMEをモロそのままサービスに組み込んでいるのもInterpretabilityの時流に乗っていて素晴らしいと感じました。


まとめ
仕事柄、競合調査の一環で機械学習系のツールやサービスの情報収集をすることが多いのですが、Microsoft機械学習関係のサービスはチグハグ感があったのが今回のde:codeを通した印象としてはAzure上に綺麗にまとめて来ています。AIをAIとして世に提供するというよりはクラウドソリューションの一機能として提供したいという思いが伝わってきます。
エンタープライズに強いMicrosoftだからこそ、ビジネス活用されるAIのシェアはAzureと共に広げていくという戦略はシンプルで効果的だと思いました。







↓今すぐ登録すべきキラキラAIサービス
www.products.matrixflow.net



↓今すぐフォローすべきキラキラ アカウント

じゃあの。