というわけで2日目です。
今日はいつものGuugsとJohnの2人で。
2日目は開発者のエコシステムというのがテーマのようです。
最初はデバイス(?)とアプリの連携。ドラムスティックなBluetoothなデバイスと連携するアプリですね。
Guggsたたきすぎやろというのは置いといて。こういう連携も簡単にできますというデモ。ちなみにAzureつかってライブ配信してます。
デバイスと音楽というところでpropellerheadsの動画紹介。
3DプリンティングもWin8.1から簡単にできるようになりましたね。
こちらはAutodeskです。
うってかわって業務アプリ的なところからPower BI+Surface Hubのデモ。
80インチのSurface Hubに手書きでフィルタしたり。Office 365との連携も簡単に。
お次はDavid Treadwell氏。会場の空気に負けないナイスガイです。
Universal Windows PlatformではPC、Mobile、Surface Hub、Holographic(HoloLens)、IoT、XBoxなどをサポート。
開発の話になってまいりました。最初はデザイン。
デバイスに合わせて仕立てて適用させよう。共通のデザイン言語で。コントロールセットで。
開発も1つのAPI、1つのパッケージで複数プラットフォームに。
プラットフォーム向けに新しく2500以上の機能を追加。
Drag&DropやCortana、Gameなどなどたくさん。実際のデモはKevin氏から。
ペンでの操作はXAMLにInckCanvasコントロールを追加すればOK
ちょっと消すのに手で消そうとするあたりホワイトボードの感性にぶつかってる感はあるけど。
カメラやDrag&Dropなど。UAP間のD&Dなのがちょっと気になりました。
お次はRaspbery Pi2と近接センサー。I2Cも簡単に扱えます。
デモではセンサーから離れると画面が変わるアプリをデモしてました。
Fabrikamに戻ると3Dモデルをつくって。これ自動生成なんですかね?
それをHoloLensで見るという感じ。
見えにくいけどHoloLensに関連するコードがちらっと見えますね。(左目用と右目用のデータとか)
StreamなあたりKinectに似たAPI体系なのかな?
デバッグではUIの調整やライブでVisualTreeをみたり。
そして配布。1つの申請でOK.
ストアでは利用状況などの収集できますが新しくなるようです。
昨日のKeynoteでたくさんのプラットフォームを動かすことができる話がありましたが、まずはWebから。Microsoft Edgeですね。
パフォーマンスも良好な様子?
Microsoft EdgeでHTML5なフライトシミュレーターのデモ。
コードを少し追加するだけでCortana連携も可能に。
.NETやWin32アプリ(WPFやWindows Forms、Win32)も.appxとしてまとめてUniversal Windows Platformアプリとしてストアに申請できます。
Microsoft Bandと連携するWPFアプリのデモなど。
Androidも同様にJava/C++で書いたものを.appxにまとめてしまえます。
iOSも同じ。
Visual Studioで開くと変換して開発・デバッグ実行もOKです。少しのコード変更でWindows上にトースト通知だしたり。
C++で作ったアプリ例。
デザイン面ではFitbitを例にサイズを小さくすればモバイル用ビューに、大きい時はPC用ビューにといった変更をデモ。
縮めていくとモバイルと同じような見た目に。
次はManifoldJS。HTML5やJavaScriptで作られたアプリケーションをManifestにしたがってiOS/Android/Windows対応アプリケーションに変換できます。
npmでManifoldJSをインストールして。アプリケーションを生成すると各プラットフォーム用のファイル(Android、Chrome、Cordva、Firefox、iOS、Web、Win10/Win8.1)が生成されます。
Android Studioで発行などしてやるとそれぞれのデバイスで実行できます。
あとはasm.jsとvorlon(JavaScriptのリモートデバッグフレームワーク)がアナウンスされたりしました。
あとGitHub Enterprise for Azureもアナウンス。
という感じで全方位な勢いの開発&プラットフォームでした。
次はスピーカーが変わってJoseph氏。
神妙な感じでMachine Learningなどの話。
データの在り処がどんどん変わっていく。5年後には半分以上がクラウドとモバイル上にあることになるだろう。
そんなデータと開発者はリアルタイムに解析したり、予測したりすることが必要になると。
富士通(日本)の事例として牛のセンサーとデータの活用。
牛にセンサーつけてどうするの?という話ですが、体温などの情報を集めて予測することで早期の病気などの検出で損失を抑える、発情期を正確に検出して生産性の向上を狙うと。家畜を扱ううえでは大事なことですね。
発情期を正確に検出することで66%も妊娠する確率があがったと。
発情期は12~18時間毎に21日間続いてほとんどが22時~8時に発生すると。
なので牛にセンサーつけてそのあたりを適切にコントロールしてあげる。
妊娠しやすいように適切な時間にあてがうわけですね。センサーと機械学習でこういうこともできるようになりました。
Azure Machine Learning Galleryではほかにもたくさんのデータがあります。
たとえばHow-Old.netでは写真の顔をたくさんの基礎データを基に検出してその人物の年齢を推測することができるWebサイトです。
やってみると結構それなりの精度ででますw
あと1個デモ何してるのかよくわからなかった。イケメン選手権だった?
さて言語ランキングとしてもRが結構上位にきてる。
最近はPythonに移ってきてる?とはいえRは健在。Azure MLでRで書いたスクリプトをそのまま処理に組み込める。
話変わってヒトゲノムの話。一昔に比べて格段に解析にかかるコストは低くなってきた。
で、ヒトゲノムを解析することで先天的にかかりやすい病気などを知ることができるようになってきたと。
たとえばSophieは多発性硬化症(Multiple Sclerosis)になる確率が高いとか。
Azure MLはAPIで呼び出したりもできるので、たとえば自分のヒトゲノム情報があればAPIに投げて結果を見るとかもできる
ちょっと重いテーマですね。でもデータに基づいた予測などを行うための基盤も整ってきた、自由に使えるようになったということです。
次はErik氏による電力Grid。
センサーとMLで電力需要予測や現状を把握するのに役立ててる感じ。
次は表現力的な話ですね。ポンペイ遺跡を3Dで復元したやつをMicrosoft Edgeで見せつつ。
ごついPCを紹介。グラボ4枚刺し。
ということでこちらを使った日本の事例、スクエアエニックスから。
リアルタイムレンダリングで視点ぐりぐり変えたりできます。この精度…!
お次はおなじみMinefraft。
なんとVisual StudioにMOD用のテンプレートが!
さりげなくJavaで書いてる!
そしてデバッグ実行!w
というデモでした。おもしろ
最後はアナウンス。
サンフランシスコにCo-workingスペースをMSが作るみたいです。詳細まだですがよさげな設備になる??
最後にBuild Tourの話。世界の26都市でBuildぽいイベントするよ。日本だとde:codeになるぽいですね。
という感じでまた来年~!です。
最後はムービーで。MS Researchの紹介?
We are makers.
おまけ
チャックを探せ!
Pythonがデータサイエンスで勢力を伸ばしている理由は単純でデータ加工とかからモデリングまで一気通貫が出来るためですが、現実問題としてモデリングに使われるパッケージ群はRで発表されるケースが多いので現実論としてRを避けて通れないですね。