Ignite 3日目最後はEnvisioning tomorrow: Innovating for an alternative futureというセッションです。Keynoteに並んでAgendaに載る、ちょっとエモ目なセッションですね。直訳すると「明日の構想:代わる未来のための革新」でしょうか。
CVPのMitra氏がプレゼンターです。Microsoft Researchなどの話が盛沢山。
最初のパラダイムシフトはAI。最近だと自然言語理解とかユキヒョウの保護に活用したり。是非スマホでhttp://aka.ms/keynoteapp にアクセスしてみましょう(このセッションの内容に触れてすこし体験できます。ほんとはリアルタイムで会場で楽しむ感じですけど)
最初の体験は画像からユキヒョウが何匹いるか?を答えます。正解は6匹。人より機械学習したほうが見つけてるぽいですね?w
次はMark氏から。ティーチングの話。教えるって難しい。Machine Teachingについて。機械にどうやって教えるか?
カリキュラム学習で学習用の専用言語で記述してトレーニングさせるのかな。ここではテーブルを持ち上げるという動作を学習させてる感じ。
他にはデモンストレーションして学習させる方法も。
事例ではドローン使った電線のチェックやKeynoteでもあった坑道でのレスキューに使える探索ロボみたいなのとか。
どうやって、なんでMachine Teachingするか。MLに足らないところを補ったりするのかな。
次のパラダイムシフトはコンピューティング。スマホもどんどん性能よくなってるしユビキタス。あと持続可能性。データセンターを海にいれるProject Natickとか。データの保管を考えて石英ガラスに保存するProject Silica。
Ant氏にかわって。ネットワーク周り。処理するデータ量は増えてるけど頭打ちになりそうなのを新しいテクノロジーで革新しないといけない。ToRをどう革新するかってところでプリズムを使ってデータを振り分けたり。
次はStorage。Porject Silicaですね。Keynoteではスーパーマンの映画を収めたやつがお披露目してました。顕微鏡で実際にみてます。投票して実際に何するかを決めます。どうやらボイルすることになったようですw
おまけで消磁も。さて再度顕微鏡でみてみると損傷してないことがわかります。
なんでレンズや光学を使うのか?たとえば簡単なレンズで光速(誤字じゃない)でフーリエ変換が行えたりするから。光速フーリエ変換。
次のパラダイムシフトはHuman-machine Interaction。ナチュラルUI。音声認識などはちゃんとコンテキストを理解しないといけない。
Asta氏にかわって。例えば京都にいるとして周りに何がある?とかを聞いてコンテキストを理解して応答するとか。スカーフが環境に合わせて色かわったりとか。公園で自然の音を聞いたら緑色になったり?Bldg99にあるAdaは考えるアートなのかな。中身的にはいろんなデータソースを光と色に変換するらしい。音楽、振動、人数とか。笑顔は紫色?
最後のトピックはデジタルレスポンシビリティ。責任。それには主体と訓練とツールがいる。開発サイクルでプラクティスを盛り込む。AIにも責任とTrustがいる。AIで指紋のような個体で異なる模様をもつサメを星座を見つけるみたいに識別する話。そして話はバイオコンピューティングに。
Sara氏はDNAについてかな。今のツールでは十分じゃない。今のチャレンジ細胞で計算/評価させるのかな(Cell perform computation)。
生物的な回路を生成できる言語を作ってプログラムを構築する感じ。
というわけで是非 https://innovation.microsoft.com/ に参加してください。
だいぶサイエンスよりでしたがMSRの一部が垣間見えて楽しいセッションでした。自分の理解力だと曖昧な部分が多いのでセッション公開されたら字幕見ながらちゃんと聞くとなおよいかと思います。