AWS Summit Tokyo 2023に現地参加してきました!
目次
はじめに
ニフティ不動産 のバックエンド開発を担当している kinari と申します。
先日 4 月 20 日から 4 月 21 日にかけて行われた AWS 日本最大級のイベント AWS Summit Tokyo 2023 の 2 日目に現地参加してきました!
本記事では、大規模オフラインイベントへ初参加した自身の視点から、抱いた印象と良かった点について紹介させていただきます。1日目の内容と詳細なセッション内容については取り上げませんので、ご了承ください。
概要
AWS Summit について
- AWS Summit は、AWS に関して学習し、ベストプラクティスの共有や情報交換ができる日本最大級の AWS イベントです。基調講演をはじめ、150 を超えるセッション、180以上の EXPO コンテンツが体験可能となっています。
- 開催日時
- 2023年4月20日(木) – 21日(金)
- セッションテーブル
- EXPO
会場の様子
目的
主に2つの目的を持って参加しました。
- 初めてのオフラインイベントを体験するため
- 自分はこれまで大規模なオフラインイベントに参加したことがなかったため、魅力についてあまり理解していませんでした。ただ、同じイベントに参加する社内メンバーに勧められたこともあり、まずは雰囲気を味わってみようと思い参加しました。
- 最新技術のキャッチアップをするため
- 社内で使用しているサービスのアップデート情報に加えて、直近の AI 系の技術についても 導入のベストプラクティスがあるかを知りたいと思いセッションを選択しました。
感想
期待していたより楽しむことができました!以下5つ個人的に感じた印象です。
- 想像以上にお祭り感があった
- 大規模なオンラインイベントだとどれだけ人がいるのかイメージがつかなかったので、これまでに感じたことのない熱気を感じました。
- 自分の知らない AWS 技術の多さにびっくりした
- 普段、自社の AWS サービス以外に携わることがないため、自分の知らない公共・医療・一次産業などの幅広い場面にサービスを展開していることにびっくりしました。
- 会場の EXPO ブースに配置されている担当の方は(当然ながら)大変詳しく、分からないことをドンドン質問できるのもとても良い経験になりました。
- モチベーションが上がる機会だと感じた
- 質の高いセッションと最新技術トレンドが追え、さらに結構な量のノベルティまでもらえるので大満足でした。初心者であったとしても、セッションごとにレベルが記載されているので自分に合ったものを選ぶことができたのもとても良かったです。
- 集中して聞くことができた
- オンデマンド配信の時とは違って、周りのモチベーションの高い人たちに囲まれて話を聞くことができたため、いつもよりも集中できました。
- AI 導入のためのベストプラクティスがあることがわかった
- 参加したセッションから AWS SageMaker を使った企業へのスムーズな導入方法があることがわかりました。弊社では導入段階ではないものの、いずれ先を見越してキャッチアップできることが分かりました。
セッション内容
参加したセッション
- 10:30-11:50(80分)【KEY-02】アイデアを形にし、これまでにない価値を届ける
- 12:20-13:00(40分)【AWS-29】プロダクト開発と研究の境界を越え機械学習を活かすチームになる
- 13:20-14:00(40分)【AWS-35】AWS でミッションクリティカルなデータウェアハウスを構築する方法
- 14:20-15:00(40分)【AWS-31】はじめての機械学習ワークフローの作り方 〜データに集中したいあなたのために〜
- 15:20-16:00(40分)【AWS-32】責任ある AI (Responsible AI) を理論から実践へ
アイデアを形にし、これまでにない価値を届ける
所感:PayPayさんの圧巻のリプレイス規模に驚きつつ、マルチリージョンにもデメリットがあることを知らなかったので新鮮に聞くことができました!
- Amazon Bedrock や Nitro System、自社開発の Graviton 3 プロセッサーなど、AWS の最新技術
- 多くの企業が AI と機械学習が参入している中は、強固なデータ戦略の要素として包括性、統合性、ガバナンスが重要
- ANA でのデータ活用に向けては、異なるドメインの基盤作成と文化の醸成をしたと紹介
- PayPay の基盤システムでは、日本でも前例のない規模のオンプレミスから AWS への移行プロジェクトを行った
プロダクト開発と研究の境界を越え機械学習を活かすチームになる
所感:機械学習を導入するために AWS さんがたくさんのワークショップを用意されていることを知らなかったため、どれか1つ参加してみたいなと感じました。
- 実際の事例においては、問題点を特定し、解決すべき課題を特定し、ベストプラクティスを使用して勝ちパターンを実装することが成功の鍵である
- ワークショップ
- EventStorming を使用して、ロール間のコミュニケーションを促進し、機械学習の推進を図る
- ML Enablement Workshop を導入することで、段階的に機械学習を導入し、ビジネスの効率化を図る
- まずデータに基づくマーケティングツールを実装し、次に可視化したイベントから顧客体験を計測することから始め、シンプルなルールを実装し、最後に規模を拡大していく
- 実際の環境構築においては、Sagemaker Studio Lab を使用することで、セキュリティ、スペック、インストールなどの問題を解決し、無料で構築済みの分析環境を使用することが可能
AWS でミッションクリティカルなデータウェアハウスを構築する方法
所感:セッションの中で紹介された、セキュリティーの高さとデータ共有の容易性を兼ね備えた「動的データマスキング機能(RBAC により権限に応じて表示されるデータが動的に切り替わる機能)」に衝撃を受けたため、今後さまざまなサービスに展開されてほしいなと感じました。
- DWH の信頼性とセキュリティ
- RedShift を例に、信頼性の確保方法や適切なデータアクセスの実現方法を解説
- RedShift の、Provisioned と Serverless
- 前者は常にクエリが稼働し続け、コンピュートとストレージを別々にスケーリングできる一方、後者はアドホックな使い方が可能で、コンピュートリソースの隠蔽されている部分が異なる
- RedShift ではロール単位のアクセス制御(RBAC)が可能
- 列レベルセキュリティ(CLS)
- 行レベルセキュリティ(RLS)
- 動的データマスキング(DDM)
はじめての機械学習ワークフローの作り方 〜データに集中したいあなたのために〜
所感:名前は聞いたことのある SageMaker のデプロイまでの手順がざっくりとイメージがついたのでとてもよかったです。
- SageMaker によって提供されるツール
- 構造化データパターン
- Data Wrangler
- Autopilot
- 非構造化データパターン
- JumpStart
- Ground Truth
- 構造化データパターン
- データの品質に着目したData-Centricな機械学習ワークフローを採用することで、データの前処理とモデルの開発を迅速かつ効率的にしよう
- まとめに
- ハンズオンでSageMaker Data Wrangler、SageMaker Ground Truth を使い始めてみよう
責任ある AI (Responsible AI) を理論から実践へ
所感:偏ったバイアスはどのようなプロセスを辿って生まれるのかを知れたため、導入する際はきっちり考慮に入れたいと感じました
- まずバイアスについて何かを解説
- その上で全ライフサイクルのフェーズを考慮したデータ収集、アルゴリズム選択、モニタリングなどの実践方法を紹介
- ツールとして、Clarify や ML Governance Tools がある
- ステークホルダーとの会話や Well Architected Framework の ML lens もおすすめ
- まとめに
- モデルの意図しないバイアスを検出することで説明可能な責任のある AI を目指しましょう
おわりに
とてつもないコンテンツ量で全てを見切ることはできませんでしたが、それでも大変学びの多い充実したイベントでした。自分が選んだセッションはAWSさんのものが多かったので、次回は企業の事例セッションも覗いてみたいなと思いました。
また今回、会社には学習の一環として業務扱いで参加させてさせてもらえたことも大変ありがたかったです。
今後も積極的にイベントに参加し、対面ならではの情報交換を行うことで、先進技術に触れた充実感や学びを社内のメンバーと共有できる機会とすることができれば幸いです。
最後まで読んでいただきありがとうございました!
掲載内容は、記事執筆時点の情報をもとにしています。