G検定の勉強~ディープラーニングの社会実装に向けて クライシスマネジメント~

G検定

※本記事はアフィリエイト広告を含んでいます

どーも、りけーこっとんです。

「G検定取得してみたい!」「G検定の勉強始めた!」

このような、本格的にデータサイエンティストを目指そうとしている方はいないでしょうか?

また、こんな方はいませんか?

「なるべく費用をかけずにG検定取得したい」「G検定の内容について網羅的にまとまってるサイトが見たい」

今回はG検定の勉強をし始めた方、なるべく費用をかけたくない方にピッタリの内容。

りけーこっとんがG検定を勉強していく中で、新たに学んだ単語、内容をこの記事を通じてシェアしていこうと思います。

結構、文章量・知識量共に多くなっていくことが予想されます。

そこで、超重要項目重要項目覚えておきたい項目という形で表記の仕方を変えていきたいと思いますね。

早速G検定の中身について知りたいよ!という方は以下からどうぞ。

具体的にどうやって勉強したらいいの?
G検定ってどんな資格?

そんな方は以下の記事を参考にしてみてください。

なお、りけーこっとんは公式のシラバスを参考に勉強を進めています。

そこで主な勉強法としては

分からない単語出現 ⇒ web検索や参考書を通じて理解 ⇒ 暗記する

この流れです。

試験日は2022年7月2日。(記事の更新は間に合いませんでした)

残り一か月強で、知識0から合格できるかはわかりませんが、頑張りたいと思います。

皆さんも一緒に頑張りましょう!

※この記事は合格を保証するものではありません

大項目「ディープラーニングの社会実装に向けて」

G検定のシラバスを見てみると、試験内容が「大項目」「中項目」「学習項目」「詳細キーワード」と別れています。

本記事は「大項目」の「ディープラーニングの社会実装に向けて」の内容。

その中でも「AIと社会」というところに焦点を当ててキーワードを解説していきます。

G検定の大項目には以下の8つがあります。

・人工知能とは
・人工知能をめぐる動向
・人工知能分野の問題
・機械学習の具体的な手法
・ディープラーニングの概要
・ディープラーニングの手法
・ディープラーニングの社会実装に向けて
・数理統計

とくに太字にした「機械学習とディープラーニングの手法」が多めに出るようです。

AIの扱い方というのは、社会全体で「どう扱おうか?」と悩んでいる最中です。

いろんな法律・ルールがあったりしますし、新しいルールが出現したりすることも。

このルールを侵害してしまうと、罰則や信頼低下に繋がってしまいます。

さらにG検定合格にも、この章が肝になってくるようですね。

機械学習やディープラーニングはバッチリなのに法律関連が全然できなくて落ちた、という話も聞きます。
油断せずに行きましょう。

※今回取り上げた法律が変わることもあるということに注意してくださいね。
基本的なところは今回の記事で押さえて、最新版のシラバスを参考に調べることが大切!

シラバスはこちらからご覧になれます。

今回はクライシスマネジメント(危険が起こった時の対応)の基本的な用語を押さえていきたいと思います。

コーポレートガバナンス

コーポレートガバナンスとは、企業経営を監視する仕組みのこと。

「会社は経営者のものではなく、資本を投下している株主のもの」という考え方に基づいています。

社外監査役や社外取締役、といった言葉を企業のどこかで聞いたことがある人もいるのではないでしょうか。

この方たちが、企業の不祥事を防ぐために存在しています。

組織外の人を採用することで、効力を発揮しているようですね。

内部統制の更新

内部統制の更新は、激変するAI情勢に合わせて内部統制を更新していくこと。

内部統制

企業がきちんと機能するために体系づけられた仕組み・体制のこと。
例えば不祥事を起こさない、目標を達成するための社内ルールなどがある。

現在AI・DXに関する状況は、日々変化しています。

AIやDXを取り入れようと思っても、目まぐるしく変わる変化に企業が対応できなければ、意味がありません。

内部統制の更新に遅れが出てしまえば、予期せぬリスクに繋がることもあります。

AI・DXに限らず、最新の情報やツールの導入は重要なこと。

しかし内部統制が疎かになると、目標を達成できなかったり、不祥事を起こしてしまいかねません。

そのため、内部統制の更新が重要なんですね。

シリアス・ゲーム

シリアス・ゲームとは、社会問題の解決を主目的とするコンピュータゲームのジャンルのこと。

ゲームというと、一般的に娯楽のイメージですよね。

「シリアス・ゲーム」となると、その意味合いが変わってきます。

教育・医療用途といった社会問題の解決を目的と置いているためです。

ゲームのジャンルの一種類、という感じですね。

具体的には以下のようなものがあるようです。

・Short Sims
コロナウイルス対策のやり方を学べるゲーム。ソーシャルディスタンスの測り方・マスク着用のタイミングなどを学べるようです。
公式サイト:https://www.shortsims.com/covid19

・3rd World Farmer
貧困発生の仕組みを学べるゲーム。一家の主として貧困の困難を乗り越えながら、資産と家族を養っていくゲームのようです。
公式サイト:https://3rdworldfarmer.org/

このように、様々な社会問題を主目的においていることが分かります。

気になった方は、URLをタップして実際にやってみましょう。

炎上対策とダイバーシティ

炎上対策とダイバーシティとは、AIを扱う企業・社員が注意する事項のこと。

ダイバーシティ

あらゆる属性の方々が互いに認め合い共存している状態。「あらゆる属性」には以下のようなものがある。

・性別(ジェンダー)
・年齢
・職歴
・人種
・国籍
・障がいの有無
・働き方
・ライフスタイル  など

つまり炎上対策には、ダイバーシティへの配慮をした表現・発信をしましょうね、ということです。

AI関連で言えば、AIの予測結果などがあるでしょう。

教師データセットに偏りがあったために、AIの予測結果が偏ったものになってしまうことがあります。

例えば採用の現場で、データセットに「男性」が多いという偏りがあったとします。

するとAIはそもそも女性のデータが無いので、必然的に男性に有利な予測をしてしまう。

「男性を採用した方が、企業に貢献する」みたいなことですね。

これが発覚すると、世間からは「性別で差別するのか!」という炎上が起きることも。

このため、教師データなどの準備には細心の注意が必要です。

AIと安全保障・軍事技術

AIと安全保障・軍事技術とは、AIを安全保障や軍事技術に利用するかどうかの議論のこと。

この議論は、現在も活発に行われています。

想定されているのは以下のような事例。

・軍事作戦における人間の意思決定の補助
・情報処理能力向上
・サイバー分野での利用

特にG検定では以下の単語をよく見かけます。

アメリカ国防高等研究計画局(DARPA:ダーパ)
軍事利用のための最新技術を開発する組織。XAI(説明可能なAI)の発端ともなった。

自律型致死兵器システム(LAWS)
人間が何もしなくても自律的に攻撃し、致死性を持つ兵器のこと。まだ定義はあいまい。

DARPA・LAWSは何の略か、XAIについてまで聞かれることもあります。

XAIについては以下の記事でも解説しているので、ぜひご覧ください。

安全保障や軍事技術と聞いて、思い浮かべるのはアメリカ・中国の二大国でしょうか。

アメリカと日本の関係といえば「日米安保条約」ですよね。

そして最近では、中国のAIの発展も目覚ましいと聞きます。

2023年1月には、アメリカが中国に対抗するために日本・インド・オーストラリアなどと連携を行う記事がありました。
参考:https://www.yomiuri.co.jp/world/20230111-OYT1T50026/

安全保障、国防などもロシアのウクライナ進行以降、議論が高まっていますよね。

国防や戦争など、もしかすると他人事ではなくなっているのかもしれません。

実施状況の公開

G検定での実施状況の公開とは、炎上対策のためにも情報の使用状況などを公開すること。

消費者から見れば、個人情報が企業にどう使われているのかを知ることができません。

そこでプライバシーやセキュリティの公開を行います。

社会に対して対策は何を行っているのかなどをアピールし、説明責任を果たすことが重要となりますね。

このような対策により、炎上を防ぐことができます。

透明性レポート

透明性レポートとは、企業が利用者のデータをどのように収集し活用するかを示し、提示するもの。

先ほどの「実施状況の公開」にも似ていますね。

「実施状況の公開」を具体的にしたもの、とでも覚えましょうか。

企業によって若干の違いはありますが、消費者への「透明性」を確保するという目的は一緒です。

情報の開示要求や排除要求などを示すことで、「透明性」を確保しているわけですね。

これにより消費者にも情報が伝わり、炎上対策に繋がります。

具体的なレポートとしては以下の通り。

透明性レポート(Transparency Report)|サイボウズ株式会社
https://cybozu.co.jp/privacy/disclosure-policy/transparency/

透明性レポート – Atlassian
https://www.atlassian.com/ja/trust/privacy/transparency-report

よりどころとする原則や指針

AIを扱う企業・個人・政府には、よりどころとする原則や指針が必要です。

基本的に、有事を防止したり有事が起こった後の対応には、あらかじめ決めた指針が必要ですよね。

そうでないと有事に対策はできないどころか、起こった際に対応が追い付かず炎上して信頼を落とすという結果にもなりえます。

そこで具体的な指針としては、内閣府が「人間中心のAI社会原則」を定めました。

これにより全員が目指すべき指針が「人間中心のAI社会原則」を見ればわかる状態に。

よりどころとする原則や指針が決まったわけですね。

ちなみに「人間中心のAI社会原則」には「FAT」という基本原則があります。

こちらもG検定の用語なので、以前に解説しています。

Partnership on AI

Partnership on AIとは、AIに関するベストプラクティスの開発・共有が目的の非営利団体のこと。

Facebook, Amazon, Google, IBM, Microsoft の5社で2016年に立ち上げています。

活動内容としては、以下のようなものがあるようです。

・「AIを提供する側」と「AIの影響を受ける側」が効果的に関われるような取り組み

・パートナー企業や労働者代表などと協力し、AIによって全員が経済的になるアプローチを探す

・AIを用いて、メディアの品質強化

・公平性・透明性・説明責任があるAIについてのガイドライン作成

・セキュリティが高いAIのベストプラクティス開発

プロジェクトの計画への反映

プロジェクトの計画への反映とは、AIのプロジェクトで計画を立てる際に、AIに関する重要事項を考慮しましょうということ。

AIは発展途中ということもあって、日々様々な技術・ルールが更新されていきます。

そこで以下のようなことを、プロジェクトの計画時に考えます。

・ステークホルダー
・セキュリティの高さ
・データセットの品質
・実装基準の明確化
・法的、倫理的な問題
・透明性、説明責任の問題  など

さらにAI開発というのは、一度作ったら終わりではありません。

運用の仕方も独特のものがありましたよね。

そこで「運用の改善やシステムの改修」「次への開発と循環」もプロジェクトの計画への反映が必要です。

それぞれ見ていきましょう。

運用の改善やシステムの改修・次への開発と循環

AIを導入することで運用の改善やシステムの改修次への開発と循環が必要になります。

AIは様々な可能性を持っている反面、既存技術とは大きく異なる点もたくさん。

以前の記事にもありますが、運用方法がAIは独特です。

運用方法が変われば、必然的にシステムの改修が必要になりますよね。

さらにAIは一度実装したら終わりではなく、以下のことを行っていく必要もあります。

・データ収集
・最新のガイドライン、法律の確認

このようにAIは導入や運用にも、相当なコストが割かれることは重要ですね。

まとめ

今回は大項目「ディープラーニングの社会実装に向けて」の中の一つ「クライシスマネジメント」についての解説でした。

本記事をまとめると以下の通り。

コーポレートガバナンス
内部統制の更新
シリアス・ゲーム
炎上対策とダイバーシティ
AIと安全保障・軍事技術
実施状況の公開

・透明性レポート
よりどころとする原則や指針
Partnership on AI
プロジェクトの計画への反映
運用の改善やシステムの改修
次への開発と循環

以上が大項目「ディープラーニングの社会実装に向けて」の中の一つ「クライシスマネジメント」の内容でした。

G検定では「機械学習」「ディープラーニング」で覚える内容が多いので、どうしてもそちらに注力しがちです。

しかし、G検定合格において落とし穴になるのが本章「ディープラーニングの社会実装に向けて」。

出題率としても高めに設定されていると思うので、全問不正解だと合格は厳しいです。

最低限の重要キーワードだけでも覚えておくことが重要でしょう。

次回は「数理統計」に触れていきたいと思います。

長かったG検定の勉強も次回で最終回!
頑張りましょう!

ではまた~

コメント

タイトルとURLをコピーしました