G検定の勉強~ディープラーニングの社会実装に向けて 実装・運用・評価②~

G検定

※本記事はアフィリエイト広告を含んでいます

どーも、りけーこっとんです。

「G検定取得してみたい!」「G検定の勉強始めた!」

このような、本格的にデータサイエンティストを目指そうとしている方はいないでしょうか?

また、こんな方はいませんか?

「なるべく費用をかけずにG検定取得したい」「G検定の内容について網羅的にまとまってるサイトが見たい」

今回はG検定の勉強をし始めた方、なるべく費用をかけたくない方にピッタリの内容。

りけーこっとんがG検定を勉強していく中で、新たに学んだ単語、内容をこの記事を通じてシェアしていこうと思います。

結構、文章量・知識量共に多くなっていくことが予想されます。

そこで、超重要項目重要項目覚えておきたい項目という形で表記の仕方を変えていきたいと思いますね。

早速G検定の中身について知りたいよ!という方は以下からどうぞ。

具体的にどうやって勉強したらいいの?
G検定ってどんな資格?

そんな方は以下の記事を参考にしてみてください。

なお、りけーこっとんは公式のシラバスを参考に勉強を進めています。

そこで主な勉強法としては

分からない単語出現 ⇒ web検索や参考書を通じて理解 ⇒ 暗記する

この流れです。

試験日は2022年7月2日。(記事の更新は間に合いませんでした)

残り一か月強で、知識0から合格できるかはわかりませんが、頑張りたいと思います。

皆さんも一緒に頑張りましょう!

※この記事は合格を保証するものではありません

大項目「ディープラーニングの社会実装に向けて」

G検定のシラバスを見てみると、試験内容が「大項目」「中項目」「学習項目」「詳細キーワード」と別れています。

本記事は「大項目」の「ディープラーニングの社会実装に向けて」の内容。

その中でも「AIと社会」というところに焦点を当ててキーワードを解説していきます。

G検定の大項目には以下の8つがあります。

・人工知能とは
・人工知能をめぐる動向
・人工知能分野の問題
・機械学習の具体的な手法
・ディープラーニングの概要
・ディープラーニングの手法
・ディープラーニングの社会実装に向けて
・数理統計

とくに太字にした「機械学習とディープラーニングの手法」が多めに出るようです。

AIの扱い方というのは、社会全体で「どう扱おうか?」と悩んでいる最中です。

いろんな法律・ルールがあったりしますし、新しいルールが出現したりすることも。

このルールを侵害してしまうと、罰則や信頼低下に繋がってしまいます。

さらにG検定合格にも、この章が肝になってくるようですね。

機械学習やディープラーニングはバッチリなのに法律関連が全然できなくて落ちた、という話も聞きます。
油断せずに行きましょう。

※今回取り上げた法律が変わることもあるということに注意してくださいね。
基本的なところは今回の記事で押さえて、最新版のシラバスを参考に調べることが大切!

シラバスはこちらからご覧になれます。

今回はAIのビジネス活用や、最近聞くようになった基本的な用語を押さえていきたいと思います。

敵対的な攻撃(Adversarial attacks)

敵対的な攻撃(Adversarial attacks)とは、AIモデルの認識を混乱させる攻撃のこと

AIシステムなどの悪用が目的で用いられる手法ですね。

以下で紹介する「Adversarial Examples」を使用して行われます。

様々な防衛方法が提案されては、それをかいくぐるAdversarial Examples作成方法が提案されるといういたちごっこになっているようです。

様々な防衛手法があるのですが、一部を紹介したいと思います。

・Adversarial Training

・特徴量の絞り込み

・蒸留

参考:https://jpsec.ai/attacks-that-deceive-ai/

しかし、これらをかいくぐるようなAdversarial Examples作成方法も日々現れます。

セキュリティの常ではありますが、日々最新の手法・対策を講じることが重要のようですね。

では、敵対的な攻撃を行うために必要なAdversarial Examplesについて見ていきましょう。

Adversarial Examples

Adversarial Examplesとは、人は認識しづらく、AIが認識を誤るような情報を加えたデータ。

つまり人がデータを見たときには、何が違うのか、どこが原因になっているかが分かりにくいということです。

具体的には以下のような画像があります。

引用論文:https://arxiv.org/abs/1904.08653

人が見ればどちらも「人間」と区別できますよね。

しかし、AIは右の人を「人間」と判断できていません。

首からぶら下げている絵が原因です。

このように「人は認識しづらいが、AIは誤認識する」データのことを言います。

ディープフェイク

ディープフェイクとは、ディープラーニングで偽物と容易に見抜けないほどに作られたデータのこと。

ディープラーニングの技術が発達してきて、本物と偽物のデータが見分けられなくなってきてるということです。

ここでいうデータには「画像」や「映像」が分かりやすいでしょう。

このディープフェイクには良い面と悪い面がありますよね。

AIが偽物の画像や映像を本物そっくりに作れる結果、より幅広い画像や映像の作成が可能だったり簡単になったりします。

一方で、政治家などになりすまして演説動画をアップロードするなどのことができてしまいます。

人間が判別できないほど高精度ですから、その演説を本物と思ってしまう人もいるかもしれません。

この通り、ディープフェイクにはいい面と悪い面があります。

良い面に着目して、より面白いコンテンツや作業が楽になるツールが開発されるといいですね。

フェイクニュース

フェイクニュースとは、嘘の情報を使ったニュースのことです。

英語の直訳そのままですね。

先ほどのディープフェイクとセットで覚えるといいでしょう。

何らかの利益を得ることや意図的に騙すことを目的としています。

いわゆる「偽情報」や、単に誤った情報である「誤情報」や「デマ」などですね。

特にSNSを使ったフェイクニュースは身の回りにも溢れています。

アメリカの大統領選では、投票に影響を与えてしまったことも。

普段の生活から、フェイクニュースには気を付けたいですね。

このブログも誤情報にならないように、精査はしていますが間違っている個所もあるかもしれません。

そのような個所を発見した際には「お問い合わせ」やTwitterで指摘いただけるとありがたいです!

アルゴリズムバイアス

アルゴリズムバイアスとは、偏ったデータでAIが偏った結果を学習すること。

アルゴリズムバイアスとして、例えば性別、年齢、人種などがあります。

採用システムのAIを作りたい時に、履歴書などのデータが男性ばかりだったらどうでしょう。

AIは男性のデータばかりを学習してしまい、女性に不利な結果を予測してしまいます。

学習データに女性が入っていないのですから、当たり前ですね。

これにより、AIの導いた結果が信頼できなくなってしまいます。

学習させるデータには注意が必要ですね。

また、似た言葉に「データバイアス」という言葉があります。

これは偏って集めてしまったデータ自体のことを指します。

アルゴリズムバイアスは偏ったデータでAIが偏った結果を学習すること。

混同しないように気を付けましょう。

ステークホルダーのニーズ

ステークホルダーのニーズは、言葉通り「ステークホルダー」のニーズのこと。

ステークホルダー

会社などの組織によって影響を受ける可能性がある利害関係者のこと。
具体的には以下の通り。

・従業員
・消費者
・株主  etc…

新しいAIのシステムなどを構築する際には、ステークホルダーのニーズに答えていくことが重要です。

AIに限らず、一般の製品でも使われている言葉ですね。

しかし、全てのステークホルダーのニーズに完璧に答えることは難しいでしょう。

ステークホルダー同士で、利害が一致するとは限らないからです。

例えば消費者は商品を安く買いたい一方で、従業員は給与を上げてほしい、といったことがあるでしょう。

全てのニーズに答えることは困難ですが、バランスを考えることが重要ですね。

道路交通法

AIに関する道路交通法は、自動運転に関する内容。

自動運転のレベルによっては、法律が変わっています。

まずは自動運転のレベルがどう区分けされているのか見ていきましょう。(G検定で問われることもあります!)

自動運転のレベルは以下のようにレベル0~レベル5に分けられています。

レベル0
従来の車と同じ、自動運転が搭載されていない車のこと。

レベル1(運転支援)
前後操作(アクセル・ブレーキ)のみ、もしくは左右操作(ハンドル)のみに自動運転が対応。運転主体は人。
ex)自動ブレーキ、前の車に付いて走る、車線からはみ出さない

レベル2(部分運転自動化)
レベル1の組み合わせ(前後左右同時に対応可能)。追い越し、車線変更など限定的な条件に限った運転も可能。運転主体は人。
ex)日産:プロパイロット、トヨタ:Toyota Safety Sense

レベル3(条件付き運転自動化)
限定的な条件で、全ての運転を自動運転可能。緊急時には人の対応が必要。運転主体は車。
ex)ホンダ:Traffic Jam Pilot、メルセデス:Drive Pilot

レベル4(高度運転自動化)
限定的な条件で、全ての運転を自動運転可能。緊急時の人の対応も不要。運転主体は車。

レベル5(完全運転自動化)
全ての条件下で、全ての運転を自動運転可能。運転主体は車。

参考:https://jidounten-lab.com/autonomous-level (自動運転と法律・ガイドライン(2022年最新版))

ここで、主に「道路交通法」の改正が行われたレベルは3と4。

そこで改正された内容としては以下の通りです。

レベル3
2019年5月、自動運転中に「スマホを手に持っての操作」「カーナビの操作」を許可するように改正。

レベル4
2022年4月、レベル4相当の自動運転サービスを公安委員会の許可で社会実装できるように改正。

参考:https://www.npa.go.jp/bureau/traffic/selfdriving/index.html (自動運転|警察庁Webサイト)

このように徐々に法改正が進んでおり、自動運転が社会実装される未来が近そうですね。

道路運送車両法

AIに関する道路運送車両法も、自動運転に関する改正。

そもそも「道路運送車両法」とは自動車の安全を確保する整備を規定する法律のことです。

2019年5月には、「自動運行装置」搭載の車両が保安基準の対象装置となりました。

つまり、自動運転を搭載した車の安全基準も定めたよ、ということですね。

詳しくは国土交通省の記事をご覧ください。

Pythonのライブラリ

Pythonのライブラリとは、ある特定の機能を他のプログラム開発に呼び出しやすいようにしたもの。

例えばグラフをプログラミングで書こうとすると大変です。

しかし「Matplotlib」というライブラリを使えば、プログラミングが数行で簡単に書くことが可能。

機械学習のプログラムを実装したい場合も同様ですね。

Pythonのライブラリには以下のようなものがあります。

・Matplotlib
プログラミングでグラフを描画するためのライブラリ

・Pytorch
Facebook開発のpythonオープンソースの機械学習ライブラリ

・TensorFlow
グーグル開発のpythonオープンソースの機械学習ライブラリ

・Chainer
Preferred Networks開発の深層学習フレームワーク。2019年にはpytorchに移行すると発表

・CNTK
Microsoft提供のpythonオープンソースの機械学習ライブラリ

このようにたくさんの種類があります。

目的に応じて使い分けることで、実装の手間も省けるでしょう。

まとめ

今回は大項目「ディープラーニングの社会実装に向けて」の中の一つ「実装・運用・評価」についての解説第二弾でした。

本記事をまとめると以下の通り。

敵対的な攻撃(Adversarial attacks)
ディープフェイク
フェイクニュース
アルゴリズムバイアス
ステークホルダーのニーズ
・自動運転のレベル

以上が大項目「ディープラーニングの社会実装に向けて」の中の一つ「実装・運用・評価」の内容でした。

G検定では「機械学習」「ディープラーニング」で覚える内容が多いので、どうしてもそちらに注力しがちです。

しかし、G検定合格において落とし穴になるのが本章「ディープラーニングの社会実装に向けて」。

出題率としても高めに設定されていると思うので、全問不正解だと合格は厳しいです。

最低限の重要キーワードだけでも覚えておくことが重要でしょう。

次回は「ディープラーニングの社会実装に向けて」の「クライシスマネジメント」に触れていきたいと思います。

G検定の勉強完了までもう少し!
頑張りましょう!

ではまた~

コメント

タイトルとURLをコピーしました