ディープラーニングに関する法律・倫理・議論【G検定 学習】

スポンサーリンク
AI
この記事は約7分で読めます。

今回は、技術ではなくそれを取り巻く法律や議論についてです。

そういえばロボット工学三原則はご存知ですか?ディープラーニングとは違いますが、こんなものです。

第一条
ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。

第二条
ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。

第三条
ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

ロボット工学三原則

ちょっと怖い感じもしますね。

ロボット工学三原則は、アイザック・アシモフのSF小説に出てきたものなのでフィクションです。

しかし、Sci Fiは結構未来を予知していたりしますよ・・・

今回扱うテーマは、ディープラーニングやAIの進化・変化に応じてかわっていくものです。

絶対のものではありませんが、今どうなっているのかを知ることで、別の問題に対応できる武器となりますのでビジネスでディープラーニングを見ている人は特に必要な部分だと思います。

スポンサーリンク

プロダクトを考える

ビジネスでAI、ディープラーニングを取り入れる場合にはなんのために、なぜその製品を利用したいのかをしっかり考えることが必要です。

また、日本ディープラーニング協会の松尾豊理事長の言葉も見ておくとよりわかります。

協会について
当協会設立の背景及びその設立目的と、協会概要について

ワシントンDCで行っていた教師評価ツールIMPACTが、スコアの低い教師を解雇して話題になりました。これはかなり議論にあがったようです。

『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』 数学破壊兵器は知らぬ間にあなたをの運命を決めている - HONZ
『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』 数学破壊兵器は知らぬ間にあなたをの運命を決めている HONZ

バイ・デザイン

プライバシー・バイ・デザイン(Privacy by Design:PbD)は、プライバシー侵害の予防を思考し、仕様段階から検討するというプロセスを指します。

あらかじめプライバシーに配慮した設計・プロセスを目指すことで、ユーザーや社会からの信頼を得られるということです。

また、

セキュリティに配慮した、セキュリティ・バイ・デザイン(Security by Design)

価値全般に配慮した、バリュー・センシティブ・デザイン(Value Sensitive Design)

などの考え方が出てきています。

IEEEの倫理的に調和された設計

2016年に、米国電気電子学会(IEEEE)が「倫理的に調和された設計(Ethically Aligned Design)」というレポートを公開しました。

IEEEが「倫理的AI」の設計に関するレポートのドラフトを発表
米国電気電子学会(IEEE)は、倫理的なAI開発を促進するための指針のドラフトを発表し、意見募集を始めた。この報告書は、100人以上のさまざまな分野の専門家が参加する、大がかりな取り組みで作成されたものだ。

IEEEの倫理的に調和された設計第2版(2017年)には、以下のような項目で構成されます。

1  倫理的に調和した設計をするための一般原則
2  自律型知的システムに価値観を組み込む
3  倫理的な研究や設計のための方法論やガイド
4  汎用人工知能や人工超知能の安全性や便益
5  個人データとアクセス制御
6  自律型兵器システムの再構築
7  経済/人道的課題
8  法律
9  アフェクティブコンピューティング
10 政策
11 情報通信技術における伝統的倫理観
12 複合現実
13 ウェルビーイング

https://alis.or.jp/journal/data/vol4/issn2432-9649_vol4_p003.pdf

さらに、標準化を目指し、IEEE-SAのP7000シリーズのドラフトが作成されています。

1 .システム設計時に倫理的問題に取り組むモデ
ルプロセス(P7000)
2 .自律システムの透明性(P7001)
3 .データプライバシーの処理(P7002)
4.アルゴリズム上のバイアスに関する考察(P7003)
5 .子供と学生のデータガバナンスに関する標準(P7004)
6 .透明性のある雇用者のデータガバナンスに関する標準(P7005)
7 .パーソナルデータ人工知能エージェントに関する標準(P7006)
8 .ロボット及び自動システムを倫理的に駆動するためのオントロジー標準(P7007)
9 .ロボットや知的自動システムを倫理的に「ナッジ(そっと促す)」して駆動するための標準(P7008)
10.自律及び半自律システムのフェイルセーフ設計に関する標準(P7009)
11.倫理的な人工知能と自律システムのウェルビーイング測定基準に関する標準(P7010)
12.ニュースソースの信頼性を特定し評価するプロセス標準(P7011)
13.機械可読のパーソナルプライバシー条項の標準(P7012)
14.自動化された顔分析技術のための包含及び適用基準(P7013)

https://alis.or.jp/journal/data/vol4/issn2432-9649_vol4_p003.pdf

データを集める

データを集めるときに注意することを記載します。

データの利用条件の確認

以下の条件は要確認

  1. 著作権法
  2. 不正競争防止法
  3. 個人情報保護法
  4. 個別契約
  5. その他の理由により、データの利用に制約がある場合

著作権法を見てみます。

学術論文や写真などの著作物にあたるデータを利用する場合には、

著作権者から許諾を得ることが原則となります。

※学習用データの作成については、一定の要件のもと例外になることもあります。

不正競争防止法では、営業秘密にあたるデータや限定利用のデータが該当します。

個人情報保護法では、購買履歴や位置情報といったパーソナルデータが該当に、

個別の契約では、ライセンス契約で利用条件が指定されているデータが、

その他にも通信の秘密にあたるメールの内容などに

データ利用の制約がかかることがあります。

TomoOne
TomoOne

特に、取得自体が問題になってしまうデータもあります。

金融分野における個人情報保護に関するガイドラインによると、

機微情報(人種・犯罪歴・病歴などのデータ)

については、取得、利用、第三者提供のいずれも禁止されていて、かなり厳しいものになっています。

日本の著作権法では、

「情報解析を行うために著作物を複製すること」が営利・非営利問わずに適法とされています。

これは、世界的に見ても先進的と言われています。

画像認識AIのためにネットにある写真を利用する場合には通常は使用する写真1枚ずつの著作権者に許諾を得ることが必要ですが、

日本では著作権者に無断で仕様、記録、翻案も適法です。

また、共同開発や開発委託においてはきっちり決めるところを決めないとトラブルが多発します。

経済産業省では、2018年に「AI・データの利用に関する契約ガイドライン」を公開し、

  1. アセスメント
  2. PoC(Proof of Concept)
  3. 開発
  4. 追加学習

の4つの段階に分けて、それぞれの段階で必要な契約を結ぶことで双方納得できるモデルを作っていくように提唱しています。

https://www.meti.go.jp/press/2018/06/20180615001/20180615001.html
「AI・データの利用に関する契約ガイドライン」に学ぶAI開発契約の8つのポイント|知的財産・IT・人工知能・ベンチャービジネスの法律相談なら【STORIA法律事務所】

データセットの偏りに注意

データは多くの場合ある事象や現象の一部を切り取ったものでしかなく、偏りがある、既存のデータセットを利用した場合や特定のコミュニティからデータを抽出したりする場合は、偏り・仮称代表・過大代表が生じることがあります。

現実世界が偏っているための偏り(バイアス)、データベースに登録されていないための偏り(犯罪行為の6割が通報されずの場合など)、

共有データセットが欧米主導で作られていることによる偏りもあります。

データの加工・分析・学習

プライバシーやリスクを低減するためのデータ加工、

カメラ画像利活用ガイドブックなるものもあります。

IoT推進コンソーシアム、経済産業省及び総務省は、カメラ画像について、その特徴を踏まえた利活用の促進を図るため、特定空間(店舗等)に設置されたカメラでのリピート分析を行う際の配慮事項を整理した「カメラ画像利活用ガイドブック ve2.0」を策定しました。

https://www.meti.go.jp/press/2017/03/20180330005/20180330005.html

参考資料

深層学習教科書 ディープラーニング G検定(ジェネラリスト) 公式テキスト (日本語) 単行本(ソフトカバー)

徹底攻略 ディープラーニングG検定 ジェネラリスト 問題集 徹底攻略シリーズ Kindle版

タイトルとURLをコピーしました