今回は、技術ではなくそれを取り巻く法律や議論についてです。
そういえばロボット工学三原則はご存知ですか?ディープラーニングとは違いますが、こんなものです。
第一条
ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。第二条
ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。第三条
ロボット工学三原則
ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。
ちょっと怖い感じもしますね。
ロボット工学三原則は、アイザック・アシモフのSF小説に出てきたものなのでフィクションです。
しかし、Sci Fiは結構未来を予知していたりしますよ・・・
今回扱うテーマは、ディープラーニングやAIの進化・変化に応じてかわっていくものです。
絶対のものではありませんが、今どうなっているのかを知ることで、別の問題に対応できる武器となりますのでビジネスでディープラーニングを見ている人は特に必要な部分だと思います。
プロダクトを考える
ビジネスでAI、ディープラーニングを取り入れる場合にはなんのために、なぜその製品を利用したいのかをしっかり考えることが必要です。
また、日本ディープラーニング協会の松尾豊理事長の言葉も見ておくとよりわかります。
ワシントンDCで行っていた教師評価ツールIMPACTが、スコアの低い教師を解雇して話題になりました。これはかなり議論にあがったようです。
バイ・デザイン
プライバシー・バイ・デザイン(Privacy by Design:PbD)は、プライバシー侵害の予防を思考し、仕様段階から検討するというプロセスを指します。
あらかじめプライバシーに配慮した設計・プロセスを目指すことで、ユーザーや社会からの信頼を得られるということです。
また、
セキュリティに配慮した、セキュリティ・バイ・デザイン(Security by Design)
価値全般に配慮した、バリュー・センシティブ・デザイン(Value Sensitive Design)
などの考え方が出てきています。
IEEEの倫理的に調和された設計
2016年に、米国電気電子学会(IEEEE)が「倫理的に調和された設計(Ethically Aligned Design)」というレポートを公開しました。
IEEEの倫理的に調和された設計第2版(2017年)には、以下のような項目で構成されます。
1 倫理的に調和した設計をするための一般原則
https://alis.or.jp/journal/data/vol4/issn2432-9649_vol4_p003.pdf
2 自律型知的システムに価値観を組み込む
3 倫理的な研究や設計のための方法論やガイド
4 汎用人工知能や人工超知能の安全性や便益
5 個人データとアクセス制御
6 自律型兵器システムの再構築
7 経済/人道的課題
8 法律
9 アフェクティブコンピューティング
10 政策
11 情報通信技術における伝統的倫理観
12 複合現実
13 ウェルビーイング
さらに、標準化を目指し、IEEE-SAのP7000シリーズのドラフトが作成されています。
1 .システム設計時に倫理的問題に取り組むモデ
https://alis.or.jp/journal/data/vol4/issn2432-9649_vol4_p003.pdf
ルプロセス(P7000)
2 .自律システムの透明性(P7001)
3 .データプライバシーの処理(P7002)
4.アルゴリズム上のバイアスに関する考察(P7003)
5 .子供と学生のデータガバナンスに関する標準(P7004)
6 .透明性のある雇用者のデータガバナンスに関する標準(P7005)
7 .パーソナルデータ人工知能エージェントに関する標準(P7006)
8 .ロボット及び自動システムを倫理的に駆動するためのオントロジー標準(P7007)
9 .ロボットや知的自動システムを倫理的に「ナッジ(そっと促す)」して駆動するための標準(P7008)
10.自律及び半自律システムのフェイルセーフ設計に関する標準(P7009)
11.倫理的な人工知能と自律システムのウェルビーイング測定基準に関する標準(P7010)
12.ニュースソースの信頼性を特定し評価するプロセス標準(P7011)
13.機械可読のパーソナルプライバシー条項の標準(P7012)
14.自動化された顔分析技術のための包含及び適用基準(P7013)
データを集める
データを集めるときに注意することを記載します。
データの利用条件の確認
以下の条件は要確認
- 著作権法
- 不正競争防止法
- 個人情報保護法
- 個別契約
- その他の理由により、データの利用に制約がある場合
著作権法を見てみます。
学術論文や写真などの著作物にあたるデータを利用する場合には、
著作権者から許諾を得ることが原則となります。
※学習用データの作成については、一定の要件のもと例外になることもあります。
不正競争防止法では、営業秘密にあたるデータや限定利用のデータが該当します。
個人情報保護法では、購買履歴や位置情報といったパーソナルデータが該当に、
個別の契約では、ライセンス契約で利用条件が指定されているデータが、
その他にも通信の秘密にあたるメールの内容などに
データ利用の制約がかかることがあります。
特に、取得自体が問題になってしまうデータもあります。
金融分野における個人情報保護に関するガイドラインによると、
機微情報(人種・犯罪歴・病歴などのデータ)
については、取得、利用、第三者提供のいずれも禁止されていて、かなり厳しいものになっています。
また、共同開発や開発委託においてはきっちり決めるところを決めないとトラブルが多発します。
経済産業省では、2018年に「AI・データの利用に関する契約ガイドライン」を公開し、
- アセスメント
- PoC(Proof of Concept)
- 開発
- 追加学習
の4つの段階に分けて、それぞれの段階で必要な契約を結ぶことで双方納得できるモデルを作っていくように提唱しています。
データセットの偏りに注意
データは多くの場合ある事象や現象の一部を切り取ったものでしかなく、偏りがある、既存のデータセットを利用した場合や特定のコミュニティからデータを抽出したりする場合は、偏り・仮称代表・過大代表が生じることがあります。
現実世界が偏っているための偏り(バイアス)、データベースに登録されていないための偏り(犯罪行為の6割が通報されずの場合など)、
共有データセットが欧米主導で作られていることによる偏りもあります。
データの加工・分析・学習
プライバシーやリスクを低減するためのデータ加工、
カメラ画像利活用ガイドブックなるものもあります。
IoT推進コンソーシアム、経済産業省及び総務省は、カメラ画像について、その特徴を踏まえた利活用の促進を図るため、特定空間(店舗等)に設置されたカメラでのリピート分析を行う際の配慮事項を整理した「カメラ画像利活用ガイドブック ve2.0」を策定しました。