政府がAI(人工知能)運用の新ルールとして7つの原則を定める方向で調整作業を進めていますが、この原則について技術者からは批判の声が殺到しています。
報道記事によると、政府はこの原則の中に、AIの判断結果を企業や運営者に説明するように定めるルールを盛り込んでいるとのことです。AIはディープラーニング(深層学習 deep learning)によって様々な物事を多角的に自己分析しています。
人間が複雑な思考回路で考えているのと同じで、AIも非常に複雑で開発者が分からないようなアイディアや情報を提示することがあるのです。
そのため、政府が示した企業側への説明責任に対して、技術者からは「不可能だ!」「そんなことをすればAIの開発ができなくなる!」などと反発の意見が相次いでいます。
AIの判断、企業に説明責任 ルール作りへ政府7原則
https://www.nikkei.com/article/DGXMZO38186770W8A121C1MM8000/
政府がまとめた人工知能(AI)に関する7つの原則が明らかになった。AIが物事を判断する際、その企業に説明責任を求めるのが柱だ。AIの判断基準を示し、金融機関の融資などで、過程が分からない状態をなくす。この原則をもとに法整備を進め、外国企業が日本で活動するときの混乱回避に役立てる。
AIの判断、企業に説明責任https://t.co/yMjyuvCFQS
ディープラーニングは
「どうしてそうなってるかわからんけど、結果そうなってる」
ことが多いです。
説明できないことに責任を負わせるのは負担なので、日本で起業するのは辞めようってことになる。政府がまたIT業界の足引っ張ってる構図。
— ひろゆき, Hiroyuki Nishimura (@hiroyuki_ni) 2018年11月26日
「AIの判断基準を示すこと」と簡単にいいますが、機械学習系AIの判断の根拠を見えるようにするのは技術的に困難。せいぜいパラメータとなる項目の列挙が限界で、それは判断の根拠の説明になるとは限らない。”AIの判断、企業に説明責任 ルール作りへ政府7原則:日本経済新聞” https://t.co/Rp9GvezZ7b
— ICHIRO SATOH (@ichiro_satoh) 2018年11月26日
超重要。「深層学習だからAIによる判断の根拠は分からない」はダメ。XAI(説明可能なAI)が必要だな→政府がまとめたAIに関する原則が明らかになった。AIが物事を判断する際、企業に説明責任を求めるのが柱だ。この原則をもとに法整備
AIの判断、企業に説明責任:日経 https://t.co/w4fcUxZXVp— 木村岳史(東葛人) (@toukatsujin) 2018年11月26日
それがわかったら誰もディープラーニングなんて使ってねえよ… / 他41コメント https://t.co/5LA5BVT8VA “AIの判断、企業に説明責任 ルール作りへ政府7原則 :日本経済新聞” https://t.co/ag8w8uU4r0
— 死後強まるツイート (@mizchi) 2018年11月26日
アホか、本当にやめてくれ
ディープ系全滅とか、AIを使った新しいサービスでなくなるんじゃないか?https://t.co/LFGdVLWzqj— オウムガイ (@ougai_quantum) 2018年11月26日
国「人間は答えを導き出せないからコンピューターに聞こう」
技術者「 コンピューターは『○○をしろ』と言ってます!」
国「理由がよくわからんから人間がちゃんと説明しろ」
技術者「え…?」
という状況ふたたび…笑
— 種岡 健/編集者 (@teijikitakubu) 2018年11月27日
AIの判断、企業に説明責任 ルール作りへ政府7原則:日本経済新聞 https://t.co/HKBhhll9Vu
(高率で正解(と思われる)答えを出すが,「なぜ」を説明できないAIは退場せよという方向に行くのか)— ryugo hayano (@hayano) 2018年11月26日
国際的なルールメイキングに加わりたいのはいいけど、過剰な説明責任を求めることは開発を萎縮させてしまうだけですよ。
AIの判断、企業に説明責任 ルール作りへ政府7原則: 日本経済新聞 https://t.co/0EMACYE06r
— 水野 祐 Tasuku Mizuno 🙊 (@TasukuMizuno) 2018年11月26日
いいね!しよう