d0iの連絡帳

気がむいたら書く

AI脅威論 vs. AI道具論

4/26の日経に「憲法学のフロンティア(上)AIのリスクに対応急げ」という記事が掲載されています。また、これとは別に「AI社会は信用できるか」という記事も同日掲載されています。日経は以前から総務省の「AIネットワーク社会推進フォーラム」のシンポジウムを後援したり、AIの社会リスクに対して敏感な立場ではあったのですが、明確にリスクに対して警鐘を鳴らす方針なのでしょうか。

さて、山本教授の記事について、土井なりの私見をまとめてみます。山本教授の記事は、土井の理解では「AIにより個人の尊重という原理が脅かされる可能性がある。具体的には(1)社会的排除 (2)自己決定原理の揺らぎ (3)民主主義原理の揺らぎ の3点の課題がある」と述べています。

先に結論を書くと、これらはAIの課題ではなく情報化一般の課題であり、AIという道具に対する警鐘というよりはそれを使う人間に対する問題提起(自己情報コントロール権も含め)の形を取るべきである、というのが土井の主張です。また、感想としては、「人間より機械のほうがよほどマシだよなぁ」という偏った感想を持っていますが、そこについてはまた機会があれば別途。

(1)の社会的排除、という話は、古くは米国ではクレジットヒストリーの問題として顕在化していた問題が大きくなるのではないか、という議論だと思います。中国ではアリペイが管理しているクレジットスコアがシンガポールのビザ申請で活用される、などという話もあるようです(http://www.chinesepayment.com/2015/06/blog-post_15.html)。逆方向にいけば「社会的排除」の議論になるでしょう。この領域において、統計処理とAI(と呼ばれている機械学習技術)の差はあまりおおきなものでなく、せいぜいどのヒストリーにどの程度の重みを置くか、という部分が変化するぐらいだと理解しています。そう考えると、道具が変化したことによる現状からの質的な変化は存在しないと言えます。言い換えると、現状でもその問題は既に存在するということです。その前提に立つと、道具の議論ではなく、個々人が受ける差別的な扱いをどのレベルで抑え込むか、という議論しか存在しないのではないでしょうか。

また、文中でシカゴ市警察の事例が述べられています。ちょっと種本を失念してしまったのですが、シカゴ市警察は統計を犯罪予測に取り入れる先進的な試みが行われたのですが、その試みにより如実に犯罪発生数が減少したと記憶しています。プライバシーが確保されていて犯罪が多く発生する社会と、公共の場でのプライバシーが制約されても犯罪が発生しづらい社会と、どちらかを選ぶのは学者でも技術者でもなく、その市民だと思います。その観点でも、犯罪に誘引されやすい市民をどのようにコミュニティに取り込んでいくか、そのためのツールとしての情報システムの活用、といった観点をこそ考慮すべきであると考えています。繰り返しになりますが、そういった手続き (法執行手続き含む) の中でどのように差別的扱いを防ぐのか、という議論をすべきではないでしょうか。

どうでもいいですが、個人的にはクレジットヒストリーや電子通貨の議論をふまえて書かれたSF「アンダーグラウンド・マーケット」(藤井太洋著) が大好きな作品の一つで、電子通貨の話をするのであれば必読だと思っています。おススメです。

(2)自己決定権や(3)民主主義の揺らぎについて、個別の論点は非常にうなづけるのですが、これを「AI」というあいまいな概念にひもづける議論は雑な印象を受けます。そうでなくてもドラゴンズファンは中日新聞を読みますし、巨人ファンは読売でしょう。巨人ファンに対する読売新聞社の思想誘導が行われている! などとは誰も言いません。ヒトは一般には快適な情報を好むものですし、その結果集団極性化が発生しやすい。SNSのようなツールがこれを先鋭化したとして、そのこと自体に問題を提起するのはある意味パターナリズムと言えるでしょう。一方、ニュースの選別やタイミング制御などによる人の自己決定権の揺らぎに関して、問題がある場合もあるとは思いますが、結局のところ、道具をどう使うかという程度問題であると思っていますし、特に民主主義については、「ならばテレビや新聞を含めるメディアは個人の意思決定に作用していないのか?」という反問が思いうかびます。パーソナライゼーションが課題であれば、さいわいなことに情報技術の世界ではいつでも自分の識別子(クッキー等)を捨てる機会があります。人と人との対面の会話ではそういうわけにはいきませんが。

この記事中では内心のプライバシー権についても触れられています。「企業が今やプロファイリング技術により、顧客のプライバシー領域に自由にアクセスしうる」というセンセーショナルな書きぶりが気になりました。機械に心を覗かれるようで気持ち悪いというのは心情的には理解できなくもないですが、そこで行われているのは「予測」であり、別に自由にアクセスしているわけではないです。もちろんEUのデータ保護規制でプロファイリングについて制御権を持たせる、等の議論があるのは承知していますしそういった方向性の議論があること自体は良いと思いますが、その前提とする記述でこういった雑な書き方されてしまうと、なんとも特定の方向へ読者を誘導したいという下心のようなものが透けて見えてしまって気持ちが悪いです(もちろん、ほんとうにこういうふうに理解している可能性もあるのですが -- それはそれで頭が痛い)。

この記事に限らないですが、AI脅威論の立場とAI道具論の立場の間の溝はなんとかしないといけないと思っています。AI道具論の立場に立つと、やっぱり怖いのはそれを使う人間の悪意なんですけどね。