d0iの連絡帳

気がむいたら書く

AIは人間を超えるか

「AIは人間を超える」なんて、本気で信じているんですか?(西垣 通,千葉 雅也) | 現代ビジネス | 講談社(1/4)

AIは水を理解していない、というのと同程度に人間だって水を理解していないだろう。「知ってるつもり -- 無知の科学」という本を先日丸山先生に勧められて読んでみたが、そこでも「理解している」ということのあやふやさと、「自分はこれを理解している」という『勘違い』によって人間が社会生活を営めている、みたいなことが書かれていた。

一方、計算機の進歩がこのまま進めば、遠い未来か近い未来かはともかく、人間よりも汎用知能として優れたものになりえないと考えることはむずかしい(もしかしたら量子メモリみたいな現在実現していない素子を必要とするかもしれないが)。ここで、例えば、人間にはクオリアがあるが計算機にはそれがないから計算機には知能は宿らない、と考えるのは傲慢というものだろう。

ただ、どこまで進歩しても所詮ソフトウェア(コピー可能)なので、カーツワイルの言うような超人間だの人間のソフトウェア化だのいう話は馬鹿げていると思う。例えば、swarmingのような発想で、単体としては汎用性が高い一方限界も低く、それでも全体としては超知能として動作する、みたいなものが個人的には趣味に合うが、もしかしたらそれはヒト個人が知能として理解できる形式ではないのかもしれないとも。

ふと思ったのでメモ。

ふと今年になって記事を書いてないな。

誰も見ちゃいないのわかってるけど、3月のIOT/IA/SITE研究会でしゃべった内容でも貼っておくか。

https://drive.google.com/open?id=14L99LArEdS7n_5N3H4bGxlUaiX59-Osm

IOT研究会での発表。128ノードのGPUサーバの立ち上げの体験談みたいな話。GPUたくさんあるといろいろはかどりますが、裏方は裏方で大変です。

https://drive.google.com/open?id=1dMJByrgHykeI6K0esZhCdUPu9DkW80kB

SITE研究会での発表。みなさんAIに関する議論をたくさんしていますが、AIってソフトウェアだということを忘れていませんか? という話。

ただ、このスライド、作成途中でPCがロックしてしまい(bitlockerがlockoutしたんだけど原因不明)、そのままgoogle driveにbackupしてあったものを出してるだけなので、ところどころ微妙です。まあいいけど。

発表時は他の方のPCとか、しっぽ借りてiPadとか使ってのりきった。その節はありがとうございました m(_)m > まつもとりーさん、すりー先生

2017年まとめ

総括

子供が5ヶ月〜17ヶ月の期間なので、それだけ変化が激しい時期でもあります。子供の変化に対応していくだけでせいいっぱいでした。その上後半になるにつれ仕事もばたばたしてしまい。最近は「お仕事があるのは人生の喜び!」と前職で培った社畜力と高度雑用人材(サラリーマン)としての雑用力を遺憾ながら如何なく発揮しております。

続きを読む

「AI」のいくつかの側面

そのうちちゃんと書きたいこと。

AIネットワークなんちゃら、を代表するような、AIを論じてる人達のAI論に混乱を感じることが多々存在する。彼らがAIに対して理解している側面には以下の3つの側面があるのではないか(仮説)。以下、論旨をクリアにするため、あえて*1ソフトウェアという用語を使う。

1. ソフトウェアが「学習可能である」側面
2. ソフトウェアが「統計的動作である」側面
3. ソフトウェアが「相互に接続されている」側面

1については、学習可能なソフトウェアと学習しないソフトウェアとが存在しうる。例えば深層学習を用いた自動運転にしても、一般には学習済みモデルを展開するだけで、路上での出来事を学習することはないだろう*2。一方、パーソナルサポートエージェントは、ユーザの好みを学習できないといけない。学習する、ということ自体はamazonのレコメンデーションエンジンでもやっているので、その延長線上にあると思えば理解しやすいだろう。

2については、ソフトウェアの挙動が非線形で予測が難しいという点と直結する。一般にソフトウェアは*3入力Xに対して確定的に出力Yが得られるものと信じられている。そして、そこに至るステップは全て追跡可能だと信じられている。ただし、深層学習だろうと何だろうとソフトウェアであることはかわらず、複雑になれば追跡が困難になるのは古典的なソフトウェアといえど同じだ。一体何人のWindowsユーザがWindowsカーネルの挙動を予測可能だろうか? 突然CPUを全部使ってしまったり、Blue Screenで止まったりする挙動があったとして、Windowsカーネルは人間が作った古典的ソフトウェアだからこれらは完璧に予測可能である、と信じているソフトウェア技術者は一人もいないだろう。

3については「AIネットワーク」なる概念固有のものなのだが、AIが相互に通信をすることで相互強化を行うという話らしい*4。しかし、現時点で、通信相手を完全に自律的に発見して通信を行うプログラムや、それを作る方法は知られていない*5。むしろ相互接続されたソフトウェアシステムという意味では、AIとみなせるか否かは問題の発現に関係ないのではないか。有名な事例ではFlash Crashと呼ばれる自動トレードにともなう株式市場の瞬間的な騰落などが存在し、こういった相互関係の予測が困難である、という意味において現実的な問題である。

土井は、「AI(という特性を備えるソフトウェア)は全く脅威にあたらない」という立場に立つつもりはない。検討が必要な脅威は確かに存在する。だが、国内で声のおおきい人々の雑な議論にはそろそろうんざりしている。

*1:ソフトウェアでない「AI」については論点にないとして

*2:学習には重みの更新という高負荷処理が必要であるため -- もしかしたら充電中などにログからヒヤリハットだけ学習する、とかはできるかもしれない。

*3:宇宙線によるメモリ化けなどの特殊な場合を除いて

*4:正直よくわかっていない

*5:いわゆるP2Pネットワークがそれにあたる、という意見もあるかもしれないが、P2Pネットワークは一定のルールに従って構造をトラバースしているだけであり、ルールやAPIの発見の観点からは完全に人間が設計した範囲であり、この文脈においては自律的とはいえない。

一方的に書かれるのも気に入らないな

http://www.nikkei.com/article/DGKKZO19876010Q7A810C1KE8000/

一部引用

有識者会議で筆者がお叱りを受けたのも、AIに対する「悪評判」を避けたいという企業の立場があるからであろう。しかしもし将来、本当にAIが暴走したならば、大衆の懸念を無視した立場について企業は、どのような「謝罪」を述べればゆるされるであろうか。「まさかそんな事態になるとは思わなかった」といった「言い訳」に、大衆やマスコミが納得するほど甘くはないであろう。

大衆の懸念であるかどうかで検討するかしないのか決めるのが「有識者」の仕事だと思ってるのかこの人は。

区別可能なものを区別せず雑に扱うあなたの論法がデタラメだったから叩いたんですけど、まだご理解頂いていないのでしょうか? 心配だ心配だ、といって何の実効性もない主張を入れるのを阻まれたからといって、『どのような「謝罪」をのべればゆるされるのであろうか』とか恨み言をいうこの人もこの人だが、この人にこんな原稿書かせる日経も日経だよ...

安全性に関して、AIが暴走するのではなく、AIが制御した何かが暴走するのであって、それは人間が暴走させるのと本質的には大差はない(物理世界に限っては -- 金融も含めた論理世界はまた別)。このような場合『ストップボタン』をつけるべきは「AI」じゃなくて手足(システム)のほうだということをようやく改訂版のガイドラインでも書いてもらえたと思ったのに、この人あいかわらずこんなこと言ってるんですか、進歩ない人だなぁ。自分がこれを言った、という功績を作ってポジション確保したいだけなんじゃないかと、氏のページとか見てても思います。

とかくこの人があの場で必要以上の発言権を持っている限り、総務省主導のAI政策に信用が置けない、という判断は据え置きで。

あ、個人の意見です。

人工知能と黒魔術

AI、あるいは人工知能ということばには、まるで魔法のようでどこかしら夢がありますよね。最近気がついたのですが、もしかしたらその「夢を見せる力」が、人の認知能力を鈍化させていて、人工知能に関する議論が迷走するのではないかと、最近思っています。あるいは、平均程度に知的(雑な表現)であれば、誰でも人工知能について語れると思うのでしょうか。関係あるかないかはわかりませんが、教育問題について教育の専門家でもない人が口をはさみたがる問題と似ている気がします。大人であれば教育された経験はあるし、大人であれば平均程度には知的である。だが、教育の本質について語るには平均的な経験ではまったく専門性が不十分ですし、人工知能の本質について語るには、平均的な知的レベルでは不十分なのではないかと、思っています。

例えばこんなニュースがありました。

http://www3.nhk.or.jp/news/html/20170620/k10011023981000.html

そして、国の研究機関を中心に開発を進めている日本語の音声対話システムを民間企業に公開し、対話の内容などのデータをできるだけ多く集めて、システムを高度化する仕組みが必要だと提言しています。

また、現在の音声対話システムは、商品の注文など事前に答えを用意できる内容にとどまっていることを指摘したうえで、どんな質問にも回答でき、利用者に追加の提案ができる世界最先端のシステムを開発すべきだとしています。

これは、音声対話システムが海のむこうで大流行しているので、日本でも独自のものを作ろうという話でしょうか。どうも総務省の情報通信審議会技術戦略委員会、あるいは次世代人工知能社会実装WG*1じゃないかという話なのですが、役所のタテマエでこういう話になってしまうのか、本気でこういうことを考えているのかはよくわかりません。目標として持つこと自体は大切だと思うのですが、せめて政府の委員会にはある程度戦略を持っていただきたいなと思うのです。先日の総務省AIネットワーク社会推進会議にしてもそうなのですが、話を聞いても戦略が見えないのですよね。全ての不都合を「AI」という言葉の特異点の中にとじこめて理解を進めないことを良しとする、失礼ながらそんな雰囲気を感じてしまいます。そんな中「行政リテラシー」と言われても、ねぇ。

すみません、少し話がそれました。

ところで、先日土井も微力ながらお手伝いしていたポナンザの山本一成さんが興味深いことをおっしゃってました。

「人工知能と黒魔術」(視点・論点) | 視点・論点 | 解説アーカイブス | NHK 解説委員室

私たちが普段の教育で触れる科学は、
基本的に還元主義という考え方でできています。還元主義は「物事を分解し、細部の構造を理解していけば、全体を理解できる」という考え方です。
科学者でなくても、この考え方に賛同する方は多いと思います。
たとえばあなたが時計というものを完全に理解しなければならないとしたら、まずすべての部品を分解して、歯車やゼンマイのしくみを知り、それぞれの動作を把握するはずです。
そして今度はそれらの部品を再度組み立てます。そうした作業をへて、時計という機構は理解できるようになるのです。熟練の時計職人であれば、時計がどのようなしくみで動き、どうすれば性能を上げることができるのかを明確に説明することもできるでしょう。
しかし知能を理解するには、この還元主義的な考えではうまくいきません。

(中略)

別分野の科学者にそうした状況を解説したところ、「人工知能は科学ではない」と言われたことがあります。もちろん、その人は人工知能のことを批判する意味で言ったわけではありません。要素を切り分けて個別に理解していくという、還元主義という伝統的な科学の思想とは相容れないことを指摘したのです。結局、知能というのは隠された方程式があって、それを解き明かすのではなく、どこまで行ってもモヤモヤしたよくわからないものであることを受け入れるしかない。それが今の人工知能の研究者たち・エンジニア達の実感なのです。

まったくもっとてさすが山本さん、という話なのです。実は現時点では「人工知能」あるいはそれを構成する各種機械学習技術は、高度化すればするほど、「なぜこのように動くのか?」が「仮説」の域を出ないようです。特に深層学習についてはパラメータ数が数百万以上にも及ぶ*2ものもあるので、これを解析的に説明するなどということは人間の能力の範囲外でしょう。定性的な分析についてはLinの仮説*3などがもっともらしい仮説として知られています。

こういった「技術」を前にして、「黒魔術」的なイメージを持つのはまったくもっって正しくて、土井も(PFNの)松元さんが構築するニューラルネットワークの見事さには魔法でも見るかのような気分になってしまいます。説明聞いてもなぜそうなのかよくわからないですし、直観的な部分もおおいように思います。

いきなり話が飛びますが、深層学習、あるいは人工知能がどのように働くかを理解することは、限定的、あるいは一般的な意味での「ものごとの理解」に対する研究に対応すると考えています。研究の対象が実体がなく、「理解するということ」そのものなので、科学としてメタな部分が出てしまい「黒魔術」になってしまう。そして「ものごとの理解」を理解するための認知プロセスは、我々が一般に生活している時に要求される認知プロセスととてもよく似ているため、一見誰でも議論できるような気がしてしまう。その結果、議論の本質に近づけば近づくほど一般人の議論が本質からずれてしまい、その矛盾が「AI」ということばに凝縮されているのが今の議論なんじゃないかなぁ、とか。

うーん、なんかうまくことばになりませんね。困った。

社会全般として、ここから先に進むために2つの考え方があるのではないかと思っています。

1つは、きちんとメタ認知を鍛えて、「ものごとの理解」に対する議論ができるだけの基礎体力作りを行うこと。もう1つはもっと単純に「使えればいいでしょ」と割り切って黒魔術だと思って使うこと。どちらのアプローチも排他的ではありませんが、社会としてかけるべきコストの方向性が変わるんじゃないかなと思います。1つめは単純に教育のコストが高いですし、2つめのアプローチは「認証」あるいは「検証」が重要になります。「黒魔術」(より正しくは「錬金術」)の一部が検証にたえて「化学」になったように、「深層学習」「人工知能」も検証のプロセスを経由して新しい「学習に関するメタサイエンス」を生み出すのではないか、という論もあるようです。

いずれにせよ、「AI」という魔法の言葉に困難を全て押し込めて議論した気になって、そんな議論をもとに政策を進めようとするのは、勘弁して頂きたいものです。

*1:総務省|情報通信審議会|次世代人工知能社会実装WG

*2:Resnet-152で6千万パラメータぐらい?

*3:世界は本質的には低次で局所性がありマルコフであるからであるとする仮説。詳細は http://ibisml.org/archive/ibis2016/ibis2016okanohara_wo_video.pdf (pdf) あたりを見てください。

AI脅威論 vs. AI道具論

4/26の日経に「憲法学のフロンティア(上)AIのリスクに対応急げ」という記事が掲載されています。また、これとは別に「AI社会は信用できるか」という記事も同日掲載されています。日経は以前から総務省の「AIネットワーク社会推進フォーラム」のシンポジウムを後援したり、AIの社会リスクに対して敏感な立場ではあったのですが、明確にリスクに対して警鐘を鳴らす方針なのでしょうか。

さて、山本教授の記事について、土井なりの私見をまとめてみます。山本教授の記事は、土井の理解では「AIにより個人の尊重という原理が脅かされる可能性がある。具体的には(1)社会的排除 (2)自己決定原理の揺らぎ (3)民主主義原理の揺らぎ の3点の課題がある」と述べています。

先に結論を書くと、これらはAIの課題ではなく情報化一般の課題であり、AIという道具に対する警鐘というよりはそれを使う人間に対する問題提起(自己情報コントロール権も含め)の形を取るべきである、というのが土井の主張です。また、感想としては、「人間より機械のほうがよほどマシだよなぁ」という偏った感想を持っていますが、そこについてはまた機会があれば別途。

(1)の社会的排除、という話は、古くは米国ではクレジットヒストリーの問題として顕在化していた問題が大きくなるのではないか、という議論だと思います。中国ではアリペイが管理しているクレジットスコアがシンガポールのビザ申請で活用される、などという話もあるようです(http://www.chinesepayment.com/2015/06/blog-post_15.html)。逆方向にいけば「社会的排除」の議論になるでしょう。この領域において、統計処理とAI(と呼ばれている機械学習技術)の差はあまりおおきなものでなく、せいぜいどのヒストリーにどの程度の重みを置くか、という部分が変化するぐらいだと理解しています。そう考えると、道具が変化したことによる現状からの質的な変化は存在しないと言えます。言い換えると、現状でもその問題は既に存在するということです。その前提に立つと、道具の議論ではなく、個々人が受ける差別的な扱いをどのレベルで抑え込むか、という議論しか存在しないのではないでしょうか。

また、文中でシカゴ市警察の事例が述べられています。ちょっと種本を失念してしまったのですが、シカゴ市警察は統計を犯罪予測に取り入れる先進的な試みが行われたのですが、その試みにより如実に犯罪発生数が減少したと記憶しています。プライバシーが確保されていて犯罪が多く発生する社会と、公共の場でのプライバシーが制約されても犯罪が発生しづらい社会と、どちらかを選ぶのは学者でも技術者でもなく、その市民だと思います。その観点でも、犯罪に誘引されやすい市民をどのようにコミュニティに取り込んでいくか、そのためのツールとしての情報システムの活用、といった観点をこそ考慮すべきであると考えています。繰り返しになりますが、そういった手続き (法執行手続き含む) の中でどのように差別的扱いを防ぐのか、という議論をすべきではないでしょうか。

どうでもいいですが、個人的にはクレジットヒストリーや電子通貨の議論をふまえて書かれたSF「アンダーグラウンド・マーケット」(藤井太洋著) が大好きな作品の一つで、電子通貨の話をするのであれば必読だと思っています。おススメです。

(2)自己決定権や(3)民主主義の揺らぎについて、個別の論点は非常にうなづけるのですが、これを「AI」というあいまいな概念にひもづける議論は雑な印象を受けます。そうでなくてもドラゴンズファンは中日新聞を読みますし、巨人ファンは読売でしょう。巨人ファンに対する読売新聞社の思想誘導が行われている! などとは誰も言いません。ヒトは一般には快適な情報を好むものですし、その結果集団極性化が発生しやすい。SNSのようなツールがこれを先鋭化したとして、そのこと自体に問題を提起するのはある意味パターナリズムと言えるでしょう。一方、ニュースの選別やタイミング制御などによる人の自己決定権の揺らぎに関して、問題がある場合もあるとは思いますが、結局のところ、道具をどう使うかという程度問題であると思っていますし、特に民主主義については、「ならばテレビや新聞を含めるメディアは個人の意思決定に作用していないのか?」という反問が思いうかびます。パーソナライゼーションが課題であれば、さいわいなことに情報技術の世界ではいつでも自分の識別子(クッキー等)を捨てる機会があります。人と人との対面の会話ではそういうわけにはいきませんが。

この記事中では内心のプライバシー権についても触れられています。「企業が今やプロファイリング技術により、顧客のプライバシー領域に自由にアクセスしうる」というセンセーショナルな書きぶりが気になりました。機械に心を覗かれるようで気持ち悪いというのは心情的には理解できなくもないですが、そこで行われているのは「予測」であり、別に自由にアクセスしているわけではないです。もちろんEUのデータ保護規制でプロファイリングについて制御権を持たせる、等の議論があるのは承知していますしそういった方向性の議論があること自体は良いと思いますが、その前提とする記述でこういった雑な書き方されてしまうと、なんとも特定の方向へ読者を誘導したいという下心のようなものが透けて見えてしまって気持ちが悪いです(もちろん、ほんとうにこういうふうに理解している可能性もあるのですが -- それはそれで頭が痛い)。

この記事に限らないですが、AI脅威論の立場とAI道具論の立場の間の溝はなんとかしないといけないと思っています。AI道具論の立場に立つと、やっぱり怖いのはそれを使う人間の悪意なんですけどね。