3章:自由――ビッグデータがあなたを見守っている

 

 自由とは何か。「言論の自由」は、人間の自由の中でもトップにランクされている。全ての力は、人間の自由意思によって作られると信じている人は多い。また民主主義は、有権者が「自由な判断」を用い、何が良いか、何が悪いかを決めることを前提にしている。経済の自由は、「顧客」の動向が常に正しいということ。「リベラル」な政治とは、本来は「保守」の対義語のはずだが、今では保守党の議員の多くがリベラルである。「王に従うより選挙で選ばれた議会に従いたい」、「カーストに従うより自分で職業を選びたい」、「親の決めた相手ではなく愛する人と結婚したい」これらを望む人々は、みな自由主義者、リベラルな人と呼ばれている。

 マーガレット・サッチャーとロナルド・レーガンは、保守的な政治家の代表である。サッチャーはこんなことを言っている。

「社会など存在しない。個人としての男性と女性がいるだけだ。人生の質は、個人がどれだけ自分のことに責任を持つかにかかっている。」

サッチャーの保守主義の根底、それは、政治的な力は、有権者の「感情」によって決まると言うことなのだ。英国のデイヴィッド・キャメロン首相は、国民のEU離脱に対する「感情」を尋ねるために国民投票を実施した。それは「EU離脱に対してどう思いますか」、つまり「どう感じますか」という問いであり、「合理性」が問われたのではない。あくまで「感情」が問われたのである。有権者は、十分な経済的、政治的背景を知らない。もし「合理性」に基づく判断が求められるなら、全員に聞く必要はない。つまり、国民投票は、飛行機の乗客に、どこに着陸するかを決めさせるようなものだった。

 民主主義は、人間の感情は「信用に足る物」、「自由意思の表れ」であるという前提に立っている。文字の読めない使用人も、学者も、同じレベルの自由意思を持っているという前提。しかし、感情に左右されるのは有権者だけではない。政治家も然り。英国のEU離脱の後、マイケル・ゴーヴは、それまで一緒に離脱運動を進めたボリス・ジョンソンに対抗する形で保守党首選に立候補した。

「自分の心の命じるままに行動した。」

とゴーヴはその動機を述べている。「心を信じる」、「感情によって行動する」ということは民主主義のアキレス腱とも言える。もし、その「心」、「感情」をハッキングできれば、世界を思いのままの方向へ導くことが出来るからだ。

「自由な感情」、「自由な決断」への信仰は、それほど昔からあったわけではない。長い間、人々は神の意志に従い、神の意思を尊重してきた。近世になって「神」から「人間」への移行が行われた。そして、今や「人間」から「アルゴリズム」への移行が予定されている。ビッグデータとアルゴリズムによる革命が人類を待ち受けている。

 では、「感情」とは何だろう。それは、「自由意思」から来るわけではない。生存と生殖のための確率計算の結果である。感情は生化学的なメカニズムに過ぎない。そして、他の動物にも存在する。ネズミが蛇を見たとき、脳が死の確率を計算する。それが恐怖の感情である。素敵な異性を見たとき、その人と子孫を残せる確立を計算する。それが愛情である。モラルにしても、共同作業を成功に導く確率計算の結果に過ぎない。その確率計算は、何世代にも渡って徐々に精度を高められてきた。それだけに、ある面では合理的であると言える。人々は、意識下で、その確率計算がなされていることに気づいていない。そして、それを「自由意思」と思い誤っている。「感情に従うこと」は、何世代に渡って精度を上げられた確率計算に従うことであり、その意味では、結論を下す上で、最も良い方法かもしれない。また、他人にはそれが見えない。従って、感情を「自由意思」とまでは言えないが、それを「自分だけの意思」と呼ぶことは、あながち間違えとも言えない。

 しかし、コンピューターが、自己の確率計算より、より精度の高い確率計算をやり始めたらどうなるだろうか。まず、バイオテクノロジーが人間の感情を解析する。それをコンピューターが実行する。それが完成すれば、ビッグデータが人間を見張り、決定を下す時代が来る。人間の「自由意思」などという幻想は敗れ去る。医療の世界では、既にそれが始まっている。これまで蓄積された膨大なデータを使って、病気が表面化する前に発見できるようになりつつある。それにより、病気の初期の段階での治療が可能になった。しかし、それが進むと、人間は「常に病気」ということになるかも知れない。誰も、探せばどこかに悪い所はあるものだ。もし、アルゴリズムが、異常に対する警告を送り続けたらどうなるだろう。人はそれを無視し始めるかもしれない。その場合、強制的に治療を受けないと、保険金が支払われないなどということも起こるだろう。

 「バイオセンサー」と呼ばれる体内の動きを監視するコンピューターを駆使すると、いずれ、人間が決定を下す過程も、解析されるかも知れない。そもそも、人間は自分について余りよく知らない。例えば私だが、自分が同性愛者だと確信するのに、何年もの時間がかかった。二〇五〇年には、AIが性的傾向を判断してくれるだろう。そして、それが分かってしまえば、隠すことは難しくなるだろう。

 コンピューターは、個人の消費の傾向も分析する。中には、よりよいリコメンドを得るために、自分から消費傾向を明らかにする人もいるかも知れない。そして、一部の人は、最終的な決断をアルゴリズムに委ねてしまう。例えば、数人がパーティーの後で、映画を見ることになった。誰も、好みが違うので、どの映画を見ればよいのか、選ぶのが難しい。そんなときは、アルゴリズムに推薦させれば、皆が気に入る映画が見られる確率が高くなる。

 また、より積極的に、アルゴリズムに自分の好みを分析させることも出来る。テレビに特殊なカメラを設置し、見ている者の反応を観察させる。どこで消したかだけでなく、目や筋肉の動きにより感情も観察させる。また、血圧、脈拍などにより、本人の気づかない反応も観察させる。もともと「テレヴィジョン」とは「遠くを見る」ことである。しかし、そのことは取りも直さず、「遠くから見られる」ということにも通じる。

 そのうち、「結婚」や「就職」などの、重大な決断にも、AIが関わってくるかも知れない。その際、AIが誤った判断を下すこともあるだろう。それでもいい、その判断は、完璧である必要はない。人間も間違いを起こす。AIは、平均的な人間より、わずかに優れていればいいのである。わずかなエラーでAI全体を否定することは、その欠点を持って民主主義全体を否定するようなものである。チャーチルは、

「民主主義は、他の制度を別にすれば、最悪の制度である。」

と言っているように。そして、AIは学んで賢くなる。人間が決断を下す過程が分かれば分かるほど、AIの精度は上がり、AIに対する信用度も上がることになる。もし、人間が決断を下すプロセスが完全に解読されれば、政府や企業は、人々を完全にコントロールできることになる。

 AIが力を持つにつれ、人間は決断力を失っていく。物を買うとき、人々は、グーグルによる選択を信用するようになる。「『真実』は、グーグルの上位にある」という冗談もある。決断力とともに、方向感覚も失っていく。グーグルマップのナビを信じて、オーストラリアで海に落ちてしまった日本人旅行者がいた。それくらいなら笑い話で住むが、仕事や結婚相手探しについても、盲目的にAIに従う人が出てくるだろう。毎年、多くの若者が大学で何を勉強しようかを決める。彼らは色々な人に相談するが、皆言うことが違う。自分の長所、短所も自分では分からないことが多い。子供の頃からの夢はあるが、自分は本当にその仕事に向いているのだろうか。AIなら、よりよい選択、決断ができるかも知れない。

 民主主義の前提は、「個人は自立した決定の担い手である」ということである。もし、ネットフリックスに映画を選ばせるように、グーグルマップに行き先を任すように、全ての決定をAIに委ねてしまったら・・・民主的な選挙や、市場経済は意味を持たなくなる。ドラマは、主人公がどのような決断を下すかが面白いのであって、主人公がAIに決断を任せれば、ドラマを見る気すらなくなってしまう。世界そのものが、人間が、個人が活躍する舞台ではなくなってしまう。AIが全てを決める時代になれば、世界はビッグデータの総体に過ぎなくなる。今でも多すぎるデータの海に溺れつつある人間には、その世界に入り込む余地がなくなる。

 「人間は、『倫理』、『モラル』によって判断を下している。AIは、『倫理』、『モラル』などは理解できないので、正しい判断が下せるわけがない。」

と言う人がいる。しかし、自動運転において、AIは既にこの問題に取り組んでいる。

「子供が車の前に飛び出してきた。それを避けるためには、対向車線に出るしかない。しかし、そこには向こうからトラックが来ている。衝突した場合、乗客が死亡する確率は七十パーセントである。」

これに似た問題は、既に千年以上もの間、哲学者によって議論されている。しかし、この問題が、今ほど真剣に議論された時代はない。 

 プリンストン大学の神学科の学生に次のような実験がなされた。学生たちは、「善きサマリア人」の授業のために、「遅れずに」教室に集まるように指示された。学生たちが教室のある建物に入ろうとすると、ひとりの浮浪者が入り口で苦しんでいた。しかし、学生たちはその浮浪者を無視して、建物に入った。そもそも、「善きサマリア人」のエピソードは、路傍で苦しんでいるひとりのユダヤ人を、他のユダヤ人が皆が無視した中で、ひとりのサマリア人だけがそのユダヤ人を助けたというもの。学生はそのことが頭にあるはずなのに、困っている人間を助けなかった。つまり、感情的なストレスが、道徳心、モラルに勝ったのだ。このことから、人間の感情は、モラルの上を行くものであることが分かる。「自分の感情のためには、他人を構っていられない」、そのように考える人間がこれまで生き延びてきて、それが人間の本能になったのである。現在、百万人以上の人々が、モラルに欠けたドライバーに殺されているが、それが人間の本能であるならば、そのドライバーたちにモラルを説いても、無駄かも知れない。しかも、それらのモラルによる判断は、瞬時にされなければならないのである。

 アルゴリズムには、その「道徳心」、「モラル」もプログラミングされなければいけない。哲学的なアルゴリズムに完璧なものはありえない。また、実際事故が起こった時、その哲学を罪に問えるのかという問題もある。しかし、自動運転のアルゴリズムは完璧である必要はない。人間より少しだけよければ、それだけで事故は大幅に減る。運転だけではない。採用の際の決定も、AIにやらせれば、黒人や女性への差別も大幅に減るであろう。多くのマネージャーは、差別はいけないと知っていても、実際は無意識に黒人や女性の採用を避けるという傾向はあると思われる。

AIは、運転手や交通警察官など、多くの人々に失業をもたらすが、その分「哲学者」の需要が増えるかもしれない。先に述べた、「事故に遭遇した時、自分が、他人か、どちらを助けるか」という問題に対して、色々な自動車メーカーがそれぞれの「哲学」を必要とするだろう。あるメーカーは「利他主義」(他人のために自分を犠牲にする)、また、あるメーカーは「利己主義」(自分のために他人を犠牲にする)と選択するということになるかもしれない。それによって、車を買う人はメーカーを選ぶことになるだろう。あるいは、車を購入したときに、ユーザーがそれを選べるというシステムになるかも知れない。また、政府がそれに介入してくる可能性もある。しかし、余り厳しく指定し過ぎると、車を買う人が少なくなるだろう。少し曖昧さが残る形で決着すると考えられる。

AIはいつまでも、大人しく人間に従うだろうか。映画では、人間に反逆するロボットが描かれている。しかし、本当に恐ろしいのは、「人間にどこまでも従うロボット」である。ロボットの主人が良い人間の場合は問題ない。しかし、もし、悪い人間であったならどうなるか。戦争の際、人間は理性を失う。そして、恐怖から残虐な行為に走ってしまう。そのようなケースは「戦争ロボット」であれば避けられる。しかし、人間が極めて残虐な命令を発した場合はどうだろうか。人間ではそこに躊躇が生まれ、その命令が実行されない可能性がある。しかし、「戦争ロボット」においては、それらが忠実に実行されてしまう。自動車だと、まだそれほどでもないが、武器だと、使う者、政府のモラルが大きな問題となってくる。

また、監視カメラ、それで集められたデータ解析においても、それを所有する政府などのモラルが大きな問題となる。ジョージ・オーウェルの小説では、政府が人民を監視している。その精度がどんどん高くなって、人間の内面まで監視できるようになったらどうなるか。もし、考えていることも分かるようになったら。北朝鮮の独裁者が、自分に反感を抱く人々を次々に捕らえ、収容所に送り込むという事態になるだろう。幸い北朝鮮には現在その技術はないが、どこかからかコピーしてきたり、誰かが売りつけたりするという可能性もある。イスラエルが占領地に監視カメラを多数設置し、パレスチナ人の一挙一動を監視するということは、現在既に行われている。二〇一七年、SNSに「おはよう」と投稿したパレスチナ人がいたが、そのメッセージが翻訳ソフトにより誤って「彼らを殺せ」と訳され、即座に逮捕された事件があった。イスラエルはSNSの投稿をも、常に監視していたのである。

二十世紀後半、民主主義政治が独裁政治に勝った。これは、民主主義の方が、素早くデータを処理し、よりよく決断できたという側面もある。独裁政治では、情報を一度一か所に集め、一か所で決断を下すことになる。これには時間が掛かる。ソ連がアメリカに遅れを取った理由はまさにここにあると言える。AIは情報を出来るだけ集中させようとする。その方が処理しやすいからである。そして、AIは人間とは違い、極めて高速でデータを処理し、決断を下すことができる。もし、国家が、国民すべてのDNA情報を所有したどうなるだろうか。確かに新薬の開発などはやり易くなるかも知れない。しかし、国家が全ての国民のデータを集めたら、国家に対する反抗は困難になる。国家は、自分に敵対する者、あるいはその可能性のある者を、容易に見つけることができるからである。そうなると、民主主義の利点は消えてしまい、国家の「デジタル独裁」が始まる。この結果、世界は、ヒトラー時代や、スターリン時代のようになるのだろうか。この「デジタル独裁」は過去の独裁とは別のものになるはずである。そして、現在の民主主義は、その「デジタル独裁」に適応することができるであろうか。

AIによるデータ収集、AIによる判断は、既に金融機関の信用調査などで行われている。その判断は、ある意味、人間の判断より信頼できるかも知れない。しかし、その判断を人間が変えることができないという問題が発生する。人間の判断なら抗議できるが、アルゴリズムは膨大なデータを集めた上で判断しているのであるから、

「あなたがあなたであるがゆえに、ダメなのです。これはあくまであなたの問題です。」

と言うことになってしまう。政府にしろ、企業にしろ、コンピューターをトップに就けることはないと思うが、為政者や経営者の多くが、コンピューターの下した判断に従うことは増えるだろう。コンピューターがメニューを作り、政治家、経済学者、銀行などは、そのメニューの中から政策を選ぶということになるだろう。少なくとも、ここ数十年間は、AIが人間を奴隷化したり、絶滅させたりするようなシナリオはないであろう。AIが作ったシナリオを、人間が選ぶというところに留まると思われる。

 SFは「知能」と「意識」をごっちゃにしていることが多い。AIに、「知能」はあっても「意識」はない。SFでAIが意識を持ち、人間を支配するというストーリーが多いが、現在のところAIは意識を持っていない。「知能」とは「問題を解決する能力」であり、「意識」とは喜び、悲しみなどを感じる能力である。人間はその両方を持っている。感情がなくても、問題は解決できる。しかし、AIには意識はないが、人間の感情を分析することはできる。その際、AIの感情は必要ではない。しかし、AIが未来永劫、「意識」を持たないとは言い切れない。その際、三つの考え方がある。

@    有機物のみが意識を持つことができる。

A    無機物も意識を持つことができる。

B    意識は、有機物に関する生化学とは別のレベルにある。意識は有機物/無機物の区別とは全く別のところで存在する。

人間の「意識」に関して、不明なことが多すぎ、それをコンピューターに移植することは、現在のところ不可能である。今後、コンピューター技術の発達とともに、「意識とは何か」という研究が必要になってくるだろう。コンピューターに、感情を利用されないためにも、その研究は大切になるだろう。その研究により、人類に対する長期的な展望も、生まれてくると考えられる。「データをいかに処理するのか、それだけが重要で、人間性には興味がない」ということは、「Eメールに答えることが重要で、その時の内容には興味がない」というのと同じだ。

「デジタルの独裁」は、民主主義の根幹である「平等」も脅かすことになる。これまで、一部のエリートが力を握り、多くの人が虐げられてきたいように。次章では、「デジタル化による平等の危機」について述べてみたい。

 

<次へ> <戻る>