2019年10月08日 に初出の投稿

Last modified: 2019-10-08 17:34:26

AI に関する冷静な、しかし基本的に他人事の下らない観測記録みたいな文章から、かなりエキセントリックな規制論議、あるいは対極にあるような国家予算の要求議論まで、この10年くらいをかけて論点は既に色々と出揃った感がある。もちろん、こうした趨勢にだけは耳聡い日本の哲学プロパーも、そろそろ何か成果を出してゆく段階に来ていることくらいはご承知の筈であろう。願うなら、都内の IT ベンチャーなどで implementation first を叫びつつ、自分の会社が国家的な贈収賄に巻き込まれていようと知ったことかという小僧のプログラマを相手に論じるていどの気概は欲しいところだが、さて現今の若手研究者はどこを向いて仕事をするのだろうか。しょせんは東大のお勉強好きな学部生か、それともアウトリーチとは言ってもセミナーやイベントに集まってくる哲学好きの暇人か。

当サイトの落書き(Notes)をご覧であれば何も屋上屋を重ねる必要はないと思うが、僕は「技術的特異点」の話を単に信じていない。そして、これは実のところコンピュータ・サイエンスに関する理論や技術の話ではなく、信念あるいは信仰の話なのである。なぜなら、非常に単純なことだが、もし人の知性を越えた何らかのアルゴリズムで動作するプログラムなり機器という言葉が意味をもつとしても、それを概念として定式化することは、それこそ人の知性では(定義により)不可能であって、論述不能だからである。したがって、そのようなアルゴリズムが数学的にどういう特性をもつかを正確かつ厳密に議論することはできず、現状において否定であれ肯定であれ論議している人々は、単に言葉の意味にまつわる色々な観念を人それぞれに組み合わせてこしらえた《私のシンギュラリティ》を語っているにすぎない。

そのうえで言うと、僕は現行の常識を上回るような性能のコンピュータが実現することを期待しているし、十分に手持ちの数学や工学という理屈の範囲で定式化したり語ることは可能だと思うし、それらがこれからも人類の知見として進展するのは望ましいと思う。そして、ラッダイトを除けば、この程度のことを否定したり悲観するような人は哲学者であろうと大していまい。もちろん、その応用として破壊的な実験をしていいかとか、環境や人命に大きな障害となるかもしれない技術なり機器なりを開発していいかどうかは別の話である。いくら核兵器が人類にとって危険だからといって、核兵器を作るのに貢献したコンピュータまで開発したり理論化されるべきではなかったなどと言える人はいない。寧ろ、そのような未来の応用可能性が分からないような次元の理論だからこそ、後でどうなるかは科学者以外のわれわれが責任を引き受けなくてはいけないのである。

コンピュータが、環境や資源を爆発的に汚染したり浪費することなく着実に性能を上げていくのであれば、これを否定したり拒絶する理屈などなかろう。AI の脅威を唱える人々は、まずソフトウェアとハードウェアを混同しているし、その AI が危険かどうかは、少なくとも人類が動作原理を吟味できる次元の話であれば、仕様書だけで判断できる。何らかのルーチンの途中で、特に必要もなく無限に変数を累乗しはじめるような処理が混入しているのであれば、そこでデザインに間違いがあろうと指摘するていどの能力は人にある。こういう場合に、バタフライ効果やライフ・ゲームのような事例を取り出して、ヒトには分からない些細な違いではあっても予測不能な(それは原理的に予測できないというよりも、仕様書を吟味する時点で予測のためのシミュレーションを走らせる時間的な余裕はないということだ)結果が出てくる可能性を《言う》ことはできる。しかし、それはそのような可能性を《言っている》当人にとっても予測できない結果なのである。そういう場合には、もちろん結果の分からない入力から大きなインパクトを与えるような出力へと接続しないという、リスク・マネジメントという知恵がある。コンピュータがどういう結果(たとえば或る人に最適な抗癌剤の組み合わせとか)を引き出すか分からないなら、その結果が抗癌剤の選択に直結しなければいいのであって、実際の医療でもそうなっている筈だ。モニターに出力された処方箋のとおりに(皮肉にも《機械的に》)抗癌剤を投与するような医療設備など存在しない。

  1. もっと新しいノート <<
  2. >> もっと古いノート

冒頭に戻る


※ 以下の SNS 共有ボタンは JavaScript を使っておらず、ボタンを押すまでは SNS サイトと全く通信しません。

Twitter Facebook